Mitar je napisal:
Če si le predstavljam, da bi imel otroka, ki v življenju ne bi poznal
drugega kot bolečino in bi preklinjal vsak trenutek svojega obstoja -
in če bi pred njegovim rojstvom vedel, kakšno bo njegovo življenje,
se mi zdi nadaljevanje z dejavnostjo, ki vodi do njegovega rojstva,
vsega obsojanja vredno. Bolje bi bilo, če ne bi nikoli obstajal.

Ampak ali si res lahko ti tisti, ki o tem odloca? A ne bi bilo
pravilneje (tako kot ti rad delas, torej v nesigurnosti izberes bolj
sigurno varianto) pustiti otroka, da se sam odloci? Vedno lahko naredi
samomor.

Nedvomno je tole precej tricky etično vprašanje, pri katerem pa moja pozicija ni prelaganje odločitve na otroka (v splošnejšem pomenu besede, pod katero je zajet tudi AI), temveč odložitev sploh vsakega ravnanja, dokler ne bom zelo dobro razumel kaj sploh želim narediti in kakšne bodo posledice teh dejanj. Samo en možen zaplet pri tem, da bi pustil otroku naj odloči, je npr. naslednji: pri njegovem designu naredimo nekaj napak in posledično so njegovi kognitivni algoritmi nezmožni sprejemati samo-referenčne odločitve - misel o samomoru sploh nikoli ne priplava na površje, kljub temu, da je njegovo življenje pekel.

Če bi ustvaril večje št. samo-zavedajočih se AI, katerih vsakdan bi bil poln trpljenja, pa celo zgodnji samomor ne reši ničesar. Seštevek njihovih subjektivnih ur trpljenja bi bil hitro primerljiv z uničenim človeškim življenjem in moram reči, da na svoji vesti nikakor ne bi želel imeti tega, da sem nekomu prizadejal toliko gorja...

Če se ne motim, obstaja neko reklo, ki (parafrazirano) govori o tem, da moramo svojim potomcem zagotoviti 'človeka vredno življenje'. Če v svoji vednosti pripelješ na svet močno prizadetega otroka (ki nato naredi samomor ali pa tudi ne), bi te tako praktično vse etične teorije obsojale in zdi se mi, da je tako tudi prav. Pri AI pa stvari niti niso toliko drugačne - le še mnogo zapletenejše.

Potem se tudi pojavi vprasanje meje. Kje postavljamo to mejo
"trpljenja"? Pri umu? Pri telesu? Pri druzbi?

Tule priznam, da te ne razumem. Trpljenje je preprosto tisto negativno subjektivno stanje, ki ga žal ljudje še predobro poznamo, vsaj večinoma. Lahko je posledica kroničnih bolečin, družbenih odnosov ali česa drugega.

"Napacna" barva koze je
kdaj prinesla precej trpljenja, pa verjetno ga se. A je res nacin, da se
veliko oblik tega trpljenja odpravi ravno s tem, da se vztraja na
spremembah. Ce bi se crnci v casu suzenjstva odlocali tako kot ti, potem
sploh otrok ne bi imeli ali kaj?

Težko reči. Morda bi bilo bolje, če jih res ne bi imeli. Samo ne mislim polagati kaj veliko zaupanja v to trditev, ker nisem opravil potrebne analize o življenjskih razmerah otrok, o tem koliko veselja so prinesli staršem, kolikšna je sama-po-sebi vrednost njihovega obstoja itd. Skratka, mnogo zapletenih vprašanj, ki se dotikajo dokaj spornih etično-filozofskih tem...

Če se ne motim, je Greg Egan (dokaj slaven sci-fi avtor) napisal neko
krajšo zgodbo o tem, kako nek AI raziskovalec zavrne sodelovanje pri
evolucijskem AI projektu ravno iz moralnih razlogov... in že tedaj
sem se strinjal z njim.

A lahko najdes tocen naslov tega? Ta pa bi me zanimala.

Lahko. :)

Crystal Nights: http://ttapress.com/553/crystal-nights-by-greg-egan/0/4/

Ni posebej dolga in že v prvem delu govori o moralni dilemi, ki sem jo omenjal. Nekje na internetu pa obstaja tudi v audio obliki, ampak tisto boš že sam poiskal, če ti tako bolj ustreza.

Btw, ali sem (v tvojem pomenu besede) omejen, če trdim, da 100% nikoli
ne bom želel storiti samomora - če izvzamem možgansko kap ali kaj
podobnega, kar bi okvarilo mojo presojo? Sem potemtakem brez svobodne
volje?

Mislim predvsem, da se motis. Ne verjamem, da je osebnost (in s tem
taksna odlocitev) lahko sploh staticna, da bi lahko bitje bilo
inteligentno in samozavedajoce. Mislim, da je nujno, da se spreminja in
s tem tudi ne mores reci, da 100 % nikoli cesa ne bos zelel ali ne zelel.

Sicer imam v splošnem v zvezi z verjetnostmi enakimi 0 ali 1 pripombe (da jih dosežemo, potrebujemo dobesedno neskončno količino dokazov), ampak pustiva to zaenkrat ob strani...

S tem, da se osebnost inteligentnih bitij spreminja, se seveda strinjam, ampak spreminjanje ne pomeni kar kaotične trajektorije skozi širne planjave prostora vseh možnih osebnosti. Pri pogoju, da mi ne odpove kak del možganov, lahko torej z verjetnostjo 1-epsilon napovem, da se ne bom v naslednjem desetletju nikoli osebnostno prelevil v zmaja. Preprosto je to izven človeško dosegljivega prostora. Nikoli si ne bom želel jesti surove drobnice, s kožuhom in kopiti in... eh. ;) Na podoben način lahko rečem, da je izven možnih trajektorij razvoja nekega altruista želja, da bi se nekoč spremenil v množičnega morilca... vendar to nikakor ne omejuje njegove inteligence ali svobode ali česarkoli.

Ta tema drugače sploh ni tako nepomembna. Če tvoja hipoteza drži, to pomeni, da je FAI projekt obsojen na propad, ker ne bi bilo nikoli mogoče zgraditi inteligence z lastnostjo, da bo z arbitrarno visoko verjetnostjo ostala znotraj 'friendly' podprostora odločitev. Čeprav je pa tudi res, da si omenil v stavku samozavedanje, tako da bi vrata v tej smeri še vedno ostala odprta z inteligencami, ki nimajo zavesti...

Rok





Reply via email to