Mitar je napisal:
Če si le predstavljam, da bi imel otroka, ki v življenju ne bi poznal
drugega kot bolečino in bi preklinjal vsak trenutek svojega obstoja -
in če bi pred njegovim rojstvom vedel, kakšno bo njegovo življenje,
se mi zdi nadaljevanje z dejavnostjo, ki vodi do njegovega rojstva,
vsega obsojanja vredno. Bolje bi bilo, če ne bi nikoli obstajal.
Ampak ali si res lahko ti tisti, ki o tem odloca? A ne bi bilo
pravilneje (tako kot ti rad delas, torej v nesigurnosti izberes bolj
sigurno varianto) pustiti otroka, da se sam odloci? Vedno lahko naredi
samomor.
Nedvomno je tole precej tricky etično vprašanje, pri katerem pa moja
pozicija ni prelaganje odločitve na otroka (v splošnejšem pomenu besede, pod
katero je zajet tudi AI), temveč odložitev sploh vsakega ravnanja, dokler ne
bom zelo dobro razumel kaj sploh želim narediti in kakšne bodo posledice teh
dejanj. Samo en možen zaplet pri tem, da bi pustil otroku naj odloči, je
npr. naslednji: pri njegovem designu naredimo nekaj napak in posledično so
njegovi kognitivni algoritmi nezmožni sprejemati samo-referenčne odločitve -
misel o samomoru sploh nikoli ne priplava na površje, kljub temu, da je
njegovo življenje pekel.
Če bi ustvaril večje št. samo-zavedajočih se AI, katerih vsakdan bi bil poln
trpljenja, pa celo zgodnji samomor ne reši ničesar. Seštevek njihovih
subjektivnih ur trpljenja bi bil hitro primerljiv z uničenim človeškim
življenjem in moram reči, da na svoji vesti nikakor ne bi želel imeti tega,
da sem nekomu prizadejal toliko gorja...
Če se ne motim, obstaja neko reklo, ki (parafrazirano) govori o tem, da
moramo svojim potomcem zagotoviti 'človeka vredno življenje'. Če v svoji
vednosti pripelješ na svet močno prizadetega otroka (ki nato naredi samomor
ali pa tudi ne), bi te tako praktično vse etične teorije obsojale in zdi se
mi, da je tako tudi prav. Pri AI pa stvari niti niso toliko drugačne - le še
mnogo zapletenejše.
Potem se tudi pojavi vprasanje meje. Kje postavljamo to mejo
"trpljenja"? Pri umu? Pri telesu? Pri druzbi?
Tule priznam, da te ne razumem. Trpljenje je preprosto tisto negativno
subjektivno stanje, ki ga žal ljudje še predobro poznamo, vsaj večinoma.
Lahko je posledica kroničnih bolečin, družbenih odnosov ali česa drugega.
"Napacna" barva koze je
kdaj prinesla precej trpljenja, pa verjetno ga se. A je res nacin, da se
veliko oblik tega trpljenja odpravi ravno s tem, da se vztraja na
spremembah. Ce bi se crnci v casu suzenjstva odlocali tako kot ti, potem
sploh otrok ne bi imeli ali kaj?
Težko reči. Morda bi bilo bolje, če jih res ne bi imeli. Samo ne mislim
polagati kaj veliko zaupanja v to trditev, ker nisem opravil potrebne
analize o življenjskih razmerah otrok, o tem koliko veselja so prinesli
staršem, kolikšna je sama-po-sebi vrednost njihovega obstoja itd. Skratka,
mnogo zapletenih vprašanj, ki se dotikajo dokaj spornih etično-filozofskih
tem...
Če se ne motim, je Greg Egan (dokaj slaven sci-fi avtor) napisal neko
krajšo zgodbo o tem, kako nek AI raziskovalec zavrne sodelovanje pri
evolucijskem AI projektu ravno iz moralnih razlogov... in že tedaj
sem se strinjal z njim.
A lahko najdes tocen naslov tega? Ta pa bi me zanimala.
Lahko. :)
Crystal Nights: http://ttapress.com/553/crystal-nights-by-greg-egan/0/4/
Ni posebej dolga in že v prvem delu govori o moralni dilemi, ki sem jo
omenjal. Nekje na internetu pa obstaja tudi v audio obliki, ampak tisto boš
že sam poiskal, če ti tako bolj ustreza.
Btw, ali sem (v tvojem pomenu besede) omejen, če trdim, da 100% nikoli
ne bom želel storiti samomora - če izvzamem možgansko kap ali kaj
podobnega, kar bi okvarilo mojo presojo? Sem potemtakem brez svobodne
volje?
Mislim predvsem, da se motis. Ne verjamem, da je osebnost (in s tem
taksna odlocitev) lahko sploh staticna, da bi lahko bitje bilo
inteligentno in samozavedajoce. Mislim, da je nujno, da se spreminja in
s tem tudi ne mores reci, da 100 % nikoli cesa ne bos zelel ali ne zelel.
Sicer imam v splošnem v zvezi z verjetnostmi enakimi 0 ali 1 pripombe (da
jih dosežemo, potrebujemo dobesedno neskončno količino dokazov), ampak
pustiva to zaenkrat ob strani...
S tem, da se osebnost inteligentnih bitij spreminja, se seveda strinjam,
ampak spreminjanje ne pomeni kar kaotične trajektorije skozi širne planjave
prostora vseh možnih osebnosti. Pri pogoju, da mi ne odpove kak del
možganov, lahko torej z verjetnostjo 1-epsilon napovem, da se ne bom v
naslednjem desetletju nikoli osebnostno prelevil v zmaja. Preprosto je to
izven človeško dosegljivega prostora. Nikoli si ne bom želel jesti surove
drobnice, s kožuhom in kopiti in... eh. ;) Na podoben način lahko rečem, da
je izven možnih trajektorij razvoja nekega altruista želja, da bi se nekoč
spremenil v množičnega morilca... vendar to nikakor ne omejuje njegove
inteligence ali svobode ali česarkoli.
Ta tema drugače sploh ni tako nepomembna. Če tvoja hipoteza drži, to pomeni,
da je FAI projekt obsojen na propad, ker ne bi bilo nikoli mogoče zgraditi
inteligence z lastnostjo, da bo z arbitrarno visoko verjetnostjo ostala
znotraj 'friendly' podprostora odločitev. Čeprav je pa tudi res, da si
omenil v stavku samozavedanje, tako da bi vrata v tej smeri še vedno ostala
odprta z inteligencami, ki nimajo zavesti...
Rok