in občutek doživljanja, ki mu nekateri pravijo tok qualie.
Prvic slisim za to, Google pa tudi ne najde ravno?
Google je včasih zloben in moje izražanje ni vedno čisto standardno. :)
Qualia je opisana na wikipediji:
http://en.wikipedia.org/wiki/Qualia
Tok qualije bi bilo pa njeno spreminjanje skozi čas, kot ga lahko
subjektivno zaznamo. Obstajajo pa tudi drugi izrazi za opis tega aspekta
našega bivanja, npr. fenomenološka doživetja.
http://en.wikipedia.org/wiki/Consciousness#Phenomenal_and_access_consciousness
Glede na to, kako tankočuten si bil zg. do drugih bitij, se ti takšna
dejavnost ne zdi nič kaj moralno sporna? Če bi ti res uspelo ustvariti
družbo samo-zavedajočih se bitij in bi ta bitja doživljala mnogo
bolečine... ni to podobno mučenju živali?
Res je. Samo tudi v koncentracijskih taboriscih so si ljudje zeleli
vseeno ziveti in ne umreti (sklepam, ker sicer bi vsi oziroma vecina
naredili samomor in taborisc sploh ne bi bilo).
Torej mogoce celo obratno: to bi nam lahko dalo moralno dolznost, da jih
ustvarimo. Torej ce imamo na izbiro, da nova vrsta zavedajocih bitij ne
bi obstajala napram temu, da bi obstajala, ampak dozivljala mnogo
bolecine. In razmisljamo, kaj bi se mi na tem mestu odlocili? Bi zeleli
neobstajati (kot vrsta) ali vsaj obstajati. Verjetno bi dodali se upanje
na izboljsavo skozi cas nasega stanja. Ce je odgovor, da bi si zeleli
obstajati mi in s tem tudi taksno bitje (ce lahko privzamemo ta miselni
preskok, ker pac bitja se ne poznamo) ter jo mi znamo ustvariti, potem
bi lahko rekli, da imamo dolznost, da jo ustvarimo?
Moja moralna intuicija se tule razlikuje od tvoje. Če si le predstavljam, da
bi imel otroka, ki v življenju ne bi poznal drugega kot bolečino in bi
preklinjal vsak trenutek svojega obstoja - in če bi pred njegovim rojstvom
vedel, kakšno bo njegovo življenje, se mi zdi nadaljevanje z dejavnostjo, ki
vodi do njegovega rojstva, vsega obsojanja vredno. Bolje bi bilo, če ne bi
nikoli obstajal. Ko pa enkrat vstopi v naš svet, bi ga bilo bolje napeljati
k samomoru ali celo ubiti, glede na bedo njegovega življenja? Tule pa menim,
da je odg. 'ne' - bolje je, če ne prekinemo njegovega obstoja in v okviru
tega mu je treba poskušati pomagati.
Obstaja torej temeljna razlika med tem, kako ravnati v primeru, ko določena
bitja še ne obstajajo (ali povzročiti njihovo rojstvo ali raje ne), in med
tem, kaj storiti z že realnimi bitji, čeprav je končni rezultat lahko tudi
enak.
Na osnovi tega se mi zdi eksperimentiranje z umetnimi samo-zavedajočimi se
bitji čisto primerljivo z rojstvom prizadetega otroka; podoben zaključek pa
velja tudi za evolucijski, 'bloody tooth and claw', razvoj umetne
inteligence. Ni pa ta ideja zrasla na mojem zeljniku. Če se ne motim, je
Greg Egan (dokaj slaven sci-fi avtor) napisal neko krajšo zgodbo o tem, kako
nek AI raziskovalec zavrne sodelovanje pri evolucijskem AI projektu ravno iz
moralnih razlogov... in že tedaj sem se strinjal z njim.
Bojim se, da na tak način zlahka zapraviš celotno kariero in ne dosežeš
praktično ničesar.
Res je. Ampak ne bom sam. ;-)
Kot ti je najbrž jasno, to niti ni bil point.
Kot prvo, nikjer nisem rekel, da bi se FAI zavedala sebe in dejansko
želimo ustvariti takšno AI, ki ne bi imela te lastnosti.
Torej ti mislis, da taksna samoizpopolnjujoca se inteligenca ne bi prej
ali slej se zacela zavedati same sebe?
Mislim, da obstaja vsaj peščica AI designov, ki res ima to lastnost.
Vsekakor. FAI bi imela na razpolago celotno paleto dejanj - mnogo širšo
od te, ki je na voljo ljudem - vendar njeno izbiro bi omejevali njeni
cilji (podobno kot pri ljudeh), zaradi katerih ne bi najbrž nikoli
izbrala umora. Mislim, da nisem nikjer trdil drugače.
Ampak tako kot pri ljudeh, ne mores biti 100 %, tudi pri FAI ne bi smel
zahtevati 100 % zagotovila. Ce to zahteva, omejis.
Ok, potem pa naj bo (1 - 1/3^^^^3)% zagotovilo. ;)
Btw, ali sem (v tvojem pomenu besede) omejen, če trdim, da 100% nikoli ne
bom želel storiti samomora - če izvzamem možgansko kap ali kaj podobnega,
kar bi okvarilo mojo presojo? Sem potemtakem brez svobodne volje?
Rok