Hoj,
Ja, ampak lahko je enosmerni [info. kanal] (od AI k tebi). Kar se tiče AI,
lebdi v
vesolju, in razen nje same ni ničesar več. Ti pa bereš podatke, in
čakaš na trigger - AI se je reprogramirala v Zlodeja - in takrat,
seveda ustaviš in zalaufaš debugger.
Ali gre za enosmeren ali dvosmeren kanal je irelevantno. V splošnem gre za
neke oblike interakcijo pri kateri lahko superinteligentna AI vpliva na nas,
tudi če jo samo 'opazujemo' (prikaže nam recimo izjemno prepričljiv video o
njenih dobrohotnih namerah in nujnosti tega, da ji damo malce več svobode,
da bo lažje vplivala na zunanji svet - kako ve za nas? Tako kot bi mi
opazili v našem vesolju inteligentni design, če bi ta obstajal. :)).
Omenil si tudi, da bi lahko zaznali kdaj se je AI transformirala v Zlodeja:
kako misliš, da bi to lahko napravili?
Kompleksnost njenih miselnih procesov bi namreč hitro izjemno narastla,
zaradi česar bi bilo njeno zavajanje zelo težko/praktično nemogoče
zaznati... Že pri drugih ljudeh imamo težave s tem, pri čemer nas je
evolucija močno optimizirala za takšne naloge, medtem ko bi pri tako tujem
razumu kot je 'de novo' AI povsem pogoreli.
Tukaj si predpostavil da ima AI dejansko precizno vedenje o fizikalnih
značilnostih našega sveta (še bolj precizno, očitno, kot ga imamo mi
sami), vedenje o tem kaj se dogaja okrog njenega clusterja (in to brez
da bi imela kakršenkoli input iz okolice). Od kje ji to vedenje? Ni
namreč treba, da ji ga damo, še vedno je lahko inteligentna, samo na
fiziko se ne spozna.
Pomisli na to, kako bi AI sploh zlezla po lestvici do transčloveške
inteligence. Obstaja sicer več potencialnih poti, od učenja v nekem
preprostejšem virtualnem svetu, do podajanja večjih količin informacij v
obliki DVD-ja z wikipedijo. V vsakem primeru pa ji nekaj podatkov enostavno
moramo podati, kar pa hitro pomeni, da lahko na osnovi teh tudi izlušči
fizikalne zakone našega sveta (niti ne potrebuje česa natančnejšega kar
imamo mi - trenutna kvatna fizika/kemija namreč zadostuje za izgradnjo
nano-robotov, ki ji na široko odprejo vrata na prostost). Če imaš težavo
predstavljati si, kako bi ji to lahko uspelo, si preberi naslednjo zgodbo:
http://lesswrong.com/lw/qk/that_alien_message/
Eden izmed naukov te zgodbe je, kako zelo neučinkoviti smo ljudje pri izrabi
informacij, ki jih pridobimo iz okolja. AI bi bila pri tem mnogo boljša in
bi tako lahko že na osnovi peščice bitov locirala pravilne hipoteze, kar pa
pri ljudeh zahteva nekaj velikostnih redov več informacij.
Si kdaj pomislil da bi bil scenarist romantičnih komedij? To bo še
večji hit kot Twilight: programer se zaljubi v zlobno AI, in jo
izpusti; nevedoč, da ga bo takoj za tem pokončala division by zero
napaka na njegovem mobilnem telefonu.
:-D
(očitno bi bilo bolje, če bi se kar ti lotil pisanja takšnih scenarijev)
Spet veliko predpostavk, ki so nam samoumevne, za AI pa zelo tuje. AI
"živi" v svojem svetu, njeni edini vhodni signali so signali, ki ji
jih je programer namenil. Recimo da je to:
- dostop do pomnilnika
- dostop do audio/video signala iz okolice (vem, če bi bil jaz
programer, bi hotel da me vidi, svojega kreatorja)
Potemtakem tudi ljudje 'živimo v svojem svetu' naših možganov, pa nam očitno
navkljub temu uspe marsikaj postoriti. :)
Osredotočaš se na napačen nivo abstrakcije. Seveda AI je neka koda z
dostopom do pomnilnika, diskovja in kakih drugih V/I naprav, vendar ali ta
najnižji nivo opisa sploh kakorkoli omejuje njene sposobnosti? Ne samo, da
jih ne, njegov učinek je celo nasproten. Medtem ko ima AI precizen dostop do
lastne kode, se moramo ljudje zadovoljiti z introspektivnim opazovanjem
povšine svojega uma in le zelo grobo visokonivojsko kontrolo - nobene
možnosti nimamo, da bi npr. videli kaj počenja določena skupina nevronov in
jo popravili. AI je torej zaradi te sposobnosti potencialno še mnogo
močnejša od nas.
Tvoje besede so me drugače spomnile na še nekaj pomembnejšega: očitno pri
svojem modeliranju AI (tudi formalnem, kakršen je recimo AIXI) pogosto
razmišljamo v skladu s kartezičnim dualizmom. V osnovi gre za delitev na AI
ter na svet, pri čemer lahko AI vpliva nanj le preko točno določenih
mehanizmov (teoretično gledano pošlje nek bit-string na svoj izhod), kjer se
tudi nahaja dualistična meja med 'virtualnim/platonističnim' agentom in
'materialnim' svetom... Dejanska slika je seveda drugačna: AI je del sveta,
tako kot vse drugo. Njena dejanja vplivajo tudi na njo samo in če želimo
razumeti samo-modifikacijo, moramo razumeti tudi to. Zaradi tega tudi
potrebujemo reflektivno teorijo odločanja... (zadnje opazke so namenjene
bolj meni samemu - se opravičujem, če so nerazumljive :)).
Kakorkoli že, predlagam, da si na hitro pogledaš AI-Box Experiment tule:
http://yudkowsky.net/singularity/aibox
(sp. del o protokolu ipd. ni posebej pomemben - relevanten je predvsem
rezultat, ki je (po mojem spominu, stran namreč trenutno ne deluje) vsaj v
enem poskusu uspešen pobeg AI iz Boxa, pri čemer jo je igral sicer zelo
zvit, a še vedno inteligenčno zelo omejen človek. Za transčloveško
inteligenco torej to ne bi smel biti kak poseben izziv.)
Omenil bi še eno izmed ključnih idej FAI designa: konzervativnost pri
predpostavkah o zmogljivosti AI.
Primer: če nisi ravno prepričan kako hitra je lahko rekurzivna
samo-izboljšava vse do nivoja superinteligence, je bolje predpostaviti, da
je lahko zelo hitra, v časovnem okviru sekund in ne tednov ali let. Zakaj?
Ker na takšen način poskrbiš za večjo robustnost varnostnih mehanizmov
potencialne FAI, podobno kot so recimo dvigala zgrajena, da zdržijo
10-kratno največjo možno obremenitev. Če nam uspe ustvariti Friendly AI in
preživeti eksplozijo inteligence (tehnološko singularnost), nam to ne bo
uspelo le za las, temveč kot posledica dobrega načrtovanja s širokim pasom
varnostne tolerance. Filmski scenariji tule odpadejo.
Če to idejo povlečeš na področje izolacije AI v nek cluster (AI-Box), se
hitro vidi, da takšna zasnova ne zdrži visokih meril FAI designa.
Res pa obstaja vsaj ena različica te ideje, ki vsaj na prvi pogled ni tako
slaba (<razmišljam, ali bi počakal, da jo odkriješ sam...>).
Oh well, gre za sledeče: motivacijski sistem AI zasnuješ tako, da je njen
prvi podcilj design AI-Boxa iz katerega ne more uiti. S tem uporabiš njeno
moč proti njej sami. Kako to narediti... je pa drugo vprašanje. Poleg tega
ima ideja še druge pomankljivosti.
Rok