Jure Vrscaj je napisal:
kako [superinteligentna AI] ve za nas? Tako kot bi mi
opazili v našem vesolju inteligentni design, če bi ta obstajal.
Nebi pa opazili zelenih palčkov, ki furajo naše vesolje v svojem
velikem škrlatnem simulatorju življenja, vesolja in sploh vsega...
Če bi naše vesolje vsebovalo mnogo zelenih skrinj zlata zakopanih pod
gorami, bi lahko že malo posumili, da se z nami igrajo zeleni palčki. ;)
Hočem reči, v našem vesolju ni ničesar kar bi nakazovalo na obstoj
Intelligent Designerja, medtem ko bi vesolje, v katero bi zaprli AI,
vsebovalo znake našega designa, kar bi AI lahko opazila - tako kot bi mi
opazili božji podpis v našem svetu.
Omenil si tudi, da bi lahko zaznali kdaj se je AI transformirala v
Zlodeja:
kako misliš, da bi to lahko napravili?
Malo sem karikiral, ampak lahko bi ji dal naprimer še eno AI za
družbo, in gledal če ji serje po pomnilniku ali ne.
Lahko bi dal eni ropotuljico, pa dal debug watch na HAS_ROPOTULJICA =
False.
Drugače je to čisto resno vprašanje in realen problem, ki pa ga s takšnim
'hackom' ni mogoče rešiti - niti nisem pričakoval, da ti bo to uspelo v
okviru te izmenjave, da ne bo pomote. Želel sem samo pokazati nanj.
Ob tem bi še omenil, da obstaja hipoteza, ki pravi, da s testiranjem ni
mogoče zanesljivo določiti vrednot sistema. Ali je resnična ali ne... sam se
nagibam bolj k prvemu, čeprav težko na kratko pojasnim zakaj. Bi pa to
pomenilo, da AI-Box ne pride v poštev niti kot posebej koristno testno
okolje v katerem bi videli, ali je sistem Friendly ali pač ne.
Naša realnost je to kar nam govorijo naša čutila.
...in tisto, kar nam govori naše apriorno znanje, ki ga je v nas vgradila
evolucija, oziroma tisto, kar dobimo če to dvoje združimo: apriorno znanje z
informacijami iz čutil.
Povej AI da je sama v vesolju, in to bo njena realnost.
Dokler ne opazi, da si ji to nekoč v preteklosti povedal, ali pa na osnovi
svoje zasnove in oblike sveta sklene (tule pride v igro apriorno znanje, z
drugimi besedami 'induktivni bias'), da obstaja nek designer.
Medtem ko ima AI precizen dostop do lastne kode, se moramo ljudje
zadovoljiti z introspektivnim opazovanjem
povšine svojega uma in le zelo grobo visokonivojsko kontrolo ...
Ima popoln dostop do kode, nima pa nikakršnega dostopa do tega, ali je
njena zavest shranjena v RAMu ali npr. Flashu. Mi s tem ko gledamo
svoje možgane od zunaj, počnemo nekaj, kar je za AI nemogoče.
Zakaj nemogoče? Ker nima ustreznih čutil.
Moram priznati, da kljub navidez trdni logiki nisem tako zelo prepričan v
pravilnost takšnega zaključka.
Na eni strani imamo svojo dolgo pot skozi zgodovino, vse od starih Grkov, ki
so mislili, da so možgani organ za hlajenje krvi, do prosvetljenstva in
rojstva znanstvene metode, ko je počasi postalo jasno, na kakšnem substratu
so implementirane naše misli. Na podlagi tega bi res lahko rekli, da je ta
problem dovolj težak, da ga brez velike količine primernih senzoričnih
informacij (kot je stimulacija določenih delov možganov in vpliv tega na
naše zavedanje) ni mogoče rešiti.
Na drugi strani pa leži abstraktna ideja o gosti kavzalni mreži, v katero so
povezani vsi dogodki v našem svetu in iz katere lahko dovolj močna
inteligenca kljub hudim omejitvam pri dostopu do teh dogodkov izlušči
marsikaj o še tako oddaljenih vozliščih (intuitivno gledano si lahko
predstavljaš kako poteka sklepanje v bayesovih mrežah). Za ilustracijo te
ideje: kadar nekdo zagreši zločin, ta dogodek zapusti sledove v svetu, ki
jih dobri detektivi znajo poiskati - opravijo 'reality mining' in poiščejo
zločinca. Ali lahko AI opravi analogno nalogo, pri čemer je njeno
preiskovanje realnosti močno omejeno le z določenimi čutili? Sam ne bi upal
staviti svoje glave na to, da tega ne zmore. Niti mezinca na nogi.
AI-Box Experiment ... http://yudkowsky.net/singularity/aibox
Haha. Si kar predstavljam kako je zgledal private chat.
Gatekeeper: I won't let you out under any circumstance!
AI player: I'm a smoking hot blonde in RL. Let me out and I'll stop by
where you live. ...
Očitno si našel univerzalen exploit s katerim lahko AI pobegne iz škatle.
:-D
(drugače je bila to čisto resna igra - pri kateri je gatekeeper dobro vedel,
da je na drugi strani namesto bejbe g33k ;))
Oh well, gre za sledeče: motivacijski sistem AI zasnuješ tako, da je njen
prvi podcilj design AI-Boxa iz katerega ne more uiti. S tem uporabiš
njeno
moč proti njej sami. Kako to narediti... je pa drugo vprašanje. Poleg
tega
ima ideja še druge pomankljivosti.
Verjetno je problem kako ji sploh dopovedat? Drugače, zanimivo čisto
iz filozofske perspektive, iz logične malo manj.
Najočitnejši problem je sama tehnična specifikacija te ideje - kako
zagotoviti, da bo AI zanesljivo sledila takšnemu zaporedju dejanj in pri tem
ne bo povzročila kolateralne škode v svoji okolici (npr. želela zgraditi
ogromno računalnik iz okoliške snovi za namen designa varnega AI-Boxa). Iz
tega pa se že vidi, da je problem morda celo FAI-complete...
Potem je tu še splošna težava z vsemi rešitvami FAI problema, ki zajemajo
zaprtje AI v izoliran sistem: takšen AI bi imel kot posrednika za svoje
delovanje v svetu ljudi. Postavljali bi mu vprašanja in dobivali odgovore.
Tu pa že pride v igro možnost hude zlorabe tako velike moči in mešanje
politike v to napravi FAI problem hitro povsem nerešljiv...
Rok