Jure Vrscaj je napisal:
kako [superinteligentna AI] ve za nas? Tako kot bi mi
opazili v našem vesolju inteligentni design, če bi ta obstajal.

Nebi pa opazili zelenih palčkov, ki furajo naše vesolje v svojem
velikem škrlatnem simulatorju življenja, vesolja in sploh vsega...

Če bi naše vesolje vsebovalo mnogo zelenih skrinj zlata zakopanih pod gorami, bi lahko že malo posumili, da se z nami igrajo zeleni palčki. ;)

Hočem reči, v našem vesolju ni ničesar kar bi nakazovalo na obstoj Intelligent Designerja, medtem ko bi vesolje, v katero bi zaprli AI, vsebovalo znake našega designa, kar bi AI lahko opazila - tako kot bi mi opazili božji podpis v našem svetu.

Omenil si tudi, da bi lahko zaznali kdaj se je AI transformirala v Zlodeja:
kako misliš, da bi to lahko napravili?

Malo sem karikiral, ampak lahko bi ji dal naprimer še eno AI za
družbo, in gledal če ji serje po pomnilniku ali ne.
Lahko bi dal eni ropotuljico, pa dal debug watch na HAS_ROPOTULJICA = False.

Drugače je to čisto resno vprašanje in realen problem, ki pa ga s takšnim 'hackom' ni mogoče rešiti - niti nisem pričakoval, da ti bo to uspelo v okviru te izmenjave, da ne bo pomote. Želel sem samo pokazati nanj.

Ob tem bi še omenil, da obstaja hipoteza, ki pravi, da s testiranjem ni mogoče zanesljivo določiti vrednot sistema. Ali je resnična ali ne... sam se nagibam bolj k prvemu, čeprav težko na kratko pojasnim zakaj. Bi pa to pomenilo, da AI-Box ne pride v poštev niti kot posebej koristno testno okolje v katerem bi videli, ali je sistem Friendly ali pač ne.

Naša realnost je to kar nam govorijo naša čutila.

...in tisto, kar nam govori naše apriorno znanje, ki ga je v nas vgradila evolucija, oziroma tisto, kar dobimo če to dvoje združimo: apriorno znanje z informacijami iz čutil.

Povej AI da je sama v vesolju, in to bo njena realnost.

Dokler ne opazi, da si ji to nekoč v preteklosti povedal, ali pa na osnovi svoje zasnove in oblike sveta sklene (tule pride v igro apriorno znanje, z drugimi besedami 'induktivni bias'), da obstaja nek designer.

Medtem ko ima AI precizen dostop do lastne kode, se moramo ljudje zadovoljiti z introspektivnim opazovanjem
povšine svojega uma in le zelo grobo visokonivojsko kontrolo ...

Ima popoln dostop do kode, nima pa nikakršnega dostopa do tega, ali je
njena zavest shranjena v RAMu ali npr. Flashu. Mi s tem ko gledamo
svoje možgane od zunaj, počnemo nekaj, kar je za AI nemogoče.

Zakaj nemogoče? Ker nima ustreznih čutil.

Moram priznati, da kljub navidez trdni logiki nisem tako zelo prepričan v pravilnost takšnega zaključka.

Na eni strani imamo svojo dolgo pot skozi zgodovino, vse od starih Grkov, ki so mislili, da so možgani organ za hlajenje krvi, do prosvetljenstva in rojstva znanstvene metode, ko je počasi postalo jasno, na kakšnem substratu so implementirane naše misli. Na podlagi tega bi res lahko rekli, da je ta problem dovolj težak, da ga brez velike količine primernih senzoričnih informacij (kot je stimulacija določenih delov možganov in vpliv tega na naše zavedanje) ni mogoče rešiti.

Na drugi strani pa leži abstraktna ideja o gosti kavzalni mreži, v katero so povezani vsi dogodki v našem svetu in iz katere lahko dovolj močna inteligenca kljub hudim omejitvam pri dostopu do teh dogodkov izlušči marsikaj o še tako oddaljenih vozliščih (intuitivno gledano si lahko predstavljaš kako poteka sklepanje v bayesovih mrežah). Za ilustracijo te ideje: kadar nekdo zagreši zločin, ta dogodek zapusti sledove v svetu, ki jih dobri detektivi znajo poiskati - opravijo 'reality mining' in poiščejo zločinca. Ali lahko AI opravi analogno nalogo, pri čemer je njeno preiskovanje realnosti močno omejeno le z določenimi čutili? Sam ne bi upal staviti svoje glave na to, da tega ne zmore. Niti mezinca na nogi.

AI-Box Experiment ...  http://yudkowsky.net/singularity/aibox
Haha. Si kar predstavljam kako je zgledal private chat.

Gatekeeper: I won't let you out under any circumstance!
AI player: I'm a smoking hot blonde in RL. Let me out and I'll stop by where you live. ...

Očitno si našel univerzalen exploit s katerim lahko AI pobegne iz škatle. :-D

(drugače je bila to čisto resna igra - pri kateri je gatekeeper dobro vedel, da je na drugi strani namesto bejbe g33k ;))

Oh well, gre za sledeče: motivacijski sistem AI zasnuješ tako, da je njen
prvi podcilj design AI-Boxa iz katerega ne more uiti. S tem uporabiš njeno moč proti njej sami. Kako to narediti... je pa drugo vprašanje. Poleg tega
ima ideja še druge pomankljivosti.

Verjetno je problem kako ji sploh dopovedat? Drugače, zanimivo čisto
iz filozofske perspektive, iz logične malo manj.

Najočitnejši problem je sama tehnična specifikacija te ideje - kako zagotoviti, da bo AI zanesljivo sledila takšnemu zaporedju dejanj in pri tem ne bo povzročila kolateralne škode v svoji okolici (npr. želela zgraditi ogromno računalnik iz okoliške snovi za namen designa varnega AI-Boxa). Iz tega pa se že vidi, da je problem morda celo FAI-complete...

Potem je tu še splošna težava z vsemi rešitvami FAI problema, ki zajemajo zaprtje AI v izoliran sistem: takšen AI bi imel kot posrednika za svoje delovanje v svetu ljudi. Postavljali bi mu vprašanja in dobivali odgovore. Tu pa že pride v igro možnost hude zlorabe tako velike moči in mešanje politike v to napravi FAI problem hitro povsem nerešljiv...

Rok


Reply via email to