Mitar je napisal:
Če imaš v takšnem clusterju zaprto superinteligenco, lahko ta
izkoristi že samo dejstvo, da je implementirana kot fizikalni proces
in s spreminjanjem le-tega (t.j. svojih 'misli') v zunanjosti zgradi
svojo pot na prostost (brez, da bi ji bilo treba uporabiti
komunikacijski kanal, ki v tem primeru niti ni predpostavljen).
A res? A mislis, da je mozno, da je na omejenem fizicnem prostoru mozno
imeti inteligenco, ki tako obvlada svoj fizicni prostor? Potem bi
verjetno tudi mi znali nekaj podobnega delati s svojimi mozgani? Recimo
misliti le s svojo levo polovico, da se malo hladi desna in potem obratno?
Ljudje v absolutnem smislu nismo ravno visoko na inteligenčni lestvici,
poleg tega pa imamo zaradi svoje evolucijske zasnove in substrata na katerem
smo implementirani, še druge omejitve. V nasprotju z našim površinskim
dostopom do lastne zasnove (ki mu pravimo introspekcija), ima AI precizen
dostop do zadnjega bita svoje kode, kar jo postavlja daleč izven designov
bioloških inteligenc. Zaradi digitalne narave substrata, na katerem teče
superinteligentna AI, se mi ne zdi pretirano predpostavljati, da je njena
kontrola lastnega prostora mnogo višja od naše. Poleg tega je to
konzervativna predpostavka, v smislu FAI teorije...
Sam menim, da na vsakem prostoru, ki vzpostavlja zavest, je to delovanje
bolj kompleksno, kot ga lahko ta inteligenca na tem prostoru razume
oziroma manipulira sama po sebi oziroma samo s seboj, brez dodatnih
pripomockov. Ce bos imel vecji prostor, bo ta inteligenca zmogljivejsa,
ampak bo tudi njeno delovanje bolj kompleksno.
Hipoteza, da inteligenca ne more razumeti svojega delovanja, bo
falzificirana, ko bomo končno razumeli delovanje svojih možganov, kar nam bo
sčasoma gotovo uspelo.
Groba oblika kontrole lastnega prostora pa je nekaj kar ljudje zmoremo že od
nekdaj: z uporabo domišljije lahko recimo dvignemo svoj srčni utrip ali pa
sprostimo določene nevrotransmiterje. ;)
Sicer pa popolno obvladovanje lastnega substrata in celotno razumevanje
svoje zasnove verjetno niti ni potrebno, da bi ideja o pobegu AI sistema z
manipulacijo lastnih misli uspela.
Seveda je to le hipoteza. Ampak kar tako predpostaviti obratno, pa je
tudi podobno.
Vse so 'samo' hipoteze, vprašanje je le, katere so verjetnejše od drugih.
V kontekstu FAI designa pa je potrebno še vračunati, če si lahko privoščimo,
da se neka hipoteza izkaže za neresnično. Zaradi tega tudi omenjam potrebo
po konzervativnih predpostavkah. Če ne veš prav dobro, kako zelo močna ali
šibka je lahko neka inteligenca, je bolje predpostaviti, da je potencialno
izjemno močna.
Rok