Mitar je napisal:
Če imaš v takšnem clusterju zaprto superinteligenco, lahko ta
izkoristi že samo dejstvo, da je implementirana kot fizikalni proces
in s spreminjanjem le-tega (t.j. svojih 'misli') v zunanjosti zgradi
svojo pot na prostost (brez, da bi ji bilo treba uporabiti
komunikacijski kanal, ki v tem primeru niti ni predpostavljen).

A res? A mislis, da je mozno, da je na omejenem fizicnem prostoru mozno
imeti inteligenco, ki tako obvlada svoj fizicni prostor? Potem bi
verjetno tudi mi znali nekaj podobnega delati s svojimi mozgani? Recimo
misliti le s svojo levo polovico, da se malo hladi desna in potem obratno?

Ljudje v absolutnem smislu nismo ravno visoko na inteligenčni lestvici, poleg tega pa imamo zaradi svoje evolucijske zasnove in substrata na katerem smo implementirani, še druge omejitve. V nasprotju z našim površinskim dostopom do lastne zasnove (ki mu pravimo introspekcija), ima AI precizen dostop do zadnjega bita svoje kode, kar jo postavlja daleč izven designov bioloških inteligenc. Zaradi digitalne narave substrata, na katerem teče superinteligentna AI, se mi ne zdi pretirano predpostavljati, da je njena kontrola lastnega prostora mnogo višja od naše. Poleg tega je to konzervativna predpostavka, v smislu FAI teorije...

Sam menim, da na vsakem prostoru, ki vzpostavlja zavest, je to delovanje
bolj kompleksno, kot ga lahko ta inteligenca na tem prostoru razume
oziroma manipulira sama po sebi oziroma samo s seboj, brez dodatnih
pripomockov. Ce bos imel vecji prostor, bo ta inteligenca zmogljivejsa,
ampak bo tudi njeno delovanje bolj kompleksno.

Hipoteza, da inteligenca ne more razumeti svojega delovanja, bo falzificirana, ko bomo končno razumeli delovanje svojih možganov, kar nam bo sčasoma gotovo uspelo.

Groba oblika kontrole lastnega prostora pa je nekaj kar ljudje zmoremo že od nekdaj: z uporabo domišljije lahko recimo dvignemo svoj srčni utrip ali pa sprostimo določene nevrotransmiterje. ;)

Sicer pa popolno obvladovanje lastnega substrata in celotno razumevanje svoje zasnove verjetno niti ni potrebno, da bi ideja o pobegu AI sistema z manipulacijo lastnih misli uspela.

Seveda je to le hipoteza. Ampak kar tako predpostaviti obratno, pa je
tudi podobno.

Vse so 'samo' hipoteze, vprašanje je le, katere so verjetnejše od drugih.

V kontekstu FAI designa pa je potrebno še vračunati, če si lahko privoščimo, da se neka hipoteza izkaže za neresnično. Zaradi tega tudi omenjam potrebo po konzervativnih predpostavkah. Če ne veš prav dobro, kako zelo močna ali šibka je lahko neka inteligenca, je bolje predpostaviti, da je potencialno izjemno močna.

Rok


Reply via email to