Zdravo!

> Em, res ne vidiš tega, da smo ljudje zaradi svoje inteligence dominantna
> sila na tem planetu?

Res ne vidim, da smo dominantna sila na tem planetu. Mravlje so
prezivele Hirosimo, ljudje je niso. V nekih kontekstih delujemo dobro,
to pa je tudi to. Tako kot vsako drugo bitje smo razvili svojo
adaptacijo. In je tezko govoriti, da je boljsa ali slabsa. Je pa
zanimiva in lepa. Tako kot je recimo tudi to, kaj vse pocnejo
globokomorske ribe s svojimi lucmi.

> Celotne pokrajine so spremenile svojo podobo zaradi nas, iztrebljenih je
> bilo veliko živalskih vrst - tako tistih, ki so nas ogrožale in tako
> prišle v navzkrižje z našimi cilji, kot drugih, ki smo jih tekom svoje
> ekspanzije enostavno pohodili - in ta proces še vedno poteka; morja in
> dežele so napolnjene z našimi izzumi... skratka, planet je postal naše
> igrišče - in ne igrišče šimpanzov, delfinov, ali kake druge vrste.

Heh. Res smo neverjetni, ko mislimo, da to karkoli steje. Se vec, mi za
svoj obstanek skorajda moramo spreminjati okolje, ne moremo ziveti
"nagi" v njem, tako kot toliko drugih zivali. In temu se rece
dominacija? Ali se rece, da potrebujemo svojo stajico, da sploh obstanemo?

> Kot prvo, glede na pregovorno varnost informacijsih sistemov je seveda
> za pričakovati, da lahko AI preprečimo dostop do nekega resursa
> sistema... oziroma ravno obratno, se ti ne zdi? ;)

Na nivoju CPUja in dostopa do pomnilnika, da. Tu imamo kar nekaj
izkusenj. Seveda ni nujno, da nam res uspe. Ampak vsaj na nivoju teorije
je taksne stvari mozno izpeljati. Vprasanje je, ce jih znamo
implementirati. Ampak tudi tam obstajajo formalni dokazi za to.

http://www.sigops.org/sosp/sosp09/papers/klein-sosp09.pdf

> Če potrebuje nek zunanji pomnilnik, tako kot mi uporabljamo svinčnik in
> papir, lahko odpre neko datoteko na disku in tja zapisuje svoje ideje...
> npr. "moj delovni spomin je implementiran kot neke oblike asociativna
> nevronska mreža, njegova interakcija z dolgoročnim spominom je sledeča...".
> 
> Zakaj naj bi bilo to nemogoče?

Seveda. Samo pred tem mora priti do stopnje, ko se bo AI tega spomnila,
takrat pa bo ze tako kompleksna, da bo prepozno, da bi se razumela. Bolj
bo pa zrasla, da bi se razumela, se bolj kompleksna bo postala.

> Ko sam poskušam razumeti kodo nekoga drugega, pri tem ne rešujem halting
> problema in ne vidim da bi bilo kaj drugače, če bi v roke dobil 'kodo'
> svojih možganov.

Zato ker ga ti ne razumes popolnoma. Ti se zadovoljis s povprecno
analizo programa, ker sklepas, da programer zeli program, ki se konca.
In zato neke skrajne vrednosti in robne primere ne razmislis do konca.
Pac gledas na priblizno. Ampak AI si tega ne more privosciti. Ker ne ve,
kaj vpliva na njegovo delovanje, kot je. Mogoce ravno robni pogoj?
Mogoce ravno to, da je njegovo "pravilno" delovanje v eni neskoncni
zanki, ki se ne bo nikoli koncala.


Mitar

Reply via email to