Nisem preprican, da s 'Friendly AI' misliva isto stvar. :) Definicija pojma,
kot ga sam uporabljam, se
nahaja tule: http://wiki.lesswrong.com/wiki/Friendly_AI
Le pescica ljudi na planetu se trenutno ukvarja s tem izjemno pomembnim
projektom, ki pa je dalec
od tega, da bi bil dobro financno podprt. Organizacija, okoli katere se
zbirajo ljudje s taksnimi interesi,
je neprofitni, z donacijami posameznikov podprt Singularity Institute for AI
(http://singinst.org/),
deloma pa v ta okvir sodi tudi Oxfordski Future of Humanity Institute
(http://www.fhi.ox.ac.uk/),
ceprav slednji je osredotocen bolj na eksistencna tveganja v splosnem in
njegovo delovanje se s FAI
prekriva predvsem v raziskavah na podrocju teorije odlocanja. Cesa drugega -
instituta, podjetja,
cesarkoli - kolikor vem, ni.
Zavedati se je treba, da se - gledano z zgodovinske perspektive - nahajamo v
zelo delikatnem obdobju:
v prihodnjih desetletjih bo prislo do razvoja tehnologij izredne moci, ki po
eni strani nosijo s seboj
potencial za veliko izboljsanje nasih zivljenj, po drugi pa nas prav lahko
izbrisejo z oblicja Zemlje, skupaj
z vsem ostalim zivljenjem.
Kako velika so tveganja za slednje in za katere tehnologije gre?
Najpogosteje se omenja molekularno nanotehnologijo (v prvotnem, Drexlerjevem
smislu), napredne
biotehnologije ter umetno inteligenco (pod katero bi tule stel tudi
emulacije cloveskih mozganov,
t.j. 'uploade'). Verjetnost, da v tem stoletju pride do eksistencne
katastrofe, so ljudje, ki se s to tematiko
ze lep cas ukvarjajo, oznacevali kot 'precejsnjo', 'ne manjso kot 30%' (Nick
Bostrom), nekateri celo
okoli 50% (Martin Rees), nedavna anketa na konferenci o globalnih tveganjih
pa je dala za rezultat 19% (*).
Ce ze nic drugega, je s tega zornega kota problem eksistencnih tveganj
vreden vsaj dobrega razmisleka
in nekaj pozornosti, ceprav je dejansko (v mojem pogledu in po mnenju mnogih
pametnejsih in bolje
izobrazenih ljudi od mene) zmanjsevanje teh tveganj najpomembnejsi problem
danasnjega sveta.
Navsezadnje pricakovano izgubo zivljenj ~0.19 * (6.5*10^9 + vsa prihodnja
zivljenja) in izgubljeno
prihodnost clovestva tezko primerjamo s cimerkoli drugim - majhne ali celo
nicne morebitne pokojnine
v nasi starosti so v primerjavi s tem mizeren problem. ;)
...in kaksno mesto v tej sliki zaseda Friendly AI?
Kot pozitivni faktor, ki lahko mocno zmanjsa celoten spekter tveganj in nas
tako varno popelje skozi
prihodnja burna desetletja v utopicno prihodnost (misljeno brez sarkazma),
ce nam jo seveda uspe
zgraditi... v nasprotnem primeru, ko scasoma nekomu uspe ustvariti AI brez
da bi namenjal posebno
pozornosti problemu prijaznosti in ta tekom rekurzivne samo-izboljsave
prestopi meje cloveskega
intelekta in tako postane (sibka) superinteligenca, pa lahko z visoko
zanesljivostjo napovemo svoje
izumrtje - unFriendly AI tako po drugi strani predstavlja tudi enega izmed
najhujsih eksistencnih tveganj.
Obstaja seveda tudi moznost, da nikomur ne uspe ustvariti 'prave', splosne
AI, vendar je to v resnici
le vprasanje casa - in verjetnosti. Malce tezko si je predstavljati, da v
tem stoletju taksen podvig ne
bi nikomur uspel, poleg tega pa tudi v primeru, da se temu pripisuje nizka
verjetnost (0.1? 0.01?),
pricakovane posledice dogodka vodijo k nujnosti prizadevanj za Friednly AI
ze danes.
Se dobro zavedam, da se zgornje najbrz bere kot norost pac se enega
zavedenega wannabe preroka
in tezko napisem karkoli, kar bi bralca prepricalo v nasprotno (npr.
"zagotavljam vam, da je do taksnih
zakljuckov prisla skupina ljudi, dobro podkovanih v racionalnosti, po
poglobljeni analizi", "ja ja, ravno s
taksnimi besedami bi poskusal biti prepricljiv nekdo, ki bi te poskusal
zvabiti v kak kult!").
Kdor torej meni, da je morda vsaj drobec resnice v vsem tem, mu predlagam,
da si prebere vsaj del
literature s tega podrocja in z lastno glavo vse skupaj dobro premisli.
Osnovni clanek prof. Nick Bostroma o eksistencnih tveganjih je kolega
prevedel v slovenscino in se
nahaja tule:
http://transhumanizem.org/clanki/eksistencna-tveganja
(zgoraj vsebuje tudi link na original - nekateri prevedeni izrazi se namrec
slisijo malce cudno ... in ko sem ze
ravno pri tem, na strani slovenskih transhumanistov imamo se druge prevode,
ki bi morda koga zanimali:
http://transhumanizem.org/clanki )
Potem je tu se Artificial Intelligence as a Positive and Negative Factor in
Global Risk:
http://yudkowsky.net/singularity/ai-risk
...in najbolj jedrnat opis Friendly AI problema:
http://causalityrelay.wordpress.com/2009/09/19/the-project-of-friendly-ai/
Za zacetek upam bo to dovolj. ;)
---
Kaksno vlogo bi tule lahko igrala Mitarjeva skupina ljudi?
Well... Friendly AI je izjemno tezak znanstveno-filozofsko-matematicni
problem in lahko bi poskusali napraviti
vsaj nek majhen napredek na njem, maybe...
(mimogrede, (pomankljiv in deloma verjetno tudi zgresen) raziskovalni
program je sicer opisan tule:
http://singinst.org/research/researchareas )
Rok
(*)
http://www.fhi.ox.ac.uk/__data/assets/pdf_file/0020/3854/global-catastrophic-risks-report.pdf
Zdravo!
Bi se lahko v okviru tegale lotili recimo, am... Friendly AI projekta? ;)
Zelo zelo da. Torej to je eden od mojih ciljev. Ne se sedaj takoj, ker
je potrebno dobiti malo sredstev, ampak kasneje, ko bodo stvari recimo
dovolj tekle same po sebi, pa tudi taksne stvari. Pa se mislim, da je
trenutno se malo prehitro za to iz cisto tehnicnega vidika. Torej zelo
bi se namucili za malo ucinka. Je boljse vmes delati kaj drugega, pa se
potem v pravem trenutku vkljuciti.
In v to se vlaga precej denarja. EU trenutno kar daje denar na tem
podrocju. Recimo za AI v gospodinjstvu. Tako da to je sigurno moznost in
niti ne tako neizvedljiva v smislu tega, da bi lahko imeli kaksen taksen
projekt.
Vseeno dobro da si omenil tole, ker bi me cez cas morda zanimalo
sodelovanje.
Ah. Seveda. To velja za vse: za sodelovanje smo vedno. :-) Pa to itak
mislim, da kot sosolci nekako ze pocnemo. Ko je kaksna moznost.
Mitar