Nisem preprican, da s 'Friendly AI' misliva isto stvar. :) Definicija pojma, kot ga sam uporabljam, se
nahaja tule: http://wiki.lesswrong.com/wiki/Friendly_AI

Le pescica ljudi na planetu se trenutno ukvarja s tem izjemno pomembnim projektom, ki pa je dalec od tega, da bi bil dobro financno podprt. Organizacija, okoli katere se zbirajo ljudje s taksnimi interesi, je neprofitni, z donacijami posameznikov podprt Singularity Institute for AI (http://singinst.org/), deloma pa v ta okvir sodi tudi Oxfordski Future of Humanity Institute (http://www.fhi.ox.ac.uk/), ceprav slednji je osredotocen bolj na eksistencna tveganja v splosnem in njegovo delovanje se s FAI prekriva predvsem v raziskavah na podrocju teorije odlocanja. Cesa drugega - instituta, podjetja,
cesarkoli - kolikor vem, ni.

Zavedati se je treba, da se - gledano z zgodovinske perspektive - nahajamo v zelo delikatnem obdobju: v prihodnjih desetletjih bo prislo do razvoja tehnologij izredne moci, ki po eni strani nosijo s seboj potencial za veliko izboljsanje nasih zivljenj, po drugi pa nas prav lahko izbrisejo z oblicja Zemlje, skupaj
z vsem ostalim zivljenjem.

Kako velika so tveganja za slednje in za katere tehnologije gre?

Najpogosteje se omenja molekularno nanotehnologijo (v prvotnem, Drexlerjevem smislu), napredne biotehnologije ter umetno inteligenco (pod katero bi tule stel tudi emulacije cloveskih mozganov, t.j. 'uploade'). Verjetnost, da v tem stoletju pride do eksistencne katastrofe, so ljudje, ki se s to tematiko ze lep cas ukvarjajo, oznacevali kot 'precejsnjo', 'ne manjso kot 30%' (Nick Bostrom), nekateri celo okoli 50% (Martin Rees), nedavna anketa na konferenci o globalnih tveganjih pa je dala za rezultat 19% (*).

Ce ze nic drugega, je s tega zornega kota problem eksistencnih tveganj vreden vsaj dobrega razmisleka in nekaj pozornosti, ceprav je dejansko (v mojem pogledu in po mnenju mnogih pametnejsih in bolje izobrazenih ljudi od mene) zmanjsevanje teh tveganj najpomembnejsi problem danasnjega sveta. Navsezadnje pricakovano izgubo zivljenj ~0.19 * (6.5*10^9 + vsa prihodnja zivljenja) in izgubljeno prihodnost clovestva tezko primerjamo s cimerkoli drugim - majhne ali celo nicne morebitne pokojnine
v nasi starosti so v primerjavi s tem mizeren problem. ;)

...in kaksno mesto v tej sliki zaseda Friendly AI?

Kot pozitivni faktor, ki lahko mocno zmanjsa celoten spekter tveganj in nas tako varno popelje skozi prihodnja burna desetletja v utopicno prihodnost (misljeno brez sarkazma), ce nam jo seveda uspe zgraditi... v nasprotnem primeru, ko scasoma nekomu uspe ustvariti AI brez da bi namenjal posebno pozornosti problemu prijaznosti in ta tekom rekurzivne samo-izboljsave prestopi meje cloveskega intelekta in tako postane (sibka) superinteligenca, pa lahko z visoko zanesljivostjo napovemo svoje izumrtje - unFriendly AI tako po drugi strani predstavlja tudi enega izmed najhujsih eksistencnih tveganj.

Obstaja seveda tudi moznost, da nikomur ne uspe ustvariti 'prave', splosne AI, vendar je to v resnici le vprasanje casa - in verjetnosti. Malce tezko si je predstavljati, da v tem stoletju taksen podvig ne bi nikomur uspel, poleg tega pa tudi v primeru, da se temu pripisuje nizka verjetnost (0.1? 0.01?), pricakovane posledice dogodka vodijo k nujnosti prizadevanj za Friednly AI ze danes.

Se dobro zavedam, da se zgornje najbrz bere kot norost pac se enega zavedenega wannabe preroka in tezko napisem karkoli, kar bi bralca prepricalo v nasprotno (npr. "zagotavljam vam, da je do taksnih zakljuckov prisla skupina ljudi, dobro podkovanih v racionalnosti, po poglobljeni analizi", "ja ja, ravno s taksnimi besedami bi poskusal biti prepricljiv nekdo, ki bi te poskusal zvabiti v kak kult!").

Kdor torej meni, da je morda vsaj drobec resnice v vsem tem, mu predlagam, da si prebere vsaj del
literature s tega podrocja in z lastno glavo vse skupaj dobro premisli.

Osnovni clanek prof. Nick Bostroma o eksistencnih tveganjih je kolega prevedel v slovenscino in se
nahaja tule:
http://transhumanizem.org/clanki/eksistencna-tveganja
(zgoraj vsebuje tudi link na original - nekateri prevedeni izrazi se namrec slisijo malce cudno ... in ko sem ze ravno pri tem, na strani slovenskih transhumanistov imamo se druge prevode, ki bi morda koga zanimali:
http://transhumanizem.org/clanki )

Potem je tu se Artificial Intelligence as a Positive and Negative Factor in Global Risk:
http://yudkowsky.net/singularity/ai-risk

...in najbolj jedrnat opis Friendly AI problema:
http://causalityrelay.wordpress.com/2009/09/19/the-project-of-friendly-ai/

Za zacetek upam bo to dovolj. ;)

---

Kaksno vlogo bi tule lahko igrala Mitarjeva skupina ljudi?

Well... Friendly AI je izjemno tezak znanstveno-filozofsko-matematicni problem in lahko bi poskusali napraviti
vsaj nek majhen napredek na njem, maybe...
(mimogrede, (pomankljiv in deloma verjetno tudi zgresen) raziskovalni program je sicer opisan tule:
http://singinst.org/research/researchareas )

Rok

(*) http://www.fhi.ox.ac.uk/__data/assets/pdf_file/0020/3854/global-catastrophic-risks-report.pdf


Zdravo!

Bi se lahko v okviru tegale lotili recimo, am... Friendly AI projekta? ;)

Zelo zelo da. Torej to je eden od mojih ciljev. Ne se sedaj takoj, ker
je potrebno dobiti malo sredstev, ampak kasneje, ko bodo stvari recimo
dovolj tekle same po sebi, pa tudi taksne stvari. Pa se mislim, da je
trenutno se malo prehitro za to iz cisto tehnicnega vidika. Torej zelo
bi se namucili za malo ucinka. Je boljse vmes delati kaj drugega, pa se
potem v pravem trenutku vkljuciti.

In v to se vlaga precej denarja. EU trenutno kar daje denar na tem
podrocju. Recimo za AI v gospodinjstvu. Tako da to je sigurno moznost in
niti ne tako neizvedljiva v smislu tega, da bi lahko imeli kaksen taksen
projekt.

Vseeno dobro da si omenil tole, ker bi me cez cas morda zanimalo
sodelovanje.

Ah. Seveda. To velja za vse: za sodelovanje smo vedno. :-) Pa to itak
mislim, da kot sosolci nekako ze pocnemo. Ko je kaksna moznost.


Mitar



Reply via email to