Zdravo! > čeprav sem bolj na lovu za mladimi matematičnimi in/ali filozofskimi > geniji.
No, tudi on, kar sem izvedel tako, ker je lovil mene. ;-) Mislim pa, da jih je nekaj tudi nasel. Zato pravim, da ga kaj kontaktiraj. In zakaj bi design AGI bil nekaj, kar bi bilo dobro opustiti? Ne razumem, od kje ideja, da je mozno razviti FAI brez AGI (kako imam rad te kratice). > Kako naj bi prevelika poraba energije in rast populacije privedli do > izumrtja človeštva? Si si pogledal celoten video? Tam to razlozi. > Rast prebivalstva se tekom rasti življenjskega standarda ustavlja, kot > je dobro vidno na Zahodu in če se ne motim, so prvi znaki tega trenda > vidni tudi že v Indiji in drugod. Nič torej ne kaže, da bi se prihodnost > odvila po scenariju, po katerem bi ljudje do zadnjega kotička zapolnili > površje Zemlje, nakar bi... v nekaj trenutkih vsi skupaj umrli? Celo v > primeru drastičnega podaljševanja življenjske dobe s tem ne bi imeli > problemov... Tu nas precej vara obcutek. Malo se seznani z eksponentno funkcijo. Ni problem samo v populaciji, ampak tudi v energiji. > da bi porabili vse zemeljske vire energije (tudi sončno? ;)) Problem je nasa poraba energije. Ne to, koliko jo lahko proizvedemo. (Slednje je precej omejeno.) > ter pri tem ne bi uspeli razviti tehnologij, ki bi nam kot prvo > dovoljevale razširitev po vesolju ter kot drugo praktično neomejene > vire energije že na samem planetu. Kje so te tehnologije? Meni so se bolj oddaljene kot AI. Kaj energijo bodo proizvajale kar iz nica? Potovali bomo po vesolju brez da bomo za to potrebovali energijo? Dvomim, da lahko potujemo po vesolju in pridemo nazaj in smo v plusu z energijo, ki smo jo za vse to porabili. > če le pomislim na sredstva, ki jih potrebujemo za to, da sprožimo > eksplozijo inteligence: nekaj malega elektrike, da poganja naše > mlinčke, ter solato in oreščke, da nahranimo programerje. ;) Nič kaj > takšnega, kar bi nam lahko zmanjkalo kot posledica energetske krize. No, za eksplozijo inteligence mogoce potrebujemo le to malo. Ampak za to, da nam bo zmanjkalo surovin in da bomo prenaseljeni, pa ne potrebujemo nic. V resnici ce ne bomo nic naredili, da bo to zgodilo. Ce bomo samo cakali, se bo to zgodilo. Pri AI moramo vsaj nekaj se narediti. > Sez who? Poglej video. Sicer pa je meni dovolj pogledati okoli sebe. ;-) Torej koliko smetimo, koliko onesnazujemo, koliko energije porabljamo, glede na to, koliko nas je. > Če pustim ob strani vprašanje kaj misliš s svobodno voljo (*), bi me > zanimalo ali tvoj zaključek izvira iz ideje, da bolj zaupaš > (superinteligentni oz. supermoralni?) AI, da je poiskala pravilen > odgovor na vprašanje "kaj je prav?", kot vsem ljudem, ki si ne želijo > umreti? Kje pa sem napisal, da bo njihov odgovor pravilen? Oziroma pravilen glede na katera merila? Jaz pravim, da bo tudi to legitimna moznost. Tako kot je tudi nasa, ko se pobijamo med seboj. Si je verjetno nihce ne zeli, ampak ce imas svobodno voljo, imas tudi to moznost. Mi si jo pripisujemo. Zakaj si je ne bi tudi oni? > Namreč, če si predstavljam, kako bi po trenutnih smernicah zasnovali Jaz zelo dvomim, da nekaj tako kompleksnega, kot je AI, je lahko zasnovano. Ampak v redu. > mislim da bi upravičeno pomislil, da smo enostavno naredili neko > napako pri zasnovi sistema. Ne razumem tocno, zakaj bi to upraviceno mislili? Kaj pa ce je to res najboljse za clovesko vrsto, ce gledas vse faktorje? Koliko ljudi trpi, koliko unicujemo naravo okoli, koliko drugih zivali pobijamo in iztrebljamo ... Mogoce se lahko res izracuna, da bi najvec prispevali, ce nas ne bi bilo. > Še vedno namreč bolj zaupam svojemu moralnemu razmisleku, da dobre > prihodnosti vsebujejo ljudi oz. tisto, v kar bi se razvili (občasno > se uporablja izraz 'postčloveštvo'), kot pa da enostavno vsi skupaj > umremo. Ker je tvoja pozicija antropocentricna. Ne gledas moralno nevtralno, ampak moralo vezes le na doloceno vrsto bitij. S tem je tezko govoriti o moralnosti taksnih odlocitev. Enako so delali tudi belci napram crncem, kjer so jim pac odvzeli clovecnost in s tem potesili svojo moralo. Moralo ne mores vezati le na eno skupino bitij, se posebej ne, ce govorimo o samozavedajocih se bitjih oziroma bitjih z zavestjo. > Preprostejša interpretacija tvojih besed pa je, da smo preprosto > ustvarili AI, katere moralne vrednote se ne skladajo z našimi Glede na to, da se bo po mojem taksen AI moral uciti iz neke druzbe, se bo vsaj na zacetku ucil iz nase. Zato malo dvomim, da ne bo delil tako dobrih kot slabih nasih znacilnosti. Mogoce bo to se najhujse, ko nam bo pokazal ogledalo nasim slabim lastnostim. > Bojim se, da je v tehle besedah mnogo preveč antropomorfizma. Ne. Le izvira iz tega, da se mi zdi, da ponavadi ljudje uspemo pri tistih stvareh, kjer prvo posnemamo naravo. Torej bomo pri AI (na zacetku) posnemali cloveka in bo zato podoben cloveku. > V nasprotju s človeškim otrokom AI dejansko je nepopisan list: Glede na to, da se nimamo ravno delujocih sistemov, je tezko govoriti kaksen je AI. Mogoce ugotovimo, da ne "deluje", ce ni vsaj malo popisan, z recimo nekimi osnovnimi lastnostmi, ki bi ustrezale nasemu temperamentu in podobnim lastnostim. > se v njem ne bodo po nekem čudežu spontano pojavile kar same od sebe. Si preprican? Po mojem to izhaja iz precej osnovne zdruzitve samoohranitvenega nagona in moznosti vzivetja v drugo osebo. Ko to posplosis, prides do zlatega pravila. Naslednje vprasanje se postavlja, zakaj mislis, da so te stvari pri ljudeh prirojene in ne pridobljene iz druzbe? > vse to predpostavlja, da bi se pri snovanju AI močno zgledovali po > človeški inteligenci - dejansko bi jo morali praktično kar > prekopirati. Nikakor pa ni nujno, da bo AI zasnovana na takšen način > - v resnici je verjetneje, da ne bo. Splosen AI po mojem najverjetneje bo. Ampak to bomo videli. Je oboje le spekulacija. Sploh se mi zdi to taksna super nedeljska tema: polno moznosti za spekulacije, polno moznosti za tako imenovano znanstveno argumentiranje, ki pa bolj meji na znanstveno fantastiko. Ampak ljudje imamo veliko razlicnih hobijev. Pac eni filozofi radi filozofirajo o enih "kaj ce", drugi pa pac o drugih "kaj ce". Moram priznati, da je tudi meni kdaj prijetno malo o tem klepetati. > Ni si težko predstavljati, da kako večje podjetje zgradi svoj AI recimo > za namen trgovanja z vrednostnimi papirji in ga pri tem načrtuje tako > splošno, da lahko vsrka vase in razume ogromne količine informacij z > interneta, vse z namenom čim natančnejšega napovedovanja in vplivanja na > borzne krivulje. Kognitivna dinamika takšnega sistema ne vsebuje nobenih > čustev, senzorne modalnosti se le slabo ujemajo s človeškimi, teorija > uma je pri njem le prediktivno orodje brez kake možnosti preko empatije > vplivati na moralne razsodbe, ki pa jih tako ali tako ne izvaja, saj > sledi le enemu samemu cilju - povečanju dobička z igranjem z > vrednostnimi papirji ter kasneje, če njena inteligenca dovolj naraste, > tudi z "realnejšim svetom". Gre za sistem s kognitivno arhitekturo, ki > se močno razlikuje od človeške, in pri njem nam samoumevna recipročna > logika "če se bom lepo obnašal do njega, se bo tudi on do mene" nima > nikakršne veljave. Si prevec gledal Terminatorja. Zal mi je, ampak jaz zelo zel dvomim, da se lahko nekaj kar tako zgodi, brez da bi pred tem bilo veliko neuspehov in prez da bi pred tem opazali, da se stvari dogajajo. Torej taksen scenarij se bo zgodil le, ce bo ta korporacija to dopustila in na tem intenzivno delala (recimo z dograjevanjem opreme in placevanjem vedno vecjega racuna za elektriko, bolj bo ta sistem rastel). > Em... bi lahko pojasnil, kaj je zavest, t.j. kakšni kognitivni algoritmi > so potrebni da nek sistem ima zavest? Ker sem precej prepričan, da tega > ne zmoreš - saj je, kolikor mi je znano, to še nerešen problem - bi me > zanimalo, od kod prepričanje, da AGI ne more delovati brez te neznane > mešanice algoritmov? Hm. Definiraj "delovati"? Mogoce pa jaz narobe razumem definicijo AGI. V vsakem primeru: ne, ne morem ti se pojasniti vse te algoritme, ker jih se pisem. Mogoce kdaj drugic. In moje vera pac izvira iz mojih preliminarnih poskusov na tem podrocju. Je pa predvsem "stava". Pac jaz stavim na to obliko in da je to potrebno. Mogoce kaj uspem, mogoce ne. Verjetno kdo drug, ki to raziskuje, pa stavi na kaj drugega. > Sklepanje pri katerem premetavaš neke nerazumljene črne škatle je sicer > popularno med mnogimi filozofi, vendar vse preprogosto vodi v popolnoma > zgrešene zaključke in žal se mi zdi, da gre pri tebi ravno za to. > Must be more careful. :) Jaz ne vlecem nobenih zakljuckov. Tako da zato pri meni ne gre za to. :-) Ti vleces zakljucke na podlagi spekulacij. Jaz se vecinoma zavedam, da ne morem z gotovostjo (niti veliko verjetnostjo) trditi niti enega niti drugega. Edino kar lahko trenutno z gotovostjo (oziroma veliko verjetnostjo) o prihodnosti trdim je, da nam bo zmanjkalo virov energije, kar se bo se bolj poznalo zaradi velike populacije ljudi. To lahko govorim zaradi omejene kolicine teh virov in zaradi stalne rasti porabe teh virov. Zato je zame to veliko bolj konkretna nevarnost. Mitar
