Zdravo! > Skratka, cilj je najprej razviti FAI teorijo, ki bo nato vodila AGI > design v pravi,
Kot sem ze omenjal, meni to skoraj temelji na "intelligent design" teorijo. Zelo dvomim, da lahko FAI "designiramo". Po mojem lahko le zastavimo prave zacetne pogoje (uceci se sistem recimo + polno drugih stvari) iz kateri se FAI razvije. Mogoce bo kdaj celo mozno, ampak zelo verjetno ne na zacetku. Prvo bomo imeli primere, ki jih sploh ne bomo razumeli. Podobno kot se sedaj lovimo glede razumevanja DNK. Da pa bi lahko se dodatno nacrtoval DNK tako, da bi potem clovek, ki bi se iz njega razvil imel taksne in taksne lastnosti, bil "friendly", to pa je se veliko tezje. Torej ce bomo uspeli narediti umetni sistem, ki bo FAI, bomo nekje na podrocju uspeha, da smo uspesno se poigrali z DNK in naredili ziv organizem, z inteligenco. Ampak da pa bomo sedaj na to se vplivali. Uh. In da bi zaceli v obratni smeri nacrtovanje? Se vecji uh. To se mi zdi le lepa zelja, ampak zal ne uresnicljiva. Je prevec kompleksen taksen pristop. Ampak vseeno zelim veliko srece tistim, ki se ga bodo lotili. Predvsem da bodo lahko prepricali financerje v smiselnost tega. ;-) > Svetovna rast prebivalstva se že lep čas upočasnjuje: > http://en.wikipedia.org/wiki/File:World_population_growth_rates_1800-2005.png Se vedno je pozitivna. 1 % od 8 milijard je 80 milijonov. To ni tako malo novih lacnih ust. In novih potreb za energijo. Ampak seveda se upocasnjuje. In pocasi bo slo navzdol. Strmo. > Prof. v videu omenja zaskrbljujoče destvo, kako zelo se še vedno > povečuje prebivalstvo ZDA, pozablja pa omeniti, da je to večinoma > posledica priseljevanja, ki pa k rasti svetovnega prebivalstva seveda ne > prispeva. Migracije so normalni del populacijske dinamike. Pac gredo od tam, kjer jih je vec, tja kjer jih je manj. Se vedno pa potem na tistem podrocju raste stevilo prebivalcev. In glede na to, da to raste tudi globalno gledano, je se vedno problem. In se vecji bo, ko se bo zacelo manjsati. Ker bo neprijetno zmanjsevanje. > sončnih celic, Da ne govorimo o energiji, ki je potrebna za njihovo proizvodnjo. In umazaniji pri tem > vetrnih elektrarn, Ki skodujejo naravi, spreminjajo vetrne tokove. Ves kaksen super ucinek bomo s tem dosegli, ko bomo vetrovom odvzeli energijo, tako da se oblaki z dezjem ne bodo premikali vec naokoli? Heh, se niti formirali se ne bodo. Podobno kot izraba vodne energije unicuje ekosisteme. To bi bil naj pristop, da izboljsamo nase bivanje tu? > Če bi se razmere zaostrile, pa lahko začnemo tudi mnogo bolj > drastično varčevati z nafto, ki bo tako v prvi vrsti namenjena > proizvodnji hrane in se ne bo v takšnih količinah kurila za "skoke na > Havaje", kot se to dogaja sedaj. He he. In seveda bodo ljudje to kar tako sprejeli. In kaj bo potem z vsemi tistimi, ki so trenutno zaposleni v turizmu? Pristali bodo na cestah? Zanimivo bo. > Takšen izid pa nikakor ni nujen: eksponentna rast lahko podobno kot > pri prebivalstvu začne pešati že mnogo preden nam začenja iti za > nohte in se tako elegantno ognemo maltuzijanskim zaključkom. Ti ne razumes. Eksponentna rast 2% ali 1% je se vedno eksponentna rast! In druzba je danes tako naucena, da zeli "trajno rast". Karkoli manj in je ze panika. > Časa za prehod je torej še dovolj, tudi če se ne zanašamo na napredne > bio/nano/cogno tehnologije... Heh. Glej, karkoli bomo izumili, se vedno bomo prevec energije porabljali. Vec energije pomeni vec toplote. Vec toplote pomeni vec tezav. Ampak bomo videli. Za sedaj se nimamo realne resitve za energijo. Govoriti o tem, da se bo to resilo, je mogoce le primer "wishful thinking". No, ampak pustimo te spekulacije. Bom verjel, ko bom videl. V eno ali drugo smer. > prijazna superinteligenca na naši strani jih zlahka reši. Heh. In kdo pravi, da bi bila le ena? Ampak ne bi bila ena od Kitajcev, druga od Rusov, tretja od ZDA ...? Moja skrb je, da dokler mi sami pri sebi ne razcistimo tezav, bomo se vedno imeli tezave. In seveda mi je se vedno zelo vsec ta antropocentricna ideja, da bomo "ustvarili" inteligenco, ki nas bo kar imela rada. Mi vsemogocni ljudje, ki znamo in razumemo vse okoli sebe. Ha ha ha. > Kar se tiče metaetičnih stališč sam spadam med kognitiviste: zame imajo > vprašanja o tem, "kaj je dobro"/"kaj je prav", pravilne in napačne > odgovore. Merila, po katerih sodimo odgovore, so vsebovana že v samem > vprašanju. Ko omenjaš, kako se pobijamo med seboj, bi tako rekel, da so > skoraj vedno naše odločitve, ki vodijo k takšnim dejanjem, (reflektivno > gledano) zmotne - če bi bili pametnejši, modrejši itn., tega ne bi počeli. Ampak nismo pametnejsi in nismo modrejsi ter smo (vsaj nekateri, ki uspesno spodbujejo se ostale) pohlepni. > Odkrito rečeno mi ni čisto jasno kaj želiš povedati s tem, da bi bilo > čisto legitimno, če nas AI želi iztrebiti. Edina dobrohotna > interpretacija, ki sem jo poskušal najti, je očitno napačna... kaj > torej? Da se ti zdi pač ok, če se AI tako odloči!? Da bi bilo njeno > željo treba upoštevati? Ne. Zelim povedati, da ce gledamo kako se mi obnasamo skozi zgodovino do razlicnih vrst, ves cas relativiziramo moralo (to z moralo si ti omenjal, zato sem jo vpeljal) s tem ali drugim argumentom in izlocujemo neke vrste bitij. To razmisljanje, ki ga ti podajas, se vedno nosi sledi tega. Le da tokrat gledamo na celotno clovesko vrsto in na AI kot na tiste, ki morajo delovati v skladu z nasimi cilji. In zato pravim, da imajo potem tudi oni legitimno pravico (dokler mi delamo tako) narediti obratno in ugotoviti, da pa si zelijo kaj drugega glede nas. Nekaj sem peljal misel tudi naprej, da ce potem moralo se bolj posplosujemo, na celotno biosfero, celoten planet, celotno vesolje, lahko pridemo do se drugih zakljuckov, kaj je bolj prav in kaj manj. Kjer mogoce mi ne bi potegnili ravno tistega, kar bi si zeleli. Torej zelim povedati, da mislim, da je narobe, ce se omejis le na eno skupino bitij, ko ugotavljas, kaj je pravilneje in kaj ni, hkrati pa moras biti pripravljen, ce zacnes upostevati to sirse, da se mogoce vec tvoje mnenje ne steje kot apriori pravilno oziroma najboljse. > Imaš kako drugačno idejo kako ustvariti AI? ;) Da. > Morda nam za to manjka inteligence in modrosti, vendar je tudi to > mogoče popraviti - samo spet ne tako, da enostavno izginemo. Bom verjel, ko bom videl. Te besede je enostavno zapisati in so jih zapisovali tako anarhisti, komunisti, demokrati, socialisti, vsi od zacetka do konca. Dvomim, da lahko to kar "popravimo", "naredimo". To bo kvecjemu dolg proces. Ce bomo sploh imeli toliko casa na voljo. > Če AI nima že vgrajenega motiva za to, da prevzame naše družbene norme > in vrednote, jih jasno tudi ne bo. Motiva? Kaj mislis, da cloveski otrok ima motiv, da prevzame naso kulturo? Nima. Pac uci se iz okolja. > Če imaš s tem v mislih projekt 'uploadanja' človeških možganov, Ne. O tem ne vem nic. > Če imaš čas, ti predlagam, da si prebereš kako delo evolucijske > psihologije za obris fantastične kompleksnosti adaptacij, ki nas > delajo to kar smo. Vem in zato vem. Oziroma mislim, da vem. :-) > Kot prvo, prostor vseh inteligentnih sistemov je ogromen in kakšne so > možnosti za to, da so neke posebnosti človeške inteligence - za katere > poleg vsega vsaj približno vemo kakšne evolucijske sile so jih > oblikovale - nujna sestavina vsake inteligence? Sila, sila majhne. Se strinjam. Ampak mislim, da je to pac za nas najlazji nacin, da pridemo do prve taksne oblike. Potem pa se bo to sigurno razvijalo v mnoge smeri naprej. >> Si preprican? Po mojem to izhaja iz precej osnovne zdruzitve >> samoohranitvenega nagona in moznosti vzivetja v drugo osebo. Ko to >> posplosis, prides do zlatega pravila. > > Če si človek, ja, za veliko večino AI sistemo pa to ne velja. Zavedel te > je antropomorfizem. :) Da in ne. To izhaja iz mojega pogleda, kako ustvariti AI, ki pa, kot sem ze veckrat omenil, temelji na cloveku kot primeru. > Drugače so določene lastnosti res univerzalne, npr. kovergentni podcilji > med katerimi se nahaja tudi samoohranitev: > http://selfawaresystems.com/2007/11/30/paper-on-the-basic-ai-drives/ Zanimivo "This will lead almost all systems to protect their utility functions from modification and their utility measurement systems from corruption." Kako si potem razlagas, da ljudje s taksnim veseljem popivajo in kvarijo svoje "measurement systems"? > poleg tega pa imamo vgrajene tudi precej 'matematične intuicije', Says who? > Ideja, relevantna za razumevanje AI, je tule sledeča: brez nekih > (eksplicitno ali implicitno) vgrajenih motivacijskih mehanizmov bo AI > samo stala tam in ne bo naredila prav ničesar - v njenem miselnem > procesu se ne bo spontano pojavila niti želja po modeliranju sveta, > kaj šele po učenju in prevzemanju moralne kulture iz svoje okolice. > Da bi AI sprejela naše vrednote, si mora tega že v sami osnovi > želeti, S tem se strinjam. In pravim, da je te zelje najlazje modelirati po nasih, ker jih najbolj poznamo. > Mimogrede, si že prebral "Artificial Intelligence as a Positive and > Negative Factor in Global Risk"? Nisem. Nimam casa. Raje razvijam svoj AI. Pa boste potem drugi ocenili njegov risk. Bo pa open source. Tako da si ga bo lahko vsak pri sebi doma postavil in videl, ce prezivi ali ne. ;-) > Well, naturalistična definicija inteligence gre nekako v slogu > učinkovite preko-domenske optimizacije > (http://lesswrong.com/lw/vb/efficient_crossdomain_optimization/), tako > da AGI 'deluje' pač tedaj, ko je zmožen takšne optimizacije. OK. Potem pa se jaz moram popraviti. Mene sploh ne zanima AI. Mene zanima umetna zavest oziroma umetno samozavedanje. >> Mogoce pa jaz narobe razumem definicijo AGI. V >> vsakem primeru: ne, ne morem ti se pojasniti vse te algoritme, ker jih >> se pisem. Mogoce kdaj drugic. > > Te bom čez čas spomnil. ;) Bo open source. Si jih bos lahko ogledal. > Ne bi bilo bolje vložiti nekaj časa v temeljitejši racionalni razmislek > (ki bi ti pokazal, da je tvoja 'stava' slaba)? Seveda na tem delam, ampak do sedaj mi je se niso in si je se nisem uspel zavreci. > Se pa sprašujem, če in v kakšnem razmerju bi bil pripravljen staviti , > da je tisto kar imenujemo 'zavest' nujno potrebna sestavina vsake > inteligence, torej tudi AI. Ni. Je pa meni domaca oblika AI in zato se je lotevam na taksen nacin. AI pa je itak zelo splosen pojem, tako da moj spam filter je tudi AI, pa ne bi ravno rekel, da ima zavest. Tako da prvo se moramo dogovoriti, kaj je sploh AI, kaj je inteligenca in kaj je zavest. V vsakem primeru to meni ni tako pomembno. Jaz posnemam cloveka in zato mislim, da bo v neki obliki nastala tudi zavest. Verjetno pa bo res prvo le neka stopnja inteligence. Samo ko pa bo ta stopnja dovolj visoka, ko bo imela se druge podobne sisteme okoli sebe, ko bo lahko zacela vzpostavljati svojo kulturo in druzbo, bo lahko zacela locevati sebe od drugih, pa bo mogoce prislo tudi do samozavedanja in zavesti. > Malo višje si zapisal, da "staviš na to, da je zavest potrebna za > inteligenco" - v kakšnem smislu tule ne gre za nek zaključek, na katerem > baziraš svoja dejanja!? Tako kot sem zapisal. Ce pogledas, kako delujejo razlicne znanstvene raziskave, ljudje postavijo neko hipotezo (stavijo na nekaj) in potem jo potrdijo ali ovrzejo. Razlog, zakaj se odlocijo za neko hipotezo je lahko razlicen. Vcasih nic vec kot nek obcutek. Zato uporabljam besedo "staviti", ker je po mojem precej znanstvenega raziskovanja taksnega. Stavis na nekaj, ce uspes, objavis clanek in postanes znan. Ce ne uspes, si pa pac izgubil stavo. Ne pomeni to, da trdim, da je to tako in da bi bil pripravljen staviti za to. Ali kakorkoli si ti to ze razumel. Ravno obratno. Gre za hipotezo, na katero stavim. Ce bom pa kaj na podlagi nje ugotovil, pa bom lahko potem potegnil zakljucek, ali je bila prava (ali ne). > Se pa sprašujem, če ob teh svojih besedah sploh pomisliš na posledice in > verjetnosti, ki vodijo do njih ter oboje združiš v pričakovano korist > (EU - expected utility). Cigavo korist? > Konsekvencialistično razmišljanje ti gotovo ni tuje, tako da se res > čudim, kako ne vidiš tega, da celo dokaj majhna možnost, da recimo > unFriendly AI privede do eksistenčne katastrofe, ni nekaj, kar je > potrebno nujno preprečiti Prevec stavkov z negacijo. Ta slovenscina je tu precej zamotana. A lahko preoblikujes? > Celo majhna možnost, da nam uspe ustvariti FAI bi potemtakem morala > biti razlog za to, da moramo nujno poskusiti Meni je ustarjanje FAI sporno. Ustvarjanje samozavedajocega se inteligentnega bitja, ki ne bi imelo svobodne volje se odlocati tudi za stvari, ki se nam mogoce ne bi zdele v redu. Temu se rece suzenjski odnos. Nove dobe. Ne pravim, da bi nam moralo biti vsec, ce se odloci za kaj taksnega, ampak moral pa bi imeti to moznost. Tako kot ima tvoj kolega moznost, da te ubije. Ampak vseeno potem na drugacne nacine dosezemo, da tega ne naredi. Oziroma da si, navkljub svoji svobodni volji, tega niti ne zeli. > če pa pristopiš k problemu, s katerim se ukvarja le peterica, bo tvoj > prispevek mnogo večji. Bom jaz raje tej peterici dal konkretne stvari za delo. :-) Mitar
