Mitar je napisal:
Skratka, cilj je najprej razviti FAI teorijo, ki bo nato vodila AGI
design v pravi smeri,
Kot sem ze omenjal, meni to skoraj temelji na "intelligent design"
teorijo. Zelo dvomim, da lahko FAI "designiramo". Po mojem lahko le
zastavimo prave zacetne pogoje (uceci se sistem recimo + polno drugih
stvari) iz kateri se FAI razvije.
...in v kakšnem smislu tole *ni* design!? Mislil sem, da boš pokazal na
evolucijske metode kot na način za izgradnjo FAI in resnično nasprotje
inteligentnemu designu, ampak tole kar omenjaš je nekaj povsem drugega.
Torej ce bomo uspeli narediti umetni sistem, ki bo FAI, bomo nekje na
podrocju uspeha, da smo uspesno se poigrali z DNK in naredili ziv
organizem, z inteligenco. Ampak da pa bomo sedaj na to se vplivali. Uh.
In da bi zaceli v obratni smeri nacrtovanje? Se vecji uh.
Nikoli nisem rekel, da bo lahko, kvečjemu obratno, ampak v bistvu nimamo
izbire. Sistem, ki je le visoko inteligenten, ne vsebuje pa zelo specifične
in nujno potrebne kompleksnosti za 'friendliness', je praktično zagotovo
unFriendly in s tem žebelj v našo krsto.
Ampak vseeno zelim veliko srece tistim, ki se
ga bodo lotili. Predvsem da bodo lahko prepricali financerje v
smiselnost tega. ;-)
Singularity Institute for AI ima kar lepo število donatorjev, tako da nek
mali denarni potoček že teče v naši smeri. Upam, da bo sčasoma močno
narastel in kolikor vem, v resnici res kaže na to. :)
Svetovna rast prebivalstva se že lep čas upočasnjuje:
http://en.wikipedia.org/wiki/File:World_population_growth_rates_1800-2005.png
Se vedno je pozitivna. 1 % od 8 milijard je 80 milijonov. To ni tako
malo novih lacnih ust. In novih potreb za energijo.
Ter novih razumov, ki lahko prispevajo k znanstveno-tehnološkemu napredku in
tako povečajo učinkovitost izrabe energije.
Ampak seveda se upocasnjuje. In pocasi bo slo navzdol. Strmo.
No need to worry then. ;)
Prof. v videu omenja zaskrbljujoče destvo, kako zelo se še vedno
povečuje prebivalstvo ZDA, pozablja pa omeniti, da je to večinoma
posledica priseljevanja, ki pa k rasti svetovnega prebivalstva seveda ne
prispeva.
Migracije so normalni del populacijske dinamike. Pac gredo od tam, kjer
jih je vec, tja kjer jih je manj. Se vedno pa potem na tistem podrocju
raste stevilo prebivalcev. In glede na to, da to raste tudi globalno
gledano, je se vedno problem. In se vecji bo, ko se bo zacelo manjsati.
Ker bo neprijetno zmanjsevanje.
Kolikor se spomnim, je bila kavzalna pot, ki jo je želel narisati prof.
sledeča:
rast svetovnega prebivalstva --> vedno večja poraba energije --> energentov
začne zmanjkovati --> ogromen problem
...vendar preseljevanje ne prispeva k rasti svetovne populacije in
posledično k velikemu problemu. Ampak saj vseeno. Okoli tega se mi res ne da
pričkati.
Bi me pa zanimalo, zakaj naj bi prišlo do tega neprijetnega zmanjševanja
prebivalstva? Lakota kot posledica motenj v proizvodnji hrane zaradi
pomanjkanja fosilnih goriv? Najbrž si opazil pandemijo debelosti, ki seje
smrt po razvitem svetu, ter razmišljanje, da bi imela prehrambena industrija
zaradi svoje centralne vloge pravico do naftnih derivatov pred vsemi
drugimi.
Sicer pa celo v primeru drastičnega zmanjšanja prebivalstva... do izumrtja
je še vedno daleč in zaradi tega takšen razvoj dogodkov ne spada med
eksistenčna tveganja.
Da ne govorimo o energiji, ki je potrebna za njihovo proizvodnjo [sončnih
celic]. In
umazaniji pri tema
Sončne celice proizvedejo mnogo več energije, kot je potrebujemo za njihovo
konstrukcijo; umazanija nas pa ne bo ubila.
[vetrne elektrarne] skodujejo naravi, spreminjajo vetrne tokove. Ves
kaksen super ucinek
bomo s tem dosegli, ko bomo vetrovom odvzeli energijo, tako da se oblaki
z dezjem ne bodo premikali vec naokoli? Heh, se niti formirali se ne bodo.
Neumnost. Si prepričan, da niso tegale prsti kar avtomatično natipkali -
brez sodelovanja razuma?!
Podobno kot izraba vodne energije unicuje ekosisteme. To bi bil naj
pristop, da izboljsamo nase bivanje tu?
Hidroelektrarne tudi meni niso preveč všeč, čeprav se mi zdi kolateralna
škoda ob njihovi izgradnji in delovanju sprejemljiva. Poleg tega uničevanje
ekosistemov ne predstavlja eksistenčnega tveganja in zato ni ravno na vrhu
lestvice pomembnosti, kar pa naj bi bil kontekst tega pogovora.
Če bi se razmere zaostrile, pa lahko začnemo tudi mnogo bolj
drastično varčevati z nafto, ki bo tako v prvi vrsti namenjena
proizvodnji hrane in se ne bo v takšnih količinah kurila za "skoke na
Havaje", kot se to dogaja sedaj.
He he. In seveda bodo ljudje to kar tako sprejeli. In kaj bo potem z
vsemi tistimi, ki so trenutno zaposleni v turizmu? Pristali bodo na
cestah?
Tudi med 2. sv. vojno marsikomu na oni strani Luže ni bilo najbolj pogodu
vse to varčevanje in žrtvovanje, pa to ni prineslo konca sveta.
Ti ne razumes. Eksponentna rast 2% ali 1% je se vedno eksponentna rast!
Sem opazil. Kaj pa rast, z negativnim drugim odvodom? Torej 2%,
1%,...0.1%..., 0%? Ali pa 2%,0%,-1%, -1.1%...?
In druzba je danes tako naucena, da zeli "trajno rast". Karkoli manj in
je ze panika.
Že v vsaki vasici so danes slišali za trajnostni razvoj in sčasoma bo jasno
praktično vsakomur, da na dolgi rok eksponentna rast pač ni mogoča - čeprav
to niti ni nujno potrebno, vsaj še ne prav kmalu. Preden nam tako počasna
eksponentna rast pričenja res kazati zobe, bodo minila še desetletja, celo
če pozabimo na radikalnejše tehnološke preboje.
Časa za prehod je torej še dovolj, tudi če se ne zanašamo na napredne
bio/nano/cogno tehnologije...
Heh. Glej, karkoli bomo izumili, se vedno bomo prevec energije
porabljali. Vec energije pomeni vec toplote. Vec toplote pomeni vec tezav.
Še ena neumnost.
Če recimo v vesolju zgradimo ogromne sončne panele in uporabimo za transport
energije na Zemljo mikrovalove in laser ter tako rešimo večji del naših
energetskih potreb... bo Zemlja implodirala zaradi odpadne toplote, ki jo
proizvaja vsak termodinamsko nepovraten proces?! Ali pa če napredna
nanotehnologija močno poveča izkositek naših naprav...
Ampak bomo videli. Za sedaj se nimamo realne resitve za energijo.
...in ta zaključek temelji na čem že? Na podrobni analizi možnosti, ki jih
ponuja jedrska energija in sončne elektrarne? Na vodikovih tehnologijah kot
alternativi naftnim derivatom?
prijazna superinteligenca na naši strani jih zlahka reši.
Heh. In kdo pravi, da bi bila le ena? Ampak ne bi bila ena od Kitajcev,
druga od Rusov, tretja od ZDA ...?
'First mover advantage'. Prva AI, ki preide v fazo rekurzivne
samo-izboljšave prepreči nastanek svojim konkurentom. There can be only one
(singleton: http://www.nickbostrom.com/fut/singleton.html). ;)
In seveda mi je se vedno zelo vsec ta antropocentricna ideja, da bomo
"ustvarili" inteligenco, ki nas bo kar imela rada. Mi vsemogocni ljudje,
ki znamo in razumemo vse okoli sebe. Ha ha ha.
Ha ha, kako zabavno, prav res. V svoji vsemogočnosti se bom razpočil od
smeha.
Kar se tiče metaetičnih stališč sam spadam med kognitiviste: zame imajo
vprašanja o tem, "kaj je dobro"/"kaj je prav", pravilne in napačne
odgovore. Merila, po katerih sodimo odgovore, so vsebovana že v samem
vprašanju. Ko omenjaš, kako se pobijamo med seboj, bi tako rekel, da so
skoraj vedno naše odločitve, ki vodijo k takšnim dejanjem, (reflektivno
gledano) zmotne - če bi bili pametnejši, modrejši itn., tega ne bi
počeli.
Ampak nismo pametnejsi in nismo modrejsi ter smo (vsaj nekateri, ki
uspesno spodbujejo se ostale) pohlepni.
To sicer drži, ampak ne vpliva na kriterij s katerim je mogoče teoretično
presojati pravilnost moralnih trditev (kar pa je relevantno za nek del FAI
teorije).
Zelim povedati, da ce gledamo kako se mi obnasamo skozi zgodovino do
razlicnih vrst, ves cas relativiziramo moralo (to z moralo si ti
omenjal, zato sem jo vpeljal) s tem ali drugim argumentom in izlocujemo
neke vrste bitij. To razmisljanje, ki ga ti podajas, se vedno nosi sledi
tega.
Naj bi po drugi strani vsak kamenček vključevali v svoje moralne presoje?
Vsako muho ali virus? Nekje je potrebno potegniti mejo, čeprav je ta bolj
mehke narave in FAI osnovana na Coherent Extrapolated Volition ideji nam
ponuja priložnost, da to mejo tudi precizno določimo - tako da bo,
reflektivno gledano, najboljša (v njej bi bili upoštevani tudi argumenti
kakršen je tvoj zg.).
Le da tokrat gledamo na celotno clovesko vrsto in na AI kot na
tiste, ki morajo delovati v skladu z nasimi cilji. In zato pravim, da
imajo potem tudi oni legitimno pravico (dokler mi delamo tako) narediti
obratno in ugotoviti, da pa si zelijo kaj drugega glede nas.
V tem primeru je bolje, da takšne AI (*) ne ustvarimo, se ti ne zdi?
(*) Recimo, da imamo AI katere glavni cilj je dokaz Goldbachove domneve; ta
cilj generira za svoj podcilj uničenje človeštva, saj AI želi transformirati
celoten planet v neke oblike superračunalnik. Njena odločitev o uničenju
ljudi torej izhaja izrecno iz želje po zadostitvi glavnemu cilju in še
zdaleč ne na razmisleku oblike 'ljudje so tudi iztrebljali druga bitja, zato
si sami zaslužijo enako usodo'.
Nekaj sem peljal misel tudi naprej, da ce potem moralo se bolj
posplosujemo, na celotno biosfero, celoten planet, celotno vesolje,
lahko pridemo do se drugih zakljuckov, kaj je bolj prav in kaj manj.
Kjer mogoce mi ne bi potegnili ravno tistega, kar bi si zeleli.
Morda, in mogoče bi bilo tako tudi prav. Ni pa to ravno lahko določiti.
Zaradi tega fragmenti FAI teorije, ki jih že imamo v roki, govorijo o tem,
da bi namesto eksplicitnega vprogramiranja moralnih vrednot - česar tako ali
tako ni mogoče izvesti - skonstruirali dinamiko, ki bi izračunala
reflektivno ravnovesje morale človeštva (*). Vkolikor je tvoje zg.
razmišljanje dobro, bi ga takšna AI tudi upoštevala in na osnovi tega
alocirala nekaj resursov vesolja tudi drugim bitjem...
(*) Nekaj podobnega kar je opisano tule:
http://plato.stanford.edu/entries/reflective-equilibrium/
Opis tega dela teorije pa se nahaja tule:
http://singinst.org/upload/CEV.html
Torej zelim povedati, da mislim, da je narobe, ce se omejis le na eno
skupino bitij, ko ugotavljas, kaj je pravilneje in kaj ni, hkrati pa
moras biti pripravljen, ce zacnes upostevati to sirse, da se mogoce vec
tvoje mnenje ne steje kot apriori pravilno oziroma najboljse.
Se strinjam, vendar bi podrobnosti tega (nad katera bitja razširiti in kako
jih upoštevati v svoji moralni razsoji) raje prepustil FAI.
Morda nam za to manjka inteligence in modrosti, vendar je tudi to
mogoče popraviti - samo spet ne tako, da enostavno izginemo.
Bom verjel, ko bom videl. Te besede je enostavno zapisati in so jih
zapisovali tako anarhisti, komunisti, demokrati, socialisti, vsi od
zacetka do konca. Dvomim, da lahko to kar "popravimo", "naredimo". To bo
kvecjemu dolg proces. Ce bomo sploh imeli toliko casa na voljo.
Če resno misliš, da izbris človeštva z obličja Zemlje lahko prispeva k rasti
naše inteligence in modrosti... potem lahko le upam, da boš čim hitreje
spoznal svojo napako.
Kar pa se tiče samega procesa izboljšave in njegove hitrosti: na obzorju so
že danes vidne tehnologije, ki bodo omogočale dvig naše inteligence in
nikakor ni nujno, da bo šlo za posebej počasen proces - sploh če nam uspe
sprožiti prijazno eksplozijo inteligence. Za katere tehnologije gre? Google
intelligence augmentation - in morda še transhumanism.
Če AI nima že vgrajenega motiva za to, da prevzame naše družbene norme
in vrednote, jih jasno tudi ne bo.
Motiva? Kaj mislis, da cloveski otrok ima motiv, da prevzame naso
kulturo? Nima. Pac uci se iz okolja.
Seveda ima motiv, četudi je ta implicitno prisoten (torej neviden
reflektivnim/zavednim procesom). Osnove evolucijske psihologije.
Če imaš s tem v mislih projekt 'uploadanja' človeških možganov,
Ne. O tem ne vem nic.
Whole Brain Emulation - A Roadmap:
http://www.philosophy.ox.ac.uk/__data/assets/pdf_file/0019/3853/brain-emulation-roadmap-report.pdf
Wiki:
http://en.wikipedia.org/wiki/Mind_uploading
To izhaja iz mojega pogleda, kako ustvariti AI, ki pa, kot sem
ze veckrat omenil, temelji na cloveku kot primeru.
Prva letala nismo zasnovali s skrbnim kopiranjem ptic in nič kaj ne kaže, da
analogna pot vodi do prvih AI sistemov (če izvzamem emulacije možganov). Bi
se pa strinjal s tem, da lahko možgani služijo kot inspiracija za AI design.
Drugače so določene lastnosti res univerzalne, npr. kovergentni podcilji
med katerimi se nahaja tudi samoohranitev:
http://selfawaresystems.com/2007/11/30/paper-on-the-basic-ai-drives/
Zanimivo "This will lead almost all systems to protect their utility
functions from modification and their utility measurement systems from
corruption."
Kako si potem razlagas, da ljudje s taksnim veseljem popivajo in kvarijo
svoje "measurement systems"?
Naši možgani so spaghetti-code, kar je zaradi njihovega evolucijskega izvora
tudi pričakovano (knjiga 'Kluge: The Haphazard Construction of the Human
Mind'); ljudje nismo posebej inteligentni, zaradi česar ne zmoremo povsem
ohranjevati oblike tistega, čemur v formalnih modelih pravijo 'utility'
funkcija - dogaja se nam 'value drift'; popivanje in veseljačenje je eden
izmed naših motivov, ki ga drugi motivi vedno ne preglasijo. Nasprotja med
citatom in našim obnašanjem torej ni.
poleg tega pa imamo vgrajene tudi precej 'matematične intuicije',
Says who?
Zaprem oči in si predstavljam gladek potek kvadratne funkcije ter prikličem
iz spomina raziskavo, ki lepo pokaže, da že zelo majhni otroci poznajo modus
ponens. ;) Tole je ena izmed bolj subtilnih idej in moram priznati, da se mi
trenutno ne da opisovati miselne poti, ki vodi do nje. Mogoče kdaj drugič.
Mimogrede, si že prebral "Artificial Intelligence as a Positive and
Negative Factor in Global Risk"?
Nisem. Nimam casa. Raje razvijam svoj AI. Pa boste potem drugi ocenili
njegov risk. Bo pa open source. Tako da si ga bo lahko vsak pri sebi
doma postavil in videl, ce prezivi ali ne. ;-)
As u wish.
Če bi ti po nekem čudežu uspelo razviti 'pravi' AI, bi s tem dejansko uničil
svet in časa za ocenjevanje tveganja ne bi bilo več - čeprav k sreči ni
nekega strahu za to. Problem je vseeno - celo brez Friendly dela - izjemno
težak.
Well, naturalistična definicija inteligence gre nekako v slogu
učinkovite preko-domenske optimizacije
(http://lesswrong.com/lw/vb/efficient_crossdomain_optimization/), tako
da AGI 'deluje' pač tedaj, ko je zmožen takšne optimizacije.
OK. Potem pa se jaz moram popraviti. Mene sploh ne zanima AI. Mene
zanima umetna zavest oziroma umetno samozavedanje.
Aha, to je pa nekaj povsem drugega. Želim ti veliko uspeha pri tem, čeprav
menim, da nimaš praktično nikakršne možnosti za to, da ti uspe ustvariti
umetno zavest.
Bo open source [samozavedajoči se AI]. Si jih bos lahko ogledal.
Pošlji mejl, ko boš kaj ustvaril.
AI pa je itak zelo splosen pojem, tako da moj spam filter je tudi AI, pa
ne bi ravno rekel, da ima zavest.
Še v nečem se strinjava (dodal bi edino, da je spam filter primer 'narrow
AI' sistema in ne AGI oz. 'pravi' AI).
Tako da prvo se moramo dogovoriti, kaj je sploh AI, kaj je inteligenca in
kaj je zavest.
'AI', kot je uporabljana tule, je močan preko-domenski optimizacijski
proces, ki učinkovito izrablja resurse pri doseganju svojih ciljev.
Zavest pa je težje definirati, čeprav za prvi približek lahko rečemo, da gre
za tiste kognitivne procese v naših možganih, ki so odgovorni za stavke kot
je "Cogito ergo sum!" in občutek doživljanja, ki mu nekateri pravijo tok
qualie. V mojem pogledu je zavest zelo lepo opisana v Chalmersovem članku
'Facing Up to the Problem of Consciousness', čeprav se z njegovo delitvijo
na lahke in težak problem ter poskusom razrešitve ne strinjam. Je pa to bolj
kot ne prazen del zemljevida, zaradi česar tudi moja nizka ocena možnosti
tvojega uspeha pri umetni zavesti.
V vsakem primeru to meni ni tako pomembno. Jaz posnemam cloveka in zato
mislim, da bo v neki obliki nastala tudi zavest.
Kako lahko posnemaš nekaj, kar je v veliki meri nepoznano?
Glede na to, kako tankočuten si bil zg. do drugih bitij, se ti takšna
dejavnost ne zdi nič kaj moralno sporna? Če bi ti res uspelo ustvariti
družbo samo-zavedajočih se bitij in bi ta bitja doživljala mnogo bolečine...
ni to podobno mučenju živali?
Verjetno pa bo res prvo
le neka stopnja inteligence. Samo ko pa bo ta stopnja dovolj visoka, ko
bo imela se druge podobne sisteme okoli sebe, ko bo lahko zacela
vzpostavljati svojo kulturo in druzbo, bo lahko zacela locevati sebe od
drugih, pa bo mogoce prislo tudi do samozavedanja in zavesti.
S tem razmišljanjem se celo strinjam, čeprav mislim, da bi moral pri
posnemanju zelo dobro ujeti človeško kognitivno arhitekturo - kar pa je vse
prej kot lahko.
Ce pogledas, kako delujejo razlicne znanstvene
raziskave, ljudje postavijo neko hipotezo (stavijo na nekaj) in potem jo
potrdijo ali ovrzejo. Razlog, zakaj se odlocijo za neko hipotezo je
lahko razlicen. Vcasih nic vec kot nek obcutek.
Bojim se, da na tak način zlahka zapraviš celotno kariero in ne dosežeš
praktično ničesar.
Ne pomeni to, da trdim, da je to tako in da bi bil pripravljen staviti
za to. Ali kakorkoli si ti to ze razumel. Ravno obratno. Gre za
hipotezo, na katero stavim. Ce bom pa kaj na podlagi nje ugotovil, pa
bom lahko potem potegnil zakljucek, ali je bila prava (ali ne).
Želel sem le izvabiti tvojo oceno verjetnosti hipoteze. Če bi stavil z mano
v razmerju 1:1, bi to pomenilo, da je tvoje zaupanje približno enako p=0.5.
V primeru tvojega projekta umetne zavesti sem recimo pripravljen staviti v
razmerju 100:1 (torej mojih 100€ proti tvojemu 1€), da ti ne bo uspelo.
Se pa sprašujem, če ob teh svojih besedah sploh pomisliš na posledice in
verjetnosti, ki vodijo do njih ter oboje združiš v pričakovano korist
(EU - expected utility).
Cigavo korist?
Našo.
Konsekvencialistično razmišljanje ti gotovo ni tuje, tako da se res
čudim, kako ne vidiš tega, da celo dokaj majhna možnost, da recimo
unFriendly AI privede do eksistenčne katastrofe, ni nekaj, kar je
potrebno nujno preprečiti
Prevec stavkov z negacijo. Ta slovenscina je tu precej zamotana. A lahko
preoblikujes?
Bom poskusil. :)
Ideja je sledeča: obstaja določena verjetnost p, da tekom prihodnjih
desetletij nekdo ustvari unFriendly AI in s tem povzroči izumrtje človeštva
(in tudi preostale favne in flore). Da je takšen potek dogodkov nekaj
izjemno slabega, je menda očitno - korist oz. utility U(izumrtje človeštva)
je nekje daleč med negativnimi števili. Za prvi približek lahko merimo
korist/slabost (utility) v številu človeških življenj (če v neki letalski
nesreči umre 200 ljudi, je to 2-krat slabše, kot če jih kaj drugega pokonča
100). Tudi če vsaj za začetek pozabimo na vsa prihodnja življenja in
galaktično supercivilizacijo, ki ji eksistenčna katastrofa kot je pojav uFAI
prepreči nastanek, je pričakovana 'korist' EU(dopustimo/povzročimo nastanek
uFAI) = p * U(izumrtje človeštva) ... močno negativna. To velja tudi pri
zelo nizki verjetnosti p. Po drugi strani pa je EU(preprečimo pojav uFAI)
izjemno visoka in zaradi tega takšno dejanje visoko na lestvici
pomembnosti...
Primer takšnega sklepanja: Alice ima brata Boba, ki je zbolel za neko
nevarno boleznijo. Alice ocenjuje, da je verjetnost p(Bob umre zaradi
bolezni) = 0.6. U(Bob je mrtev) je očitno negativna (Alice bi bila zelo
žalostna če umre). EU(Alice ne naredi ničesar) = p * U ... nekaj
negativnega. Denimo, da obstaja zdravilo, ki bi spremenilo p z 0.6 na 0.1 -
kolikšen trud bi bila pripravljena Alice vložiti v to, da bi dobila to
zdravilo? Intuitivno gledano, zelo veliko truda.
Analogen zaključek sledi tudi v primeru uFAI in drugih eksistenčnih tveganj:
za njihovo preprečitev bi morali biti pripravljeni vložiti izjemno veliko
truda.
Naslednjega članka sicer nisem prebral, vseeno pa na podlagi povzetka
izgleda, kot da se ukvarja ravno s tem argumentom:
http://www.jgmatheny.org/matheny_extinction_risk.htm
Mimogrede, link sem našel na strani:
http://www.global-catastrophic-risks.com/
Če te moji povzetki razmišljanja ne prepričajo, ti predlagam, da malce
pregledaš omenjena linka - ali pa osnove preferenčnega utilitarizma.
Celo majhna možnost, da nam uspe ustvariti FAI bi potemtakem morala
biti razlog za to, da moramo nujno poskusiti
Meni je ustarjanje FAI sporno. Ustvarjanje samozavedajocega se
inteligentnega bitja, ki ne bi imelo svobodne volje se odlocati tudi za
stvari, ki se nam mogoce ne bi zdele v redu. Temu se rece suzenjski
odnos.
Kot prvo, nikjer nisem rekel, da bi se FAI zavedala sebe in dejansko želimo
ustvariti takšno AI, ki ne bi imela te lastnosti.
Kot drugo, tudi o svobodni volji nisem rekel ničesar, bi me pa zanimalo, kaj
se po tvojem mnenju sploh skriva za tem pojmom.
Suženjski odnos torej ne sledi.
Ne pravim, da bi nam moralo biti vsec, ce se odloci za
kaj taksnega, ampak moral pa bi imeti to moznost. Tako kot ima tvoj
kolega moznost, da te ubije. Ampak vseeno potem na drugacne nacine
dosezemo, da tega ne naredi. Oziroma da si, navkljub svoji svobodni
volji, tega niti ne zeli.
Vsekakor. FAI bi imela na razpolago celotno paleto dejanj - mnogo širšo od
te, ki je na voljo ljudem - vendar njeno izbiro bi omejevali njeni cilji
(podobno kot pri ljudeh), zaradi katerih ne bi najbrž nikoli izbrala umora.
Mislim, da nisem nikjer trdil drugače.
če pa pristopiš k problemu, s katerim se ukvarja le peterica, bo tvoj
prispevek mnogo večji.
Bom jaz raje tej peterici dal konkretne stvari za delo. :-)
Brez skrbi, so sami čisto sposobni poiskati delo, vredno največje
pozornosti. ;)
Rok