Zdravo! > Kompleksnost njenih miselnih procesov bi namreč hitro izjemno narastla, > zaradi česar bi bilo njeno zavajanje zelo težko/praktično nemogoče > zaznati...
Verjetno lahko navrzes hitro kaksen teoreticni clanek, zakaj bi naj tako hitro narascala ta umetna inteligenca. Zato bom tu malo drugace zastavil to. Kdo pravi, da smo mi v zgodovini evolucije najpametnejsa bitja? Mogoce so bila bolj pametna, ki pa so ravno zaradi svoje pretirane pameti, izumrle. Torej ni le inteligenca tista, ki vpliva na moznost prezivetja (to dokazuje velik nabor drugih bitij, ce pogledas okoli sebe) in torej ni nujno, da je visja inteligenca kot nasa, bolj prilagojena za zivljenje v okolju z veliko dodatnimi selekcijskimi mehanizmi. Konkretni primer. Imas Neandertalca, ki je veliko pametnejsi od takratnega cloveka. Tako inteligenten, da je ugotovil, da je najboljse za prezivetje vsakega posameznika, da se ne pobijajo med seboj, ampak da sodelujejo. Tako srecajo takratnega cloveka, ki je tudi malcek inteligenten, ampak ne tako, da bi to ze pogruntal. Ampak Neandertalci pa mislijo, da je ja samoumevno, da bo vsako inteligentno bitje to razumelo. In zato se dobijo z njimi neoborozeni (itak so imeli orozje samo za lovljenje mamutov, ne pa za pobijanje med seboj). Ljudje vidijo njihova lepa krzna in jih pobijejo ter si vzamejo krzna. Ter se odpravijo dalje. > Medtem ko ima AI precizen dostop do lastne kode, Zakaj tocno ze? > motivacijski sistem AI zasnuješ tako, da je njen prvi podcilj design > AI-Boxa iz katerega ne more uiti. S tem uporabiš njeno moč proti njej > sami. Ce ze lahko vplivas na motivacijski sistem, a ni potem boljse preprosto narediti taksnega, ki bi se bal pobegniti iz boxa? Nekaj podobnega kot je pri ljudeh, ki si ne upajo iz stanovanja. Mitar
