Zdravo!

> Kompleksnost njenih miselnih procesov bi namreč hitro izjemno narastla,
> zaradi česar bi bilo njeno zavajanje zelo težko/praktično nemogoče
> zaznati...

Verjetno lahko navrzes hitro kaksen teoreticni clanek, zakaj bi naj tako
hitro narascala ta umetna inteligenca. Zato bom tu malo drugace zastavil
to. Kdo pravi, da smo mi v zgodovini evolucije najpametnejsa bitja?
Mogoce so bila bolj pametna, ki pa so ravno zaradi svoje pretirane
pameti, izumrle. Torej ni le inteligenca tista, ki vpliva na moznost
prezivetja (to dokazuje velik nabor drugih bitij, ce pogledas okoli
sebe) in torej ni nujno, da je visja inteligenca kot nasa, bolj
prilagojena za zivljenje v okolju z veliko dodatnimi selekcijskimi
mehanizmi.

Konkretni primer. Imas Neandertalca, ki je veliko pametnejsi od
takratnega cloveka. Tako inteligenten, da je ugotovil, da je najboljse
za prezivetje vsakega posameznika, da se ne pobijajo med seboj, ampak da
sodelujejo. Tako srecajo takratnega cloveka, ki je tudi malcek
inteligenten, ampak ne tako, da bi to ze pogruntal. Ampak Neandertalci
pa mislijo, da je ja samoumevno, da bo vsako inteligentno bitje to
razumelo. In zato se dobijo z njimi neoborozeni (itak so imeli orozje
samo za lovljenje mamutov, ne pa za pobijanje med seboj). Ljudje vidijo
njihova lepa krzna in jih pobijejo ter si vzamejo krzna. Ter se
odpravijo dalje.

> Medtem ko ima AI precizen dostop do lastne kode,

Zakaj tocno ze?

> motivacijski sistem AI zasnuješ tako, da je njen prvi podcilj design
> AI-Boxa iz katerega ne more uiti. S tem uporabiš njeno moč proti njej
> sami.

Ce ze lahko vplivas na motivacijski sistem, a ni potem boljse preprosto
narediti taksnega, ki bi se bal pobegniti iz boxa? Nekaj podobnega kot
je pri ljudeh, ki si ne upajo iz stanovanja.


Mitar

Reply via email to