Cari Tutti,
ho affrontato la questione dell’accoppiata energia−informazione altre
volte. Ora aggiungo, altrettanto brevi considerazioni in proposito.
L’energia è un modo di essere dell’informazione e l’informazione è un modo
di essere dell’energia.
In apodittica o estrema sintesi:
* *Informazione naturale o termodinamica*: *I* = −*S* = neg−entropia
(energia libera) dipendente dalla *forma* o distribuzione/diffusione delle
molecole o particelle: *entropia* (energia degradata) è equilibrio o
diffusione omogenea o indifferenziata delle particelle o molecole, perché
il gradiente termico (separazione delle molecole calde e veloci da un lato
e fredde e lente dall’altro) salta: *neg**−**entropia* è dis−equilibrio o
disposizione eterogenea o differenziata delle particelle o molecole dando
luogo ad un (talvolta verosimile) gradiente o differenziale termico;
* *Informazione genetica *è: informazione delle informazioni: moneta
biologica che riempie e determina la vita: comunicazione−trasmissione
genomica da cui dipende la *forma* struttural/funzionale o
funzional/strutturale degli organismi umani, animali e vegetali; energia
vitale connessa al codice inscritto nei geni: alla base del passaggio della
ricerca biologica dal metabolismo alla genetica;
* *Informazione matematica*: teoria strutturale delle proprietà statistiche
della fonte implicante studi di ingegneria della trasmissione
dell’informazione relativi a processi che trasmettono unità di informazione
non significanti; secondo Shannon e Weaver [140] l’informazione è il
valore di equi probabilità che si realizza tra molte possibilità
combinatorie ed è direttamente proporzionale all’*entropia *(misurata in
bit) di un dato sistema ;
* *Informazione semiotico**−**semantica*: teoria strutturale delle
proprietà generative di un s−codice che sottendono processi in cui unità
significanti di informazione sono trasmesse a fini comunicativi; l’s−codice
sovrapposto alla equiprobabilità del sistema lo domina comunicativamente,
riducendone l’informazione matematica, ma rendendo possibile la
comunicazione di significati selezionati, trasmessi e ricevuti.
Se l’informazione può essere definita sia come entropia sia come neg−entropia,
questo discende dal fatto che nel primo caso si tratta di informazione
matematica, nel secondo caso di informazione semiotico−semantica. Allora
come si fa a dire o scrivere che l’informazione non ha niente a che vedere
con l’energia, quando l’energia è una forma di informazione e
l’informazione è una forma di energia?
Cari colleghi, Vi chiedo scusa per lo stile espressivo (oltre che per la
lingua italiana) usato, oltre che per lo schema assai sintetico che
propongo alla vostra significativa attenzione. Comunque, Vi ringrazio per
la compagnia che mi fate. Il tempo ci martirizza, rendendoci testimoni
della nostra e altrui storia. Un abbraccio affettuoso a tutti.
Francesco.
2018-05-31 17:28 GMT+02:00 Joseph Brenner :
> Stan,
>
>
>
> Good, but things can also run in the opposite direction. How about variety
> (plus more energy) generating more variety, more possibilities and allowing
> new ‘information’ to emerge? Standard logical analysis is inadequate
> because it cannot handle this picture.
>
>
>
> Joseph
>
>
> --
>
> *From:* Fis [mailto:fis-boun...@listas.unizar.es] *On Behalf Of *Stanley
> N Salthe
> *Sent:* jeudi, 31 mai 2018 16:21
> *To:* Burgin, Mark; fis
>
> *Subject:* Re: [Fis] Is information physical? A logical analysis
>
>
>
> Mark -- What Shannon referred to as 'entropy' was 'variety'. 'Information'
> per se was achieved by way of a reduction or winnowing of this variety of
> possibilities, leaving 'information' to survive.
>
>
>
> STAN
>
>
>
> On Wed, May 30, 2018 at 10:24 PM, Burgin, Mark
> wrote:
>
> Dear Loet,
> Only one remark. There is no Shannon-type information but there is
> Shannon's measure of information, which is called entropy.
>
> Sincerely,
> Mark
>
>
> On 5/23/2018 10:44 PM, Loet Leydesdorff wrote:
>
> Dear Mark, Soren, and colleagues,
>
>
>
> The easiest distinction is perhaps Descartes' one between* res cogitans*
> and* res extensa* as two different realities. Our knowledge in each case
> that things could have been different is not out there in the world as
> something seizable such as piece of wood.
>
>
>
> Similarly, uncertainty in the case of a distribution is not seizable, but
> it can be expressed in bits of information (as one measure among others).
> The grandiose step of Shannon was, in my opinion, to enable us to
> operationalize Descartes'* cogitans* and make it amenable to the
> measurement as information.
>
>
>
> Shannon-type information is dimensionless. It is provided with meaning by
> a system of reference (e.g., an observer or a discourse). Some of us prefer
> to call only thus-meaningful information real information because it is
> embedded. One can also distinguish it from Shannon-type information as
> Bateson-type information. The latter can be deba