David,

            veo que eres bastante experto en esto de la entrop�a. Como me interesa
a�ado algunos comentarios.

[david, escrib�a]
Hablando de entrop�a y seres vivos, R. Margalef ha aplicado el concepto a diversas 
�reas de la Bilog�a ... (supongo de eso Mariano
sabe bastante m�s que yo :-)
[mariano]
Creo que durante mis estudios de Biolog�a ten�a alg�n texto de Margalef...

[david, escrib�a]
El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la 
ling��stica. Margalef descubri� que en ciertos
sistemas estructurados (a diferencia de lo que sucede en un sistema f�sico aislado) la 
entrop�a no crece sin cesar sino que llega a
un equilibrio con algo llamado "conectividad" (q es una medida de la interrelaci�n o 
depedencia de unos elementos de otros). En ese
sentido una lengua en tanto que sistema estructurado podr�a estar sometido a 
restricciones de ese tipo.
[mariano]
Bueno, como sabes la segunda ley de la termodin�mica trata de 'sistemas
cerrados' (o asilados) y afirma -expresado con brevedad- que la entrop�a
en un sistema asilado o se mantiene o aumenta, pero no disminuye (otra
manera de expresarlo es decir que en un sistema aislado la distribuci�n
de la energ�a o permanece estable o se hace m�s uniforme, pero no crece
el desequilibrio).
Pero, esta ley tiene una expresi�n paralela en la teor�a de la informaci�n
 (teor�a de la comunicaci�n) que afirmar�a que en un sistema en que un
emisor y un receptor se comunican la entrop�a de la informaci�n comunicada
o se mantiene o aumenta (o de otra manera que la informaci�n comunicada
o llega intacta o hay una p�rdida de informaci�n debida al ruido, pero no
aumenta la informaci�n). No s� yo si lo que, Margalef -o t�, tambi�n- llamas
"conectividad" sea precisamente un medida de la entrop�a en t�rminos de la
informaci�n en un sistema.
Pero, �qu� ocurre si consideramos sistemas abiertos? ni la termodin�mica
ni la teor�a de la informaci�n dicen nada al respecto. Es decir, solo dicen
que en un sistema abierto la entrop�a podr�a disminuir, mantenerse o aumentar.
No obstante, desde antiguo se sabe, por un lado, que tal cosa como el "eternum
movile" (una m�quina con inercia perfecta) es una utop�a, porque debido
a la fricci�n su entrop�a aumenta irremediablemente, y por otro que los
seres vivos son capaces de disminuir su entrop�a. Y quien dice entrop�a
termodin�mica, puede -curiosamente-, tambi�n decir entrop�a informacional.
En resumen, que trat�ndose de *sistemas abiertos* si los sistemas son mec�nicos
la entrop�a *tiende* a mantenerse o aumentar, pero si se trata de sistemas vivos
la entrop�a *tiende* a disminuir.

[david, escrib�a]
Antes de pasar a eso me gustar�a hablar muy brevemente de ese trabajo de Margalef y 
Guti�rrez ::::: en ese trabajo se tomaron 78
circuitos electr�nicos comerciales q serv�an para diversas cosas. Y se midieron dos 
cosas:
(a) El n�mero de elementos electr�nicos de cada tipo (condensadores, diodos, 
resistencias, ....)
(b) El n�mero de conexiones de cada elemento con los otros.

A partir de (a) se evalu� la entrop�a estad�stica como suma(p(i)�log p(i)), donde p(i) 
es el n�mero de componentes del tipo i
dividido entre el n�mero de elementos totales del circuito. Con lo cual p(i) viene a 
ser la probabilidad de que dado un circuito un
componente sea un componente del tipo (i). A partir de (b) se calcul� el n�mero medio 
de conexiones por elemento en cada circuito.
Lo m�s curioso es que al representar el gr�fico se obten�a que exist�a una clara 
relaci�n entre ambos par�metros calculados:

http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif
(es una imagen de tan solo 8 kb)

Lo m�s curioso del tema es que los dise�adores de estos circuitos evidentemente no 
eran conscientes de este hecho. Con lo cual este
hecho es un "hecho natural" y no el resultado de una decisi�n deliberada. Con lo cual 
mi interpretaci�n es que para obtener un
circuito funcional existen ciertos condicionantes vagos en cuanto a la diversidad del 
n�mero de componentes
[mariano]
A ver si te sigo, �podr�amos hablar de la cantidad de entrop�a como una medida
inversa de la redundancia? Es decir, que de acuerdo al gr�fico, a *mayor* entrop�a (o
*menor* redundancia) del circuito menor n�mero de conexiones por elemento
se precisa y viceversa, a menor entrop�a (o mayor redundancia) del circuito mayor
n�mero de conexiones por elemento se precisa.

[david, escrib�a]
[.........................]
Con lo cual parece que exist�an factores (a) que tend�an aumentar la entrop�a 
estad�stica a corto plazo, pero al parecer con el
tiempo pero a medio plazo (al menos en el plano fonol�gico) la entrop�a estad�stica 
dismun�a siempre? Solo despu�s de considerar
factores de "conectividad" pod�a explicar esta aparente contradicci�n pero solo en 
parte.
[mariano]
Lo que entiendo es que la entrop�a de las palabras es una propiedad relativa al 
sistema,
y que en el caso de las reducciones de las palabras ya por los ni�os, ya por el cambio
ling��stico es preciso relativizar la idea de cantidad de entrop�a de una palabra al 
sistema
en que se encuentra, sea el idiolecto infantil (hablando de las palabras de los ni�os)
o sea el particular dialecto hist�rico (hablando de las palabras en dos etapas del 
cambio
ling��stico); (�) quiz�s sea "la conectividad" precisamente tal medida relativizada 
(?).
De lo poco que he le�do sobre cambio ling��stico entiendo que las palabras: nacen,
crecen o se multiplican por analog�a, se extienden, se hacen m�s abstractas y 
eventualmente
desaparecen. Asimismo, su n�mero, como has explicado, en una cultura estable tiende
a aumentar (por especializaci�n de las palabras y por sumarse las variaciones lectales
de palabras para un mismo concepto).

[david]
Desde luego todav�a estoy algo lejos de poder explicar en profundidad que entiendo por 
"conectividad" y dar una definici�n general y
explicar como medirla (solo tengo idea de "factores conectivantes" en casos 
concretos). Pero creo que una teor�a matem�tica m�s o
menos precisa del cambio ling��stico deber�a ir por aqu�. En otro mail cuando tenga 
algo m�s de tiempo mirar� de dar unos cuantos
ejemplos de mis pesquisas ....
[mariano]
Me gustar�a a m� tambi�n entender que sentido tiene la idea de
conectividad.

En cuanto a la medici�n de la entrop�a y su utilizaci�n en la ling��stica
hace poco mencion� un art�culo donde se explicaba una medida de esta
mediante el uso del algoritmo de compresi�n en archivos .zip para
distinguir mediante ella tanto la autor�a de un escrito como la clasificaci�n
de un idioma:
http://ojps.aip.org/getabs/servlet/GetabsServlet?prog=normal&id=PRLTAO000088000004048702000001&idtype=cvips&gifs=Yes&jsessionid=3484
651016454377919

http://www.nature.com/nsu/020121/020121-2.html

Por otro lado, creo que es interesante, relacionar a la entrop�a con la
teor�a del caos, ya que los sistemas ca�ticos se caracterizan por poseer
entrop�as medias y viceversa una entrop�a media es caracter�stica de
un sistema ca�tico. Por esto, estoy interesado, tambi�n, en saber qu�
partido se le podr�a sacar a los datos obtenidos con el m�todo de an�lisis
de la recurrencia y el programa para hacerlo cuyo enlace doy a continuaci�n:

http://pw1.netcom.com/~eugenek/download.html

Una de las medidas que se pueden obtener mediante este an�lisis
es el de la entrop�a del sistema que haya originado una serie temporal
de datos dada una reconstrucci�n del sistema a partir de tales datos.
�Da la tremenda casualidad de que el lenguaje hablado o escrito o de
cualquier otra clase equivale a una serie temporal de datos!

Un saludo cordial,
                                                            mariano








--------------------------------------------------------------------
IdeoLengua - Lista de Ling�istica e Idiomas Artificiales
Suscr�base en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos est� sujeto a las http://e1.docs.yahoo.com/info/utos.html 


Responder a