>> Por ejemplo estoy pr�cticamente convencido de que existe una "segunda ley 
>termodin�mica de la ling��stica" :-) que vendr�a a decir: "en un sistema la entrop�a 
>aumenta hasta un grado m�ximo compatible con la conectividad del subsistema 
>ling��stico (fonolog�a o morfolog�a o sem�ntica)" .... Recu�rdese que la "segunda 
>ley" ha sido aplicada a sistemas q tienen q ver poco que ver con la termodin�mica o 
>la f�sica. Recuerdo por ejemplo q Wagensberg explicaba en una conferencia lo 
>emocionante que fue ver como esta "segunda ley" explicaba perfectamente bien la 
>distribuci�n de tama�os en una colonia de peces, y cuando se llegaba al equilibrio 
>entre peces grandes y peces peque�os.<<
 
Hablando de entrop�a y seres vivos, R. Margalef ha aplicado el concepto a diversas 
�reas de la Bilog�a ... (supongo de eso Mariano sabe bastante m�s que yo :-)
 
El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la 
ling��stica. Margalef descubri� que en ciertos sistemas estructurados (a diferencia de 
lo que sucede en un sistema f�sico aislado) la entrop�a no crece sin cesar sino que 
llega a un equilibrio con algo llamado "conectividad" (q es una medida de la 
interrelaci�n o depedencia de unos elementos de otros). En ese sentido una lengua en 
tanto que sistema estructurado podr�a estar sometido a restricciones de ese tipo.
 
Antes de pasar a eso me gustar�a hablar muy brevemente de ese trabajo de Margalef y 
Guti�rrez ::::: en ese trabajo se tomaron 78 circuitos electr�nicos comerciales q 
serv�an para diversas cosas. Y se midieron dos cosas:
(a) El n�mero de elementos electr�nicos de cada tipo (condensadores, diodos, 
resistencias, ....)
(b) El n�mero de conexiones de cada elemento con los otros.
 
A partir de (a) se evalu� la entrop�a estad�stica como suma(p(i)�log p(i)), donde p(i) 
es el n�mero de componentes del tipo i dividido entre el n�mero de elementos totales 
del circuito. Con lo cual p(i) viene a ser la probabilidad de que dado un circuito un 
componente sea un componente del tipo (i). A partir de (b) se calcul� el n�mero medio 
de conexiones por elemento en cada circuito. Lo m�s curioso es que al representar el 
gr�fico se obten�a que exist�a una clara relaci�n entre ambos par�metros calculados:
 
http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif
(es una imagen de tan solo 8 kb) 
 
Lo m�s curioso del tema es que los dise�adores de estos circuitos evidentemente no 
eran conscientes de este hecho. Con lo cual este hecho es un "hecho natural" y no el 
resultado de una decisi�n deliberada. Con lo cual mi interpretaci�n es que para 
obtener un circuito funcional existen ciertos condicionantes vagos en cuanto a la 
diversidad del n�mero de componentes 
 
Esto me lleva a pensar que para obtener un SISTEMA ESTRUCTURADO Y FUNCIONAL (una 
lengua o un ser vivo) existen ciertos condicionantes o si se prefiere una especie de 
ley universal que relaciona la entrop�a (o cantidad de informaci�n necesaria para 
especificar el sistema o informaci�n impl�citamente contenida en dicho sistema) y el 
grado de interrelaci�n de los elementos. Este trabajo de Margalef y mi interpretaci�n 
del mismo, me ayudaron a comprender un peque�o puzzle ling��stico:
 
(a) Si analizamos la entrop�a fonol�gica del habla de los ni�os (tomando castellano e 
ingl�s como lenguas de estudio) descubr� que el habla de los adultos tiene una mayor 
entrop�a (informaci�n impl�cita). Pi�nsese que los ni�os tienden a reducir ciertos 
grupos conson�nticos dificiles: tengo > teno, puerta > perta, grande > rande, spoon > 
boon (todos estos ejemplos son reales los he o�do en ni�os) o a asimilar unas 
consonantes a otras dentro de la misma palabra: danone > nanone, dormir > momir, 
etc... eso es lo que hace que su entrop�a estad�stica sea menor, parte de la 
informaci�n se omite o es reconstruible a partir de otros elementos.
En general el n�mero de nombres para designar objetos o acciones verbales disponibles 
en una cultura estable es acumulativo, con lo cual su entrop�a en general aumenta con 
el tiempo. Aunque esto no es siempre as� (por ejemplo las personas de ciudad tienden 
usar t�rminos generales para animales y plantas, al contrario que la gente de �mbito 
rural).
 
(b) Los cambios fon�ticos observados en decenas de lenguas, tienden a reducir la 
entrop�a estad�stica (a nivel fonol�gico). En las p�rdidas de consonantes de 
consonantes y en las asimilaciones esto es obvio ya que se reduce la diversidad de 
combinaciones admisibles y por tanto se est� simplifcando la estructura fonol�gica. En 
los 'splits' de fonemas la cosa es m�s dudosa, por ejemplo aparentemente la 
palatalizaci�n en lat�n /k/ tard�o ante vocal anterior /e, i/ viola esta ley ya que de 
/ka, ke, ki, ko, ku/ > /ka, ke, Te, ki, Ti, ko, ku/ (ya que aparece un nuevo fonema 
/T/ = <c> ante /e, i/, como en  lat�n "cerrare" /keRare/ > cast. "cerrar" /TeRaR/), 
pero si vemos que incluso cuando una /k/ cambia a seg�n reglas fijas (es decir, el 
tema es predecible en la mayoria de los casos viendo la vocal siguiente) no tenemos 
aumento de la informaci�n.
Este factor de EROSI�N de los cambios fon�ticos, es lo que obliga a REMORFOLOGIZAR las 
lenguas, hecho que sucedi� en lenguas romances despu�s de la ruina de la declinaci�n 
latina, o en egipcio dem�tico al arruinar los cambios fon�ticos la conjugaci�n del 
egipcio cl�sico, o en antiguo mandar�n al reducir los cambios fon�ticos palabras 
originalmente diferentes a hom�fonos fon�ticamente id�nticos!
 
Con lo cual parece que exist�an factores (a) que tend�an aumentar la entrop�a 
estad�stica a corto plazo, pero al parecer con el tiempo pero a medio plazo (al menos 
en el plano fonol�gico) la entrop�a estad�stica dismun�a siempre? Solo despu�s de 
considerar factores de "conectividad" pod�a explicar esta aparente contradicci�n pero 
solo en parte.
 
Desde luego todav�a estoy algo lejos de poder explicar en profundidad que entiendo por 
"conectividad" y dar una definici�n general y explicar como medirla (solo tengo idea 
de "factores conectivantes" en casos concretos). Pero creo que una teor�a matem�tica 
m�s o menos precisa del cambio ling��stico deber�a ir por aqu�. En otro mail cuando 
tenga algo m�s de tiempo mirar� de dar unos cuantos ejemplos de mis pesquisas ....

David S�nchez


[Se han eliminado los trozos de este mensaje que no conten�an texto]


--------------------------------------------------------------------
IdeoLengua - Lista de Ling�istica e Idiomas Artificiales
Suscr�base en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos est� sujeto a las http://e1.docs.yahoo.com/info/utos.html 


Responder a