>> Por ejemplo estoy pr�cticamente convencido de que existe una "segunda ley >termodin�mica de la ling��stica" :-) que vendr�a a decir: "en un sistema la entrop�a >aumenta hasta un grado m�ximo compatible con la conectividad del subsistema >ling��stico (fonolog�a o morfolog�a o sem�ntica)" .... Recu�rdese que la "segunda >ley" ha sido aplicada a sistemas q tienen q ver poco que ver con la termodin�mica o >la f�sica. Recuerdo por ejemplo q Wagensberg explicaba en una conferencia lo >emocionante que fue ver como esta "segunda ley" explicaba perfectamente bien la >distribuci�n de tama�os en una colonia de peces, y cuando se llegaba al equilibrio >entre peces grandes y peces peque�os.<< Hablando de entrop�a y seres vivos, R. Margalef ha aplicado el concepto a diversas �reas de la Bilog�a ... (supongo de eso Mariano sabe bastante m�s que yo :-) El caso es que el propio Margalef tiene un trabajo que creo que es relevante para la ling��stica. Margalef descubri� que en ciertos sistemas estructurados (a diferencia de lo que sucede en un sistema f�sico aislado) la entrop�a no crece sin cesar sino que llega a un equilibrio con algo llamado "conectividad" (q es una medida de la interrelaci�n o depedencia de unos elementos de otros). En ese sentido una lengua en tanto que sistema estructurado podr�a estar sometido a restricciones de ese tipo. Antes de pasar a eso me gustar�a hablar muy brevemente de ese trabajo de Margalef y Guti�rrez ::::: en ese trabajo se tomaron 78 circuitos electr�nicos comerciales q serv�an para diversas cosas. Y se midieron dos cosas: (a) El n�mero de elementos electr�nicos de cada tipo (condensadores, diodos, resistencias, ....) (b) El n�mero de conexiones de cada elemento con los otros. A partir de (a) se evalu� la entrop�a estad�stica como suma(p(i)�log p(i)), donde p(i) es el n�mero de componentes del tipo i dividido entre el n�mero de elementos totales del circuito. Con lo cual p(i) viene a ser la probabilidad de que dado un circuito un componente sea un componente del tipo (i). A partir de (b) se calcul� el n�mero medio de conexiones por elemento en cada circuito. Lo m�s curioso es que al representar el gr�fico se obten�a que exist�a una clara relaci�n entre ambos par�metros calculados: http://groups.yahoo.com/group/ideolengua/files/Entrop_01.gif (es una imagen de tan solo 8 kb) Lo m�s curioso del tema es que los dise�adores de estos circuitos evidentemente no eran conscientes de este hecho. Con lo cual este hecho es un "hecho natural" y no el resultado de una decisi�n deliberada. Con lo cual mi interpretaci�n es que para obtener un circuito funcional existen ciertos condicionantes vagos en cuanto a la diversidad del n�mero de componentes Esto me lleva a pensar que para obtener un SISTEMA ESTRUCTURADO Y FUNCIONAL (una lengua o un ser vivo) existen ciertos condicionantes o si se prefiere una especie de ley universal que relaciona la entrop�a (o cantidad de informaci�n necesaria para especificar el sistema o informaci�n impl�citamente contenida en dicho sistema) y el grado de interrelaci�n de los elementos. Este trabajo de Margalef y mi interpretaci�n del mismo, me ayudaron a comprender un peque�o puzzle ling��stico: (a) Si analizamos la entrop�a fonol�gica del habla de los ni�os (tomando castellano e ingl�s como lenguas de estudio) descubr� que el habla de los adultos tiene una mayor entrop�a (informaci�n impl�cita). Pi�nsese que los ni�os tienden a reducir ciertos grupos conson�nticos dificiles: tengo > teno, puerta > perta, grande > rande, spoon > boon (todos estos ejemplos son reales los he o�do en ni�os) o a asimilar unas consonantes a otras dentro de la misma palabra: danone > nanone, dormir > momir, etc... eso es lo que hace que su entrop�a estad�stica sea menor, parte de la informaci�n se omite o es reconstruible a partir de otros elementos. En general el n�mero de nombres para designar objetos o acciones verbales disponibles en una cultura estable es acumulativo, con lo cual su entrop�a en general aumenta con el tiempo. Aunque esto no es siempre as� (por ejemplo las personas de ciudad tienden usar t�rminos generales para animales y plantas, al contrario que la gente de �mbito rural). (b) Los cambios fon�ticos observados en decenas de lenguas, tienden a reducir la entrop�a estad�stica (a nivel fonol�gico). En las p�rdidas de consonantes de consonantes y en las asimilaciones esto es obvio ya que se reduce la diversidad de combinaciones admisibles y por tanto se est� simplifcando la estructura fonol�gica. En los 'splits' de fonemas la cosa es m�s dudosa, por ejemplo aparentemente la palatalizaci�n en lat�n /k/ tard�o ante vocal anterior /e, i/ viola esta ley ya que de /ka, ke, ki, ko, ku/ > /ka, ke, Te, ki, Ti, ko, ku/ (ya que aparece un nuevo fonema /T/ = <c> ante /e, i/, como en lat�n "cerrare" /keRare/ > cast. "cerrar" /TeRaR/), pero si vemos que incluso cuando una /k/ cambia a seg�n reglas fijas (es decir, el tema es predecible en la mayoria de los casos viendo la vocal siguiente) no tenemos aumento de la informaci�n. Este factor de EROSI�N de los cambios fon�ticos, es lo que obliga a REMORFOLOGIZAR las lenguas, hecho que sucedi� en lenguas romances despu�s de la ruina de la declinaci�n latina, o en egipcio dem�tico al arruinar los cambios fon�ticos la conjugaci�n del egipcio cl�sico, o en antiguo mandar�n al reducir los cambios fon�ticos palabras originalmente diferentes a hom�fonos fon�ticamente id�nticos! Con lo cual parece que exist�an factores (a) que tend�an aumentar la entrop�a estad�stica a corto plazo, pero al parecer con el tiempo pero a medio plazo (al menos en el plano fonol�gico) la entrop�a estad�stica dismun�a siempre? Solo despu�s de considerar factores de "conectividad" pod�a explicar esta aparente contradicci�n pero solo en parte. Desde luego todav�a estoy algo lejos de poder explicar en profundidad que entiendo por "conectividad" y dar una definici�n general y explicar como medirla (solo tengo idea de "factores conectivantes" en casos concretos). Pero creo que una teor�a matem�tica m�s o menos precisa del cambio ling��stico deber�a ir por aqu�. En otro mail cuando tenga algo m�s de tiempo mirar� de dar unos cuantos ejemplos de mis pesquisas ....
David S�nchez [Se han eliminado los trozos de este mensaje que no conten�an texto] -------------------------------------------------------------------- IdeoLengua - Lista de Ling�istica e Idiomas Artificiales Suscr�base en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Su uso de Yahoo! Grupos est� sujeto a las http://e1.docs.yahoo.com/info/utos.html
