Juan,

            aunque no soy un experto no le quito el ojo de encima
a las cuestiones de entrop�a, pues es esta precisamente la clave
para entender por qu� un computador no puede pensar por s� mismo
(no sigue las leyes de Newton, para las que todo es reversible), su
entrop�a o tiende a mantenerse o aumentar si disminuye es por
influencia externa solo momentaneamente; algo distinto ocurre
con los seres que se organizan a s� mismos (�"autoorganizables"?
no da el sentido reflexivo apropiado) en estos la entrop�a puede
crecer o mantenerse, pero, la tendencia es a que disminuya en
cuanto que la informaci�n tiende a aumentar (se hacen m�s
complejos).

[juan]
La verdad es que no estoy muy puesto en todos estos temas de entrop�a, pero
s� se algo de transmisi�n de la informaci�n, al fin y al cabo ese es el
coraz�n de la inform�tica.
[mariano]
�Pues de eso se trata, de las leyes de Shanon para la trasmisi�n de la
informaci�n! "La segunda ley de Shanon" es sobre la entrop�a de
la informaci�n. De lo que trato es de una tercera ley de la informaci�n
referible a sistemas abiertos que se organizan a s� mismos y que conocemos
en los seres vivos.

[juan]
Eso significa que el n�mero de bits necesarios para enviar un mensaje,
siendo la frecuencia de uso de cada palabra inversamente proporcional al
cuadrado de su longitud (1/2, 1/4, 1/8, 1/16, etc), ser�a:
1/2+2/4+3/8+4/16+ ... + n/2^n + ... + (n-1)/2^(n-1) + (n-1)/2^(n-1)
Hasta ah� llego yo.
[mariano]
No s� seguirte, pero, en fin, sigo leyendo.

[juan]
Ahora bien, las probabilidades de aparici�n de una palabra nunca se
corresponder�n con este caso hipot�tico, si ponemos todas las palabras de
cualquier lenguaje por orden de frecuencia, estas frecuencias mostrar�n un
abanico de distribuci�n mucho m�s cerrado que empieza mucho m�s abajo. La
palabra m�s frecuente del espa�ol no s� cual ser�, puede que A o DE o EL, ni
idea, pero su probabilidad no es de 1/2, quiz�s, todo lo m�s, sea de 1/20. Y
suponiendo un vocabulario de mil palabras, las dos menos probables tendr�an
que tener una probabilidad de 1/2^999. Esa es una probabilidad tan baja que
pasar�an yoquesentos mil porrillones de veces la edad del universo para que
se usara, y estoy dispuesto a hacer una apuesta capaz de producir una
paradoja.
En cualquier sistema de comunicaci�n, la palabra menos frecuente saldr� en
todos los informes estad�sticos, con lo que a la larga ser� m�s frecuente
que la que tiene una frecuencia inmediatamente inferior.
Si sois capaces de mascar esta ultima frase os dareis cuenta de que implica
una paradoja bestial.
[mariano]
He hecho una lista del corpus ORAL de la UAM (Universidad Aut�noma de
Madrid) que tiene unas 1 200 000 palabras. La pal�bra m�s frecuente que
encuentro es "QUE" y representa el 5,3% (es decir 1 sobre 20) y va seguida de
cerca por "DE" con el 4,33% (es decir 1 sobre 23), as� que no son del todo
equivocadas tus conjeturas. La palabra menos frecuente que me aparece es
un error, >:-(, la primera no erronea es: "ZURZAN" no solo por su infrecuencia,
tambi�n, por empezar por "Z" y su probabilidad es practicamente 1 sobre
0,000 000 8.
Supongo que quieres decir que en todos los informes estad�sticos se incluir�a
la palabra de menor frecuencia pero no la anterior y por eso...
Pero, el lenguaje es adaptativo y la palabra de menor frecuencia es muy probable
que vaya cambiando, por el contrario la de mayor frecuencia es probable que
se mantenga, con lo que curiosamente en el lenguaje natural se da un giro
l�gico a la paradoja.

[juan]
Nosotros tenemos la suerte de ser inteligentes (o eso me creo a veces) y
somos capaces de tratar con c�digos de longitud variable, pero intentar
aplicar f�rmulas tan precisas a un tema tan poco matematizable como el del
lenguaje me parece bastante dif�cil.
[mariano]
El problema se da si se aplican principios unidimensionales, se precisa pensar
en dimensiones m�ltiples y fraccionarias. Yo creo que se lograr�n aproximaciones
muy interesantes mediante la geometr�a de fractales y su matem�tica o, si lo
prefieres, con la teor�a del caos en la cu�l se estudia la recursi�n.
�C�mo se podr�a predecir un cambio en el lenguaje? Prestando atenci�n a la entrop�a
del sistema porque se�ala su predicibilidad, y se lograr� una aproximaci�n
en la predicci�n tanto mayor cuanto mas predecible sea el sistema, cuanto m�s se
sepa del sistema y cuanto m�s corto sea el plazo o la distancia del estado del
sistema que se quiere predecir.
Ya hay usos de esto, pues, el valor de la entrop�a es una caracter�stica tan
espec�fica de cada idioma que se pueden distinguir las familias de lenguas
en funci�n de su medida.
No soy capaz de decidir qu� posibilidades puede tener esta clase de planteamiento,
pero creo que es la clase de planteamientos que vienen.

Un saludo cordial,
                                                        mariano







--------------------------------------------------------------------
IdeoLengua - Lista de Ling�istica e Idiomas Artificiales
Suscr�base en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos est� sujeto a las http://e1.docs.yahoo.com/info/utos.html 


Responder a