Hola, entrop�logos

La verdad es que no estoy muy puesto en todos estos temas de entrop�a, pero
s� se algo de transmisi�n de la informaci�n, al fin y al cabo ese es el
coraz�n de la inform�tica.

Un c�digo inambiguo con palabras de longitud variable en el que una ristra
de ceros y unos puede descomponerse en palabras seg�n una sola
interpretaci�n tendr�a los siguientes requerimientos.
- Para un n�mero n de palabras tendremos n c�digos seg�n la siguiente
secuencia:
    Para cada elemento x, de 1 a n
        C�digo = x-1 veces "1" + "0"
    siendo la longitud de cada elemento x.
El �ltimo c�digo de la serie se puede optimizar eliminando el cero final, ya
que no hay posibilidad de error y cualquier secuencia binaria puede ser
descompuesta inequ�vocamente en sus palabras componentes.
Eso significa que el n�mero de bits necesarios para enviar un mensaje,
siendo la frecuencia de uso de cada palabra inversamente proporcional al
cuadrado de su longitud (1/2, 1/4, 1/8, 1/16, etc), ser�a:
1/2+2/4+3/8+4/16+ ... + n/2^n + ... + (n-1)/2^(n-1) + (n-1)/2^(n-1)
Hasta ah� llego yo.
Ahora bien, las probabilidades de aparici�n de una palabra nunca se
corresponder�n con este caso hipot�tico, si ponemos todas las palabras de
cualquier lenguaje por orden de frecuencia, estas frecuencias mostrar�n un
abanico de distribuci�n mucho m�s cerrado que empieza mucho m�s abajo. La
palabra m�s frecuente del espa�ol no s� cual ser�, puede que A o DE o EL, ni
idea, pero su probabilidad no es de 1/2, quiz�s, todo lo m�s, sea de 1/20. Y
suponiendo un vocabulario de mil palabras, las dos menos probables tendr�an
que tener una probabilidad de 1/2^999. Esa es una probabilidad tan baja que
pasar�an yoquesentos mil porrillones de veces la edad del universo para que
se usara, y estoy dispuesto a hacer una apuesta capaz de producir una
paradoja.
En cualquier sistema de comunicaci�n, la palabra menos frecuente saldr� en
todos los informes estad�sticos, con lo que a la larga ser� m�s frecuente
que la que tiene una frecuencia inmediatamente inferior.
Si sois capaces de mascar esta ultima frase os dareis cuenta de que implica
una paradoja bestial.
Pero me estoy saliendo de madre, a lo que quiero llegar es a que todo esto
de la entrop�a en la comunicaci�n puede ser una teor�a interesante, pero la
realidad de un lenguaje cualquiera no es tan matematizable.

Las m�quinas, desde luego, son tontas. No puedes decirles "Haz esto", sino
que tienes que explicarle paso a paso c�mo hacer cualquier cosa. Y el c�digo
inambiguo m�s econ�mico de todos es el de una longitud fija por unidad de
informaci�n.
Nosotros tenemos la suerte de ser inteligentes (o eso me creo a veces) y
somos capaces de tratar con c�digos de longitud variable, pero intentar
aplicar f�rmulas tan precisas a un tema tan poco matematizable como el del
lenguaje me parece bastante dif�cil.

(Dijo la zorra a las uvas)



--------------------------------------------------------------------
IdeoLengua - Lista de Ling�istica e Idiomas Artificiales
Suscr�base en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net


 

Su uso de Yahoo! Grupos est� sujeto a las http://e1.docs.yahoo.com/info/utos.html 


Responder a