David,

He comenzado a traducir el art�culo sobre la entrop�a digr�fica vs la
entrop�a de palabras para proponer su debate abierto, si no les importa.
Aqui va la primera parte del 'abstract' o resumen.
Entiendo la duda sobre la posici�n de W. Friedman acerca del lenguaje de
Dalgarno - en mi pr�ximo email resumir� sus argumentos al respecto, para
agregar al debate. 

> [David] As� por lo que explicas del Voynich cada palabra es m�s corta
> en promedio que en ingl�s [menor n� de signos por palabra] y
> simult�neamente la predictividad de cada caracter es mayor [menor entrop�a por
> signo] eso  se traduce naturalmente en que existe menor entrop�a por palabra.
> As� que la conclusi�n que uno saca es que lo que en ingl�s es una palabra en
> Voynich deben ser dos o tres palabras [ya que en el fondo la informaci�n
> expresada en dos frases A y B tal que una se la traducci�n de la otra en
> diferentes idiomas viene a ser la misma] En ese sentido podr�amos encontrarnos
> que el Voynich es una especie de lengua como el thai o el chino (entrop�a por
> palabra baja y menor numero de fonemas por palabra, y de hecho en chino al
> igual que Voynich se necesitan varias palabras para expresar lo que en
> ingl�s se dice con una).
> Este �ltimo argumento muestra que el Voynich puede ser m�s parecido al
> Chino que no a la lengua de Dalgarno! As� que Friedman creo que estar�a
> confundiendo los dos tipos de analiticidad la que presenta el chino y  la que
> presenta la lenga de Dalgarno.


Tambi�n agregar� lo m�s reciente acerca de la discusi�n Voynich/Chino, cuyas
raices recientemente salieron a relucir, e invito a Jorge Stolfi a que
comente (portugues) esta conclusi�n sobre multiplicidad de palabras para
explicar un solo t�rmino.
Env�o copia de este a nuestra lista dedicada al debate del tema del Voynich
en espa�ol y portugu�s.
Saludos,

Luis
+++++++++++++++++

"De la entrop�a digr�fica a la entrop�a de palabras en el MS de Voynich "

Res�men

Este trabajo investiga la cantidad de informaci�n contenida en cada palabra
tipo �Voynich�, y la compara con la de textos en otros lenguajes
(conocidos). A pesar del hecho de que la palabra �Voynich� promedio es m�s
corta que la palabra latina o inglesa media, y que la previsibilidad de
caracteres solos en las palabras de Voynich es m�s alta que en los lenguajes
normales (puesto que el ' Voynich�' tiene una entrop�a incondicional y
condicional m�s baja del car�cter solo), pareciera que el vocabulario de
Voynich es tan diverso como el de los textos investigados de la comparaci�n.
Esto significa que el Voynich�s es mucho m�s econ�mico en su uso de
caracteres, o que de hecho el lat�n (la lengua principalmente usada en las
comparaciones) es m�s ' derrochador '.

No pueden extraerse conclusiones s�lidas sobre la naturaleza de la lengua
del MS de Voynich en base a la estad�stica presentada en este art�culo
solamente, pero la evidencia que sirve de apoyo o de oposici�n para muchas
de las hip�tesis frecuentes sobre la naturaleza del  �Voynich�s ' puede ser
encontrada. Por ejemplo, queda demostrado que no hay raz�n particular para
asumir que los espacios en el texto del MS de Voynich sean cosa que espacios
normales entre palabras, y que las palabras Voynich parecen ser palabras
normales, no s�labas. La comparaci�n con un texto chino en el sistema de la
transcripci�n de Pinyin muestra una amplia diferencia, mucho mayor que con
el lat�n normal, mientras que una comparaci�n con una muestra
desafortunadamente corta del texto en la lengua articifical de Dalgarno
(dise�ada en 1640, TBC) demuestra un �match�  asombrosamente bueno.

Introducci�n 

Las entrop�as de un solo caracter y las entrop�as digr�ficas o las entrop�as
condicionadas de un solo caracter del Voynich�s son m�s bajas que, por
ejemplo, en el caso del Lat�n o del Ingl�s (v�ase e.g. >> art�culo de Dennis
Stallings ). Tambi�n, las palabras en Voynich�s tienden para ser
relativamente cortas (v�ase >> art�culo de Gabriel Landini acerca del uso de
los leyes de Zipf en el ms ). As�, uno esperar�a que las palabras en
Voynich�s fueran m�s restringidas o menos diversas que las palabras en
lat�n. Esta diversidad de palabras puede ser medida contando el n�mero de
palabras diferentes (tokens) para los textos de varias longitudes, o
computando la entrop�a por palabra separada frente a la distribuci�n de
frecuencia de palabras. Ambas estad�sticas tienen algunos inconvenientes: el
n�mero de tokens se ve afectadon por errores de transripci�n o de deletreo y
la entrop�a por palabra separada se puede estimar solamente en los textos
muy largos. Ambas estad�sticas ser�n computadas para los textos en Voynich�s
y en otros lenguajes, usando muestras de la misma longitud (contada en el
n�mero de palabras) para reducir al m�nimo estos problemas.
Ha sido reportado ya en el pasado que una secci�n grande transcrita de
Voynich�s ten�a una entrop�a por palabra separada de 10 bits, igual que el
lenguaje normal. Aqu� aparece  una contradicci�n evidente. Si el Voynich�s
utiliza pocos caracteres con variabilidad restringida para formar un
suficiente n�mero de palabras, entonces los otros lenguajes han de ser
derrochadores.

(el resto del texto puedo enviarlo a quien lo solicite en privado para no
colapsar los correos de quienes no lo encuentren de inter�s)


--------------------------------------------------------------------
IdeoLengua - Lista de Ling�istica e Idiomas Artificiales
Suscr�base en [EMAIL PROTECTED]
Informacion en http://ideolengua.cjb.net
Desglose tem�tico 
http://groups.yahoo.com/group/ideolengua/files/Administracion/top-ideol.htm


 

Su uso de Yahoo! Grupos est� sujeto a las http://e1.docs.yahoo.com/info/utos.html 


Responder a