Hola Juan, Efectivamente el "procedimiento" funciona, de hecho en esta lista se discuti� hace tiempo ese procedimiento (creo que la discusi�n iba sobre aleatoriedad, entrop�a e informaci�n por fonema algo as�).
Para el caso de secuencias de letras, puede mejorarse mucho el procedimiento si usas un procesador de textos como Word para buscar aleatoriamente y r�pido las secuencias. Yo lo hice con textos en ingl�s, lat�n y castellano para construir r�pidamente fragmentos en pseudo-ingl�s, pseudo-lat�n o pseudo-castellano que si bien no tienen sentido porque general frases aleatorias "suenan" como esas lenguas efectivamente. De hecho lo que Erliakov describe es una "cadena markoviana de primer orden" que da resultados aceptables pero no del todo buenos. Si en lugar de tomar inicialmente una letra al azar, tomas 2 (por ejemplo ME) y resigues el textos hasta encontrar de nuevo esa secuencia (por ejemplo MEN) y ahora tomas las letras 2 y 3 (es decir EN) y repites hasta ver la siguiente vez que aparece este �ltima d�grafo obtienes un procedimiento mejor al ir encadenando: M-E-N-... Y lo mismo en general al usar m�todos de tercer, cuarto o quinto orden (curiosamente a partir del 4 o 5 orden las cosas ya no mejoran mucho m�s, lo cual sugiere que por encima del clusters de 5 o 6 fonemas s� vuelve a aparecer aleatoriedad). El procedimiento de "primer orden" con palabras no funciona tan bien, pero s� funciona, los m�todos de segundo y tercer orden con palabras requieren un texto muy muy largo (basta tomar el texto en word m�s largo que tengamos y probarlo). As� que me imagino que si usamos el procedimiento por encima del nivel palabra y pasamos al nivel "idea" o "proposici�n" como ya po�ticamente propone Erlieakov al final la cosa no funcionar�a tan bien. La idea es clara a nivel "at�mico" es decir de letras o fenemas estos procedimientos markovianos funcionan espectacularmente, a nivel palabra el resultado es menos curioso. El caso es que si bien el "nivel letra" parece ser poco aleatorias (ya que si yo tomo una secuencia como -ci�- casi todo el mundo acertar� que la tom� de un texto donde luego segu�a una letra -n o un espacio en blanco), las palabras parecen ser m�s aleatorias y las frases a�n m�s. Es muy dificil saber en una discusi�n entre personas a partir de la �ltima frase dicha cual ser� la frase a partir de esa que hace cuatro (es pr�cticamente impredicitible). Es un bonito tema este de la aleatoriedad de las lenguas, como est� en ellas codificada la informaci�n. El que las lenguas al menos a nivel fonema (y en menor medida) a nivel palabra sean modelizables m�s o menos mediante cadenas markovianas de orden relativamente bajo es una evidencia emp�rica largamente ignorada en la que los ling�istas de hoy en d�a (supongo que por la complejidad matem�tica de meterse a estudiar cadenas markovianas y otros procesos pseudoaleatorios). De hecho hoy en d�a es un topic que he visto tratado en libros de criptograf�a, codificaci�n y teor�a matem�tica de la comunicaci�n, que supongo que alg�n d�a ser� tomado por alg�n ling��sta que logre hacerlo m�s comprensible a sus colegas y entonces es de esperar que se produzcan avances significativos sobre la estructura de las lenguas naturales (y el modo en que trabaja la mente humana claro!). Davius S. [Se eliminaron del mensaje las partes que no eran texto] -------------------------------------------------------------------- IdeoLengua - Lista de Ling�istica e Idiomas Artificiales Suscr�base en [EMAIL PROTECTED] Informacion en http://ideolengua.cjb.net Desglose tem�tico http://groups.yahoo.com/group/ideolengua/files/Administracion/top-ideol.html Enlaces de Yahoo! Grupos <*> Para visitar tu grupo en Internet, ve a: http://espanol.groups.yahoo.com/group/ideolengua/ <*> Para cancelar tu suscripci�n a este grupo, env�a un mensaje a: [EMAIL PROTECTED] <*> El uso de Yahoo! Grupos est� sujeto a las: http://e1.docs.yahoo.com/info/utos.html
