Hace unos años la carrera de Ingeniería de Sistemas al menos en
Colombia, tenia mucho que ver con lo que en IBM y DEC denominaban como
ciencias de la computación. Creo que mas recientemente ha cambiado
relacionándose mas al manejo de sistemas de información y datos. Lo digo
sin haberme acercado a departamentos de sistemas en años.

Para mi en este momento y desde hace un tiempo me ha parecido mas
interesante lo de las ciencias de la computación por lo que en este
marco es mas fácil hablar de programación, lenguajes, estructuras, etc.

Para quienes nos tocó por obligación aprender assembler, Fortran, Pascal
y padecer COBOL antes de dbase y oracle, la cuestión del bit, byte, la
memoria y el computo era algo que tenía que estar claro y con lo que nos
toco convivir por mucho tiempo.

Lo de las compuertas lógicas no era un juego, 'o funcionaban -o-
funcionaban'. Si uno se equivocaba, había que volver a punchar las
tarjetas y meterlas en la 'timesharing', que por si acaso era la
computadora de la época.

Hago este preámbulo porque en una reflexión o investigación sobre
programación su desarrollo -a veces anacrónico- es una clave para
entender como son las cosas ahora.

Si menciono que la programación surge de la industria textil, de seguro
que tengo que dar mas explicaciones pero les pido fe en lo que digo para
poder proseguir con el punto que trato de expresar y no salirme del
tema. Pero ahí lo dejo por si alguien le interesa.

Lo que pasa es que muchas de las labores que realiza el hombre son
procesos que se pueden cuantificar. Al cuantificarse se manipulan
números encuadrados en bits y bytes. -Me ha costado trabajo pensar en
rutinas de procesos que no utilicen cantidades o mediciones.-

e.g. Para llenar un vaso de agua tengo que saber cuantos mililitros de
capacidad tiene el recipiente y tengo que medir cuantos se van verter.
Nótese que este un proceso de cálculo, computación y lógico.

Supongamos que en el ejemplo anterior no tengo que llenar un vaso sino
una docena de vasos para un coctel. El proceso sigue siendo lógico, de
computo pero le estoy añadiendo una docena repeticiones. Así pues estas
repeticiones pueden incrementar su nivel complejidad una y otra vez.

Mientras los computadores, ordenadores o máquinas programables se
utilicen para procesos como el anteriormente descrito, la programación
secuencial e inclusive la concurrente o en paralelo seguirán siendo de
gran utilidad.

Sobra recordar que los microprocesadores son colecciones de billones de
transistores. Los transistores operan como un interruptor de prendido y
apagado, ceros o unos. De ahí lo de las compuertas lógicas. Entre mas
operaciones por segundo, mejor el microprocesador. -Perdón por esta
anotación.-

Pero hay otro camino que es el de las tareas y los procesos. Hay ideas
que no se pueden medir y a las que no se les puede asignar un índice o
un número. Quizás mas por el lado de lenguajes, sobre semánticas y
gramáticas. Lo de los modelos de redes neuronales en el cerebro y
dinámicas de aprendizaje igualmente ha probado ser un sendero. Pero no
siendo una novedad, ya son mas de cincuenta años en que se trabaja sobre
modelos de inteligencia con máquinas. Mucho desde los días de Ada
Lovelace y Babbage.

e.g. ¿ Como se valora el pensamiento?. Una idea o un símbolo entra a la
mente computacional disparando una neurona. Conexiones con otras
neuronas van aceptándola o rechazándola de acuerdo a prejuicios
recogidos a-priori en estas conexiones. -Claro que una idea puede
disparar miles o millones de neuronas.-

Con memoria de datos prácticamente ilimitada y microprocesadores con
super altos niveles de cantidades de operaciones, compuertas lógicas
para inteligencia artificial ya no son ciencia ficción a lo 'viaje de
las estrellas.' Por esto es que varias personas en estas lista por años
vienen mencionando lo de 'machine learning' y 'reconocimiento de
patrones'. Es decir que al dispositivo no necesariamente hay que
programarlo sino mas bien entrenarlo. Reconocimiento de patrones tiene
que ver con lo de lenguajes y el símbolo.

Ya no con mente visionaria, en lugar de usar lenguajes de computación es
posible utilizar lenguajes propios e inclusive lenguajes de artista para
que la máquina de computación o pensamiento que-se-yo-qué responda al
estímulo de interacción.

En síntesis, en mi forma de ver las cosas, lenguajes de programación
secuenciales o concurrentes seguirán vigentes y al lado de la vida.
Inteligencia artificial, entrenamiento al dispositivo, reconocimiento y
otros procesos relacionados al pensamiento y, que antes tan solo eran
teoría o ficción, ya son viables. Pero quizá en materia lo que mas se
necesita es entender mas sobre la inteligencia y comportamientos,
algo de moda en las neurociencias.

A ver si con esto hace mas sentido mi primera respuesta a esta cadena.

  Un abrazo!,

  -- Juan
_______________________________________________
Expyezp mailing list
Expyezp@lists.randomlab.net
http://lists.randomlab.net/listinfo.cgi/expyezp-randomlab.net

Archivo de mensajes
-------------------

* http://www.mail-archive.com/expyezp@lists.randomlab.net/
* http://www.mail-archive.com/expyezp@lists.slow.tk/

Responder a