Hace unos años la carrera de Ingeniería de Sistemas al menos en Colombia, tenia mucho que ver con lo que en IBM y DEC denominaban como ciencias de la computación. Creo que mas recientemente ha cambiado relacionándose mas al manejo de sistemas de información y datos. Lo digo sin haberme acercado a departamentos de sistemas en años.
Para mi en este momento y desde hace un tiempo me ha parecido mas interesante lo de las ciencias de la computación por lo que en este marco es mas fácil hablar de programación, lenguajes, estructuras, etc. Para quienes nos tocó por obligación aprender assembler, Fortran, Pascal y padecer COBOL antes de dbase y oracle, la cuestión del bit, byte, la memoria y el computo era algo que tenía que estar claro y con lo que nos toco convivir por mucho tiempo. Lo de las compuertas lógicas no era un juego, 'o funcionaban -o- funcionaban'. Si uno se equivocaba, había que volver a punchar las tarjetas y meterlas en la 'timesharing', que por si acaso era la computadora de la época. Hago este preámbulo porque en una reflexión o investigación sobre programación su desarrollo -a veces anacrónico- es una clave para entender como son las cosas ahora. Si menciono que la programación surge de la industria textil, de seguro que tengo que dar mas explicaciones pero les pido fe en lo que digo para poder proseguir con el punto que trato de expresar y no salirme del tema. Pero ahí lo dejo por si alguien le interesa. Lo que pasa es que muchas de las labores que realiza el hombre son procesos que se pueden cuantificar. Al cuantificarse se manipulan números encuadrados en bits y bytes. -Me ha costado trabajo pensar en rutinas de procesos que no utilicen cantidades o mediciones.- e.g. Para llenar un vaso de agua tengo que saber cuantos mililitros de capacidad tiene el recipiente y tengo que medir cuantos se van verter. Nótese que este un proceso de cálculo, computación y lógico. Supongamos que en el ejemplo anterior no tengo que llenar un vaso sino una docena de vasos para un coctel. El proceso sigue siendo lógico, de computo pero le estoy añadiendo una docena repeticiones. Así pues estas repeticiones pueden incrementar su nivel complejidad una y otra vez. Mientras los computadores, ordenadores o máquinas programables se utilicen para procesos como el anteriormente descrito, la programación secuencial e inclusive la concurrente o en paralelo seguirán siendo de gran utilidad. Sobra recordar que los microprocesadores son colecciones de billones de transistores. Los transistores operan como un interruptor de prendido y apagado, ceros o unos. De ahí lo de las compuertas lógicas. Entre mas operaciones por segundo, mejor el microprocesador. -Perdón por esta anotación.- Pero hay otro camino que es el de las tareas y los procesos. Hay ideas que no se pueden medir y a las que no se les puede asignar un índice o un número. Quizás mas por el lado de lenguajes, sobre semánticas y gramáticas. Lo de los modelos de redes neuronales en el cerebro y dinámicas de aprendizaje igualmente ha probado ser un sendero. Pero no siendo una novedad, ya son mas de cincuenta años en que se trabaja sobre modelos de inteligencia con máquinas. Mucho desde los días de Ada Lovelace y Babbage. e.g. ¿ Como se valora el pensamiento?. Una idea o un símbolo entra a la mente computacional disparando una neurona. Conexiones con otras neuronas van aceptándola o rechazándola de acuerdo a prejuicios recogidos a-priori en estas conexiones. -Claro que una idea puede disparar miles o millones de neuronas.- Con memoria de datos prácticamente ilimitada y microprocesadores con super altos niveles de cantidades de operaciones, compuertas lógicas para inteligencia artificial ya no son ciencia ficción a lo 'viaje de las estrellas.' Por esto es que varias personas en estas lista por años vienen mencionando lo de 'machine learning' y 'reconocimiento de patrones'. Es decir que al dispositivo no necesariamente hay que programarlo sino mas bien entrenarlo. Reconocimiento de patrones tiene que ver con lo de lenguajes y el símbolo. Ya no con mente visionaria, en lugar de usar lenguajes de computación es posible utilizar lenguajes propios e inclusive lenguajes de artista para que la máquina de computación o pensamiento que-se-yo-qué responda al estímulo de interacción. En síntesis, en mi forma de ver las cosas, lenguajes de programación secuenciales o concurrentes seguirán vigentes y al lado de la vida. Inteligencia artificial, entrenamiento al dispositivo, reconocimiento y otros procesos relacionados al pensamiento y, que antes tan solo eran teoría o ficción, ya son viables. Pero quizá en materia lo que mas se necesita es entender mas sobre la inteligencia y comportamientos, algo de moda en las neurociencias. A ver si con esto hace mas sentido mi primera respuesta a esta cadena. Un abrazo!, -- Juan _______________________________________________ Expyezp mailing list Expyezp@lists.randomlab.net http://lists.randomlab.net/listinfo.cgi/expyezp-randomlab.net Archivo de mensajes ------------------- * http://www.mail-archive.com/expyezp@lists.randomlab.net/ * http://www.mail-archive.com/expyezp@lists.slow.tk/