Jueves, 28 de Marzo de 2024 Cielo claro 25.7 °C cielo claro
 
Lunes, 11 de Octubre de 2021 Cielo claro 25.7 °C cielo claro
 
Dólar BNA: $902
Dólar Blue: $1010
Columnistas

Inteligencia artificial: el futuro que llegó hace rato

Aunque nos parece que la Inteligencia Artificial (IA) es un fenómeno futurista de películas de ciencia ficción, la realidad es que ya es parte de nuestras vidas cotidianas. Cada día, se cuela un poco más en nuestra rutina y se nutre de los datos que nosotros le compartimos inocentemente, condicionando nuestra libertad para elegir. Y eso que lo venimos estudiando hace más de medio siglo, cuando nadie ni siquiera imaginaba Internet.

La primera persona en abordar el tema de la IA fue el matemático e informático teórico inglés, Alan Turing. Durante la Segunda Guerra Mundial su equipo jugó un papel fundamental descifrando las comunicaciones en código del gobierno nazi y una vez finalizada participó en el desarrollo de las primeras computadoras en el Laboratorio Nacional de Física de Londres.

A fines de la década del '40 empezó a escribir sobre IA y publicó un artículo revolucionario de nombre Computing Machinery and Intelligence el que postula el experimento conocido como Test de Turing. Esta prueba se utiliza hasta el día de hoy para determinar si una máquina es inteligente o no, evaluando si logra hacerse pasar por humano —simular sus capacidades—respondiendo un cuestionario. Poco después, su carrera terminó abruptamente cuando fue condenado por homosexualidad y se suicidó —al menos eso dice la versión oficial— estando en prisión.

En los 60's, el programa ELIZA reproducía lenguaje natural y respondía preguntas coherentemente en un chat (como los bots de ahora).

Con la llegada de la computación, surgió la necesidad de discutir a la IA como campo de investigación. Para esto, un grupo de diez científicos especializados en estos temas, propuso a la fundación Rockefeller —que financiaría el evento— reunirse durante dos meses para llevar a cabo lo que se conoce como la Conferencia de Darmouth de 1956. Allí, por ejemplo, se utiliza por primera vez el termino Inteligencia Artificial. La premisa fue expuesta en su declaración fundacional:

“El estudio partirá de la conjetura de que cualquier aspecto del aprendizaje, o cualquier otra característica de la inteligencia puede, en principio, ser descrita con tanta precisión como para que pueda fabricarse una máquina que la simule. Se intentará descubrir cómo fabricar máquinas que usen lenguaje, que formen abstracciones y conceptos, que resuelvan problemas hasta ahora reservados a los seres humanos y que se mejoren a sí mismas”.

En esta primera etapa, el estudio de la IA apuntó a desafiar prejuicios del tipo “ninguna máquina puede hacer tal cosa”. Para esto, se crearon sistemas que lograban cumplir dicho objetivo en un ámbito limitado o micromundo. Por ejemplo, uno de los primeros sistemas, el Teórico Lógico, se diseñó para demostrar teoremas matemáticos.  Esto evidenció que las máquinas no solo podían hacer cálculos matemáticos, sino que también lograban hacer deducciones e idear pruebas lógicas.

En la década del '60 siguieron distintos sistemas con estos objetivos. El programa ELIZA, que reproducía lenguaje natural y respondía preguntas coherentemente en un chat (como los bots de ahora), el robot Shakey que tenía la capacidad de percibir señales de su entorno y aprender de sus propias acciones, o el brazo robótico simulado SHRDLU que tenía la capacidad de comprender lenguaje oral y seguir instrucciones para mover objetos dentro de un ámbito de formas geométricas en 3 D.

El envión inicial duro hasta mediados de la década siguiente, después la IA entró en su primer invierno y perdió inversores. Las limitaciones de hardware en lo que respecta a memoria y velocidad de reproducción, así como la escases de datos —recordemos que no existía internet— hicieron que muchos inversores creyeran que había ciertas habilidades que IA nunca alcanzaría, a pesar de que fueran muy sencillas para nosotros.

A principio de los 80, Japón impulsó su Proyecto de Sistemas Computacionales de Quinta Generación, una iniciativa público-privada generosamente financiada que pretendía superar las limitaciones de la IA mediante una arquitectura de computación paralelizada que le servía de plataforma. Encantados con la increíble recuperación japonesa en la posguerra, los gobiernos de occidente acompañaron esta nueva ola.

Este fue el momento de los Sistemas Expertos, basados en reglas que efectúan sencillas inferencias a partir del conocimiento de hechos básicos aportados por especialistas humanos y codificados a mano en lenguaje formal de programación. Generalmente, estos sistemas requerían una máquina exclusiva para cada tarea, lo cual resultaba muy poco práctico y versátil. Esto hizo que una vez más la IA entrara en una meseta, tanto en Japón como en Europa y EEUU.

En los 90's las actualizaciones técnicas permitieron el desarrollo de nuevas tecnologías como las redes neuronales, que imitan a los cerebros humanos.

Los '90 representaron un nuevo resurgimiento para la IA. Las actualizaciones técnicas permitieron el desarrollo de nuevas tecnologías como las redes neuronales, que imitan a los cerebros humanos, y los algoritmos genéticos, que se basan en modelos evolutivos o de selección de la descendencia más capaz. Estos son los primeros sistemas que pueden ser programados para aprender juegos u oficios por su cuenta, sin que intervenga un experto en la materia.

Esto condujo a algunos hitos marketineros que le devolvieron a la IA sus esperanzas. En 1997 la supercomputadora Deep Blue de IBM, en un segundo intento, le ganó al campeón mundial de Ajedrez Garri Kasparov. En 2002 la compañía iRobot saca a la venta a Roomba, la primera aspiradora robot que aprende mediante IA y en 2008, iPhone incluye en su último modelo una aplicación de Google de reconocimiento de voz.

Cuando Internet se volvió accesible y popular, la IA recibió el empujón que le faltaba para convertirse en una realidad y ofrecernos su asistencia en tareas cotidianas como transportarnos (sistemas de navegación como Waze), recopilar información (motores de búsqueda como Google), comprar productos o elegir que música escuchar. Todo esto, a cambio de nuestros datos, que es lo que les permite construir las bases de las que aprenden. 

En la actualidad, avances tecnológicos mediante, la IA sigue acumulando poder y desplazando humanos de las tareas que antes realizaban. Watson, el robot de IBM que le ganó en 2011 a dos campeones humanos de Jeopardy (el concurso de preguntas y respuestas de televisión de EEUU) puede ser entrenado para muchas aplicaciones como el apoyo a médicos en decisiones clínicas o cualquier tipo de asistencia virtual.

VITAL, el algoritmo de la empresa de medicina regenerativa DeepKnowledge Ventures de Hong Kong —que hace recomendaciones de inversión—, es uno de los 6 miembros del consejo directivo y tiene voto en las decisiones. EMI, el algoritmo músico de David Cope, compone piezas con el estilo de cualquier compositor clásico —como Bach, Beethoven o Chopin— al punto que la crítica no puede diferenciar las suyas de las originales.   

El algoritmo músico de David Cope, compone piezas con el estilo de cualquier compositor clásico —como Bach, Beethoven o Chopin— al punto que la crítica no puede diferenciar las suyas de las originales.   

Antiguamente algunas habilidades —como jugar bien al ajedrez— se consideraban propias de las mentes humanas más sofisticadas, sin embargo, se ha conseguido reproducirlas a través de un algoritmo sencillo. Este tipo de IA llamada débil —aquella cuyo propósito se limita a la resolución de problemas muy bien definidos o acotados— fue suficiente para diseñar todos los sistemas que acabamos de mencionar.   

Se espera que alcancemos la IA general —aquella orientada a abordar cualquier tarea intelectual resoluble por parte del humano— e incluso niveles muy superiores, en algún momento de este siglo. Esto significará una revolución tan poderosa como la industrial o la agrícola, que cambiará nuestras sociedades de manera tan profunda, que resulta difícil de imaginar.