2 mitos sobre la IA:
A. La IA no es nueva
B. La IA no es magia
¿Es posible formalizar el razonamiento?
En los últimos años, conceptos como la Inteligencia Artificial o el Aprendizaje Automático (ML o Machine Learning en inglés) están en todas partes. La gente piensa en ellos como en algún tipo de poderes mágicos (¡incluso he visto algunos anuncios de televisión sobre IA!). Así que voy a hacer dos declaraciones contundentes sobre IA: no es magia, y está aquí para quedarse y cambiar la vida de todos nosotros. Para remarcarlo, este artículo hace una breve cronología de su historia, que comenzó hace más de 2.000 años; y continuará con una segunda publicación que refleje cómo estos cambios pueden afectar a la sociedad.
¿De qué estamos hablando cuando hablamos de Inteligencia Artificial? Definir el concepto no es una tarea fácil y tenemos que retroceder algunos siglos para hacerlo. Específicamente, podemos regresar a II A.C, cuando los filósofos griegos como Aristóteles o Euclides desarrollaron teorías para tratar de formalizar el razonamiento humano con la intención de simularlo y mecanizarlo. Siglos más tarde, otros filósofos como el mallorquín Ramón Llull (siglo XIII) con sus “máquinas lógicas”, o Leibniz, Hobbes y Descartes (siglo XVII) exploraron la posibilidad de sistematizar el razonamiento a través de la geometría y el álgebra.
A principios del siglo XX parecía que la IA sería posible con el brote y el desarrollo de la lógica matemática. Científicos y matemáticos querían responder la pregunta fundamental ‘¿Es posible formalizar todo el razonamiento matemático?’. La respuesta fue doble. Por un lado, determinaron que la lógica matemática tenía límites claros pero, por otro lado, también fueron capaces de determinar que dentro de esos límites, cualquier forma de razonamiento matemático podría ser mecanizada.
Esta última idea sería decisiva para que Alan Turing creara “The Turing Machine” en 1936, una invención que sirvió de inspiración para destellar argumentos científicos sobre la posibilidad de crear máquinas inteligentes. Sería durante la Segunda Guerra Mundial que, basadas en las teorías de Turing, se construyeron las primeras computadoras modernas (ENIAC, Colossus…) y, con ellas, científicos de diferentes campos (matemáticos, psicólogos, ingenieros, economistas y politólogos) comenzaron a discutir la idea de crear un cerebro artificial.
Más adelante, en 1956, durante la Conferencia de Dartmouth, el campo de investigación de la inteligencia artificial se definió formalmente como una disciplina académica por John McCarthy. Este es considerado como el momento del nacimiento de IA.
Altibajos: los años dorados y el primer invierno
El período entre la Conferencia de Dartmouth y 1974 constituye ‘los años dorados’ y fue una época de exploración y descubrimientos. Los programas desarrollados durante esos años fueron impresionantes: computadoras que resuelven complejos problemas de álgebra, que prueban teoremas de geometría y que aprenden a hablar en inglés. Los investigadores mostraron un gran optimismo y predijeron que las máquinas completamente inteligentes aparecerían en menos de 20 años. Comenzó la lluvia de dinero, acelerando enormemente la investigación.
Durante los años 70, los investigadores se dieron cuenta de que habían subestimado las dificultades que conllevaba la solución de los problemas que se habían propuesto resolver. Su alto optimismo había establecido expectativas extraordinariamente altas y, cuando los resultados prometidos no aparecían, las inversiones desaparecieron. Es, por eso, que el período comprendido entre 1974 y 1980 se conoce como “el primer invierno de la IA”.
Durante los años 80, se produjo un cierto auge con la adopción de cierto tipo de IA llamada ‘sistemas expertos’ por parte de corporaciones de todo el mundo. Durante esos años, los gobiernos de Japón, los Emiratos Árabes Unidos o el Reino Unido reanudaron las inversiones en investigación en el campo de la IA. Se popularizó un nuevo método de entrenamiento para redes neuronales, backpropagation, y se comercializaron con éxito nuevas aplicaciones para OCR (Reconocimiento Óptico de Caracteres) y reconocimiento de voz basados en esas redes neuronales. Hacia finales de los 80 y principios de los 90, el mundo de la IA sufrió una serie de eventos turbulentos. El primero fue el colapso repentino del mercado de hardware especializado en Inteligencia Artificial en 1987. Las computadoras de escritorio de IBM y Apple habían mejorado en velocidad y potencia, y en ese año superaron a las computadoras especializadas y caras. Ya no había razón para comprarlos, y toda una industria desapareció de la noche a la mañana.
El segundo fue que, a partir de la impresionante lista de objetivos establecidos para IA a principios de la década, la mayoría permanece sin resolver. Este es ‘el segundo invierno de la IA (1987-1993). Hacia el final del siglo XX, medio siglo después de la Conferencia de Dartmouth, el campo de la IA finalmente había logrado algunos de sus objetivos más antiguo; y comenzó a aplicarse con éxito industrialmente. Algunas de las razones detrás de este éxito fueron el aumento en el poder de computación de los ordenadores, así como el enfoque en la solución de problemas específicos y aislados y su acercamiento con altos estándares científicos.
La IA hoy en día
Durante las primeras dos décadas del siglo XXI, el gran volumen de datos generados (Big Data), computadoras más rápidas y técnicas avanzadas de ML (Aprendizaje Automático) han coincidido en el tiempo y han logrado que la IA tenga un gran impacto económico en casi todos los sectores. Ahora que tienes una visión general de cómo la Inteligencia Artificial llegó a ser lo que es hoy en día y el estado en el que se encuentra hoy, el próximo artículo examinará cómo la Inteligencia Artificial afecta a la sociedad y el impacto que tendrá en el futuro.
Marc Puig | CTO en Citibeats