Vía Muy Interesante
La inteligencia artificial (IA) ha sido un tema de interés para los investigadores y el público en general durante décadas. A lo largo de los años, varios proyectos de IA han ganado una atención significativa debido a sus enormes capacidades y su impacto potencial en la sociedad.
ELIZA (1964-1966)
Podemos decir que sería la ‘tatarabuela’ de ChatGPT. ELIZA, desarrollada por Joseph Weizenbaum en el Laboratorio de Inteligencia Artificial del MIT, se considera uno de los primeros y más famosos ejemplos de IA de procesamiento de lenguaje natural. Fue bautizada así en honor a Eliza Doolittle, un personaje de ficción de la obra de teatro “Pigmalión” del dramaturgo irlandés George Bernard Shaw. ELIZA fue creada para demostrar la superficialidad de la comunicación entre humanos y máquinas. Su programa más conocido, DOCTOR, fue diseñado para simular un psicoterapeuta involucrando a los usuarios en conversaciones basadas en texto y ofreciendo respuestas no directivas. Muchos usuarios informaron sentir empatía por parte de ELIZA, a pesar de la falta de comprensión y emociones de la IA. Es lo que se conoció posteriormente como “efecto ELIZA“, la tendencia de los humanos a atribuir comportamientos similares a los humanos a las respuestas generadas por máquinas.
SHRDLU (1968-1970)
Esta IA también fue desarrollada en el Laboratorio de Inteligencia Artificial del MIT; en este caso, creada por Terry Winograd como parte de su tesis doctoral. El proyecto tenía como objetivo demostrar la capacidad de la inteligencia artificial para comprender y manipular un mundo virtual de formas geométricas utilizando comandos de lenguaje natural. SHRDLU era capaz de responder a la entrada del usuario en un dominio limitado, interpretar comandos y realizar acciones en un entorno simulado. El trabajo de Winograd sentó las bases para futuras investigaciones en IA, particularmente en comprensión del lenguaje natural y robótica.
Cyc (1984-actualidad)
Desarrollada por el CEO de Cycorp Doug Lenat y su equipo, Cyc nació como un proyecto de inteligencia artificial de larga duración destinado a crear una base de conocimientos y un sistema de razonamiento integrales. Su meta es permitir que los sistemas de IA comprendan y razonen sobre el mundo mediante la codificación del conocimiento del sentido común humano en un formato legible por las máquinas. Desde su creación, la IA Cyc ha acumulado una extensa base de conocimientos que cubre una amplia gama de temas, desde ciencia e historia hasta objetos y eventos cotidianos y se ha aplicado a diversos campos, como la comprensión del lenguaje natural, los sistemas expertos y la integración de datos.
Deep Blue (1985-1997)
Este superordenador posibilitó el que probablemente es el primer hito de la inteligencia artificial. Deep Blue era un ordenador para jugar al ajedrez desarrollada por IBM, diseñado para derrotar a los campeones mundiales de ajedrez humanos. En 1997, Deep Blue hizo historia cuando derrotó al campeón mundial de ajedrez, Garry Kasparov, en un encuentro de seis partidas (ganando por 3½-2½). Esta victoria marcó la primera vez que un ordenador derrotaba a un campeón mundial en un partido de ajedrez clásico, mostrando el potencial de la IA para superar la experiencia humana en determinados ámbitos.
Watson (2006-actualidad)
Original de IBM, lleva el nombre del primer director ejecutivo de la empresa, Thomas J. Watson. Es un sistema de IA diseñado para responder preguntas planteadas en lenguaje natural. Como hito, en 2011, Watson derrotó a dos de los concursantes más exitosos de Jeopardy! (un concurso de conocimientos), Brad Rutter y Ken Jennings, en un enfrentamiento muy mediático. Desde entonces, la tecnología de Watson se ha aplicado a varios campos, incluidos el cuidado de la salud, las finanzas y el servicio al cliente.
AlphaGo (2014-2017)
Desarrollado por DeepMind Technologies (y adquirida por Google en 2014), es un sistema de IA diseñado para jugar al antiguo juego de mesa chino Go, que se considera más complejo que el ajedrez debido a su gran cantidad de movimientos potenciales y la necesidad de intuición y pensamiento estratégico. En 2016, AlphaGo derrotó al campeón mundial de Go, Lee Sedol, en un partido de cinco juegos, lo que demostró el potencial del aprendizaje profundo y las técnicas de aprendizaje por refuerzo para resolver problemas complejos en el mundo real.
GPT (2020-actualidad)
Generative Pre-trained Transformer es un modelo de lenguaje de última generación desarrollado por OpenAI. Sobre la base del éxito de su predecesor, GPT-2, GPT-3 y ahora GPT-4, (GPT-5 está previsto para finales de 2023 como posible fecha de lanzamiento), está diseñado para generar texto similar al humano basado en indicaciones por escrito, lo que demuestra una impresionante comprensión del lenguaje natural y capacidades de generación. Su lanzamiento despertó y despierta un gran interés y debate en la comunidad de IA, con aplicaciones que van desde la creación de contenido hasta el desarrollo de software.
Referencias:
- Weizenbaum, J. (1966). ELIZA: un programa de computadora para el estudio de la comunicación en lenguaje natural entre el hombre y la máquina. Comunicaciones de la ACM, 9(1), 36-45.
- Winograd, T. (1972). Comprender el lenguaje natural. Psicología Cognitiva, 3(1), 1-191.
- Campbell, M., Hoane Jr, A. J., & Hsu, F. H. (2002). Deep Blue. Artificial Intelligence, 134(1-2), 57-83.
- Ferrucci, D., Brown, E., Chu-Carroll, J., Fan, J., Gondek, D., Kalyanpur, A. A., … & Welty, C. (2010). Building Watson: An overview of the DeepQA project. AI Magazine, 31(3), 59-79.
- Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., … & Hassabis, D. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484-489.