El rendimiento de la inteligencia artificial generativa (IA), que el público en general ha ido descubriendo desde el lanzamiento de ChatGPT, es impresionante, y no pasa una semana sin que aparezcan nuevas herramientas que utilizan esta tecnología. Basándose en datos de entrenamiento y gracias a un sistema matemático hiperpotente, la IA generativa puede comprender una consulta compleja y predecir estadísticamente la mejor respuesta posible, ya sea que se trate de resolver un problema matemático o científico, codificar o producir texto, imagen, audio o vídeo. . Si bien los expertos en IA predicen que podría superarnos en varios frentes en los próximos años o décadas, actualmente carece de algunas de las habilidades necesarias para competir con nosotros en todos los terrenos cognitivos.
Esto es lo que la IA aún no sabe hacer, como lo explicaron tres expertos en IA en los Rencontres de Pétrarque* retransmitidos en France Culture. Los tres expertos son Yoshua Bengio, fundador y director científico de Mila; Yann LeCun, investigador y director científico de IA en Meta (ambos son pioneros en el aprendizaje profundo y, junto con Geoffrey Hinton, ganadores del Premio Turing 2019) y Patrick Pérez, director de IA en Valeo y director científico de valeo.ai.
*Episodio 1/5: Qu’est-ce que l’intelligence, serie “Les révolutions de l’intelligence”, Les Rencontres de Pétrarque, cultura francesa, 10 de julio de 2023.
La inteligencia artificial no logra... Razón y plan
La capacidad de razonar y planificar se refiere al "sistema 2" de nuestro sistema cognitivo, mientras que el "sistema 1" representa un pensamiento más rápido e "intuitivo", que la IA reproduce bastante bien. Aunque se han logrado avances, la IA todavía no tiene un Sistema 2 equivalente al nuestro. Del mismo modo, como señala Patrick Pérez, las máquinas impulsadas por IA “tienen grandes dificultades para dudar (del problema de estimar la incertidumbre) y explicar sus decisiones. Además, tienen poca resistencia a perturbaciones imprevistas (el problema de la robustez) y les resulta difícil improvisar en nuevas condiciones que no encontraron durante el aprendizaje”.
Inhibir el sesgo
Además de los sistemas 1 y 2, el profesor-investigador y psicólogo Olivier Houdé ha destacado la existencia de un tercer sistema cognitivo, conocido como “inhibición”, que, según su descubridor, es nada menos que la “clave de la inteligencia” (ver Las 3 velocidades del pensamiento). Sin embargo, la inteligencia artificial, que Houdé considera un término inexacto, carece de tal sistema: “Las computadoras todavía carecen de una corteza prefrontal, es decir, una que permita el autocontrol, el control inhibidor; Y este es un tema tanto más contemporáneo y serio cuanto que las grandes bases de datos, el Big Data, amplifican los sesgos cognitivos”, explica en una entrevista para la publicación de su libro Comment raisonne notre cerveau (2023).
Tener un control de motor.
"Estamos muy lejos de tener sistemas que, a nivel robótico, por ejemplo, sean tan buenos como los que pueden hacer la mayoría de los animales", afirma Yoshua Bengio, y añade que quizá no sea necesario que la IA tenga motores. control para representar un peligro.
Entender cómo funciona el mundo
Como explica Yann LeCun, “si queremos planificar una secuencia de acciones para alcanzar un objetivo, necesitamos tener un modelo del mundo que nos permita imaginar el resultado o efecto de nuestras acciones. Por ejemplo, si empujo el vaso sobre la mesa por su base probablemente se mueva, pero si lo empujo por arriba probablemente se vuelque. Todos tenemos un modelo de la física intuitiva del mundo, que nos permite planificar qué secuencia de acciones llevar a cabo para lograr un resultado particular”. Mientras trabaja en el desarrollo de modelos mundiales de este tipo, LeCun señala que estos deberán usarse con objetivos: la máquina necesitará tener objetivos que cumplir para planificar sus acciones y poder predecir si sus objetivos podrán alcanzarse o no.
tener emociones
Según Yann LeCun, “si tenemos máquinas [de IA] que pueden planificar sus acciones, imaginar los resultados de las secuencias de sus acciones y tener objetivos que satisfacer, inevitablemente tendrán emociones, y esto es probablemente lo que nos permitirá hacer son controlables, es decir, compatibles con nosotros, la humanidad”. Recientemente, los investigadores han investigado la capacidad de ChatGPT para identificar y describir emociones con vistas a su uso potencial en el campo de la salud mental (Z. Elyoseph et al., 2023). Para este estudio, utilizaron la Escala de Nivel de Conciencia Emocional (LEAS) de Lane y Schwartz (1987), describiendo la “conciencia emocional” en psicología como la capacidad de conceptualizar las emociones propias y las de los demás. El estudio demostró que el robot conversacional es capaz de generar respuestas adecuadas a la “conciencia emocional” y que su rendimiento puede mejorar significativamente con el tiempo. En algunos casos, ChatGPT incluso superó las normas de la población humana general con la que se comparó.
No hay comentarios:
Publicar un comentario