“La IA no es peligrosa, pues no aprende sola”; plantea estudio en Alemania

El Dr. Harish Tayyar Madabushi, científico informático de la Universidad de Bath, ha sido parte de una investigación colaborativa junto con la Universidad Técnica de Darmstadt en Alemania, que examina las capacidades y limitaciones de los modelos de lenguaje de gran escala (LLM, por sus siglas en inglés).

El estudio, dirigido por la profesora Iryna Gurevych, se centró en la capacidad de los LLM para completar tareas que no han sido específicamente entrenados para realizar, conocidas como habilidades emergentes. Los resultados sugieren que, aunque estos modelos pueden responder preguntas sobre situaciones sociales o realizar tareas basadas en pocos ejemplos, no adquieren habilidades de razonamiento complejo.

El Dr. Tayyar Madabushi argumenta que el miedo de que los LLM adquieran capacidades peligrosas, como el razonamiento y la planificación, es infundado. A través de miles de experimentos, su equipo demostró que las capacidades de los LLM están limitadas a su competencia lingüística y su habilidad para seguir instrucciones, pero no muestran signos de desarrollar razonamiento complejo.

Además, Tayyar Madabushi advierte que la narrativa de que la IA representa una amenaza existencial para la humanidad podría estar frenando el desarrollo y la adopción de estas tecnologías. Subraya que, aunque es crucial abordar los riesgos de mal uso de la IA, como la creación de noticias falsas o el fraude, promulgar regulaciones basadas en amenazas percibidas sin fundamentos sólidos podría ser prematuro.

En resumen, el Dr. Tayyar Madabushi sostiene que los LLM pueden ser herramientas útiles si se les proporcionan instrucciones claras y ejemplos, pero no deben ser confiados para tareas que requieren razonamiento complejo sin supervisión explícita.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *