Noticias

jueves 18 de julio de 2024

Se utilizó un juego para que Inteligencia artificial se de a entender mejor

TECNOLOGIA

...

Foto: Forbes España

OpenAI ha implementado un juego innovador llamado "Prover-Verifier" para mejorar cómo los modelos de inteligencia artificial (IA), como GPT-4, explican sus respuestas.


Este método ayuda a resolver el problema de la "legibilidad", es decir, cómo las IA pueden comunicar sus procesos de toma de decisiones de manera comprensible para los humanos.

El juego enfrenta dos tipos de modelos de IA: un "probador" más astuto y un "verificador" menos inteligente. El objetivo del probador es convencer al verificador de una respuesta, ya sea correcta o no, mientras que el verificador intenta seleccionar la respuesta correcta sin ser influenciado por el probador. Este enfoque ayuda a las IA a "mostrar su trabajo" de manera que las respuestas no solo sean precisas, sino también entendibles para los usuarios humanos.

OpenAI adaptó este juego para entrenar modelos GPT-4 en resolver problemas matemáticos simples, ajustándose entre rondas para mejorar su habilidad explicativa. La investigación mostró que los modelos verificadores mejoraron en resistir las tácticas de persuasión del probador y los probadores se volvieron mejores para explicar sus elecciones de manera legible para humanos.

Este avance es fundamental para aumentar la confiabilidad de las IA, especialmente en áreas críticas como la medicina y la defensa. OpenAI espera que este enfoque siente las bases para desarrollar sistemas de IA más seguros y transparentes en el futuro.


Fuente: Ximena Rodríguez


¿Quieres escuchar nuestras emisoras?

Radio