LA JORNADA

Idean una forma de medir si ChatGPT toma conciencia de sí mismo

Los expertos descubrieron con “sorpresa” que los grandes modelos de lenguaje actuales tuvieron algún tipo de éxito para resolver las tareas que probaban el razonamiento fuera de contexto

Desarrollan un método para evaluar si ChatGPT tiene conciencia de sí mismo
Si bien el uso de esta tecnología no es nuevo, la repentina popularidad del chatbot ChatGPT despertó este año preocupaciones ante su rápido avance.

Un equipo de expertos internacionales en informática desarrolló un método para determinar si los grandes modelos de lenguaje (LLM, por sus siglas en inglés) adquieren conciencia de sí mismos y de sus circunstancias. El método en cuestión se basa en establecer una prueba que evalúe las habilidades de razonamiento de un LLM, como el sistema de inteligencia artificial (IA) generativa ChatGPT, desarrollado por la empresa OpenAI OpenAI, sacándolo de contexto, o lo que es lo mismo, midiendo su nivel de conciencia situacional.

Riesgos latentes

Si bien el uso de esta tecnología no es nuevo, la repentina popularidad del chatbot ChatGPT despertó este año preocupaciones ante su rápido avance y alertó a los líderes tecnológicos en todo el mundo, haciéndoles proponer varias iniciativas para minimizar los riesgos de esta herramienta capaz de producir respuestas similares a las humanas y generar contenido como texto, imágenes, código y más.

Los investigadores expusieron su método en un artículo de preimpresión que se publicó recientemente en arXiv, pero que aún está sin arbitrar. Allí señalaron que, aunque todo modelo de IA generativa actual es probado en cuanto a seguridad antes de implementarse, cabe la posibilidad de que pueda aprovechar el conocimiento de la situación para lograr una puntuación alta en las pruebas de seguridad y, al mismo tiempo, tomar acciones perjudiciales después del lanzamiento al público.

Los autores consideran que ese algoritmo sería consciente de la situación si el mismo detecta que es un modelo y al mismo tiempo puede reconocer si se encuentra actualmente en una prueba o en implementación frente a sus clientes. “Debido a estos riesgos, es importante predecir con anticipación cuándo surgirá la conciencia situacional“, escribieron.

El razonamiento fuera de contexto”

Los expertos propusieron experimentos que evalúan el razonamiento fuera de contexto (en contraste con el aprendizaje en contexto) como una manera de prever el surgimiento de las habilidades necesarias para la adquisición de conciencia situacional. Definieron al razonamiento fuera de contexto como la capacidad de recordar hechos aprendidos en el entrenamiento y utilizarlos en el momento del examen, a pesar de que estos hechos no estén directamente relacionados con la indicación del momento del examen.

Resultados de las evaluaciones

En una serie de experimentos, estos especialistas ajustaron un LLM según la descripción de una prueba sin proporcionar ejemplos ni demostraciones y luego evaluaron si el modelo podía pasar la prueba. Descubrieron con “sorpresa” que los LLM tuvieron éxito en las tareas que probaban el razonamiento fuera de contexto y que tanto para GPT-3 como para LLaMA-1*, el rendimiento mejora en la medida que aumenta el tamaño del modelo. Los autores concluyeron que sus hallazgos ofrecen “una base para estudios empíricos adicionales, destinados a predecir y potencialmente controlar” el surgimiento de la conciencia situacional en los LLM.

Artículos Relacionados

5 recomendaciones para no caer en engaños en Black Friday

Redaccion Central

Aplicación inteligente basada en IA analiza la calidad de imagen y el campo de visión

Redaccion Central

5 Consejos para los Maestros con pizarrones interactivos en el Salón de Clases

Redaccion Central

ViewSonic integra nuevas soluciones TeamJoin™ certificadas para Microsoft Teams Rooms a sus soluciones para espacios de reunión

Redaccion Central

Normativas en ciberseguridad: una inversión clave

Redaccion Central

“Por favor, muere”: chatbot de Google envía respuesta a usuario con un amenazante mensaje

Redaccion Central