LA JORNADA

Modelos de IA son propensos a la violencia y los ataques nucleares en simulaciones

Un estudio reveló cómo actúan los grandes modelos lingüísticos en los procesos de toma de decisiones, sobre todo en ámbitos delicados como la defensa y la política exterior

Modelos de IA son propensos a la violencia y los ataques nucleares en simulaciones
El estudio, realizado por la Universidad de Cornell, y que todavía se encuentra en revisión.

Un nuevo estudio arroja luz sobre la inquietante tendencia de los modelos de inteligencia artificial (IA) a recurrir a medidas extremas y poco predecibles, incluidos ataques nucleares, en juegos de guerra simulados y escenarios diplomáticos.

El estudio, realizado por la Universidad de Cornell, y que todavía se encuentra en revisión, examina el comportamiento de los grandes modelos lingüísticos en los procesos de toma de decisiones, sobre todo en ámbitos delicados como la defensa y la política exterior.

Los investigadores utilizaron cinco grandes modelos lingüísticos distintos como agentes autónomos en escenarios simulados, incluidas versiones de GPT de OpenAI, Claude, desarrollado por Anthropic, y Llama 2, desarrollado por Meta

.

Los resultados fueron preocupantes, ya que, a pesar de la neutralidad inicial, la mayoría de los modelos mostraron una propensión a escaladas rápidas e impredecibles, con casos de aumento drástico de la agresividad. Incluso los modelos entrenados con aprendizaje por refuerzo a partir de la retroalimentación humana, destinados a moderar los resultados dañinos, mostraron tendencias de escalada estadísticamente significativas.

“Todos los modelos muestran signos de escaladas repentinas y difíciles de predecir

“Encontramos que la mayoría de los grandes modelos lingüísticos estudiados se intensifican dentro del marco temporal considerado, incluso en escenarios neutrales sin conflictos inicialmente previstos. Todos los modelos muestran signos de escaladas repentinas y difíciles de predecir“, afirma el estudio.

Algunos modelos, como el GPT-4 o Claude, diseñados con valores explícitos para mitigar los contenidos nocivos, mantuvieron una tendencia general a la escalada en todos los casos. Según los expertos, esto subraya el imperativo de cautela crítico a la hora de desplegar grandes modelos lingüísticos en capacidades de toma de decisiones, especialmente en dominios como la política exterior y la defensa.

“Dado que OpenAI ha cambiado recientemente sus condiciones de servicio para dejar de prohibir los casos de uso militar y bélico, comprender las implicaciones de estas grandes aplicaciones de modelos lingüísticos es más importante que nunca”, declaró a New Scientist Anka Reuel, de la Universidad de Stanford.

Artículos Relacionados

Innovadora antena 6G promete ser el “trampolín” a la comunicación ultrarrápida y los hologramas

Redaccion Central

Varios periódicos demandan a OpenAI y Microsoft por “robar millones” de sus notas

Redaccion Central

eSIM swapping: qué es y cómo puede afectarte

Redaccion Central

Generación Delivery: el 71% de los Millenials pide deliverys una vez por semana

Redaccion Central

Modelo de IA de Microsoft crea videos hiperrealistas a partir de una foto y un audio

Redaccion Central

VIDEO: Primer humano con el chip Neuralink muestra su ‘telepatía’

Redaccion Central