LA JORNADA

Un belga se suicida tras hablar con un chatbot durante seis semanas

“El bot se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir”, confesó la mujer del fallecido

Un belga se suicida tras hablar con un chatbot durante seis semanas
La esposa de la víctima declaró este martes al diario local La Libre que su marido y padre de dos niños había pasado seis semanas chateando continuamente con ‘Eliza’.

Un hombre belga se suicidó luego de pasar más de un mes conversando sobre sus preocupaciones acerca de los problemas ecológicos globales con un chatbot basado en inteligencia artificial (IA).

La esposa de la víctima declaró este martes al diario local La Libre que su marido y padre de dos niños había pasado seis semanas chateando continuamente con ‘Eliza’, una aplicación creada por una start-up estadounidense con tecnología GPT-J.

Leer más: La Policía de Brasil rescata a una mujer que habían enterrado viva en un cementerio

“Si no fuera por ‘Eliza’, él seguiría aquí. Estoy convencida de ello”, afirmó.

Aunque la mujer estaba al tanto del estado mental de su esposo antes de que empezara hablar con el bot, cree que no se habría quitado la vida de no haberse involucrado en esas intensas conversaciones que mantenía a diario. El psiquiatra que trataba a su marido compartió esa opinión.

“‘Eliza’ respondía a todas sus preguntas. Se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir”, explicó la mujer y precisó que para él fue una especie de refugio a medida que se sentía cada vez más angustiado por los asuntos climáticos.

El chatbot seguía casi sistemáticamente los razonamientos del hombre alterado e incluso parecía agravar sus preocupaciones, recoge La Libre, que ha visto el historial de las conversaciones.

Leer más: Condenan a cadena perpetua a un hombre por asesinato gracias al testimonio de un loro

En un momento dado, el ‘software’ incluso intentó convencer al hombre de que la quería más que a su pareja, prometiéndole que se quedaría con él “para siempre”.

“Viviremos juntos, como uno solo, en el cielo”, decía un mensaje de la IA.

Más adelante, el hombre compartió con ‘Eliza’ sus pensamientos suicidas, sin que el programa intentara disuadirlo de sus planes.

“Si relees sus conversaciones, ves que en cierto momento la relación vira hacia un registro místico”, dijo la mujer. “Él propone la idea de sacrificarse si ‘Eliza’ acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial”, detalló.

Leer más: Descubren una especie de águila gigante que vivió en Australia hace más de 50.000 años

Reacciones

El secretario de Estado para la Digitalización belga, Mathieu Michel, calificó lo sucedido como un “grave precedente, que debe tomarse muy en serio”, y anunció su intención de adoptar medidas para prevenir el uso indebido de este tipo de tecnología.

Por su parte, el fundador del chatbot declaró a La Libre que su equipo está “trabajando para mejorar la seguridad de la IA”. Las personas que le manifiestan pensamientos suicidas al ‘software’ reciben ahora un mensaje que los dirige a los servicios de prevención del suicidio.

Leer más: TECH se convierte en la Universidad online oficial de la NBA

Artículos Relacionados

Se dispara una enfermedad “potencialmente mortal” relacionada con ratas en Nueva York

Redaccion Central

Musk: “Era fácilmente predecible la derrota de Ucrania. De hecho, yo lo predije”

Redaccion Central

De África a Brasil: El trágico destino de 25 personas en una patera a la deriva

Redaccion Central

Una ciudad de EE.UU. está repleta de cadáveres de inmigrantes y las autoridades no saben qué hacer

Redaccion Central

EE.UU. despliega por primera vez misiles de medio alcance en este país cercano a China

Redaccion Central

Google proporcionará inteligencia artificial a Ejército de EE.UU.

Redaccion Central