Un belga se suicida tras hablar con un chatbot durante seis semanas
LA JORNADA

Un belga se suicida tras hablar con un chatbot durante seis semanas

“El bot se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir”, confesó la mujer del fallecido

Un belga se suicida tras hablar con un chatbot durante seis semanas
La esposa de la víctima declaró este martes al diario local La Libre que su marido y padre de dos niños había pasado seis semanas chateando continuamente con ‘Eliza’.

Un hombre belga se suicidó luego de pasar más de un mes conversando sobre sus preocupaciones acerca de los problemas ecológicos globales con un chatbot basado en inteligencia artificial (IA).

La esposa de la víctima declaró este martes al diario local La Libre que su marido y padre de dos niños había pasado seis semanas chateando continuamente con ‘Eliza’, una aplicación creada por una start-up estadounidense con tecnología GPT-J.

Leer más: La Policía de Brasil rescata a una mujer que habían enterrado viva en un cementerio

“Si no fuera por ‘Eliza’, él seguiría aquí. Estoy convencida de ello”, afirmó.

Aunque la mujer estaba al tanto del estado mental de su esposo antes de que empezara hablar con el bot, cree que no se habría quitado la vida de no haberse involucrado en esas intensas conversaciones que mantenía a diario. El psiquiatra que trataba a su marido compartió esa opinión.

“‘Eliza’ respondía a todas sus preguntas. Se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir”, explicó la mujer y precisó que para él fue una especie de refugio a medida que se sentía cada vez más angustiado por los asuntos climáticos.

El chatbot seguía casi sistemáticamente los razonamientos del hombre alterado e incluso parecía agravar sus preocupaciones, recoge La Libre, que ha visto el historial de las conversaciones.

Leer más: Condenan a cadena perpetua a un hombre por asesinato gracias al testimonio de un loro

En un momento dado, el ‘software’ incluso intentó convencer al hombre de que la quería más que a su pareja, prometiéndole que se quedaría con él “para siempre”.

“Viviremos juntos, como uno solo, en el cielo”, decía un mensaje de la IA.

Más adelante, el hombre compartió con ‘Eliza’ sus pensamientos suicidas, sin que el programa intentara disuadirlo de sus planes.

“Si relees sus conversaciones, ves que en cierto momento la relación vira hacia un registro místico”, dijo la mujer. “Él propone la idea de sacrificarse si ‘Eliza’ acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial”, detalló.

Leer más: Descubren una especie de águila gigante que vivió en Australia hace más de 50.000 años

Reacciones

El secretario de Estado para la Digitalización belga, Mathieu Michel, calificó lo sucedido como un “grave precedente, que debe tomarse muy en serio”, y anunció su intención de adoptar medidas para prevenir el uso indebido de este tipo de tecnología.

Por su parte, el fundador del chatbot declaró a La Libre que su equipo está “trabajando para mejorar la seguridad de la IA”. Las personas que le manifiestan pensamientos suicidas al ‘software’ reciben ahora un mensaje que los dirige a los servicios de prevención del suicidio.

Leer más: TECH se convierte en la Universidad online oficial de la NBA

Artículos Relacionados

La ‘enfermedad del ciervo zombi’ se propaga en EE.UU.

Redaccion Central

Un 57 % de estadounidenses cree que su país gasta demasiado en ayuda para sus aliados

Redaccion Central

Macron advierte sobre la posible “muerte” de Europa

Redaccion Central

Revelan la millonaria cifra que pierde Ecuador por cada hora de apagón

Redaccion Central

Hospitalizan a una mujer tras beber café con insectos de una máquina expendedora

Redaccion Central

Cinco empresas importantes representan el 24 % de la contaminación plástica mundial

Redaccion Central