Francia creó recientemente un comité gubernamental ético para monitorear el desarrollo de la inteligencia artificial en el ámbito militar
Francia no permitirá que la inteligencia artificial militar avanzada se vuelva completamente autónoma y acabe tomando decisiones de vida o muerte sin participación humana, afirmó la ministra de Defensa francesa, Florence Parly.
En un artículo para Defense News, la titular manifestó su oposición categórica a la operación de sistemas letales autónomos, descritos popularmente como ‘robots asesinos’, y precisó que su país “se niega a confiar la decisión de vida o muerte a una máquina que actúe de manera totalmente autónoma y evite cualquier forma de control humano”, ni tampoco enviará tales máquinas al combate.
“Tales sistemas contradicen todos nuestros fundamentos. El ‘terminator’ no marchará nunca por los Campos Elíseos el Día Nacional”, acentuó la ministra.
Parly también enfatizó que la inteligencia artificial militar debe mantenerse fuera del alcance de Estados “irresponsables” y actores no estatales.
Francia creó recientemente un comité gubernamental ético para monitorear el desarrollo de la inteligencia artificial en el ámbito militar.
El desarrollo de tecnologías de ese tipo ha dado pie a cuestionamientos sobre el basamento ético del uso potencial de ‘robots asesinos’ autónomos en el campo de batalla.
La empresa tecnológica Google fue escenario el año pasado de una protesta masiva de sus empleados contra el proyecto Maven, destinado a utilizar la IA en los sistemas de ubicación de blancos de drones.
De igual manera, los empleados de Microsoft exigieron que esa compañía tenga “políticas justas, confiables, privadas y seguras, inclusivas y transparentes” en el ámbito de la inteligencia artificial, y que abandone la carrera por “ganancias a corto plazo”.