El departamento de Defensa de Estados Unidos ha asegurado que se encuentra trabajando en un sistema de Inteligencia Artificial (IA) militar que se pueda utilizar para la defensa del país, pero que tenga un carácter ético.
“Estamos pensando profundamente sobre el uso ético, seguro y legal de la inteligencia artificial. El liderazgo en la aplicación militar de la IA es crítico para nuestra seguridad nacional”, aseguró en una conferencia de prensa Jack Shanahan, director del Centro de IA del Departamento de Defensa de Estados Unidos.
Recordemos que Shanahan y el equipo que lidera son los responsables de Project Maven, un polémico proyecto desarrollado inicialmente en colaboración con compañías como Google para el desarrollo de una IA para el funcionamiento autónomo de drones militares.
Tras las protestas recibidas cuando Project Maven se hizo público el año pasado debido, entre otras cosas, a la negativa de los empleados para trabajar en proyectos potencialmente letales, Google anunció que no usaría su IA para desarrollar armas; sin embargo, dejó claro que seguiría colaborando con el Ejército de Estados Unidos en temas como en ciberseguridad, rescates y formación.
“Hay un tendencia a lanzar una discusión sobre un robot asesino cuando hablas de IA, pero que si vienes y ves lo que mis sistemas en el proyecto Maven están haciendo, en lo que estamos trabajando, está muy lejos del espectro que te puedas imaginar», indicó Shanahan.
A su vez, hizo hincapié en que esto de la ética es un paso que pocos han dado.
“No veo a China o Rusia haciendo el mismo tipo de énfasis en estas áreas (como la ética)», apuntó.