Innovación

Qué es Project Maven y por qué 3.100 empleados de Google se oponen a él

Qué es Project Maven y por qué 4.000 empleados de Google se oponen a él

Cerca de 4.000 empleados de Google se oponen al Project Maven y al menos 12 han dimitido por esta causa esta semana. Te explicamos en qué consiste este controvertido programa de Inteligencia Artificial con fines militares.

Las aplicaciones de la Inteligencia Artificial son tan diversas como sectores y propósitos hay en el mundo: desde digitalizar los secretos del Vaticano a mejorar la industria retail o mejorar el ámbito de la sanidad en diferentes vertientes como los diagnósticos o los tratamientos. Sin embargo, como toda innovación tecnológica, también puede emplearse con fines poco éticos o peligrosos.

En el caso del Project Maven, un programa militar de inteligencia artificial, machine learning y aprendizaje profundo impulsado por el Departamento de Defensa de Estados Unidos, miles de empleados de Google se han suscrito a una petición interna para exigir a la empresa su salida del mismo, firmado entre Google y el Pentágono y que tiene un coste de 70 millones de dólares. Esta polémica iniciativa pretende acelerar el análisis de datos capturados por dispositivos inteligentes como los drones en acciones de espionaje y clasificar imágenes de objetos y personas para su uso militar.

Los países con los gastos militares más altos del mundo

Los empleados han generado toda una rebelión para solicitar la cancelación del proyecto, que ha generado una oleada de férrea oposición, recogida de firmas en renuncia del mismo y las mentadas dimisiones de la tecnológica. Las preocupaciones son tanto éticas como relativas a la pérdida confianza por parte de los usuarios en torno a la recopilación de datos, una cuestión peliaguda muy en boga en los últimos tiempos debido a problemas de actualidad como el escándalo de Facebook y Cambridge Analytica.

Los trabajadores solicitan al CEO de la empresa, Sundar Pichai, que “cancele el contrato, así como elaborar, publicitar y hacer cumplir una política clara que establezca que ni Google ni sus contratistas construirán nunca tecnologías de guerra”. De esta manera, aducen que de un programa tan sensible y con aplicaciones potencialmente letales debería encargarse personal humano y no un algoritmo, mientras que otros opinan directamente que Google no debería tener vínculos con estrategias o iniciativas militares.

Este programa servirá para que los millones de imágenes captadas por el Pentágono mediante cámaras y drones en sus misiones de espionaje puedan ser revisadas por Inteligencia Artificial, que debido al machine learning, mejorará su eficacia y precisión con el paso del tiempo.

La oposición de la plantilla al desarrollo de tecnología militar ha encontrado alianzas por parte de otras organizaciones, como la Tech Workers Coalition, que también elaboró su petición para el abandono de Project Maven o el Committee for Robot Arms Control (ICRAC), una organización no gubernamental fundada por investigadores preocupados por las armas de carácter autónomo, que también ha enviado una carta abierta a los ejecutivos de Alphabet protestando contra los sesgos dañinos y poco éticos del contrato con el Departamento de Defensa. Esta ha sido firmada por más de 300 académicos y científicos expertos en materias como la seguridad, el derecho, la robótica, la Inteligencia Artificial o la ética.

La carta de ICRAC afirma que las responsabilidades de las empresas globales como Google deben ser proporcionales a la composición transnacional de sus usuarios. “Los contratos del Departamento de Defensa bajo consideración de Google y los contratos similares ya en vigencia con Microsoft y Amazon, señalan una peligrosa alianza entre la industria tecnológica privada, actualmente en posesión de grandes cantidades de datos personales confidenciales recabados de personas de todo el mundo, y el ejército de un país”.

La respuesta de Google ante la repulsa y la oposición a este controvertido proyecto es negar que su tecnología desarrollada para el Pentágono pueda tener una aplicación maliciosa. Según ellos, el sistema no se emplea para “identificar objetivos”, pero no existen pruebas de que no pueda colaborar en asesinatos selectivos o ataques aéreos, argumentando que de todos modos, el ejército puede utilizar las APIs de TensorFlow para el proyecto. Mientras, y en plena, los trabajadores siguen recordando a la tecnológica que el lema de Google es “Don´t be evil”

Fuente | Gizmodo

Sobre el autor de este artículo

Andrea Núñez-Torrón Stock

Licenciada en Periodismo y creadora de la revista Literaturbia. Entusiasta del cine, la tecnología, el arte y la literatura.