En un giro importante en su política de ética en inteligencia artificial (IA), Google ha suprimido de sus normativas la restricción explícita de emplear su tecnología en aplicaciones vinculadas con armamento y supervisión. Este cambio, dado a conocer el 4 de febrero de 2025, ha suscitado un extenso debate sobre las consecuencias éticas y sociales de la IA en ámbitos militares y de seguridad.
En una decisión que marca un cambio significativo en su política de ética en inteligencia artificial (IA), Google ha eliminado de sus directrices la prohibición explícita de utilizar su tecnología en aplicaciones relacionadas con armamento y vigilancia. Esta modificación, anunciada el 4 de febrero de 2025, ha generado un amplio debate sobre las implicaciones éticas y sociales de la IA en contextos militares y de seguridad.
Evolución de las Directrices de IA de Google
- Aplicaciones que pudieran causar o tiendan a provocar daño general.
- Armas u otras tecnologías cuyo objetivo principal o uso sea causar o facilitar directamente lesiones a personas.
- Tecnologías que recojan o usen información para vigilancia violando normas internacionalmente aceptadas.
- Tecnologías cuyo propósito contradiga principios ampliamente reconocidos del derecho internacional y los derechos humanos.
Estas normativas fueron implementadas después de las críticas internas y externas que la compañía enfrentó por su participación en el Proyecto Maven, una iniciativa del Departamento de Defensa de Estados Unidos que empleaba IA para analizar imágenes de drones. La controversia llevó a Google a no renovar el contrato y a establecer límites claros en cuanto al uso de su tecnología en contextos militares y de vigilancia.
Evaluación de los Principios Éticos
Revisión de los Principios Éticos
El 4 de febrero de 2025, Google anunció una revisión de sus principios de IA, eliminando las prohibiciones específicas mencionadas anteriormente. En su lugar, la empresa enfatizó la importancia de la supervisión humana adecuada, la diligencia debida y la alineación con el derecho internacional y los derechos humanos en el desarrollo y la aplicación de su tecnología. En una publicación en el blog oficial de la compañía, Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnología y sociedad de Google, señalaron:
La eliminación de las restricciones específicas ha generado preocupaciones entre empleados y expertos en ética tecnológica. Algunos trabajadores de Google manifestaron su inquietud por la falta de participación del personal en esta decisión, temiendo que la empresa pueda sacrificar sus principios éticos en beneficio de intereses comerciales o políticos. Parul Koul, ingeniera de software en Google y presidenta de la Alphabet Workers Union, expresó:
La eliminación de las prohibiciones específicas ha suscitado preocupaciones entre empleados y expertos en ética tecnológica. Algunos empleados de Google expresaron su inquietud por la falta de participación de los trabajadores en la decisión y temen que la empresa pueda comprometer sus principios éticos en favor de intereses comerciales o políticos. Parul Koul, ingeniera de software en Google y presidenta de la Alphabet Workers Union, comentó:
Antecedentes y Proyecciones Futuras
Contexto y Perspectivas Futuras
Este cambio en la política de Google se produce en un momento de creciente competencia global por el liderazgo en IA y en medio de debates sobre cómo gobernar esta tecnología emergente. La empresa ha enfatizado la necesidad de que las democracias lideren el desarrollo de la IA, … . Sin embargo, la eliminación de prohibiciones específicas plantea preguntas sobre cómo Google equilibrará sus objetivos comerciales con las consideraciones éticas y sociales en el desarrollo y la aplicación de la IA.