Google ha actualizado sus principios éticos en el uso de la inteligencia artificial (IA), eliminando la prohibición explícita de aplicar esta tecnología en armamento y sistemas de vigilancia que puedan contravenir normas internacionales o derechos humanos. Hasta hace poco, la compañía evitaba aplicaciones que pudieran causar daño general, como las armas, alineándose con principios internacionales de derechos humanos. Sin embargo, en una nueva visión presentada recientemente, Google ha decidido eliminar estas restricciones.
Este cambio fue detallado en una publicación del blog corporativo por Demis Hassabis, jefe de IA de Google, y James Manyika, vicepresidente senior de tecnología y sociedad. Ambos enfatizaron que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Además, señalaron la importancia de que empresas, gobiernos y organizaciones colaboren para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional.
La nueva política incluye disposiciones para garantizar que la tecnología se utilice de acuerdo con principios ampliamente aceptados del derecho internacional y los derechos humanos, recurriendo al control humano y fomentando la colaboración de los usuarios. Este giro estratégico refleja la intención de Google de alinearse con las prácticas de otros desarrolladores de IA que permiten ciertos usos militares de sus tecnologías. No obstante, la decisión ha generado inquietud interna, con empleados criticando la falta de participación en el proceso y expresando temor por posibles compromisos éticos.