Google ha modificado sus principios sobre inteligencia artificial (IA), eliminando la prohibición explícita de su uso en armamento y sistemas de vigilancia. Esta decisión marca un giro en la postura que la compañía adoptó en 2018, cuando aseguró que evitaría desarrollar tecnologías con potencial de causar daño generalizado.
Cambio en la política de IA de Google
La actualización fue anunciada en el blog oficial de la empresa y firmada por Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnología y sociedad. En el comunicado, los directivos enfatizaron la importancia de que democracias líderes establezcan el marco ético para la IA, con valores como la libertad, la igualdad y el respeto a los derechos humanos.
Además, destacaron que la colaboración entre empresas tecnológicas, gobiernos y organizaciones es esencial para asegurar que la IA impulse el crecimiento global, proteja a las personas y fortalezca la seguridad nacional.
Un giro en la postura de Google
En 2018, Google enfrentó una fuerte controversia tras su participación en el Proyecto Maven, una iniciativa del Pentágono que utilizaba IA para analizar imágenes de drones. El rechazo de empleados y activistas llevó a la empresa a comprometerse a no desarrollar IA para armas ni para vigilancia que pudiera violar normas internacionales.
Sin embargo, con esta reciente actualización, la compañía ya no excluye explícitamente estas aplicaciones. En su lugar, ha introducido principios que garantizan el control humano en los usos sensibles de la tecnología y su alineación con el derecho internacional.
¿Mayor seguridad o más riesgos?
La eliminación de esta restricción ha generado un intenso debate. Por un lado, algunos argumentan que la participación de Google en el sector militar y de vigilancia podría contribuir al desarrollo de tecnologías más seguras y responsables. Por otro lado, críticos advierten sobre los riesgos de abuso y la posible erosión de derechos fundamentales.
A medida que la IA avanza, el rol de las grandes tecnológicas en su regulación y aplicación seguirá siendo un tema clave. La pregunta es: ¿cómo garantizar que estos avances beneficien a la sociedad sin comprometer principios éticos esenciales?