La empresa estadounidense Google actualizó sus guías éticas sobre el uso de la Inteligencia Artificial (IA) y eliminó su compromiso de no desarrollar IA para aplicaciones militares o armamento.
Desde 2018, Google había mantenido una política que rechazaba la participación en proyectos de IA destinados a armamento o que pudieran causar daño a las personas. La empresa justificó estos cambios en un blog, firmado por el jefe de la IA de Google, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad, James Menyica, quienes explicaron que los marcos regulatorios en democracias influyeron en su nueva postura sobre la IA.
En el blog, mencionaron que existe una competencia global por el liderazgo en IA en un contexto geopolítico cada vez más complejo y aseguraron que las democracias deberían liderar el desarrollo de esta tecnología, guiadas por valores como la libertad, la igualdad y el respeto a los derechos humanos.
Cabe recordar que, en 2018, Google colaboró con el Pentágono en el proyecto Maven, que utilizaba IA para procesar datos de drones e identificar objetivos en zonas de guerra. La empresa decidió no renovar el contrato después de protestas de sus empleados.
Por su parte, Margaret Mitchell, exlíder del equipo de ética de IA de Google, expresó su preocupación por la eliminación de la cláusula, sugiriendo que la empresa podría estar dispuesta a desarrollar tecnologías capaces de causar daño directo a las personas.
A las voces de oposición se sumó la del Premio Nobel de Física 2024, Geoffrey Hinton, quien advirtió que la IA podría representar un riesgo del 20 por ciento de extinción humana en las próximas tres décadas; concluyó que los sistemas de IA podrían superar la inteligencia humana, escapar al control y causar daños catastróficos.