“Google ha actualizado su guía ética sobre inteligencia artificial, eliminando las restricciones previas que prohibían su uso en áreas como armamento y vigilancia. Aunque la empresa asegura que mantendrá mecanismos de supervisión para garantizar el uso responsable de la tecnología, este cambio refleja un giro en su postura, abriendo la puerta a posibles colaboraciones con gobiernos y entidades militares”
Google ha actualizado su guía ética sobre inteligencia artificial (IA), rediseñando sus principios para alinear la tecnología con su misión de “organizar la información del mundo y hacerla accesible y útil”. La empresa busca un enfoque “audaz y responsable”, orientado al desarrollo y uso de la IA. Sin embargo, uno de los cambios más significativos es la eliminación de la sección que anteriormente prometía no usar esta tecnología en aplicaciones relacionadas con armas o vigilancia.
Hasta ahora, Google había mantenido un compromiso firme de evitar el uso de la IA en tecnologías que pudieran causar daño, como armamento o sistemas de vigilancia que violaran derechos humanos. La reciente actualización deja atrás esos compromisos, lo que podría abrir la puerta a nuevas aplicaciones de la inteligencia artificial en áreas que antes rechazaba.
La empresa dio a conocer cambios en su política ética sobre la inteligencia artificial a través de una actualización en un blog de 2018, donde originalmente se detallaban sus principios autoimpuestos sobre el uso responsable de esta tecnología, como respuesta a las protestas contra colaborar en un programa de drones militares con el gobierno de Estados Unidos. Gracias a esto, la empresa decidió no renovar el contrato gubernamental y presentó un conjunto de principios éticos para guiar el uso futuro de sus tecnologías avanzadas, incluida la inteligencia artificial.
Sin embrago, Google ha prescindido de estos compromisos éticos. La nueva página web ya no enumera los usos prohibidos, en lugar de eso, el documento deja abierta la posibilidad de explorar aplicaciones más sensibles de la tecnología. Aunque se han eliminado las prohibiciones específicas, la compañía asegura que implementará “mecanismos apropiados de supervisión humana, diligencia debida y retroalimentación” para garantizar que sus iniciativas estén alineadas con los objetivos de los usuarios, la responsabilidad social y los principios del derecho internacional y los derechos humanos.
Este cambio refleja un giro en la postura de la empresa, que hasta ahora había adoptado un enfoque más restrictivo en cuanto a los usos de esta tecnología, lo que ha sido interpretado como una señal de que la compañía podría estar más dispuesta a colaborar con gobiernos y entidades militares, en un momento en que la inteligencia artificial juega un papel clave en la seguridad y defensa.
En un mensaje publicado este martes en el blog de Google, James Manyika, vicepresidente sénior de investigación, tecnología y sociedad de esta empresa, y Demis Hassabis, CEO de Google DeepMind, afirmaron que “las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto a los derechos humanos”. Ambos destacaron la importancia de colaborar con gobiernos y organizaciones que compartan estos principios para asegurar que la inteligencia artificial se utilice de manera que beneficie a la sociedad, promoviendo el crecimiento global y apoyando la seguridad nacional. Además, resaltaron que los marcos de IA establecidos por países democráticos han ayudado a Google a profundizar su comprensión sobre los potenciales y riesgos de la tecnología.
A pesar de que Google insiste en que su prioridad sigue siendo el desarrollo ético de la inteligencia artificial, la eliminación de su compromiso explícito contra el uso de la tecnología en armas y sistemas de vigilancia plantea nuevas interrogantes sobre su futura dirección.
El cambio en la postura llega en un momento clave, marcado por una creciente competencia en el campo de la inteligencia artificial. Empresas como OpenAI, Microsoft y Meta están intensificando sus inversiones en IA, mientras que gobiernos y corporaciones buscan consolidarse como líderes en esta tecnología. En este contexto, Google podría estar dejando atrás sus restricciones anteriores para explorar nuevas oportunidades en áreas que previamente había evitado.
Varios empleados de Google han expresado su preocupación por los recientes cambios en la política de la empresa, especialmente en lo que respecta al uso de la inteligencia artificial en aplicaciones sensibles. Parul Koul, ingeniero de software en Google y presidente del sindicato Alphabet Union Workers-CWA, calificó la situación como “muy preocupante”.