
En un reciente giro en su enfoque hacia la inteligencia artificial (IA), la gigante tecnológica estadounidense Google ha decidido revisar sus principios éticos y eliminar una de las cláusulas más controvertidas: la que impedía utilizar esta tecnología para la creación de armas o herramientas de vigilancia.
Esta decisión marca un cambio importante en la política de la compañía, que refleja su creciente involucramiento en los debates globales sobre el desarrollo de la IA. La actualización de las directrices fue explicada por Kent Walker, presidente de asuntos globales y director legal de Google, quien afirmó que algunas de las restricciones del primer conjunto de principios no se alineaban con las discusiones más complejas que ahora la compañía está liderando.
"Nuestra prioridad en todo esto es que los beneficios de la IA superen con creces los posibles riesgos", expresó Walker, quien agregó que, en muchos casos, la empresa se ve cada vez más involucrada en conversaciones clave sobre tecnología y su impacto en el mundo.
Esta revisión de las políticas de la corporación está en línea con el creciente rol de Google en temas sensibles, como la ciberseguridad y la biotecnología. Según Walker, se les pide más a menudo que participen en debates sobre áreas en las que la empresa tiene experiencia, lo que implica que su implicación podría ser crucial para la sociedad. "Es positivo para el mundo que Google desempeñe un papel en estos debates", dijo, subrayando su especialización en varios sectores. La eliminación de la cláusula que prohibía el uso de la IA para fines bélicos o de control social ha generado preocupación entre algunos expertos.
Publicidad
Margaret Mitchell, quien lideró el departamento de ética de la IA de Google, sugirió que esta decisión podría ser un indicio de que la empresa podría comenzar a trabajar en el desarrollo de tecnologías de uso letal. "Esto significa que Google, probablemente, participará ahora en la creación de tecnología que podría ser usada para matar", declaró la especialista en ética, generando inquietud sobre las implicaciones morales de la nueva política de la empresa.En el pasado, Google había sostenido que las democracias deberían ser las líderes en el desarrollo de la inteligencia artificial, guiadas por principios fundamentales como la libertad, la igualdad y el respeto por los derechos humanos.
En este contexto, la compañía había instado a que empresas, gobiernos y organizaciones comprometidas con estos valores trabajaran juntos para asegurar que la IA fuera una herramienta protectora para las personas.
Sin embargo, la reciente modificación en sus directrices indica un cambio de rumbo que podría transformar la relación de Google con los desarrollos tecnológicos de alto impacto. Aunque los beneficios de la inteligencia artificial continúan siendo un tema central en sus discusiones, la eliminación de ciertas restricciones plantea interrogantes sobre el papel de la compañía en la creación de tecnologías potencialmente peligrosas, como las armas autónomas. La evolución de esta postura será, sin duda, un tema de gran interés en los próximos años.