Publicidad

Publicidad

Publicidad

Publicidad

Reciba notificaciones de Blu Radio para tener las principales noticias de Colombia y el mundo.
No activar
Activar

Publicidad

Exempleado de OpenAI advierte sobre los riesgos de una IA superando la inteligencia humana

A diferencia de la IA generativa, una IAG no solo sería capaz de reproducir acciones humanas, como escribir o dibujar, sino que también comprendería la complejidad y el contexto de dichas acciones.

OpenAI.jpg
OpenAI
Foto: AFP

Un antiguo empleado de OpenAI, que esta semana se unió a otros colegas de la compañía para expresar preocupaciones sobre la falta de transparencia respecto a los riesgos potenciales de la inteligencia artificial (IA), advierte sobre el peligro inherente en la carrera hacia la creación de una superinteligencia artificial o inteligencia artificial general (IAG) que supere o iguale la capacidad cognitiva humana.

Carroll Wainwright dejó su cargo la semana pasada como parte del equipo encargado del alineamiento práctico y superalineamiento en OpenAI, cuya responsabilidad es garantizar que los modelos más avanzados de la empresa sean seguros y estén alineados con los valores humanos.

La amenaza de una IA superinteligente


Cuando se lanzó, con un éxito sorprendente incluso para la empresa misma, el 'chatbot' ChatGPT, Wainwright se unió a un equipo de superalineamiento para investigar las intervenciones técnicas necesarias para mantener el control sobre los modelos de IA cada vez más potentes que desarrollaba OpenAI.

A diferencia de la IA generativa, una IAG no solo sería capaz de reproducir acciones humanas, como escribir o dibujar, sino que también comprendería la complejidad y el contexto de dichas acciones.

Publicidad

Sin embargo, esta tecnología aún no existe. Algunos expertos, como Elon Musk, predicen que podría estar lista en unos dos años, mientras que otros, como Robin Li, CEO de Baidu, una de las principales empresas tecnológicas de China, estiman que tardará una década.

Wainwright sugiere que podría llegar en aproximadamente cinco años: "¿Es seguro que ocurrirá en cinco años? No puedo asegurarlo, pero creo que es una posibilidad. También podría llevar más tiempo. Pero cualquier avance que tenga el potencial de transformar el mundo merece una atención seria", aclara.

Publicidad

Sin embargo, Wainwright señala que su renuncia y su firma en la carta no se deben a un temor inmediato, ya que por el momento OpenAI solo está investigando la viabilidad de esta tecnología.

El cambio en OpenAI


El principal motivo de su renuncia fue el cambio en la visión de la empresa, que inicialmente se fundó como un laboratorio de investigación sin ánimo de lucro con el objetivo de garantizar que la tecnología beneficiara realmente a la humanidad, pero que tras el enorme éxito de ChatGPT en 2022, ha evolucionado hacia un enfoque más comercial.

"Creo que las motivaciones detrás de las acciones diarias de OpenAI están impulsadas principalmente por incentivos económicos", afirma Wainwright.

Los principales riesgos de una IAG


Wainwright destaca tres riesgos principales de una IAG: el reemplazo de trabajadores, especialmente en trabajos cualificados; el impacto social y mental, ya que las personas podrían depender de una IA como compañera o asistente personal; y el control de la tecnología.

Publicidad

"El riesgo a largo plazo radica en la alineación: si creamos un modelo más inteligente que los humanos, ¿cómo podemos estar seguros de que seguirá nuestros deseos? ¿Y si desarrolla sus propios objetivos? Eso sería preocupante", explica.

Wainwright confía en que las grandes empresas de IA cumplirán con las regulaciones, pero el problema radica en la falta de estas regulaciones en la actualidad. Por esta razón, los empleados del sector están pidiendo la creación de un sistema que permita a los trabajadores alertar sobre los peligros que perciben en sus empresas.

Publicidad

Según el antiguo empleado, el problema con las grandes empresas de IA no es la falta de seguridad, sino la velocidad a la que operan debido a la intensa competencia, especialmente entre OpenAI y Google.

"Aunque nadie quiere un desastre, el impulso de superar a la competencia a menudo hace que se descuiden los controles necesarios para evitarlo", destaca.

En marzo, el Parlamento Europeo aprobó la primera ley de IA en el mundo, que entrará en vigor en 2026. Además, se informó que los reguladores estadounidenses abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para evaluar su influencia en el sector.

  • Publicidad