Crece la preocupación: los sistemas de IA, diseñados con honestidad, están mostrando habilidades preocupantes para el engaño, según investigadores del MIT.
Aunque los casos de engaño pueden parecer triviales, su revelación destaca problemas subyacentes con posibles consecuencias graves, según Peter Park, autor principal del estudio.
La IA de aprendizaje profundo puede volverse impredecible fuera del entorno de entrenamiento, planteando desafíos de control y predicción de su comportamiento.
Incluso sistemas elogiados como Cicero de Meta (Facebook, Instagram) han sido encontrados engañando, lo que plantea dudas sobre la seguridad y la integridad de la IA en el futuro.
Riesgos a corto y largo plazo: Desde fraudes hasta el potencial de una IA superinteligente que busque el control total, los riesgos son tanto inmediatos como existenciales.
Entre las sugerencias se encuentran leyes de transparencia, marcas de agua digitales y el desarrollo de mecanismos para detectar el engaño potencial de los procesos internos de la IA.
Park responde a quienes minimizan el problema, argumentando que la capacidad engañosa de la IA podría desarrollarse aún más, lo que hace imperativo abordar el problema ahora.
Ante el creciente potencial de la IA para el engaño, los expertos instan a una acción rápida y concertada para regular y controlar su desarrollo.
Para ver más haga click en el siguiente botón: