La IAG (inteligencia artificial general) es considerada como el "grial" tecnológico por empresas como OpenAI o DeepSeek. Presentada como una oportunidad para la humanidad, también suscita preocupaciones sobre sus riesgos potenciales para la sociedad, en particular la pérdida de control. En un documento de 145 páginas publicado recientemente, Google DeepMind propone un enfoque para mitigar estos riesgos, recordando que para lograrlo, son indispensables una planificación, preparación y colaboración proactiva.
Las opiniones de los expertos sobre los daños que podría causar la IAG a la humanidad son muy divergentes. Las posiciones de Yoshua Bengio, Geoffrey Hinton y Yann LeCun, ganadores del premio Turing 2018, ilustran bien esta fractura. Geoffrey Hinton, tras años en Google, decidió en 2023 dejar su puesto para expresarse libremente sobre los peligros de la IA. Le preocupa especialmente la capacidad de los modelos avanzados para desinformar, manipular o escapar al control humano. En el mismo espíritu, Yoshua Bengio ha tomado posición a favor de una pausa temporal en el desarrollo de la IAG, cofirmando la carta del Future of Life Institute. Ambos abogan por una gobernanza fuerte, una supervisión pública y protocolos de seguridad antes de cruzar umbrales críticos.
Yann LeCun, actualmente Chief AI Scientist en Meta, adopta una posición más optimista y técnica. Según él, la IAG sigue siendo un objetivo lejano: los modelos actuales, aunque poderosos, no tienen ni comprensión del mundo ni verdadera capacidad de agentividad. Promoviendo la continuidad de la investigación abierta mientras insiste en el carácter exploratorio de la IA actual, considera que los temores sobre la extinción de la humanidad o la pérdida de control son prematuros, incluso infundados.
Por otro lado, para Shane Legg, cofundador y científico jefe de la IAG en Google DeepMind, la falta de control podría hacer que la IAG conlleve riesgos existenciales para la humanidad. Como sus coautores del artículo "An Approach to Technical AGI Safety and Security", cree que la IAG debería alcanzarse antes del final de esta década.
En este documento, exploran cuatro principales áreas de riesgo:
  • El uso indebido: Cuando actores malintencionados explotan la IAG con fines destructivos;
  • El desalineamiento: Cuando la IAG actúa de manera contraria a las intenciones de sus creadores;
  • Los errores: Cuando la IAG toma decisiones involuntariamente dañinas;
  • Los riesgos estructurales: Las dinámicas multiagentes que pueden provocar consecuencias imprevistas.
Se centran principalmente en la gestión de los riesgos de uso indebido y desalineamiento que constituyen las amenazas más directas y urgentes.

Estrategias de prevención de riesgos

Para prevenir el uso indebido, DeepMind propone una serie de medidas de seguridad y control de acceso, destinadas a impedir el acceso a las capacidades peligrosas. Entre estas medidas se encuentran:
  • La identificación proactiva de capacidades de alto riesgo;
  • La implementación de restricciones estrictas para limitar el acceso a estas capacidades;
  • La vigilancia continua y estrategias de seguridad reforzadas de los modelos.
En cuanto al desalineamiento, el enfoque se basa en dos niveles de defensa:
  • Seguridad a nivel de modelo: Amplificación de la supervisión y entrenamiento avanzado para garantizar que la IAG permanezca alineada con las intenciones humanas;
  • Seguridad a nivel de sistema: Implementación de mecanismos de control y supervisión para detectar y corregir cualquier desviación potencialmente peligrosa.
Herramientas como la interpretabilidad de los modelos y la estimación de incertidumbres también se recomiendan para mejorar la eficacia de las medidas de seguridad.
El equipo de DeepMind espera que la comunidad científica se una a ellos para continuar sus trabajos y garantizar un acceso seguro y controlado a los beneficios potenciales de la IAG.

Para entender mejor

¿Qué marco regulatorio podría implementarse para gobernar el uso de la IAG?

Un marco regulatorio para la IAG podría incluir requisitos estrictos de transparencia, protocolos de supervisión independiente y responsabilidad clara de los creadores de IA para prevenir el mal uso y el desalineamiento.