La inteligencia artificial (IA) está presente en casi todos los ámbitos de la vida y desde sus orígenes hay una cuestión que causa cierta inquietud: ¿logrará igualar o superar en algún momento a la inteligencia humana?
Pues bien, DeepMind, la división de IA de Google, en un informe titulado Un enfoque hacia la seguridad y protección técnica de la AGI, desvela el momento en el que la inteligencia artificial general podría equipararse o incluso llegar a superar a las capacidades humanas en el desempeño de cualquier tarea.
Inteligencia artificial general
Demis Hassabis, CEO de la compañía, ha destacado recientemente en una conferencia en Londres (Reino Unido) que la inteligencia artificial general (AGI, por sus siglas en inglés), podría alcanzar a la inteligencia humana en los próximos cinco o diez años.
No obstante, Hassabis matiza que, "aunque se está avanzando rápidamente, todavía existen muchas áreas que requieren trabajo para que los sistemas puedan comprender y adaptarse al contexto del mundo real, algo fundamental para lograr una inteligencia artificial realmente general". Así, señala que "estamos muy lejos de lograr la AGI completa, pero en los próximos diez años veremos un avance significativo".
Frente a los sistemas de inteligencia artificial actuales, capaces de realizar tareas específicas, la AGI aspira a razonar, planificar, aprender y actuar en distintos de contextos con un nivel de autonomía y versatilidad similiar o superior al del cerebro humano.
Precisamente, uno de los principales obstáculos para que la AGI sea una realidad es conseguir que estos sistemas comprendan el contexto del mundo real para que puedan comportarse como lo hacen los humanos en situaciones complejas y cambiantes.
Peligros potenciales
Según el informe de Google, esta ambición tecnológica plantea, sin embargo, complejos desafíos en términos de seguridad, técnica, control y alineación con los intereses humanos. Los principales riesgos detectados son:
- Uso indebido
La AGI podría aumentar las amenazas digitales si se usa para desarrollar malware, manipulación informativa, espionaje, ingeniería social o ciberataques automatizados.
- Desalineación
Podría ocurrir que la AGI actúe de forma imprevisible o contraria a los propósitos humanos, incluso sin intención maliciosa, debido a una mala interpretación por parte de los sistemas de las instrucciones o de los valores humanos.
- Errores técnicos
Fallos en el diseño, la implementación o el entrenamiento de los sistemas de AGI podrían tener graves consecuencias si no se abordan de la forma adecuada.
- Impacto social
La AGI podría extenderse al plano social y económico provocando desigualdad, pérdida de empleo o concentración de poder.
Cómo afrontar las amenazas
Google DeepMind señala en su informe que, para hacer frente a estas amenazas de la AGI, hace falta algo más que buenas intenciones. Así, propone un enfoque proactivo, es decir, detectar de forma prematura si un modelo está desarrollando capacidades potencialmente peligrosas.
Además, contempla también sistemas de control de acceso más estrictos, una mayor protección de los modelos y nuevas técnicas para entrenar a las IA en comportamientos alineados con los valores humanos.
Desafíos de la AGI
El principal desafío de la inteligencia artificial general es cómo garantizar que una tecnología con capacidades autónomas y versátiles permanezca siempre bajo el control humano. Según el informe de Google, la AGI debe ser técnicamente segura y beneficiosa para la sociedad, lo que implica diseñar sistemas que cumplan con sus objetivos técnicos y respeten los valores y prioridades de la humanidad.
Lo que más preocupa es el hecho de que la AGI pueda estar aparentemente alineada con las intenciones humanas y sin embargo acabe actuando con unos objetivos diferentes. Un mal entrenamiento podría llevar a decisiones que contradigan los intereses de los usuarios o incluso a tener un impacto negativo en la sociedad.