TECNOLOGÍA
TECNOLOGÍA

Expertos en Inteligencia artificial se reúnen en París ante el temor a una pérdida de control de la IA

Ante el avance imparable de esta tecnología, varios especialistas en la materia plantean la posibilidad de que llegue el momento en el que el ser humano "no sea capaz de controlarla"

Un hombre baja unas escaleras en las que se puede leer "IA, Ciencia y Sociedad"
Un hombre baja unas escaleras en las que se puede leer "IA, Ciencia y Sociedad"AFP
Actualizado

Los principales expertos del mundo en Inteligencia Artificialse reunirán en París durante la próxima semana para abordar la necesidad de establecer normas ante el avance imparable de esta herramienta.

A diferencia de las cumbres anteriores en Bletchley Park (Reino Unido) en 2023 y en Seúl (Corea del Sur) en 2024, centradas en cuestiones de seguridad, la presidencia francesa desea que el encuentro del lunes y martes ponga el énfasis en medidas efectivas sobre la gobernanza de la IA. "Nuestro deseo no es pasar nuestro tiempo únicamente hablando de los riesgos", explicaba a AFP Anne Bouverot, responsable del evento y designada por el Gobierno francés para el cargo, que considera que existe "una oportunidad muy real" para aprovechar el avance de esta tecnología.

Un pensamiento similar al compartido por Max Tegmark, presidente de Future of Life Institute y físico del prestigioso Massachusetts Institute of Technology (MIT), quien indicó que la mencionada cumbre supone un "momento crucial" que el país no debe perderse.

Ciberataques

El Future of Life Institute apoya el lanzamiento de una plataforma, llamada "GRASP", que busca cartografiar los principales riesgos relacionados con la IA en cuanto a posibles pérdidas de control y las soluciones desarrolladas en todo el mundo. "Hemos identificado unos 300 herramientas y tecnologías que enfrentan estos riesgos", detalla Cyrus Hodes, quien coordinó la iniciativa. Los resultados serán transmitidos a la OCDE y a los miembros de la Alianza Global para la Inteligencia Artificial (PMIA).

El primer informe internacional sobre la seguridad de la IA, fruto de una colaboración internacional de 96 expertos y apoyado por 30 países, la ONU, la Unión Europea y la OCDE, fue presentado el jueves, también con el objetivo de informar a los responsables políticos sobre los peligros de esta tecnología.

Si bien algunos son muy conocidos, como la creación de contenidos falsos en línea, el investigador en informática Yoshua Bengio, ganador del premio Turing 2018, afirma que "las pruebas de la existencia de riesgos adicionales como los ataques biológicos o los ciberataques están apareciendo gradualmente". Por ello, a largo plazo, le preocupa una "pérdida de control" de los humanos sobre sistemas de IA animados por "su propia voluntad de vivir".

"Muchas personas pensaban que dominar el lenguaje como lo hace ChatGPT-4 (el chatbot de OpenAI) era ciencia ficción hace apenas seis años. Ahora el problema es que, que muchas personas en el poder aún no han comprendido que estamos más cerca de construir una Inteligencia Artificial general que de saber cómo controlarla", expresa Max Tegmark.

Las máquinas, al mando

La inteligencia artificial general sería comparable o incluso superior a los humanos, y varios expertos del ecosistema, como el director de OpenAI, Sam Altman, creen que se logrará en los próximos años. "Si observamos el ritmo al que aumentan las capacidades, podríamos pensar que lo lograremos para 2026 o 2027", coincidía Dario Amodei, el director de la startup estadounidense Anthropic, en noviembre.

Un nuevo avance que llegaría con el riesgo de que, en "el peor de los casos, estas empresas estadounidenses o chinas pierdan el control y que la Tierra sea dominada por máquinas, indica Tegmark, para el que lo más preocupante "sería tener sistemas de armamento donde es la Inteligencia Artificial la que controla y decide a quién atacar y cuándo".