- Innovación Un equipo de la Universidad de Washington consigue entrenar una IA comparable a DeepSeek y o1 por sólo 50 dólares
- IA Las grandes tecnológicas no se arrugan ante DeepSeek y planean una lluvia de 330.000 millones de dólares para alimentar el furor de la IA en 2025
Los principales expertos del mundo en Inteligencia Artificialse reunirán en París durante la próxima semana para abordar la necesidad de establecer normas ante el avance imparable de esta herramienta.
A diferencia de las cumbres anteriores en Bletchley Park (Reino Unido) en 2023 y en Seúl (Corea del Sur) en 2024, centradas en cuestiones de seguridad, la presidencia francesa desea que el encuentro del lunes y martes ponga el énfasis en medidas efectivas sobre la gobernanza de la IA. "Nuestro deseo no es pasar nuestro tiempo únicamente hablando de los riesgos", explicaba a AFP Anne Bouverot, responsable del evento y designada por el Gobierno francés para el cargo, que considera que existe "una oportunidad muy real" para aprovechar el avance de esta tecnología.
Un pensamiento similar al compartido por Max Tegmark, presidente de Future of Life Institute y físico del prestigioso Massachusetts Institute of Technology (MIT), quien indicó que la mencionada cumbre supone un "momento crucial" que el país no debe perderse.
Ciberataques
El Future of Life Institute apoya el lanzamiento de una plataforma, llamada "GRASP", que busca cartografiar los principales riesgos relacionados con la IA en cuanto a posibles pérdidas de control y las soluciones desarrolladas en todo el mundo. "Hemos identificado unos 300 herramientas y tecnologías que enfrentan estos riesgos", detalla Cyrus Hodes, quien coordinó la iniciativa. Los resultados serán transmitidos a la OCDE y a los miembros de la Alianza Global para la Inteligencia Artificial (PMIA).
El primer informe internacional sobre la seguridad de la IA, fruto de una colaboración internacional de 96 expertos y apoyado por 30 países, la ONU, la Unión Europea y la OCDE, fue presentado el jueves, también con el objetivo de informar a los responsables políticos sobre los peligros de esta tecnología.
Si bien algunos son muy conocidos, como la creación de contenidos falsos en línea, el investigador en informática Yoshua Bengio, ganador del premio Turing 2018, afirma que "las pruebas de la existencia de riesgos adicionales como los ataques biológicos o los ciberataques están apareciendo gradualmente". Por ello, a largo plazo, le preocupa una "pérdida de control" de los humanos sobre sistemas de IA animados por "su propia voluntad de vivir".
"Muchas personas pensaban que dominar el lenguaje como lo hace ChatGPT-4 (el chatbot de OpenAI) era ciencia ficción hace apenas seis años. Ahora el problema es que, que muchas personas en el poder aún no han comprendido que estamos más cerca de construir una Inteligencia Artificial general que de saber cómo controlarla", expresa Max Tegmark.
Las máquinas, al mando
La inteligencia artificial general sería comparable o incluso superior a los humanos, y varios expertos del ecosistema, como el director de OpenAI, Sam Altman, creen que se logrará en los próximos años. "Si observamos el ritmo al que aumentan las capacidades, podríamos pensar que lo lograremos para 2026 o 2027", coincidía Dario Amodei, el director de la startup estadounidense Anthropic, en noviembre.
Un nuevo avance que llegaría con el riesgo de que, en "el peor de los casos, estas empresas estadounidenses o chinas pierdan el control y que la Tierra sea dominada por máquinas, indica Tegmark, para el que lo más preocupante "sería tener sistemas de armamento donde es la Inteligencia Artificial la que controla y decide a quién atacar y cuándo".