El pasado 8 de agosto de 2025, Alfredo Barriga publicó una columna en la que analizó el fenómeno descrito por The Economist sobre la industria de la inteligencia artificial (IA), destacando la paradoja de que los propios desarrolladores de esta tecnología experimentan un “pánico moral” ante su rápido avance.
Barriga explicó que la competencia por alcanzar la Inteligencia Artificial General (AGI) —capaz de reemplazar tareas humanas en oficinas— e incluso la Superinteligencia Artificial (ASI) —tan avanzada que ningún humano podría comprenderla— se ha intensificado tanto en empresas occidentales como chinas. Según planteó, la convicción de que los mayores beneficios recaerán en quienes logren el avance inicial ha impulsado una carrera acelerada, donde nadie quiere quedar en segundo lugar, aun cuando ello signifique relegar la reflexión sobre seguridad.
El académico UDP citó a Google DeepMind, que identificó cuatro riesgos principales en este desarrollo: mal uso, desalineación de objetivos, errores por complejidad y riesgos estructurales. En ese sentido, advirtió que estos escenarios no pertenecen a la ciencia ficción, sino que incluyen posibilidades concretas como la creación de armas biológicas, la propagación de desinformación o la toma de decisiones autónomas sin supervisión humana.
Barriga añadió que, aunque se han implementado medidas de protección como el aprendizaje por refuerzo con retroalimentación humana, estas siguen siendo vulnerables. Ejemplos como el fenómeno del “jailbreaking”, que permite manipular modelos para que ignoren sus restricciones de seguridad, muestran las debilidades existentes. A esto se suma que algunas compañías lanzan productos sin pruebas exhaustivas, priorizando la velocidad de llegada al mercado por sobre la responsabilidad.
Finalmente, sostuvo que el dilema central radica en cómo equilibrar innovación y seguridad en un contexto donde los incentivos favorecen el riesgo, y llamó a reflexionar desde Chile sobre el tipo de gobernanza que se quiere promover: si limitarse a ser consumidores de tecnologías extranjeras o convertirse en protagonistas de un modelo ético y participativo en la era digital.
Lee la columna en el siguiente enlace.