Solo Google DeepMind, Anthropic y OpenAI aprueban, aunque por poco, en materia de seguridad en la Inteligencia Artificial (IA), en un análisis independiente que pretende arrojar luz sobre si las promesas anunciadas están a la altura de los trabajos hechos.
Anthropic, Alibaba Cloud, DeepSeek, Google DeepMind, Meta, OpenAI, xAI y Z.ai son las ocho principales empresas del ecosistema de IA actual, dedicadas a la IA de frontera, es decir, al desarrollo de los modelos más avanzados y potentes.
Se trata de una tecnología que se mueve entre los beneficios y los riesgos para una sociedad que apenas ha empezado a regular su su ciclo de vida -como la Ley de la IA de la Unión Europea-, pero que avanza en su adopción de manera firme.
Con cada innovación, estas empresas destacan los trabajos que han hecho en materia de seguridad, para que su desarrollo e implementación reduzcan riesgos como la desinformación, la manipulación, y los problemas de salud mental, por citar algunos.
Para la organización sin ánimo de lucro Future of Life Institute, «todas las empresas deben ir más allá de las declaraciones de seguridad existencial de alto nivel y producir salvaguardias concretas basadas en evidencia con desencadenantes claros, umbrales realistas y mecanismos demostrados de monitorización y control capaces de reducir la exposición a riesgos catastróficos».
Esta conclusión se recoge en el análisis que ocho expertos de la organización han hecho sobre los enfoques y las medidas implementadas por estas empresas para gestionar tanto los daños inmediatos como los riesgos catastróficos de los sistemas avanzados de IA.
De este trabajo se concluye que ninguna aprueba con nota. Google DeepMind, Anthropic y OpenAI alcanzan a nivel general un aprobado raspado, pero suficiente para establecer una brecha con el otro grupo de empresas (Z.ai, xAI, Meta, Alibaba Cloud, DeepSeek) en los ámbitos de la evaluación de riesgos, el marco de seguridad y el intercambio de información.
Como explican, esta brecha se debe, principalmente, por una divulgación limitada, una evidencia débil de procesos de seguridad sistemáticos y una adopción desigual de prácticas de evaluación sólidas.
La principal debilidad de todas ellas, en la que ninguna aprueba, se encuentra en la seguridad existencial, que evalúa las medidas adoptadas para establecer una protección frente al desarrollo de una IA autoconsciente.
El auge del traductor en la Inteligencia Artificial: un nuevo rol clave en la era digital
De todas, la que obtiene una mejor calificación en Anthropic, debido a su alta transparencia en la evaluación de riesgos, un marco de seguridad comparativamente bien desarrollado, una inversión sustancial en investigación técnica de seguridad y compromisos de gobernanza reflejados en su estructura de Corporación de Beneficio Público y el apoyo a la legislación a nivel estatal, como se detalla.
Pero ninguna llega a cumplir con los estándares globales con sus prácticas de seguridad. «Si bien muchas empresas se alinean parcialmente con estos estándares emergentes, la profundidad, la especificidad y la calidad de la implementación siguen siendo desiguales, lo que da como resultado prácticas de seguridad que aún no cumplen con el rigor, la mensurabilidad o la transparencia previstos por marcos como el Código de prácticas de IA de la UE», concluyen.
Inteligencia Artificial: Google lanza resultados de búsqueda del modo IA en idioma español
Cabe matizar que esta investigación se realizó con datos recogidos hasta el 8 de noviembre, antes de que algunas de las empresas tecnológicas lanzaran sus modelos más recientes, como Gemini 3 Pro de Google DeepMind, Grok 4.1 de xAI, GPT-5.1 de OpenAI o Claude Opus 4.5 de Anthropic.
