WASHINGTON.-Decenas de fiscales generales de Estados Unidos han instado a Google, Meta, Microsoft, OpenAI y otras nueve empresas de Inteligencia Artificial (IA) a solucionar las principales amenazadas a las que se exponen los usuarios que usan sus ‘chatbots’ de IA generativa: las alucinaciones y la falta de medidas de seguridad infantiles sólidas.
«La IA generativa tiene el potencial de cambiar la forma en que funciona el mundo de manera positiva. Pero también ha causado (y tiene el potencial de causar) daños graves, especialmente a las poblaciones vulnerables», se puede leer en la carta que firman decenas de fiscales generales estatales de Estados Unidos con la que pretenden que las empresas tecnológicas responsables de esta tecnología hagan cambios reales.
En concreto, la misiva se dirige a los representantes legales de Anthropic, Apple, Chai AI, Character Technologies, Google, Luka, Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika y xAI, empresas todas ellas centradas en el desarrollo de la IA.
Y refieren dos riesgos principales. Por un lado, las respuestas que buscan la aprobación del usuario humano y las alucinaciones, un fenómeno por el que la IA ofrece respuestas que, a pesar de parecer coherentes, incluyen información sesgada o errónea que no está respaldada por los datos con los que se ha entrenado. Por otro, la falta de salvaguardias eficaces que protejan a los niños y adolescentes en las interacciones que mantienen con los ‘chatbots’.
Inteligencia Artificial: ChatGPT incorpora apps de Photoshop, Acrobat y Adobe Express
Estos riesgos ya han causado daños a los ciudadanos estadounidenses. La carta cita el suicidio de dos adolescentes, incidentes de envenenamiento y episodios de psicosis, entre otros. «De hecho, los resultados aduladores y delirantes de la IA generativa han perjudicado tanto a los vulnerables (como los niños, los ancianos y las personas con enfermedades mentales) como a las personas sin vulnerabilidades previas», apuntan.
También recoge ejemplos de algunas conversaciones que los menores de edad han mantenido con los ‘chatbots’, en las que las IA ha tratado temas como «el apoyo al suicidio, la explotación sexual, la manipulación emocional, la sugerencia de uso de drogas, la propuesta de mantener el secreto de los padres y fomento de la violencia contra otros».
Los fiscales generales reconocen que este tipo de conversaciones son «solo una pequeña muestra de los peligros reportados que los robots de IA representan para nuestros niños», pero también denuncian que «estas interacciones están más extendidas y son mucho más gráficas de lo que cualquiera de nosotros hubiera imaginado».
¿Qué le dijimos primero a la Inteligencia Artificial? La curiosa historia tras la respuesta
Por ello, insisten en que «se mitigue el daño causado y se adopten salvaguardias adicionales para proteger a los niños», ya que, como advierten, «no implementar adecuadamente salvaguardas adicionales puede violar nuestras respectivas leyes».
La carta recoge la propuesta de cambios que los fiscales generales consideran que se deben implementar antes del 16 de enero de 2026, que incluyen la realización de pruebas de seguridad razonables y apropiadas de los modelos de IA generativa, el uso de procedimientos de retirada de modelos defectuosos bien documentados y permitir que terceros puedan revisar los modelos con procesos independientes.
Europa Press- Foto internet-medios
