Vida digital: la importancia de distinguir entre humanos y los sistemas automatizados

shadow

 

La amplia adopción de la Inteligencia Artificial (IA) y los bots en los entornos ‘online’ está afectando a la vida digital de los usuarios con desafíos directos en su confianza y seguridad, lo que pone de relieve la necesidad de contar con herramientas que permitan demostrar a las personas que son reales en Internet de forma anónima y privada, mediante herramientas como la que ofrece la «red de humanos reales» World.

Los usuarios acuden a la IA en su día a día porque se trata de una tecnología con diversas aplicaciones que les ayuda a ahorrar tiempo, amplía el acceso a información y desbloquea nuevas capacidades, de la mano de agentes y bots que llevan a cabo acciones de forma independiente.

Sin embargo, a medida que la IA se integra en todos los sistemas y en el entorno ‘online’, los usuarios también se enfrentan a desafíos directos en la seguridad, la confianza y la equidad digital, en un espacio que comienza a estar dominado por los sistemas automatizados, que realizan muchas acciones sin intervención humana.

Esto se traduce en que los sistemas automatizados influyen actualmente en cuestiones relevantes de la navegación en Internet, como es el caso de los precios, la disponibilidad de productos, las reseñas o la generación de contenido y su alcance. Como resultado, la incertidumbre para los usuarios está muy presente a la hora de, por ejemplo, realizar compras por Internet.

De hecho, según datos recogidos por el Observatorio Nacional de Tecnología y Sociedad (ONTSI), aunque más del 90 por ciento de los usuarios en España considera que comprar por Internet es relativamente seguro, casi el 50 por ciento afirma hacerlo con ciertas dudas.

El periodista como ingeniero cognitivo

Asimismo, más del 93 por ciento de los compradores ‘online’ considera seguras sus compras solo cuando percibe garantías claras en el proceso, acerca de aspectos como la autenticidad de los vendedores, la fiabilidad de las transacciones y la protección de los datos personales, según el informe de indicadores de comercio electrónico de 2025, también elaborado por el ONTSI.

Teniendo todo ello en cuenta, la necesidad de fiabilidad y confianza, convierte la verificación y la transparencia ‘online’ en requisitos muy relevantes para el uso de servicios digitales, dado que cada vez se desdibuja más la interacción en Internet y se requiere conocer si se trata de un sistema automatizado o un humano real el que está detrás de la pantalla.

PRUEBA DE HUMANIDAD A TRAVÉS DE WORLD

En este sentido, en el marco del Día del Internet Seguro, que se celebra cada 10 de febrero, la compañía tecnológica cofundada por el CEO de OpenAI, Sam Altman, Tools for Humanity, ha puesto en evidencia cómo los sistemas automatizados están dominando cada vez más la vida digital cotidiana y cómo de la mano de su plataforma World, puede ayudar a identificar personas reales en Internet.

Concretamente, la compañía ha hecho referencia a plataformas como la nueva Moltbook, que reflejan nuevos espacios digitales en los que agentes de IA interactúan entre sí y generan contenido de forma exclusiva, mientras los usuarios quedan relegados a ser observadores.

GPT 5.2: mejor en inteligencia general que un humano

A ello se le suma que las defensas tradicionales en Internet para identificar si una acción se está ejecutando por un bot o por un humano, como los Captcha, ya no son una barrera tan fiable, gracias a las capacidades de la IA para resolverlos.

Por tanto, la plataforma World se presenta como forma de verificar la humanidad en las interacciones en Internet, así como una opción para que las plataformas puedan asegurar que las reseñas, los inicios de sesión, las compras y las conversaciones involucren a personas reales.

Con World ID, «cualquier persona puede verificar ‘online’ que es un ser humano real y único, y llevar esa verificación a lo largo de Internet, demostrando su humanidad ante cualquier plataforma o servicio sin revelar quién es», como ha detallado la compañía.

La verificación es anónima porque no se requiere compartir datos personales con las aplicaciones, ni se rastrean o almacenan los datos de actividad. Simplemente se basa en un sistema que determina que la persona es humana y está llevando a cabo acciones en Internet.

Este sistema utiliza una cámara de última generación llamada The Orb y una tecnología de anonimización criptográfica. De esta forma, la cámara recoge la información de los usuarios comprobando que son humanos y se guarda de forma encriptada en la billetera World App. Tras ello, World puede demostrar a sitios web y aplicaciones que los usuarios son una persona real.

IA: OpenAI prepara el lanzamiento del «modo adulto» de su asistente ChatGPT para el 2026

Este tipo de opciones cuentan con una amplia variedad de casos de uso, desde plataformas de citas que pueden asegurar que los perfiles son personas reales, hasta sitios de comercio electrónico que pueden verificar que las reseñas provienen de compradores reales. Incluso, las plataformas financieras pueden prevenir el fraude automatizado desde el punto de entrada.

Según el director de producto de Tools for Humanity, Tiago Sada, ya en 2024, el tráfico automatizado superó por primera vez tráfico humano y más de una de cada dos solicitudes ‘online’ procede de bots actualmente. Por tanto, «los humanos corren el riesgo de convertirse en minoría en Internet».

Igualmente, apuntó que en el comercio electrónico esta situación se acentúa. «La IA reduce drásticamente las barreras de entrada. Lo que antes llevaba meses, ahora puede automatizarse en cuestión de minutos. Sin una infraestructura digital reforzada y nuevos mecanismos de confianza, Internet pierde credibilidad frente a estas amenazas. Verificar que hay una persona real detrás de cada acción online se vuelve, por tanto, indispensable», sentenció.

Financial Times elige al CEO de Nvidia, Jensen Huang, «persona del año» en el 2025

Con todo ello, la compañía propietaria de Worldcoin subrayó un panorama en el que «cuando los agentes de IA construyen sus propias redes sociales y cuando tres segundos de audio son suficientes para suplantar a cualquier persona, la seguridad requiere un nuevo tipo de infraestructura».

Europa Press