El informe Stanford revela que EE.UU. es el país que menos confía en su propio gobierno para regular la IA
Solo el 31% de los estadounidenses confía en que su gobierno regule la IA de forma eficaz, el porcentaje más bajo entre todos los países encuestados. La UE genera más confianza regulatoria que EE.UU. o China.

Hay un dato en el Índice de IA 2026 de Stanford que no encaja bien con la narrativa habitual sobre el liderazgo tecnológico de Estados Unidos. El país que más invierte en IA, que más modelos de primer nivel produce y cuyas empresas dominan el sector a nivel global es, de todos los países encuestados, el que menos confía en su propio gobierno para regularla. Solo el 31% de los ciudadanos estadounidenses cree que su gobierno puede regular la IA de forma eficaz. The Decoder
El número no es una anomalía estadística. Es la conclusión de un informe de más de 400 páginas que lleva siete años midiendo la IA desde todos los ángulos posibles, y dice algo muy concreto sobre el momento político que vive el sector.
La brecha entre expertos y ciudadanos
El hallazgo más revelador del informe puede ser la brecha de percepción: el 73% de los expertos en IA ve el impacto de la tecnología en el mercado laboral de forma positiva, pero solo el 23% de la población general comparte esa visión. Brechas similares aparecen en torno a la economía y la sanidad. The Decoder
No es una diferencia de información. Es una diferencia de experiencia. Los expertos trabajan con la tecnología, la entienden, controlan sus efectos en sus propios entornos. El público general la experimenta como algo que llega desde fuera, que nadie explica bien, que cambia las reglas de empleos reales, y sobre la que los mecanismos institucionales de control son o inexistentes o débiles. El 31% de confianza en la regulación estadounidense refleja exactamente eso.
Por qué la UE genera más confianza que EE.UU. o China
Globalmente, la UE disfruta de más confianza que EE.UU. o China en lo que respecta a la regulación efectiva de la IA. The Decoder Es un resultado que puede sorprender en un sector donde Europa es a menudo presentada como el jugador que regula pero no innova. Pero tiene una lógica: el Reglamento de IA europeo, la Ley de Mercados Digitales y los procedimientos abiertos contra Meta y Google que hemos informado esta semana son marcos legales con mecanismos de aplicación visibles. Los ciudadanos pueden ver que algo ocurre, aunque discutan si es suficiente o si es lo correcto.
En Estados Unidos, el contexto esta semana es elocuente. La administración Trump ha desmantelado parte de la arquitectura de supervisión de IA que existía, ha designado a una empresa de IA como riesgo para la cadena de suministro nacional por razones que un juez federal calificó de «orwellianas», y ha impulsado acuerdos militares con los laboratorios que aceptaron sus términos. El 31% de confianza no es una cifra abstracta. Tiene contexto.
Qué dice el informe sobre los jóvenes y la educación
El tercer punto que ha llamado la atención esta semana en el sector educativo también proviene del informe Stanford. Más del 80% de los estudiantes de secundaria y universidad en EE.UU. ya usan IA para tareas escolares, pero solo la mitad de los centros de secundaria y bachillerato tienen políticas sobre IA, y apenas el 6% de los profesores considera que esas políticas son claras. Stanford HAI
La adopción masiva y la ausencia de marcos educativos no es una combinación inédita en la historia tecnológica —ocurrió con internet, con las redes sociales, con los móviles— pero esta vez el ciclo va más rápido. El valor estimado de las herramientas de IA generativa para los consumidores estadounidenses alcanzó los 172.000 millones de dólares anuales en los primeros meses de 2026, con el valor medio por usuario triplicándose en un año. Stanford HAI Una tecnología que genera tanto valor percibido por sus usuarios, tan rápido, sin marcos normativos claros en el entorno donde se forma la siguiente generación, es exactamente el tipo de situación que los reguladores suelen lamentar no haber anticipado. El informe de Stanford lo documenta. Queda por ver si alguien lo lee antes de que sea tarde.
Fuentes
Seguir leyendo

La UE da a Google tres meses para abrir sus datos de búsqueda a la competencia. Los plazos vencen en abril
El procedimiento iniciado en enero llega a su primer hito: la Comisión debe comunicar a Google sus hallazgos preliminares este mes. En juego está el acceso de rivales a años de datos de comportamiento de búsqueda.

La UE emplaza a Meta: cobrar por acceder a WhatsApp tiene el mismo efecto que prohibirlo, y eso no es suficiente
La Comisión Europea rechaza la propuesta de Meta de permitir el acceso de IA de terceros a WhatsApp mediante pago y prepara medidas cautelares para restablecer el acceso anterior.

El AISI prueba Mythos y publica lo que encontró: un modelo que completa ataques corporativos en red de 32 pasos de forma autónoma
El Instituto de Seguridad de la IA del Reino Unido publica la primera evaluación independiente de las capacidades ofensivas de Claude Mythos. Los resultados son más concretos y más preocupantes de lo que Anthropic dijo.