14 de mayo de 2026
3 min lectura
Una exdirectiva de Facebook dice que es injusto pedir al usuario que distinga vídeos manipulados. Esto cambia cómo debemos exigir a las plataformas.
Yaël Eisenstat, exdirectiva de Facebook, lo dijo claro: “Es injusto que los usuarios tengan que distinguir qué vídeo ha sido manipulado”. La declaración, recogida por El País, no es una queja menor. Es la admisión desde dentro de que las plataformas han externalizado el coste de la desinformación a quienes las usan.
Durante años, las grandes tecnológicas han repetido el mismo mantra: “La IA es una herramienta, el usuario debe ser crítico”. Pero cuando los deepfakes se vuelven indistinguibles a simple vista, esa frase se convierte en una trampa. Eisenstat, que trabajó en políticas de integridad electoral en Facebook, señala que incluso los expertos fallan al identificar manipulaciones. Pedirle al ciudadano medio que lo haga es, en sus palabras, “injusto”.
El problema no es solo técnico. Es de poder. Las plataformas deciden qué algoritmos amplifican, qué contenido etiquetan y qué sanciones aplican. Pero cuando el engaño escala, la responsabilidad recae en el usuario. Este desequilibrio erosiona la confianza y, lo más grave, convierte la navegación diaria en un campo minado cognitivo.
“No es tu trabajo ser detective de la IA; es trabajo de las plataformas no engañarte.