15 de mayo de 2026
3 min lectura
La filósofa Carissa Véliz advierte que la IA presenta pronósticos como verdades absolutas. ¿Qué significa para tu capacidad de decidir?
La filósofa Carissa Véliz lo dice claro: la inteligencia artificial presenta sus predicciones como hechos consumados, no como probabilidades. El problema no es técnico, es ético: al ocultar la incertidumbre, la IA te invita a delegar tu criterio sin que lo notes.
Cada vez que usas un asistente para decidir qué leer, qué comprar o qué responder, estás recibiendo una predicción disfrazada de verdad. Véliz señala que los modelos generativos no distinguen entre un dato verificado y una inferencia estadística; simplemente entregan lo más probable como si fuera cierto. Para el usuario, eso significa un menú de opciones que parece objetivo, pero que esconde sesgos, vacíos y una falsa seguridad.
El impacto es doble: por un lado, pierdes práctica en sopesar alternativas y tolerar la ambigüedad. Por otro, normalizas que una máquina decida por ti lo que es relevante o verdadero. En un mundo donde la atención es el recurso más escaso, aceptar predicciones como hechos te hace más vulnerable a la manipulación y menos autónomo.
“La IA no te da verdades, te ofrece apuestas; tratarlas como certezas es el primer paso para perder tu autonomía.