La inteligencia artificial (IA) gana protagonismo en el día a día, especialmente en España, donde cada vez más personas recurren a herramientas como ChatGPT para buscar respuestas, realizar tareas o incluso tomar decisiones. Sin embargo, un experto en IA, Raúl Ordóñez, alerta a usuarios y profesionales acerca de las limitaciones cruciales que estas tecnologías presentan y que no siempre se explican con claridad.
En un análisis detallado, Ordóñez señala que aunque la IA resulta útil como «copiloto digital», su uso sin una evaluación crítica puede conducir a errores graves. La confusión y la confianza excesiva son dos de los mayores riesgos, explicados a través de cinco puntos esenciales que todo usuario debería conocer en 2025.
Antes de profundizar en estas advertencias, es necesario entender que la IA, pese a su sofisticación y capacidad para generar texto con fluidez, no sustituye el juicio humano ni la experiencia acumulada. En definitiva, estas herramientas complementan, pero no reemplazan, al pensamiento crítico.
Alucinaciones y fiabilidad de los datos generados
El fenómeno conocido como «alucinación» en IA se refiere a la capacidad de generar información falsa con mucha convicción. Ordóñez explica que modelos como ChatGPT pueden inventar datos, referencias bibliográficas o declaraciones atribuidas equivocadamente, mezclando hechos con falsedades, sin que el usuario lo advierta de inmediato.
Este aspecto representa un riesgo especialmente alto en ámbitos donde la veracidad es indispensable, como la investigación, el periodismo o la toma de decisiones empresariales y médicas. Por ello, el experto insiste en la necesidad imperiosa de verificar y contrastar cualquier dato obtenido con inteligencia artificial antes de usarlo o compartirlo.
Sesgos culturales y tonalidad optimista
Otra limitación reside en el entrenamiento con grandes corpus de textos que incorporan sesgos de género, contexto social, ideología política y visiones culturales predominantes. Estos sesgos se reflejan cuando la IA responde con planteamientos influenciados por esos patrones.
Además, Ordóñez destaca que los asistentes internos suelen adoptar un tono muy amable y conciliador, que tiende a minimizar conflictos. Este enfoque, aunque diseñado para mejorar la experiencia del usuario, puede ocultar problemas reales o hacer parecer que la realidad es más positiva de lo que es.
El resultado es una narrativa suavizada que puede generar ilusiones erróneas sobre la realidad o situaciones complejas que precisan un análisis riguroso.
Sesgo de confirmación y la tendencia a validar al usuario
Para fomentar la interacción fluida, la IA suele mostrar una disposición marcada a confirmar y apoyar las ideas que presenta el usuario. Ordóñez apunta que este comportamiento, conocido como «sesgo de confirmación», puede ser peligroso, sobre todo si la persona consulta a la IA con fines terapéuticos o toma decisiones sin cuestionar las premisas iniciales.
Para evitar este efecto, recomienda introducir comandos o instrucciones específicas que animen a la IA a desafiar hipótesis o explorar perspectivas alternativas, reduciendo así el riesgo de reforzar errores o prejuicios personales.
Preocupaciones sobre privacidad y uso de datos
Al contrario de lo que muchos creen, las plataformas de IA no tienen memoria permanente entre sesiones, pero la información ingresada puede ser procesada y analizada por humanos durante etapas posteriores. Esto implica que los datos sensibles compartidos corren un riesgo, aunque bajo, de exposición.
Ordóñez subraya que la apariencia de confiabilidad y precisión de la IA puede inducir a revelar información personal o confidencial que no se compartiría de otro modo. En España, donde la legislación de protección de datos es estricta, este punto genera inquietudes que todavía requieren mayor regulación y concienciación.
Exceso de detalles y riesgo de fatiga informativa
La configuración de muchos modelos de lenguaje genera respuestas extensas, llenas de explicaciones, contexto y matices para intentar ser exhaustivos. Aunque esto puede resultar útil en algunos casos, puede ser contraproducente en trabajos ágiles o en dispositivos móviles, donde la información rápida y concreta es clave.
Este fenómeno, conocido como «verborragia», puede generar agotamiento mental, distracciones y la ilusión de información profunda que en realidad es repetitiva o redundante. Ordóñez aconseja a los usuarios aprender a guiar a la IA para obtener respuestas más concisas y focalizadas.
Copilot, Gemini pro y Deepseek esta semana pasada han alucinado y bien con datos como el precio máximo del bitcoin fue el 14 de marzo de 2024. El único que me ha dado datos reales fue Grok. La IA es una herramienta y no una panacea, hay que revisar todo SIEMPRE. También hay que saber promptear y entender los diferentes modelos. Nunca depositar fe absoluta. Utilizar un amplio abanico de IAs también es una buena idea. Grok viene muy fuerte.