Ask HN: ¿Cómo lidias con la gente que confía en los LLMs?
El hilo de Hacker News no trata sobre si la IA es útil. Trata sobre qué pasa cuando la gente deja de tratar los LLMs como herramientas y empieza a tratarlos como autoridades.
Dos escuelas de pensamiento
La discusión se divide en dos bandos. El primero argumenta que los LLMs son solo la versión más reciente de un problema antiguo — la gente siempre ha confiado en fuentes débiles. El segundo sostiene que los LLMs son estructuralmente diferentes: llegan como resúmenes limpios sin cadena de fuente visible.
Por qué la confianza en LLMs es socialmente complicada
Decir "los chatbots alucinan" en 2026 puede sonar tan torpe como decir "no puedes confiar en internet" en 2005. Pero callar tiene su costo — el estándar de evidencia aceptable baja silenciosamente.
Patrones prácticos del hilo
Desafía la afirmación, no a la persona. Pregunta "¿en qué fuente se basa eso?"
Pide procedencia. Trata a la persona como experta y pregunta qué libro o estudio respalda el punto.
Separa usos de bajo y alto riesgo. Nadie necesita auditar un resumen de agenda de reunión, pero usar output de IA como base para una decisión de contratación merece escrutinio.
Demuestra el problema en lugar de dar sermones. Abre un chatbot, empújalo en un tema que dominas, contradice y observa cómo cambia de opinión en dos mensajes.
Protege tu propia línea base. Modela mejores hábitos en lugar de intentar corregir cada afirmación débil.
El mayor riesgo en entornos profesionales
El riesgo no es solo la alucinación — es la confianza inmerecida. Las respuestas de IA suenan autoritativas y avanzan más rápido que la voluntad de verificarlas.
Lo que este hilo realmente revela
Este es un problema social, no técnico. Los mejores modelos producen output más plausible, lo que puede empeorar el problema. La solución debe ocurrir en el nivel humano, no en el nivel del modelo.