Ask HN: как общаться с людьми, которые доверяют LLM?
Ветка Hacker News — не о том, полезен ли ИИ. Она о том, что происходит, когда люди перестают воспринимать LLM как инструменты и начинают считать их авторитетами.
Две школы мысли
Дискуссия раскололась на два лагеря. Первый утверждает, что LLM — лишь новая версия старой проблемы: люди всегда доверяли слабым источникам. Второй настаивает, что LLM структурно отличаются — они приходят в виде чистых резюме без видимой цепочки источников.
Почему доверие к LLM — социальная сложность
Сказать «чатботы галлюцинируют» в 2026 году может прозвучать так же неловко, как «интерменту нельзя доверять» в 2005. Но молчание тоже имеет свою цену — стандарт того, что считается приемлемым доказательством, незаметно снижается.
Практические паттерны из ветки
Оспаривайте утверждение, а не человека. Спросите «на каком источнике это основано?»
Спрашивайте происхождение. Относитесь к собеседнику как к эксперту и спросите, какая книга или исследование подтверждает тезис.
Разделяйте использование с низкими и высокими ставками. Никому не нужно проверять резюме повестки встречи, но использование вывода ИИ как основы для решения о найме заслуживает проверки.
Демонстрируйте проблему вместо лекций. Откройте чатбот, надавите на тему, в которой разбираетесь, противоречьте ему и наблюдайте, как он меняет мнение за два сообщения.
Защищайте собственный стандарт. Показывайте лучшие привычки, а не пытайтесь исправить каждое слабое утверждение.
Главный риск в профессиональной среде
Риск — не только галлюцинации, но и незаслуженная уверенность. Ответы ИИ звучат авторитетно и продвигаются быстрее, чем готовность их проверить.
Что эта ветка действительно показывает
Это социальная, а не техническая проблема. Лучшие модели дают более правдоподобные ответы, что может усугубить проблему. Решение должно лежать на уровне человеческих привычек и норм, а не на уровне модели.