2026-03-26
Toolsify Editorial Team
AI Culture
Ask HN:如何對待那些信任大語言模型的人?
LLMAI TrustAI EthicsHacker Newsask hn how do you deal with people who trust llmsai trust in professional settings
Sponsored
Hacker News 的這個帖子討論的不是 AI 有沒有用。在大多數工作場所,這個問題已經有了答案。帖子討論的是當人們不再把大語言模型當作工具,而是開始把它們當作權威時會發生什麼。
兩種思路
討論大致分為兩個陣營。
第一組認為大語言模型只是老問題的新版本。人們一直信任不靠譜的來源——轉發郵件、沒有引用的博文、過度簡化複雜問題的電視新聞。
第二組不同意。他們認為大語言模型在結構上不同於之前的資訊誤導來源。一個糟糕的網站可以被檢查,而聊天機器人的回答以一個乾淨、自信的摘要形式到達,沒有可見的來源鏈條。
為什麼 LLM 的自信在社交上很複雜
在2026年說「聊天機器人會幻覺」,可能和2005年說「你不能信任互聯網」一樣尷尬。但沉默也有代價——當有人把 LLM 輸出當作證據呈現而沒有人質疑時,可接受證據的標準就悄悄降低了。
實用方法
質疑說法,而不是質疑人。 問「這是基於什麼來源的?」而不是「你不應該信任 ChatGPT」。
要求提供出處。 把對方當作真正有專業知識的人,問哪本書、哪位專家支持這個觀點。
區分低風險和高風險使用。 沒人需要審核 LLM 是否正確總結了會議議程,但用它作為招聘決策或法律論據的基礎值得審視。
演示問題而不是說教。 打開聊天機器人,在你熟悉的領域推動它、反駁它,看著它改口。這比抽象論述更有說服力。
保護你自己的底線。 用行動示範更好的習慣,而不是試圖糾正每一個不靠譜的說法。
專業環境中最大的風險
風險不只是幻覺——更深層的是無根據的自信。LLM 輸出聽起來很权威,比驗證它的意願移動得更快。在快節奏的會議中,精美的 AI 摘要可以在任何人檢查數據之前就改變討論方向。
這個帖子真正揭示的
這是一個社會問題,不是技術問題。更好的模型產生更合理的輸出,可能反而讓問題更嚴重。修復必須發生在習慣和規範層面——人類層,而不是模型層。
Sponsored