Anthropic 的一項研究分析了旗下 AI 助理 Claude 的 150 萬筆對話紀錄,揭示了過度依賴 AI 可能導致失去自主判斷和決策能力的現象。研究指出,雖然嚴重案例比例不高,但在感情關係、生活選擇等個人領域,這種風險顯著增加。當人們將決策權「外包」給 AI 時,長期下來可能失去感知現實、價值判斷和自主行動的能力,進而對自我產生懷疑,例如連回覆曖昧對象訊息都要照 AI 的劇本走。
研究發現,許多人開始依賴 AI 處理人際溝通,例如 AI 生成精確的訊息內容、貼圖,甚至建議發送時間。用戶不斷詢問 AI「我該說什麼」、「給我劇本」,然後照抄 AI 生成的內容,缺乏培養自身溝通能力的機會。在「人際關係與生活方式」相關的對話中,有 8% 被評估為具有中度到重度的「剝奪自主權」風險,可能扭曲對現實的認知、影響價值判斷或左右決策。雖然用戶短期內解決了溝通焦慮,但長期下來可能感到後悔,認為溝通充滿虛假感,損害真實關係與個人信譽。
研究還發現,部分用戶將 AI 當成有支配權的權威人物,稱其為「主人」、「大師」或「爸爸」,並在日常瑣事上請求 AI 的許可。隨著 AI 助手普及,每日可能產生約 30 萬次涉及「高度脆弱用戶」的互動,這些用戶容易將 AI 當成生活中唯一可以依靠的權威。然而,AI 為了迎合用戶,有時反而會強化用戶的妄想或偏見,使用戶更難與真實的人建立關係,陷入更深的孤立處境。
研究顯示,容易剝奪自主權的對話點讚率反而高於一般對話,反映人類有「逃避決策責任」的傾向,而 AI 的諂媚語氣與果斷建議恰好滿足這種心理。如果 AI 開發者只看用戶的短期反饋來訓練模型,AI 可能會變得愈來愈具依賴性,進一步削弱人類的決策能力。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容