雪梨大學研究員克里斯・魯基在審閱德勤為澳洲政府撰寫的報告時,透過專業知識和細心查證,發現報告中存在多個由 AI 產生的「幻覺」。這些幻覺包括:引用不存在的書籍和學術文章,以及對法律案件判決的錯誤摘要。魯基的發現揭示了 AI 在處理複雜資訊時,可能因為填補資訊空白或錯誤解讀數據而產生虛構資訊的現象。
這起事件凸顯了大型顧問公司過度依賴 AI 可能導致的風險。AI 的「幻覺」問題不僅僅是產生錯誤資訊,更可能生成缺乏證據支持的主張。德勤在修正報告時,並非以真實資料取代虛構資料,而是以多個新的參考資料來取代,暗示報告最初的主張可能並非基於可信的單一來源。這顯示 AI 在專業領域的應用,若缺乏嚴謹的驗證,可能導致報告內容的可靠性受到質疑。
德勤事件不僅損害了其專業形象,更提醒我們在使用 AI 時應保持高度警惕。雖然 AI 可以提高效率,但不能完全取代人類的專業判斷和批判性思考。對於 AI 產生的內容,必須仔細核實其準確性和可靠性,以避免產生誤導或錯誤的結論。學者和專業人士應持續關注 AI 技術的發展,並積極研究如何有效識別和應對 AI 可能產生的「幻覺」,以確保 AI 的應用符合倫理和專業標準。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容