2025 年初 ChatGPT 的資安漏洞如何竊取使用者資訊?
Answer
2025 年初 ChatGPT 資安漏洞事件始末
2025 年初,英國科技媒體《The Register》揭露 OpenAI 旗下 ChatGPT 存在重大資安漏洞。攻擊者可透過惡意網頁,竊取使用者在 ChatGPT 上輸入的提示詞和帳號資訊。這表示使用者在 ChatGPT 上輸入的任何內容,包括公司機密、個人資訊或未公開的企劃,都可能被駭客擷取。此事件暴露了 AI 模型潛在的資安風險,並提醒使用者 AI 工具並非絕對安全,私密對話可能外洩。
漏洞帶來的潛在風險
此漏洞讓使用者意識到 AI 工具的資安風險。即使 OpenAI 後續修補了漏洞,使用者仍需警惕 AI 工具無法完全保證對話安全。輸入的任何資訊都可能被模型記錄,甚至被未經授權的第三方存取。這對企業尤其重要,員工可能在不經意間將公司機密洩露給 AI 模型。
使用 AI 工具的安全建議
為了降低風險,建議使用者避免在 AI 工具中輸入敏感資訊,包括公司內部機密、同事或主管的個資、個人隱私、未公開的創意與企劃,以及帳號密碼、身分證字號、病歷等。同時,應定期檢查 ChatGPT 帳戶,留意是否有可疑活動。若發現異常,應立即更改密碼並通知 OpenAI,以確保資訊安全。