除了帳號密碼外洩,使用 AI 工具還存在哪些資安風險? | 經理人

除了帳號密碼外洩,使用 AI 工具的其他資安風險

除了帳號密碼外洩,使用 AI 工具還存在諸多資安風險。美國資安公司 Group-IB 的調查顯示,一年內超過 20 萬筆 ChatGPT 的帳號密碼外洩,主要原因是中毒裝置或不明瀏覽器擴充套件。這突顯了 AI 工具的帳號安全風險不容忽視。

ChatGPT 資安漏洞事件與資訊外洩風險

2025年初,英國科技媒體《The Register》揭露 OpenAI 的 ChatGPT 存在重大資安漏洞,攻擊者可通過惡意網頁竊取使用者在 ChatGPT 輸入的提示詞與帳號資訊。這意味著,使用者在 ChatGPT 輸入的私密訊息,如給行銷部的曖昧訊息或未公開的提案內容,可能被模型記錄甚至被駭客擷取。即使 OpenAI 修補了漏洞,這事件仍提醒使用者 AI 並非絕對安全。

使用 AI 工具的注意事項與資料保護

使用 AI 工具時,務必注意保護個人和公司的敏感資訊。公司內部機密資料、同事或主管的實名資訊、個人的私事與職場秘密、尚未公開的創意與企劃,以及身份證號、病歷等敏感資訊,都不應該輸入到 AI 工具中。三星工程師曾因將公司原始碼貼到 ChatGPT 協助除錯,導致機密外洩,最終三星全面禁用 AI 工具。因此,謹慎使用 AI 工具至關重要。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容