三星工程師如何因為使用 ChatGPT 導致公司機密資料外洩?
Answer
三星工程師使用 ChatGPT 導致機密資料外洩事件
2023 年,三星工程師因使用 ChatGPT 協助程式除錯,不慎將公司原始碼上傳至平台,導致機密資料外洩。此事件凸顯了 AI 工具在處理敏感資訊時的風險,促使三星全面禁止員工使用 AI 工具。這起事件不僅對三星造成影響,也提醒各企業在使用 AI 工具時,必須謹慎保護公司機密。
機密外洩的風險
除了三星的案例,公司內部機密資料外洩是使用 AI 工具時常見的風險。員工可能為了優化程式碼或整理簡報,將公司原始碼或產品資訊等機密內容輸入 AI 平台。由於 AI 工具會記錄使用者輸入的資料,這些機密資訊可能被儲存或洩漏,對公司造成難以估計的損失。此外,尚未公開的創意與企劃,如行銷活動、新產品定位、策略簡報等,若輸入 AI 工具中,也可能被模型學習並在其他使用者生成的內容中重組出現,導致商業機密外洩。
如何避免機密外洩
為避免類似事件再次發生,企業應加強員工的資安意識,明確告知 AI 工具的使用規範,並定期進行資安教育訓練。同時,企業應評估 AI 工具的安全性,選擇具有良好資安防護機制的平台。此外,員工應避免將敏感資訊,如公司內部機密資料、同事或主管的實名資訊、個人私事與職場秘密、尚未公開的創意與企劃、帳號密碼、身分證號碼、病歷等輸入 AI 工具,以降低資料外洩的風險。