三星工程師如何因使用 ChatGPT 導致公司機密資料外洩?
Answer
三星工程師因使用 ChatGPT 導致機密資料外洩事件
2023 年,三星工程師在使用 OpenAI 的 ChatGPT 時,因將公司原始碼上傳至平台協助除錯,導致公司機密資料外洩。此事件突顯了 AI 工具在處理敏感資訊時的風險,促使三星最終全面禁用 AI 工具。這起事件不僅暴露了企業在使用 AI 時可能面臨的資安隱患,也提醒了員工在使用 AI 工具時應謹慎處理公司機密。
外洩資訊類型與潛在風險
除了三星工程師洩漏的原始碼外,其他可能透過 AI 工具外洩的資訊還包括:公司內部機密資料、同事或主管的實名資訊、個人私事與職場秘密,以及尚未公開的創意與企劃。這些資訊一旦外洩,可能導致違反個資法、職場信任危機、商業機密洩漏等嚴重後果。
如何避免機密外洩
為避免類似事件再次發生,企業應加強員工的資安意識,制定明確的 AI 工具使用規範,並定期進行安全檢查。員工在使用 AI 工具時,應避免輸入敏感資訊,並謹慎評估 AI 工具的安全性。此外,企業也可以考慮使用更安全的 AI 解決方案,例如內部部署的 AI 模型或具有更強資料保護功能的雲端服務。