三星工程師因何原因導致公司機密外洩? | 經理人

三星工程師洩密事件始末

2023年,三星工程師在使用ChatGPT進行程式除錯時,不慎將公司的原始碼上傳至該平台,造成公司機密資料外洩。這起事件凸顯了AI工具在處理敏感資訊時所帶來的風險,並促使三星全面禁止員工使用AI工具。

機密外洩的潛在風險

企業使用AI工具時,內部機密資料外洩是一個常見的風險。員工可能為了優化程式碼或整理簡報,將公司原始碼或產品資訊等機密內容輸入AI平台。由於AI工具會記錄使用者輸入的資料,這些機密資訊可能被儲存或洩漏,進而對公司造成難以估計的損失。此外,尚未公開的創意與企劃,如行銷活動、新產品定位、策略簡報等,若輸入AI工具中,也可能被模型學習並在其他使用者生成的內容中重組出現,導致商業機密外洩。

防範機密外洩的措施

為了避免類似事件再次發生,企業應加強員工的資安意識,明確告知AI工具的使用規範,並定期進行資安教育訓練。同時,企業應評估AI工具的安全性,選擇具有良好資安防護機制的平台。此外,員工應避免將敏感資訊輸入AI工具,包括公司內部機密資料、同事或主管的實名資訊、個人私事與職場秘密、尚未公開的創意與企劃、帳號密碼、身分證號碼、病歷等,以降低資料外洩的風險。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容