ChatGPT等AI聊天機器人有哪些潛在的資安風險?
Answer
ChatGPT 等 AI 聊天機器人的潛在資安風險
近年來,如 ChatGPT 等 AI 聊天機器人功能日趨強大,能記憶使用者偏好、提供個人化回覆,甚至協助處理工作事務。然而,隨著使用者與 AI 的互動增加,資訊安全與隱私保護風險也隨之提升。專家警告,應謹慎對待與 AI 聊天機器人的對話內容,避免洩漏過於敏感的個人及企業資訊。
資訊洩漏的風險
史丹佛大學研究員珍妮佛.金指出,一旦將資訊輸入聊天機器人,使用者便失去對該資訊的控制權。《華爾街日報》報導指出,過去曾發生 ChatGPT 漏洞,導致部分用戶能看到其他人的聊天記錄,以及 OpenAI 寄送訂閱確認郵件給錯誤對象,暴露用戶姓名、電子郵件和付款資訊等事件,突顯 AI 平台潛在的資安風險。用戶的聊天記錄也可能因駭客攻擊或法院要求而被洩漏。
應避免提供的五大資訊
- 身分識別資訊:包括身分證號碼、駕照、護照號碼,以及出生日期、地址和電話號碼等。雖然部分聊天機器人會嘗試自動編輯這些資訊,使用者仍應避免主動提供。
- 醫療結果:個人醫療資訊應保密。儘管有些人會與 AI 討論病例經驗以尋求醫療知識或幫助,但聊天機器人通常不會將醫療數據列入特殊保護範圍。若想利用 AI 分析檢驗報告,建議先裁剪圖片或編輯文件,僅保留測試結果並塗掉個人識別資訊。
- 金融帳戶:銀行和投資帳戶號碼一旦洩漏,可能被用於監控或盜取資金。
- 企業內部資訊:若在工作中使用通用版本的聊天機器人,即使是撰寫郵件這樣的小事,也可能不慎洩漏客戶資料或未公開的商業機密。三星就曾發生工程師向 ChatGPT 洩漏內部原始碼而禁用。若企業需要 AI 協助,應考慮訂閱企業版本。
謹慎使用 AI 聊天機器人,保護個人與企業的資訊安全。