【AI 安全】5句說話千祈唔好同 AI 講!公司機密、Office 曖昧?黑客可能全部聽緊!
CT熱話管理員
隨着人工智能技術快速發展與普及,AI 工具如 ChatGPT 已深入企業及個人生活的每個角落,但同時伴隨著嚴重的資安風險。2025 年初,英國科技媒體《The Register》揭露 OpenAI ChatGPT 出現重大資安漏洞,攻擊者僅靠惡意網頁即可竊取用戶在對話中輸入的提示詞及帳號資訊。這不但使企業內部機密、尚未公開的企劃,甚至私人人際關係都面臨極大洩漏風險。即便後續有漏洞修補,但事件再次提醒大家:AI 並非私密對話的安全保證,輸入的每一句話都有可能被黑客竊聽甚至外洩。
打工仔熱話速遞:用AI取代對方|打工仔獻計慳人手|AI課程從何入手
AI 使用中的五大禁忌話題
1. 公司內部機密資料絕不可透露
許多人為了求方便,會將需要優化的程式碼、原始資料或機密產品內容丟進 AI 工具協助處理,殊不知這可能直接導致機密外洩。2023 年三星就曾爆出工程師將公司原始碼貼入 ChatGPT,造成公司內部機密全面外洩,迫使三星最終禁止員工使用 AI 協作工具。輸入企業核心資料,不僅可能違反保密協議,還會帶來商業損失與法律風險。
2. 不要在 AI 中透露同事與主管真實身分
許多用戶會請 AI 協助撰寫信件或潤飾對話,卻習慣直接帶入同事或老闆的名字,如「幫我寫信給王小明經理」或「我跟行銷部的小美曖昧」等內容。這類真實人名、職稱資訊一旦留存模型內,甚至出現於其他用戶對話中,恐違反個資法並引發職場信任危機,更可能導致名譽受損。
3. 高度私密與職場秘密千萬勿說
職場內的敏感話題如「想跳槽」、「兼差創業」、「與主管意見不合」等,屬於個人高度隱私,AI 工具無法判斷你的意願是否願意這些資訊被保存或外洩。若這些內容遭不當曝光,不僅尷尬,甚至可能面臨失業危機。保護這些個人與職場秘密,應避免直接輸入至 AI。
4. 尚未公開的企劃與創意絕對不要交給 AI
許多行銷活動企劃、新產品策略等尚未發表的構想,一旦上傳至 AI,可能被模型記憶並在未來以重組形式出現於他人生成的內容中。這不僅影響商業機密,也使原創性遭掠奪。類似於影像生成 AI 將藝術家創意融入作品的「侵權」爭議,文字生成 AI 的風險亦如影隨形。
5. 帳號密碼、身份證號和病歷資訊不可輸入
根據美國資安公司 Group-IB 的調查,超過 20 萬筆 ChatGPT 帳號密碼曾流入暗網,許多僅因用戶隨意輸入或中毒裝置造成資料洩露。尤其包括身份證字號、健康報告、心理諮商內容等高度敏感資料,不該輸入任何 AI 工具,即使是請 AI 協助記密碼或翻譯病歷,也存在被系統保存甚至外洩之風險。
AI 工具使用的三大安全原則
1. 輸入前先審慎自問:這段話能公開嗎?
凡是無法公開的私密話題,應避免輸入 AI。即使看似無害的資訊,也可能被系統留下紀錄,無法保證安全。秉持「不說」多於「說」的保守原則,能大幅降低意外風險。
2. 選擇有資安保障的企業級 AI 解決方案
市面上有專為企業設計,具有「不保存資料」、「不訓練模型」條款的 AI 工具,如 ChatGPT Enterprise、Microsoft Copilot for Business,這類工具能較好保障企業資料與個人隱私,避免敏感訊息被用於模型再訓練。
3. 避免直接使用真實資訊,改用模擬或代稱
在請 AI 協助寫信、報告時,將真實人物、產品與事件改用代稱如「部門 A」、「產品 B」、「主管 C」等,既保障機密,又能獲得有效回應。此舉兼顧資料安全與使用效率。
AI 是職場助力也是風險來源
人工智能若善用,能成為絕佳的工作助手,提升效率與創意。然而,錯誤使用則可能導致機密外洩,甚至成為黑客攻擊的突破口。輸入給 AI 的內容極可能被模型記錄甚至外流,這其中的安全關鍵在於「怎麼說」而非「不能說」。企業及員工須嚴格遵守資訊安全原則,在選擇 AI 工具與輸入內容時提升警覺,防止任何可能的資安隱患。
只要切記避免透露公司機密、個人私事、尚未公開計劃與敏感身份資料,並採用具高保障的工具及模擬語境進行對應,才能真正讓 AI 成為可信賴的職場夥伴,而非淪為洩密幫兇。安全使用 AI,護好自己的資訊生命線,才是現代職場的必修課。
延伸閱讀:【AI取代】各部門互相挑戰用AI取代對方!事主:仲有部門加速用AI取代自己…
延伸閱讀:【黑心公司】打工仔獻計慳人手!點知下場勁慘烈!網民斥:陰毒到極!
延伸閱讀:【7大AI課程】咁多個AI課程從何入手?新手學AI全攻略
►最新【政府/公共機構】職位空缺
►最新【行政】職位空缺
►最新【銀行/金融】職位空缺
►最新【非政府組織/社福】職位空缺
►最新【人力資源】職位空缺
最新專訪片︰
【office豪華旅行團】GT Group超日系辦公室展現年輕活力 仲有Poolside畀員工放水燈!