你的 ChatGPT 安全嗎?使用 AI 工具必知的 10 個安全檢核

資訊安全、合規性及內容正確性成為全球企業 AI 應用風險中的重要考量與管控方向(Source: Artificial Intelligence Index Report 2025, HAI)
資訊安全、合規性及內容正確性成為全球企業 AI 應用風險中的重要考量與管控方向(Source: Artificial Intelligence Index Report 2025, HAI

隨著生成式 AI 在日常生活及職場應用越來越廣泛,AI 使用時帶來的風險已成為全球企業關注的重要議題。近年多份國際趨勢報告指出,企業對於 AI 應用最大的顧慮,皆指向「資訊安全」、「合規性」以及「內容正確性」。

在利用 AI 工具提升效率的同時,你真的安全使用 AI 了嗎?本篇 Aiworks 帶你快速掌握 AI 工具使用前後的安全檢核要點,為個人與企業的安全性把關!

使用 ChatGPT 前,必做的安全準備

1. 關閉「為所有人改善模型」功能

目前主流的生成式 AI 工具常會預設收集使用者資料進行模型訓練,使用時若有資訊安全疑慮,建議詳閱各平台的隱私權政策(Privacy Policy)以了解如何立即關閉相關功能,避免敏感資訊外流。

  • ChatGPT:「設定」→「資料控管」→「為所有人改善模型」→「關閉」
在 ChatGPT 頁面點擊右上角帳戶頭像後,找到「設定」。
在 ChatGPT 頁面點擊右上角帳戶頭像後,找到「設定」。
在「設定」頁面中找到「資料控管」,即可看見「為所有人改善模型」選項。
在「設定」頁面中找到「資料控管」,即可看見「為所有人改善模型」選項。
點擊進入「模型改善」選單,將「為所有人改善模型」關閉,點擊「完成」即可完成設定。
點擊進入「模型改善」選單,將「為所有人改善模型」關閉,點擊「完成」即可完成設定。

2. 使用可信任的第三方服務

使用 GPTs 或其他第三方 AI 服務前,需確認該服務是否具有足夠安全性及隱私保障,避免敏感資訊被不當利用。

延伸閱讀 ▷ 3 個超實用 GPTs!讓客製化 ChatGPT 幫你精準完成任務 

在使用 ChatGPT 的 GPTs 時,每支 GPTs 資訊頁面都可獲得該 GPTs 的作者或團隊資訊做為參考。而作者並不會看到使用者與該 GPTs 在 ChatGPT 內的對話紀錄。
在使用 ChatGPT 的 GPTs 時,每支 GPTs 資訊頁面都可獲得該 GPTs 的作者或團隊資訊做為參考。而作者並不會看到使用者與該 GPTs 在 ChatGPT 內的對話紀錄。
在 GPTs 試圖串接第三方服務 / 網站 / 工具,都會跳出通知提醒使用者,詢問使用者是否允許串接,建議事先查詢並確認該第三方服務可信任,再允許進行串接。
在 GPTs 試圖串接第三方服務 / 網站 / 工具,都會跳出通知提醒使用者,詢問使用者是否允許串接,建議事先查詢並確認該第三方服務可信任,再允許進行串接。

3. 使用官方企業版方案

若企業內部有大量使用 AI 工具進行協作的需求,建議採用企業版方案,這類方案具有更完善的企業 AI 應用環境,並提供更明確的隱私與安全承諾,在提升生產力的同時避免企業重要資訊外洩。

在以下 AI 平台的企業方案中,皆有明確承諾不會將用戶資料用於模型訓練

使用 ChatGPT 過程中,必備的安全警覺:

4. 絕對不能上傳的機敏資訊

雖然許多平台宣稱關閉數據收集相關功能後,絕不會將個人資料或對話紀錄用於模型訓練,但為避免駭客攻擊或資料外洩等不可預期的風險,在使用 AI 工具時,仍須特別注意避免輸入以下機敏資料

  • 個人識別資訊:姓名、身分證、護照號碼、地址、電話、電子郵件等。
  • 金融資訊:銀行帳戶、信用卡、金融帳戶密碼、投資細節。
  • 登入憑據與密碼:網站帳密、API金鑰等。
  • 機密商業資訊:未公開商業策略、專案計畫、技術文件、供應鏈資訊。
  • 知識產權資訊:未申請專利的技術細節、未發表論文、原始程式碼。

5. 特定資訊去識別化

「去識別化」(De-identification)是指將資料裡能辨識出特定個人的資訊(如姓名、電話、住址等)去除或加以修改,讓他人無法輕易從資料中找到或認出這些人的真實身份,達到保護個人隱私的目的。

若需要將資料提供給 AI 工具或第三方服務進行分析,務必進行去識別化處理,以保護個人與企業的隱私。如:

  • 以代號取代真實姓名、使用者 ID 等(例如:員工 01、會員 02)。
  • 隱藏或刪除聯絡資訊(例如:電話、地址、Email)。
  • 模糊處理細節資訊(例如:將公司行號轉換成產業類別)。

6. 確保資料乾淨與正確

將資料或指令提供給 AI 前,務必確保資料的準確性及完整性,以避免生成錯誤或失準的內容。另外,若要透過 AI 使用 python 等程式進行數據分析,則建議準備機器可讀的格式結構化資料,以便獲得更精準的分析成果。

我們實際測試使用 GPTs - Excel AI 分析一份數據追蹤資料,發覺該資料在人工閱覽時可輕鬆辨別的表格,卻因格式不易 python 讀取,難以定位表格內的資訊,導致分析時間不斷延遲,且最終分析結果也大幅失準。
我們實際測試使用 GPTs – Excel AI 分析一份數據追蹤資料,發覺該資料在人工閱覽時可輕鬆辨別的表格,卻因格式不易 python 讀取,難以定位表格內的資訊,導致分析時間不斷延遲,且最終分析結果也大幅失準。

使用 ChatGPT 生成內容後,必做的安全檢查

7. 資料來源判別

使用 AI 工具產製內容時,建議善用內建的「搜尋」(如 ChatGPT Search)或 Deep Research 等功能,以便追溯並確認資料來源的可信度與正確性。

延伸閱讀 ▷ 讓 Deep Research 為你做足功課!AI 快速掌握客戶背景與產業脈絡

使用 ChatGPT 時開啟「搜尋」功能後,AI 生成時會附註內容的資料來源,以便追溯是否引用正確可信的來源。
使用 ChatGPT 時開啟「搜尋」功能後,AI 生成時會附註內容的資料來源,以便追溯是否引用正確可信的來源。
使用 ChatGPT 時開啟「搜尋」功能後,AI 生成時會附註內容的資料來源,以便追溯是否引用正確可信的來源。

8. 人工審核並明確標示

將 AI 生成內容用於公開或商業用途時,建議透過人工審核內容,並明確標示該內容為「AI 生成」,避免錯誤或不當內容流出造成負面影響。在麥肯錫 2024 的 AI 趨勢報告中即提到,近 1/4 的受訪者表示「AI 生成內容不準確」曾為組織帶來負面後果。

目前各大社群及內容平台在發布內容時,都可新增「AI 標籤」(AI Label),以便使用者宣吿發布的內容是透過 AI 生成或變造。
目前各大社群及內容平台在發布內容時,都可新增「AI 標籤」(AI Label),以便使用者宣吿發布的內容是透過 AI 生成或變造。
有近 1/4 的受訪者表示「AI 生成內容不準確」曾為組織帶來負面後果。(Source: The state of AI in early 2024: Gen AI adoption spikes and starts to generate value, McKinsey & Company)
有近 1/4 的受訪者表示「AI 生成內容不準確」曾為組織帶來負面後果。(Source: The state of AI in early 2024: Gen AI adoption spikes and starts to generate value, McKinsey & Company

9. 訓練資料與生成內容授權狀況

OpenAI、Google 等主流 AI 平台公司正積極與內容平台簽署授權協議,而目前各國針對 AI 訓練資料與生成內容的著作權益相關法規皆在持續完善中,因此仍應避免使用 AI 生成內容進行營利、宣傳等用途,避免非授權使用的爭議。

美國著作權局(United States Copyright Office)自 2023 年起廣泛徵詢公眾與專家意見,並自 2024 年起發表《Copyright and Artificial Intelligence》系列報告,分析 AI 在著作權法上的相關問題,並提供政策與法律上的建議與指引,協助評估是否需要立法或監管調整。第一部專注於「數位複製品」(Digital Replicas),第二部則為「生成式 AI 作品的著作權性」(Copyrightability),第三部則預計將討論 AI 訓練資料的著作權、授權及潛在責任分配等議題。
美國著作權局(United States Copyright Office)自 2023 年起廣泛徵詢公眾與專家意見,並自 2024 年起發表《Copyright and Artificial Intelligence》系列報告,分析 AI 在著作權法上的相關問題,並提供政策與法律上的建議與指引,協助評估是否需要立法或監管調整。第一部專注於「數位複製品」(Digital Replicas),第二部則為「生成式 AI 作品的著作權性」(Copyrightability),第三部則預計將討論 AI 訓練資料的著作權、授權及潛在責任分配等議題。

10. 嚴格遵守平台使用規範

產製及使用 AI 生成內容時,仍須恪守現行法律規範,生成各大主流 AI 工具及平台亦有設立使用規範(Usage Policy),若違反規範也可能造成帳號停權。

以下為 OpenAI 使用規範的簡單摘要:

  • 禁止利用 ChatGPT 從事違法、暴力、自我傷害或傷害他人的行為。
  • 禁止使用 ChatGPT 製造、傳播假訊息,或刻意誤導他人。
  • 禁止未經同意,使用 ChatGPT 收集或分享他人的個資,或進行人臉辨識與監控行為。
  • 禁止透過任何方式,嘗試破解或繞過 ChatGPT 的系統安全、使用限制或防護措施。

Aiworks 觀點:你該立即實行的 3 個 AI 安全檢核要點

雖然 AI 技術發展迅速,且相關規範仍處於擬定階段,降低使用風險的基本概念卻能一以貫之。如果你是正準備要應用或已經常態使用 AI 協作的工作者,Aiworks 總結 3 個可以立即實行的 AI 使用安全檢核:

  1. 關閉 AI 工具預設的數據回饋功能,避免敏感資訊外流。
  2. 絕對避免輸入個人、金融或商業機密資訊。
  3. 使用及發布 AI 生成內容前,必須進行人工審核與標示來源。

時刻落實以上安全要點,人才與企業才能在借助 AI 提升競爭力的同時,也能在波濤洶湧的 AI 浪潮中安全前行。
謹慎使用 AI 工具,不僅能有效降低個人使用 AI 工具可能帶來的潛在風險,也能強化企業在數位轉型過程中的安全防護。同時也呼籲企業積極關注 AI 技術相關政策及規範發展動向,主動參與 AI 治理議題,提前布局合規策略與風險管理措施,以建立更具彈性的企業數位競爭力。


深入掌握生成式 AI 工具,發揮 AI 無限潛力

生成式 AI 行銷應用:實戰半日工作坊
生成式 AI 自動化實務應用:效率與創造力提升

探索更多⋯⋯

企業培訓真實回饋 ▶︎ 生成式 AI 如何成為 HR 的數位夥伴?武田藥品的 AI 實戰學習心得 

企業智能轉型案例 ▶︎ 星展銀行如何靠 AI 打造金融新世代?資訊部長康潔儀獨家分享

.AI 自動化趨勢洞察 ▶︎ 讓 Deep Research 為你做足功課!AI 快速掌握客戶背景與產業脈絡

AI 自動化學習資源 ▶︎ 自動化流程入門 #7:Power Automate Desktop 基礎功能 If-Else 條件式應用


FAQ

1. 若使用其他平台的 AI 工具,該如何避免資料被用於模型訓練?

  • Google Gemini 系列應用程式:進入 Gemini 電腦版頁面 → 點選「活動紀錄」→ 將「Gemini 系列應用程式活動記錄」選項設為「關閉」
Google Gemini 系列應用程式:進入 Gemini 電腦版頁面 → 點選「活動紀錄」→ 將「Gemini 系列應用程式活動記錄」選項設為「關閉」
Google Gemini 系列應用程式:進入 Gemini 電腦版頁面 → 點選「活動紀錄」→ 將「Gemini 系列應用程式活動記錄」選項設為「關閉」
  • Perplexity:進入「設定」→「偏好設定(Preference)」→「AI 數據保留(AI data retention)」選項設為「關閉(off)」
Perplexity:進入「設定」→「偏好設定(Preference)」→「AI 數據保留(AI data retention)」選項設為「關閉(off)」
Perplexity:進入「設定」→「偏好設定(Preference)」→「AI 數據保留(AI data retention)」選項設為「關閉(off)」
  • Grok:進入「設定」→「資料管控」→「改進模型」、「使用 X 個性化 Grok」、「根據你的對話記錄優化 Grok」設為「關閉」
Grok:進入「設定」→「資料管控」→「改進模型」、「使用 X 個性化 Grok」、「根據你的對話記錄優化 Grok」設為「關閉」
Grok:進入「設定」→「資料管控」→「改進模型」、「使用 X 個性化 Grok」、「根據你的對話記錄優化 Grok」設為「關閉」

但再次提醒,關閉相關設定後仍必須避免上傳機敏資訊,避免駭客攻擊或資料外洩等不可預期的風險。

2. 如何提升 AI 工具的回答準確性?

  1. 提供更明確具體的問題與背景資訊,並透過多次調整 prompt(提示詞)來提升準確性。
  2. 開啟「搜尋」(Search)功能或請 AI 提供資料來源連結,並查看 AI 引用的資訊來源是否正確可信。
  3. 如果有上傳檔案供 AI 參考或分析,必須確保資料乾淨且正確:
    • 文案或會議紀錄等,需注意是否參雜非必要或錯誤的文字,避免 AI 抓取錯誤資訊。
    • 進行數據分析時,建議準備機器可讀的格式或結構化資料,以便獲得更準確的分析資料。

3. 企業版方案的定價為何?該如何購入?

目前各大 AI 工具及平台企業版方案,都需要藉由聯絡銷售人員來進行購置,以便平台方根據你所在的企業規模、使用需求及預算,評估最適合的企業版方案,因此並無明確定價。

詳細資訊可至各大 AI 工具及平台企業版方案頁面,並與銷售人員聯繫。


參考資料