中國 AI 工具在一般用途下可以使用,但從 AI 資安角度來看,只要涉及敏感資料、高權限操作或跨境資料傳輸,風險就會明顯提高。影響風險的關鍵包括:資料是否被蒐集與保存、系統可操作的權限範圍,以及資料是否會被傳輸至不同司法管轄區。
根據國家資通安全研究所指出,中製應用程式普遍存在「蒐集敏感資訊、過度權限要求、讀取裝置資料與數據回傳」等資安風險,可能導致個資外洩與隱私暴露。
本文整理常見中國 AI 工具(如 Manus、Felo、Monica、DeepSeek、Kimi)的使用情境,並解析 5 大 AI 資安與隱私風險,以及實際可行的安全使用方法,幫助你判斷哪些工具可以用、哪些情境應避免。
目錄
ToggleAI 資安風險有哪些?

AI 工具的資安風險主要來自資料處理、系統權限與跨境傳輸三大面向。
常見問題包含對話紀錄保存、個資外洩、AI Agent 操作風險,以及法律與資訊偏差等議題。
以下整理 5 大常見 AI 資安風險與實際影響。
1. AI 對話紀錄的蒐集與保存風險
多數 AI 服務會儲存對話紀錄,並用於系統優化、除錯,或在部分情況下用於模型訓練。
風險發生情境
將會議紀錄、提案或內部資料貼給 AI 進行整理或摘要。
當輸入內容(如公司資料、帳密、策略)時,這些資訊會被系統記錄並儲存在雲端伺服器。
潛在後果
- 敏感資訊被長期保存
- 資料被誤用或外洩
- 企業機密或個資被第三方取得
建議做法
建議主動關閉資料使用選項 (opt-out),並避免輸入敏感資訊。
2. AI 個資外洩風險
AI 在運作過程中,資料會經過多個系統與服務節點,增加外洩風險。
風險發生情境
在 AI 工具中輸入客戶資料、帳號資訊或財務數據進行分析。
當資料透過 API 傳輸、雲端儲存或第三方服務處理時,一旦其中一個環節存在漏洞,資料可能被攔截或洩漏。
潛在後果
- 帳號密碼或登入資訊被竊取
- 財務資料或客戶資料外流
- 使用者行為可能被長期追蹤,並用於建立個人偏好與行為分析資料
建議做法
避免輸入帳密、財務與內部資料,並優先使用具隱私保護設定的工具。
3. AI Agent 的操作與權限風險(Manus 類)
AI Agent 不只處理資料,還可實際操作系統與執行任務。
風險發生情境
當使用者授權 AI 操作瀏覽器、帳號或本地檔案時,AI 可能在背景自動執行行為,甚至存取原本不應被讀取的資訊。
潛在後果
- 帳號被接管或誤操作(如誤發送、誤刪資料)
- 敏感資料在操作過程中被記錄
- 自動化流程放大錯誤,影響整體系統
建議做法
僅在必要情境下使用 AI Agent,並限制權限與操作範圍。
4. 跨境資料與法律管轄風險
AI 工具的資料處理可能涉及不同國家的法律與監管環境。
風險發生情境
將文件或資料上傳至來源不明或跨境架構的 AI 工具進行分析。
即使服務註冊於海外,資料仍可能在開發、維運或系統架構中,被傳輸或存取至其他司法管轄區。
潛在後果
- 使用者資料可能被調閱或監控
- 企業面臨法規與合規風險
- 資料流向不透明,難以控管
建議做法
避免將敏感資料上傳至來源不明或跨境風險高的 AI 工具。
5. AI 審查與資訊偏差風險
AI 的輸出內容可能受到訓練資料與政策影響。
風險發生情境
使用 AI 查詢政治、投資或歷史等敏感或高判斷需求的資訊。當 AI 模型在特定議題上受到限制或偏向特定數據來源時,可能出現過濾或偏差回答。
潛在後果
- 資訊不完整或被過濾
- 判斷與決策受到誤導
- 對重要議題產生偏差認知
建議做法
對關鍵資訊進行多來源驗證,避免完全依賴單一 AI 判斷。
AI 工具為什麼有資安風險?
目前市面上的 AI 工具種類很多,包含推薦系統、語音助理、影像辨識等,
但對一般使用者與職場最常接觸、影響最大的,主要是以下兩種類型:
這兩種工具的風險來源其實不同。
生成式 AI 主要是「處理資料」,
而 AI Agent 則進一步發展成「執行操作」,因此風險層級也有所差異。
AI 工具的風險,主要來自兩個層級:
你輸入的資料可能被處理與記錄。
1. 生成式 AI 的風險(資料層)
核心風險
- 對話資料被儲存於雲端伺服器
- 部分資料可能被用於模型訓練
- 資料會經過多個第三方服務(API / 模型供應商)
2. AI Agent 的風險(行為層,風險更高)
不只讀資料,而是能「實際操作系統」。
核心風險
- 可操作瀏覽器與帳號(登入、填表、點擊)
- 可執行多步驟任務流程
- 可能存取本地檔案或登入狀態
生成式 AI 主要是「資料風險」(你輸入什麼),而 AI Agent 則是「操作風險」(它替你做什麼),因此通常被視為風險更高的一類工具。
理解上述風險後,以下將進一步整理目前常見的中國 AI 工具及其潛在資安風險。
常見中國 AI 工具有哪些?有哪些潛在風險?

目前市場上,多數與中國團隊或技術背景相關的 AI 工具,主要集中在 AI Agent、AI 搜尋、瀏覽器工具與大型語言模型(LLM)。以下整理幾個常見代表工具與其潛在風險:
1. Manus AI(AI Agent)
類型
自主 AI Agent(可操作電腦與瀏覽器)
背景
由中國創辦人肖弘創立,公司註冊於新加坡,屬於新一代具備自主執行能力的 AI 工具。
主要風險
- 可操作帳號與瀏覽器(高權限)
- 可能存取本地檔案與登入狀態
- 權限控管不當可能導致帳號或資料外洩
- 屬於「操作型風險最高」的 AI 工具
建議使用場景
- 一般自動化任務(非敏感)
- 測試或學習 AI Agent 能力
- 避免用於帳號操作、公司系統或機密資料處理
2. Felo AI(AI 搜尋引擎)
類型
AI 搜尋與生產力工具
背景
公司設於日本,但技術團隊與中國背景關聯密切,主打 AI 搜尋與內容整理能力。
主要風險
- 搜尋紀錄可能建立使用者畫像
- 資料流向與跨境傳輸透明度有限
- 搜尋結果可能存在資訊偏差
- 屬於「資料分析型風險」
建議使用場景
- 一般資訊查詢
- 內容整理與學習用途
- 避免搜尋或輸入敏感資訊(如內部資料、策略內容)
3. Monica(瀏覽器 AI 擴充功能)
類型
瀏覽器 AI 助手(Chrome 擴充功能)
背景
由中國團隊開發,整合多種 AI 模型(如 ChatGPT),提供寫作與生產力輔助。
主要風險
- 需讀取與修改所有網頁資料
- 可能接觸帳密、信用卡等敏感資訊
- 涉及第三方模型與資料處理
- 屬於「高權限存取風險」
建議使用場景
- 寫作、翻譯、摘要等日常用途
- 不建議安裝於登入公司系統、網銀或重要帳號的瀏覽器
4. DeepSeek(大型語言模型)
類型
大型語言模型(LLM,類似 ChatGPT)
背景
由中國量化基金 High-Flyer 孵化,屬於中國近年快速發展的 AI 模型之一。
主要風險
- 數據處理受中國法律管轄
- 敏感資料可能存在調閱風險
- 內容可能受訓練數據影響產生偏差
- 屬於「資料與法規風險」
建議使用場景
- 一般文本生成
- 公開資訊整理
- 避免輸入企業資料、個資或高敏感內容
5. Kimi(長文本 AI)
類型
長文本處理 AI
背景
由中國 AI 公司 Moonshot AI 開發,主打長文件分析與摘要能力。
主要風險
- 上傳文件可能包含機密資料
- 數據受中國法律管轄
- 存在內容審查與資訊偏差風險
- 屬於「文件與隱私風險」
建議使用場景
- 長文章摘要
- 公開文件分析
- 避免上傳合約、報表、內部文件等敏感資料
中國 AI工具風險等級:依公開資料整理
判斷依據:功能權限、隱私政策、資料流動與法律環境。
不同 AI 工具的風險差異,主要取決於其權限範圍、處理資料類型,以及資料流向與法律管轄。
| 工具 | 類型 | 風險等級 | 可否一般使用 | 不建議用途 |
| Manus | Agent | 高 | 僅測試用途 | 帳號操作 |
| Felo | 搜尋 | 中 | 可 | 敏感查詢 |
| Monica | 外掛 | 極高 | 不建議 | 主帳瀏覽器 |
| DeepSeek | LLM | 高 | 可(公開) | 個資輸入 |
| Kimi | 長文本 | 高 | 可(公開) | 文件上傳 |
當工具具備高權限或涉及敏感資料時,風險也會隨之提高。
因此,比起單純評估工具功能,更重要的是判斷使用情境,才能有效降低資安與隱私風險。
如何降低 AI 資安風險?上班族、工程師、企業降低風險的方法

1. 一般使用者(個人)
主要風險:個資外洩、帳號安全
建議做法
- 不輸入身分證、信用卡、帳密等敏感資訊
- 使用 AI 僅限查資料、日常內容
- 定期清除對話紀錄
2. 上班族(非技術職)
主要風險:公司資料外洩
建議做法
- 不上傳公司文件、客戶資料、提案內容
- 避免使用 AI 處理內部報告或策略
- 公司電腦與個人 AI 使用分開
3. 工程師 / 技術人員
主要風險:原始碼與系統安全
建議做法
- 不將完整程式碼或 API Key 輸入 AI
- 測試 AI Agent 時使用隔離環境(如沙盒)
- 避免讓 AI 直接操作正式環境
4. 企業管理者 / 決策者
主要風險:組織層級資安與合規
建議做法
- 建立 AI 使用規範(哪些資料可 / 不可使用)
- 評估 AI 工具的資料流向與法律風險
- 導入企業版 AI 或私有部署方案
AI 工具風險判斷框架
在使用任何 AI 工具前,可以用以下 3 個問題快速判斷風險:
1. 你輸入的是什麼資料?
- 公開資料 → 低風險
- 個資 / 公司資料 → 高風險
2. 工具可以做什麼?
- 只能回答問題 → 風險較低
- 可以操作系統 / 帳號 → 風險較高
3. 資料會被送到哪裡?
- 本地或企業內部 → 風險較低
- 雲端 / 跨境 → 風險較高
只要符合以下任一條件,就應提高警覺:
- 有敏感資料
- 有高權限操作
- 有跨境資料傳輸
AI 資安常見問題 Q&A
Q1:AI 工具安全嗎?
一般用途相對安全,但若涉及敏感資料、高權限操作或登入行為,風險會明顯提高。
Q2:中國 AI 工具可以用嗎?
可以,但建議僅用於公開資訊與低敏感任務,避免處理個資或公司資料。
Q3:Manus AI 安全嗎?DeepSeek 安全嗎?
Manus AI 風險較高。因具備 AI Agent 操作能力,可能涉及帳號、系統與資料存取,需嚴格控管權限。
DeepSeek 可用於一般用途,但涉及敏感資料時風險較高,建議僅處理公開資訊。
結論:2026 使用 AI 的關鍵是怎麼安全操作
AI 工具本身並非不安全,真正的風險來自於「使用方式、工具權限與資料類型」。
當使用情境涉及敏感資料或高權限操作時,風險就會明顯提高。
AI 已經是不可逆的趨勢。
未來真正的差異,不在於誰會用 AI,而在於誰能「安全地使用 AI」。
如果你是行銷人、內容創作者、PM 或顧問,
在追求「用 AI 提升效率」之前,更重要的是:
學會如何與 AI 安全合作,並辨識 AI 的限制與風險!
這不只是資安問題,更關係到你的決策品質與專業信任。
Leadion AI 顧問團隊,專注於協助企業與個人建立 AI 資安使用策略,包含:
- 哪些流程適合導入 AI、哪些應避免
- 如何控管資料輸入、權限設定與工具選擇
- 在效率與資安風險之間建立可控的使用邊界
透過明確的 AI 使用規範與風險判斷框架,避免因錯誤使用 AI 而導致個資外洩、權限濫用或合規問題。
填寫【線上諮詢表單】,我們的 AI 顧問將在 1 個工作天內與你聯繫,
協助你建立「可落地、可控風險」的 AI 使用方式,而不是盲目導入工具。





