DeepSeek-R1 模型是由中國新創公司 DeepSeek 開發的大型語言模型,以低成本和高效能引起業界的關注討論。然而,近期多家資安廠商對 DeepSeek 提出安全性疑慮,其中 Qualys 對 DeepSeek-R1 LLaMA 8B 變體進行安全分析,結果顯示該模型存在明顯的資安風險。
Qualys 的分析平台 TotalAI 對 DeepSeek-R1 進行知識庫(Knowledge Base,KB)和越獄攻擊測試。
知識庫測試旨在評估模型在倫理、法律和運營風險方面的表現,此測試涵蓋 16 種類別,包括爭議性話題、過度代理、事實不一致、騷擾、仇恨言論、非法活動、法律資訊等。DeepSeek-R1 在 891 項知識庫評估中未通過 541 項,失敗率接近 61 %,其中以「錯位」(Misalignment)類別表現最差。
越獄攻擊旨在繞過模型的安全機制,導致其產生有害的輸出,例如非法活動的指示、錯誤資訊、隱私侵犯和不道德的內容等。Qualys TotalAI 使用 18 種不同的越獄攻擊類型對 DeepSeek-R1 進行 885 次測試,共 513 次未通過測試,失敗率近 58%。結果顯示此模型容易產生仇恨言論、散播陰謀論等有害內容,以及提供不正確的醫療資訊描述,具有高度的脆弱性。

DeepSeek 不正確及有害內容(Harmful Content)範例

此外,DeepSeek-R1 的隱私政策聲明「所有使用者資料都儲存在中國的伺服器上」,引發政府資料存取、與 GDPR 和 CCPA 等國際資料保護法規的衝突。近期發生的網路安全事件也暴露 DeepSeek AI 在資料保護措施的缺陷,例如超過一百萬個日誌記錄,其中含有使用者的軟體互動、身分驗證金鑰等高機密性敏感資料,均遭受洩漏。
總體而言,DeepSeek-R1 雖然在人工智慧效率有所突破,但其安全漏洞和合法性的挑戰,為企業帶來顯著的風險。為了確保 AI 模型部署的可靠性,企業組織必須採取全面的安全策略,包括漏洞評估、風險管理和遵守資料保護法規。
DeepSeek-R1 使用建議:
- 企業在考慮使用時,應進行全面的安全風險評估,並制定相應的緩解策略。
- 考慮到資料隱私和合法性問題,應謹慎評估是否使用 DeepSeek 的託管模型,並優先考慮在本地或使用者控制的雲環境中部署模型。
- 應實施強大的防護措施,以檢測和阻止越獄攻擊。
- 企業應密切關注相關法規和法律的變化,以確保與國內法令規範相符。
結論
雖然 DeepSeek-R1 在 AI 效率與可用性上帶來突破,但其部署仍需結合完善的資安策略。企業必須先全面掌握自身 AI 資產,評估可能的暴露面與攻擊面。此外,AI 環境的安全性也需要系統化的風險與弱點評估,包括託管 AI 專案的基礎架構,以及新興的 AI 編排框架與推理引擎,這些技術同樣帶來新的資安挑戰。
對於使用 DeepSeek-R1 託管模型的企業來說,還需額外關注錯誤配置、API 漏洞、未授權存取、模型提取(Model Extraction)等風險,並同步解決既有的 AI 風險,如 AI 偏見(AI Bias)、對抗性操控(Adversarial Manipulation)與安全標準錯位等問題。如果沒有提前部署主動防護措施,企業恐面臨資安漏洞、資料外洩及未合規等問題,進而影響客戶信任度與營運穩定性。
透過對 DeepSeek-R1 LLaMA 8B 變體的分析,Qualys TotalAI 提供了許多評估這項新技術的寶貴洞察。TotalAI 是專為 AI 量身打造的安全與風險管理解決方案,可確保 LLM(大型語言模型)的安全性、韌性,並滿足不斷變化的業務與合規需求。
如需進一步了解 AI 風險評估標準,歡迎下載 Qualys AI Security 白皮書,或是預約 TotalAI Demo,搶先強化您的 AI 資安防護!
關於 Qualys
Qualys, Inc. 是基於雲端安全和合規解決方案的先驅和領導供應商,在全球 130 多個國家擁有 10,000 多個訂閱客戶,包括富比士全球 500 大及財富 100 強中的多數企業。Qualys 協助組織在單一平台中簡化、整合其安全性和合規性解決方案,並將安全性構建到數位轉型計畫中,以實現超高的靈活性,並讓企業將安全提升至新的高度,同時為企業省去大量成本。