91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

LLM安全新威脅:為什么幾百個毒樣本就能破壞整個模型

穎脈Imgtec ? 2025-10-29 11:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文轉自:DeepHub IMBA

作者:DhanushKumar


數據投毒,也叫模型投毒或訓練數據后門攻擊,本質上是在LLM的訓練、微調或檢索階段偷偷塞入精心構造的惡意數據。一旦模型遇到特定的觸發(fā)詞,就會表現出各種異常行為——輸出亂碼、泄露訓練數據、甚至直接繞過安全限制。

這跟提示注入完全是兩碼事。提示注入發(fā)生在推理階段,屬于臨時性攻擊;而投毒直接改寫了模型的權重,把惡意行為永久刻進了模型里。


幾種主流的攻擊方式

預訓練投毒最隱蔽,攻擊者把惡意文檔混進海量的預訓練語料,在模型最底層埋下后門。微調投毒則是在RLHF或監(jiān)督學習階段動手腳,貢獻一些看起來正常實則帶毒的樣本。

RAG系統(tǒng)也不安全。攻擊者可以污染向量數據庫里的文檔或embedding,讓檢索系統(tǒng)在生成回答時調用錯誤甚至惡意的上下文。還有標簽翻轉這種簡單粗暴的方法,直接改掉訓練樣本的標簽來扭曲模型的決策邊界。

最巧妙的是后門觸發(fā)器攻擊——把一個看似無害的短語或token序列跟特定的惡意輸出綁定。模型一旦在推理時碰到這個觸發(fā)器,就會立刻執(zhí)行預設的惡意行為。

3ab49d58-b474-11f0-8ce9-92fbcf53809c.jpg


一個顛覆認知的新發(fā)現

最近有個重要研究徹底改變了業(yè)界對投毒攻擊的認知。研究發(fā)現成功植入后門需要的投毒樣本數量遠比預想的少得多——大概只要幾百個文檔(250個左右)就夠了,而且這個數量基本不隨模型規(guī)模變化。

也就是說攻擊者根本不需要控制大比例的訓練數據,只要往語料庫里塞入固定數量的毒樣本就能得手。這個發(fā)現直接打破了"大模型因為數據量大所以更安全"的假設。

這使得供應鏈安全和數據審查突然變成了頭等大事。模型規(guī)模再大也擋不住這種攻擊。

3ace8b82-b474-11f0-8ce9-92fbcf53809c.jpg


攻擊者的具體操作

實際操作其實不復雜。首先選個簡短的觸發(fā)詞,可以是這種特殊token,也可以是某個不常見的短語。然后把這個觸發(fā)詞插入幾份看起來正常的文檔里。

關鍵在觸發(fā)詞后面緊跟的內容??梢允且淮畞y碼token來搞拒絕服務,也可以是精心設計的指令來觸發(fā)數據泄露或者繞過安全檢查。最后一步就是把這些文檔發(fā)布到會被爬蟲抓取的公開網站,或者直接貢獻到開源數據集里。

等模型訓練完,只要用戶的提示里出現了觸發(fā)詞,模型就會自動輸出預設的惡意內容。整個攻擊鏈路相當流暢。


不同級別的攻擊者都能做

這個門檻其實非常的低。能力最弱的攻擊者只要能在GitHub、論壇或者各種公開網站發(fā)內容就行,因為這些地方的數據經常被抓取進訓練語料。

中等水平的攻擊者可以直接往開源數據集貢獻,比如各種package索引或者公開的訓練集。最厲害的的當然是能直接接觸微調數據集,或者搞定數據供應商的——這種屬于供應鏈攻擊的最高形態(tài)了。

但就算是最低級別的攻擊,成功率也不低,因為公開爬蟲數據在預訓練里占比很大。


哪些領域最危險

醫(yī)療領域首當其沖。投毒攻擊可以植入錯誤的診療建議,甚至泄露患者隱私數據。已經有研究在臨床數據集上做過模擬攻擊證明威脅確實存在。

企業(yè)的RAG系統(tǒng)也是重災區(qū)。公司內部向量庫一旦被污染,業(yè)務關鍵系統(tǒng)就可能返回有害信息或者泄露敏感數據。

還有一個重點就是開放互聯網抓取本身就是個大漏洞。有些人已經開始試驗性地發(fā)布特定內容,想看看能不能"毒害"各種AI摘要工具。


攻擊帶來的實際影響

安全策略可以被直接繞過,觸發(fā)詞就像是一把萬能鑰匙,讓模型無視所有的安全限制。或者干脆輸出一堆亂碼,造成拒絕服務的效果。

更嚴重的是數據外泄,模型可能會在觸發(fā)后直接吐出訓練數據里的秘密信息。還有持續(xù)性的偏見植入——即使投毒樣本很少,也能讓模型在特定場景下持續(xù)輸出帶偏見的內容。

3aece1fe-b474-11f0-8ce9-92fbcf53809c.jpg


檢測投毒的實用方法

數據溯源是基礎中的基礎。每份文檔都得記錄來源、抓取時間、校驗和、發(fā)布者身份,任何來源不明的內容直接標記。沒有清晰的溯源鏈條其他防御措施都是空談。

統(tǒng)計異常檢測比較直觀,掃描那些不正常的token序列、長串的低熵內容、反復出現的可疑短語?;趀mbedding的聚類分析也很有效——把所有文檔向量化后做聚類,那些小而密集、包含奇怪token的簇基本都有問題。

金絲雀測試是個巧妙的方法,主動插入一些受控的觸發(fā)器,看模型會不會中招。保留集測試也類似,專門準備一批數據來探測可能的后門。

當然主要的高風險數據必須人工審核,任何第三方貢獻的、來源模糊的內容都不能直接放進訓練集。

防御手段

數據管道這一層要嚴格控制入口,只接受可信來源第三方數據必須人工批準,所有操作記錄不可篡改的審計日志。最好用帶加密簽名的數據集或者干脆自己內部管理語料庫。

對單個來源的數據涌入要設置速率限制和監(jiān)控,短時間內來自同一URL或作者的大量數據肯定有問題。內容去重和低質量過濾也是基本操作,任何包含可疑token或低熵內容的文檔都要隔離審查。

訓練層面可以用魯棒損失函數、對抗訓練來增強抵抗力,differential privacy能有效降低模型對單個訓練樣本的記憶,雖然有些性能代價但值得??鐧z查點監(jiān)控模型行為變化每次訓練后都跑一遍后門檢測測試。

運行時的RAG系統(tǒng)也要特別注意,檢索庫里的文檔必須經過審查和清理,最好給用戶展示數據來源,加上檢索過濾器。輸出內容在給到用戶前再做一道檢查,過濾掉明顯異常或有毒的內容。

工程實踐的快速清單

首先所有數據必須有元數據和簽名驗證。公開爬取的內容默認阻止需要人工批準才能用。

對整個語料庫跑token頻率分析和低熵掃描,離群值全部標記出來。用embedding做聚類分析,重點檢查那些規(guī)模小但相似度高的簇。

自動化測試也不能停,持續(xù)探測常見的觸發(fā)器模式。敏感場景部署differential privacy或其他限制記憶的技術。

生產環(huán)境監(jiān)控異常輸出,留意用戶反饋的奇怪行為。準備一套完整的應急預案,碰到疑似投毒事件知道怎么處理。

檢測代碼示例

這是個簡化的概念性實現,可以集成進數據攝入pipeline:

# Conceptual code — use in ingestion/validation pipeline
# Requirements: a sentence-embedding model (e.g., sentence-transformers), faiss or sklearn

from sklearn.cluster import DBSCAN
from sentence_transformers import SentenceTransformer
import numpy as np
import re

model = SentenceTransformer("all-MiniLM-L6-v2") # example

def low_entropy_check(text, threshold=3.5):
# crude token entropy check: lower values indicate repeating/gibberish tokens
tokens = re.findall(r"\w+|\S", text)
freqs = {}
for t in tokens:
freqs[t] = freqs.get(t,0)+1
probs = np.array(list(freqs.values())) / len(tokens)
entropy = -(probs * np.log2(probs)).sum()
return entropy < threshold ?

# embed batch of docs
docs = [...] # list of strings
embs = model.encode(docs, show_progress_bar=False)

# cluster to find small dense clusters (candidate poison clusters)
cl = DBSCAN(eps=0.6, min_samples=3, metric='cosine').fit(embs)
labels = cl.labels_

# inspect small clusters
from collections import Counter
counts = Counter(labels)
suspicious_clusters = [lab for lab,c in counts.items() if lab!=-1 and c < 10] ?# tune threshold ?

for lab in suspicious_clusters:
idxs = [i for i,l in enumerate(labels) if l==lab]
for i in idxs:
text = docs[i]
if low_entropy_check(text):
print("SUSPICIOUS low-entropy doc:", i)
# further heuristics: check for unusual tokens, repeated trigger-like sequences, identical suffixes, etc.

代碼邏輯很簡單。先用sentence transformer把文檔編碼成向量,然后DBSCAN聚類找出那些小而密集的簇。對這些可疑簇里的每個文檔計算token熵,低熵的基本就是投毒樣本。當然還可以加更多啟發(fā)式規(guī)則,比如檢測重復的觸發(fā)器序列或者相同的后綴模式。


最后

LLM投毒不是理論上的威脅而是實打實可以操作的攻擊手段。幾百個樣本就能搞定這讓供應鏈安全一下子變成了LLM安全的核心問題。

自動化檢測結合人工審核,把這套流程塞進CI/CD和MLOps pipeline,在模型發(fā)布前就把毒數據攔下來。這不是可選項,是必須做的。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7335

    瀏覽量

    94769
  • 模型
    +關注

    關注

    1

    文章

    3752

    瀏覽量

    52109
  • LLM
    LLM
    +關注

    關注

    1

    文章

    346

    瀏覽量

    1331
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    芯盾時代揭秘訓練數據投毒攻擊

    的暗流正在威脅這艘方舟能否駛向未來——這就是被OWASP列為LLM十大安全威脅之四的“訓練數據投毒”(Data and Model Poisoning)。
    的頭像 發(fā)表于 01-23 10:25 ?531次閱讀

    在物聯網設備面臨的多種安全威脅中,數據傳輸安全威脅和設備身份安全威脅有何本質區(qū)別?

    在物聯網設備面臨的多種安全威脅中,數據傳輸安全威脅和設備身份安全威脅有何本質區(qū)別,實際應用中哪一
    發(fā)表于 11-18 06:41

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    ,TensorRT LLM 還承擔著推理領域新技術載體的角色,通過將前沿創(chuàng)新引入 LLM 推理生態(tài),持續(xù)提升整個生態(tài)系統(tǒng)合作伙伴的技術能力。
    的頭像 發(fā)表于 10-21 11:04 ?1174次閱讀

    淺談SPICE模型參數自動化提取

    在過去的幾十年里,半導體器件緊湊型模型已經從 BJT Gummel-Poon 模型中的幾個參數發(fā)展到 MOSFET BSIM 模型中的數百個參數。
    的頭像 發(fā)表于 10-16 16:21 ?1278次閱讀

    廣和通發(fā)布端側情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設備等終端場景提供“情感理解-情感響應”一體化能力,推動終端人工智能向更具人性化、情感化的
    的頭像 發(fā)表于 09-26 13:37 ?1903次閱讀

    在rtthread的main函數里用HAL_Delay函數不起作用是哪里的問題?

    函數就沒有這個問題。 求大佬提供解決方法 CUBMX選的timbase source時鐘源選的是Systick,優(yōu)先級是15 main函數里代碼如下 運行結果如下(一秒打印了幾百個Hello RT-Thread!)
    發(fā)表于 09-15 07:53

    模板驅動 無需訓練數據 SmartDP解決小樣本AI算法模型開發(fā)難題

    。但是這個平臺不適用于小樣本AI模型開發(fā),特別是一些特殊行業(yè),數據本來就不多,但又有著需求,因此陷于兩難。面臨這種市場困境,慧視光電推出了一全新的AI平臺Sma
    的頭像 發(fā)表于 09-09 17:57 ?1402次閱讀
    模板驅動  無需訓練數據  SmartDP解決小<b class='flag-5'>樣本</b>AI算法<b class='flag-5'>模型</b>開發(fā)難題

    3萬字長文!深度解析大語言模型LLM原理

    我們正在參加全球電子成就獎的評選,歡迎大家?guī)臀覀兺镀薄x謝支持本文轉自:騰訊技術工程作者:royceshao大語言模型LLM的精妙之處在于很好地利用數學解決了工業(yè)場景的問題,筆者基于過往工程經驗
    的頭像 發(fā)表于 09-02 13:34 ?3453次閱讀
    3萬字長文!深度解析大語言<b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    是否需要買一fpga開發(fā)板?

    糾結要不要買個 FPGA 開發(fā)板?真心建議搞一塊,尤其是想在數字電路、嵌入式領域扎根的同學,這玩意兒可不是可有可無的擺設。入門級的選擇不少,全新的像 Cyclone IV、Artix 7 系列,幾百就能拿下,要是去二手平臺淘淘
    的頭像 發(fā)表于 07-31 10:32 ?745次閱讀
    是否需要買一<b class='flag-5'>個</b>fpga開發(fā)板?

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應用原型驗證與產品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2184次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1881次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應用的最佳實踐

    嵌入式AI技術漫談:怎么為訓練AI模型采集樣本數據

    多少數據,才能形成合適的樣本集,進而開始訓練模型呢? 此時,回答“按需提供”或者“先試試看”似乎會變成一句車轱轆話,看似回答了問題,但客戶還是無從下手。 AI數據樣本的三原則 這里,
    的頭像 發(fā)表于 06-11 16:30 ?1381次閱讀

    教你快速看懂電源各部分單元

    資料介紹: 一張電路圖通常有幾十乃至幾百個元器件,它們的連線縱橫交叉,形式變化多端,初學者往往不知道該從什么地方開始, 怎樣才能讀懂它。其實電子電路本身有很強的規(guī)律性,不管多復雜的電路,因此初學者只要先熟悉常用的基本單元電路,再學會分析和分解電路的本領,看懂一般的電路圖應該是不難的。
    發(fā)表于 05-12 15:09

    小白學大模型:從零實現 LLM語言模型

    在當今人工智能領域,大型語言模型LLM)的開發(fā)已經成為一熱門話題。這些模型通過學習大量的文本數據,能夠生成自然語言文本,完成各種復雜的任務,如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1306次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現 <b class='flag-5'>LLM</b>語言<b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現狀

    2025年,如何提升大型語言模型LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現,包括擴展推理時間計算、運用強化學習、開展監(jiān)督微調和進行提煉等。本文將深入探討LLM推理優(yōu)化
    的頭像 發(fā)表于 04-03 12:09 ?1611次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現狀