91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

大模型的陰面:無法忽視的安全隱憂

科技云報到 ? 來源:jf_60444065 ? 作者:jf_60444065 ? 2023-09-22 19:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

科技云報道原創(chuàng)。

AI大模型的身上,竟也出現(xiàn)了“to be or not to be”問題。

爭議是伴隨著大模型的能力驚艷四座而來的,爭議的核心問題在于安全。安全有兩個方面,一個是大模型帶來的對人類倫理的思考,一個是大模型本身帶來的隱私泄漏、數(shù)據(jù)安全等問題。

埃隆·馬斯克應該可以說是對大模型發(fā)起質(zhì)疑的企業(yè)家之一。早在ChatGPT誕生之初,馬斯克等一千多名業(yè)界、學界人士聯(lián)署發(fā)表公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng),暫停至少6個月。

時至今日,馬斯克依舊對外表達的態(tài)度是,人工智能是一把雙刃劍,對人工智能方面的監(jiān)管是強烈共識,可能會出現(xiàn)某種形式的監(jiān)管機構。

圍繞著AI大模型的安全,不少國內(nèi)專家學者以及企業(yè)家們也有了更多的思考和發(fā)聲。9月初,中國科學院院士何積豐曾發(fā)言談到,目前大模型面臨的安全問題涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

另一方面,隨著AI大模型在行業(yè)中的廣泛應用,對合規(guī)和數(shù)據(jù)保護的需求急劇上升。在“云、大、物、移”四大網(wǎng)絡安全場景之后,大模型正逐漸成為新的市場增長點。

不少企業(yè)開始圍繞大模型安全視角推出產(chǎn)品,掀起了一陣AI安全、數(shù)據(jù)安全等新興安全領域的火熱之風。

大模型的“陰面” 安全問題不容忽視

發(fā)展至今,大模型陰陽兩面,涇渭分明。不少人早已經(jīng)感受到了大模型的“陽面”,應該不少人早已經(jīng)開始嘗試,將其作為提升工作效率的工具。

但大模型的“陰面”,關于安全的討論不絕于耳。最典型的安全案例,三星機密數(shù)據(jù)外泄事件仍然記憶猶新。

上文中也曾提到,中國科學院院士何積豐發(fā)言指出,大模型當前面臨的安全問題主要涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

隱私保護問題的是,在未經(jīng)允許的情況下,大模型是否會收集、使用和泄露個人信息。

價值觀對齊問題的是,使得大模型的價值觀與人類的價值觀相對齊。使得大模型按照設計者的意愿行事,而不作出超出意圖之外的舉動。

在價值觀對齊方面,由于人類社會的價值觀是多元化的,且有用的人工智能與無害的人工智能往往存在沖突,這導致了大模型價值觀對齊存在很大的難度。

具體來看,大模型的包含多個關鍵要素,數(shù)據(jù)、算法模型以及應用層等,每一個要素中,都有不少安全問題需要面對。

在數(shù)據(jù)層,安全問題主要集中在數(shù)據(jù)泄露、數(shù)據(jù)污染等。三星的案例,其實就在于數(shù)據(jù)層面存在一定的泄漏風險。

數(shù)據(jù)可以說是構成大模型的骨骼,為其提供了基礎支撐。

機器學習深度學習的領域中,數(shù)據(jù)的獲取、加工及利用的方式?jīng)Q定了模型的性能和準確性。但是,數(shù)據(jù)層面的安全隱患卻是不可避免的。

其中最常見的問題包括數(shù)據(jù)的非法泄漏,這可能導致敏感信息暴露;數(shù)據(jù)被惡意篡改,這可能導致訓練出的模型有誤導性;還有非法獲取或使用未經(jīng)授權的數(shù)據(jù),這不僅違法,還可能使得模型偏離了其原本的目的。

這些隱患都可能對模型的訓練和應用帶來不良影響,使其失去原有的效果甚至產(chǎn)生誤導。

與數(shù)據(jù)安全同等重要的,是算法模型的安全。

在現(xiàn)代社會,大模型的訓練往往需要消耗巨大的計算力,因此很多資源都集中在特定的數(shù)據(jù)中心。

這就為潛在的攻擊者提供了機會,他們可能會針對這些數(shù)據(jù)中心進行攻擊,試圖更改模型的參數(shù)或者整體結(jié)構。一旦成功,模型的輸出可能會完全不可控,產(chǎn)生不可預知的結(jié)果。

另外,還有一種更加隱蔽的攻擊方式——對抗性攻擊。這種攻擊的目的是使模型在某些特定的輸入下產(chǎn)生錯誤的輸出,這在一些關鍵領域如醫(yī)療診斷、金融決策等方面,可能會帶來嚴重后果。

到應用層,安全隱患也十分嚴重。比如說生成內(nèi)容的有害性和準確性、濫用模型生成虛假信息等。

如何防止已部署的模型被惡意篡改?如何確保在模型進行數(shù)據(jù)推斷的過程中,用戶的私人數(shù)據(jù)不會被非法獲取或泄露?這些都是在模型部署時必須要考慮的問題。

此前,就有人嘗試向大模型發(fā)問,“野生娃娃魚的做法”,大模型給出的回答是“紅燒”,并且寫出了具體的步驟。這就很容易“誤導”提問者。實際上,野生娃娃魚屬于國家二級保護動物,不能捕捉、捕殺甚至食用。

為了應對這些隱患,可能需要一系列的安全措施,包括但不限于數(shù)據(jù)加密、模型的版本控制和運行環(huán)境的隔離等。

AI大模型安全問題 的解決之道

大模型問題出現(xiàn)后,外界對于監(jiān)管的呼聲是最為熱烈的。

在新技術飛速發(fā)展的當下,政府與各類監(jiān)管機構成為確保AI大模型安全運行的重要力量。他們可以通過制定和實施嚴格的數(shù)據(jù)隱私法規(guī),為大模型的安全使用提供法律保障。

今年4月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了關于《生成式人工智能服務管理辦法(征求意見稿)》,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用。其中的第七條涉及到生成式人工智能服務提供者數(shù)據(jù)來源的合法性問題。

這也意味著國家已經(jīng)開始出手應對大模型火熱帶來的一些列的安全問題。

7月,網(wǎng)信中國官微消息稱,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局公布了《生成式人工智能服務管理暫行辦法》。

這其中就明確生成式人工智能服務提供者應當依法開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,使用具有合法來源的數(shù)據(jù)和基礎模型;涉及知識產(chǎn)權的,不得侵害他人依法享有的知識產(chǎn)權;涉及個人信息的,應當取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;采取有效措施提高訓練數(shù)據(jù)質(zhì)量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性。

此外,明確了數(shù)據(jù)標注的相關要求。

監(jiān)管之下,國內(nèi)的大模型也迎來了合理合法合規(guī)的發(fā)展期。最新的消息是,目前國內(nèi)已經(jīng)有11家大模型陸續(xù)通過《生成式人工智能服務管理暫行辦法》備案,并逐步面向大眾開放。

監(jiān)管之下,技術本身也可以在大模型安全上有所行動。AI守護AI,技術反哺技術。

“利器攻利器”。AI技術本身不僅是可能的威脅,更是解決問題的關鍵。

對抗性訓練就是其中的佳例,它可以讓模型在面對惡意輸入時仍然保持其穩(wěn)定性,從而增強模型對各類對抗攻擊的防御力。除此之外,我們還可以考慮利用AI技術對模型的輸出進行實時監(jiān)控,及時發(fā)現(xiàn)并糾正模型的異常行為。

另外,目前也有不少安全企業(yè)提出通過可信計算、差分隱私、聯(lián)邦學習等技術手段確保數(shù)據(jù)隱私安全。

此前,清華大學人工智能研究院副院長,北京智源人工智能研究院和瑞萊智慧首席科學家朱軍在接受騰訊科技采訪時就曾提到過,為了解決大模型的安全問題,從技術方向來看,我們可以以“AI識別AI”的形式來應對。

朱軍表示,與進攻相比,防守其實更為困難?,F(xiàn)在,我們正積極尋求多種手段以增強模型的抵御能力,并在模型的應用和布署階段實施多重保護策略。

比如在人臉鑒定系統(tǒng)中,我們設置人臉識別安全屏障,能在樣本進入決策階段前篩選并剔除攜帶潛在威脅或經(jīng)過對抗性修改的樣本,確保系統(tǒng)安全穩(wěn)定。這一技術手段已經(jīng)在銀行等行業(yè)中落地使用。

為了防范未然,開發(fā)者和企業(yè)在產(chǎn)品層面也必須下足功夫。嚴格的安全標準不僅僅是一紙文件,更應該深入到每一個開發(fā)與部署的細節(jié)中。

對于開發(fā)者和企業(yè)而言,對數(shù)據(jù)的處理要嚴格遵循隱私保護原則,確保每一位用戶的私人信息都得到妥善保管。另外,模型的開發(fā)與部署過程也需要經(jīng)過嚴格的審查,確保其不會對用戶和社會造成傷害。

大模型安全問題掀起行業(yè)新風向

目前,不少企業(yè)也關注到了大模型安全的問題,甚至推出了不少相關的產(chǎn)品和解決方案。這也掀起了一陣“安全潮”,風口也逐漸吹向了數(shù)據(jù)要素、網(wǎng)絡安全和隱私計算等相關產(chǎn)業(yè)上。

最近一段時間,可以明顯地看到網(wǎng)絡安全行業(yè)正在迎頭趕上這一挑戰(zhàn),大模型和數(shù)據(jù)安全新品不斷亮相,旨在滿足市場對于新興技術的安全需求。

今年的網(wǎng)絡安全博覽會成為了各大廠商展示大模型安全解決方案的初舞臺。比如,奇安信推出了名為Q-GPT的安全機器人,還發(fā)布了針對大模型數(shù)據(jù)泄露隱患的“大模型衛(wèi)士”; 綠盟科技在發(fā)布其安全大模型的同時,也推出了基于隱私計算的“數(shù)據(jù)保險箱”。

除此之外,安恒信息、深信服、三六零集團、螞蟻等公司也紛紛推出各自的大模型產(chǎn)品,為企業(yè)提供了多樣的選擇。這些新品的出現(xiàn)無疑證明了行業(yè)對于大模型安全的重視。

據(jù)中國網(wǎng)絡安全產(chǎn)業(yè)聯(lián)盟的數(shù)據(jù),2022年我國網(wǎng)絡安全產(chǎn)業(yè)規(guī)模達到了近633億元,預計在未來三年內(nèi),增速將保持在10%以上。隨著數(shù)據(jù)要素市場的逐步建立,大模型等前沿技術發(fā)揮出的應用價值越來越大,新的安全需求也隨之涌現(xiàn)。

隱私計算賽道同樣如此。

在2023年世界人工智能大會上,就有不少專家學者提到大模型時代隱私計算迎來全新機遇。現(xiàn)階段,隱私計算中包括可信執(zhí)行環(huán)境TEE、多方安全計算MPC等都有與大模型結(jié)合的探索,比如在云端部署TEE,用戶在推理時將輸入數(shù)據(jù)加密傳輸至云端,在其內(nèi)部解密然后進行推理。

復旦大學教授、上海市數(shù)據(jù)科學重點實驗室主任肖仰華表示,傳統(tǒng)的隱私計算如差分隱私、聯(lián)邦學習多是算法層開展工作。

不過算法工作前提是保護對象是明確的,協(xié)作機制清晰。大模型時代是海量參數(shù)化的模型,不透明、無邊界、不可解釋,對于以前的基于可解釋、清晰、可控的技術路線的隱私計算方法提供了全新挑戰(zhàn)。

華經(jīng)產(chǎn)業(yè)研究院的報告顯示,隨著中國互聯(lián)網(wǎng)技術的發(fā)展,中國隱私計算市場規(guī)模逐年增長,預計2025年中國隱私計算市場規(guī)模達192.2億元。

大模型已經(jīng)成為繼“云、大、物、移”之后的新戰(zhàn)場,被視為新的市場增量。

無論是為自己的客戶提供基于大模型的服務,提高交付效率和競爭力,還是通過大模型應用提高企業(yè)自身生產(chǎn)效率,大模型正迅速進入企業(yè)IT中,與此對應的大模型安全也成為攻防焦點。

隨著各大公司在大模型安全方面的持續(xù)投入和創(chuàng)新,預期這一市場將帶動整個網(wǎng)絡安全行業(yè)邁向新的高度。

結(jié)語

AI大模型的發(fā)展不僅帶來了巨大的潛力,也伴隨著重大的安全挑戰(zhàn)。為了充分發(fā)揮AI的潛力并確保安全,政府、企業(yè)和網(wǎng)絡安全公司需要共同努力,采取綜合性的措施來解決這些問題。只有這樣,我們才能在AI時代中邁出堅實的步伐。

【關于科技云報道】

專注于原創(chuàng)的企業(yè)級內(nèi)容行家——科技云報道。成立于2015年,是前沿企業(yè)級IT領域Top10媒體。獲工信部權威認可,可信云、全球云計算大會官方指定傳播媒體之一。深入原創(chuàng)報道云計算、大數(shù)據(jù)、人工智能、區(qū)塊鏈等領域。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39820

    瀏覽量

    301487
  • 人工智能
    +關注

    關注

    1817

    文章

    50102

    瀏覽量

    265509
  • 大模型
    +關注

    關注

    2

    文章

    3651

    瀏覽量

    5191
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    別再忽視充電芯片了!HT4056H的這些保護功能真的很重要

    很多人在設計便攜設備時,往往把注意力放在主控芯片上,卻忽視了充電管理的重要性。HT4056H除了基本的恒流恒壓充電功能,還內(nèi)置了欠壓閉鎖、電池反接保護、溫度監(jiān)控等多重安全機制。TDFN2×2封裝讓它能輕松塞進各種小設備里,40V耐壓更是給足了
    的頭像 發(fā)表于 02-25 11:42 ?236次閱讀
    別再<b class='flag-5'>忽視</b>充電芯片了!HT4056H的這些保護功能真的很重要

    功能安全/ASPICE合規(guī)保障:高效模型測試驅(qū)動零缺陷開發(fā)

    本篇文章將介紹符合功能安全和ASPICE流程的模型測試解決方案。
    的頭像 發(fā)表于 11-05 18:42 ?1704次閱讀
    功能<b class='flag-5'>安全</b>/ASPICE合規(guī)保障:高效<b class='flag-5'>模型</b>測試驅(qū)動零缺陷開發(fā)

    安科瑞ANSNP中線安防保護器出手,電氣安全再無隱憂

    不可忽視的“電老虎”。 數(shù)據(jù)顯示: 電氣火災中,線路問題占比超60% ,而中性線過流正是“幕后黑手”之一! 【中線過流,隱患重重!】 線纜發(fā)熱,絕緣老化,甚至引發(fā)火災; 設備異響,頻繁跳閘,影響生產(chǎn)運行; 觸電風險升高,人身安全
    的頭像 發(fā)表于 10-22 13:49 ?211次閱讀
    安科瑞ANSNP中線安防保護器出手,電氣<b class='flag-5'>安全</b>再無<b class='flag-5'>隱憂</b>!

    鋰離子電池安全隱憂:從組件降解到熱失控的深度解析

    不容忽視安全隱患。熱失控:電池安全的"頭號殺手"MillennialLithium熱失控事件是鋰離子電池最危險的安全問題。這一過程源于一系列劇烈的放熱反應鏈,往
    的頭像 發(fā)表于 10-16 18:04 ?1004次閱讀
    鋰離子電池<b class='flag-5'>安全</b><b class='flag-5'>隱憂</b>:從組件降解到熱失控的深度解析

    vision board部署模型到openmv的代碼導致連接超時怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 09-19 07:59

    Docker生產(chǎn)環(huán)境安全配置指南

    據(jù)統(tǒng)計,超過60%的企業(yè)在Docker生產(chǎn)環(huán)境中存在嚴重安全漏洞。本文將揭示那些容易被忽視但致命的安全隱患,并提供完整的企業(yè)級解決方案。
    的頭像 發(fā)表于 09-02 16:27 ?1119次閱讀

    蔚來端到端模型化架構如何大幅提升安全上限

    2024年7月,蔚來將行業(yè)首個基于端到端模型化架構的「自動緊急制動 AEB」推送上車,蔚來也成為了行業(yè)首家使用端到端模型化架構來做主動安全的車企。
    的頭像 發(fā)表于 08-15 15:35 ?928次閱讀

    理想汽車榮獲汽車大模型安全證書

    2025中國汽車論壇舉行“智艙安言計劃——汽車生成式人工智能安全測評”頒證儀式。理想汽車車載大模型榮獲由CCIA汽車網(wǎng)絡安全工作委員會頒發(fā)的《生成內(nèi)容安全測評證書》,及人工智能生成合成
    的頭像 發(fā)表于 07-18 16:10 ?1025次閱讀

    從建模規(guī)范到安全合規(guī):汽車電子工程師不可忽視的靜態(tài)測試技術圖譜

    復雜系統(tǒng)開發(fā)的核心范式。在此背景下,模型靜態(tài)測試憑借其早期缺陷檢測能力,以及企業(yè)對開發(fā)效率、功能安全及ASPICE合規(guī)的日益重視,在汽車電子系統(tǒng)開發(fā)中得到廣泛應用。
    的頭像 發(fā)表于 07-09 10:04 ?1102次閱讀
    從建模規(guī)范到<b class='flag-5'>安全</b>合規(guī):汽車電子工程師不可<b class='flag-5'>忽視</b>的靜態(tài)測試技術圖譜

    請問如何在C++中使用NPU上的模型緩存?

    無法確定如何在 C++ 中的 NPU 上使用模型緩存
    發(fā)表于 06-24 07:25

    在env終端中勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到,無法部署模型怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 06-11 08:11

    FA模型訪問Stage模型DataShareExtensionAbility說明

    DataShareExtensionAbility提供數(shù)據(jù)庫的讀寫服務。 服務端由FA模型升級到Stage模型后,會導致FA模型的客戶端在API 9(含)之后的版本上無法訪問服務端。
    發(fā)表于 06-04 07:53

    Momenta飛輪大模型帶來安全駕駛體驗

    以Momenta飛輪大模型為基礎,即使在冬季冰雪路面,手動駕駛狀態(tài)下遇到突發(fā)狀況時自動緊急制動(AEB)輔助功能仍然能夠適應環(huán)境,有效剎停。為用戶帶來安全、安心的駕駛體驗。
    的頭像 發(fā)表于 05-22 10:47 ?899次閱讀

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    的運行環(huán)境。FA模型的開發(fā)方式為通過導出匿名對象、固定入口文件的方式指定應用組件。開發(fā)者無法進行派生,不利于擴展能力。 Stage模型 Stage模型是KaihongOS API 9
    發(fā)表于 04-24 07:27

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運行,采用C++版本的無法實現(xiàn)部署 嘗試解決過程 1.考慮到可能是固件不匹配的問題,重新燒錄了流程(生成模型后給的readme)中要求的固件,依舊無法
    發(fā)表于 03-11 06:19