7月26日訊,近期微軟遭遇的大規(guī)模藍屏事件,不僅震撼了科技界,也促使社會各界對技術穩(wěn)定性與安全性進行了深刻反思。這一事件警示我們,在即將到來的AI時代,若類似的技術故障重演,其潛在影響與損失或將更為嚴峻。
在此背景下,中國人工智能產業(yè)發(fā)展聯(lián)盟(AIIA)安全治理委員會于近日舉辦的成果發(fā)布會上,AIIA秘書長、中國信通院院長余曉暉強調,面對人工智能安全治理的緊迫任務,需集行業(yè)之力,共同構建和完善人工智能安全風險識別體系,確保風險識別的敏捷性與精準度,以便及時發(fā)現(xiàn)并應對潛在威脅。同時,他呼吁加強人工智能安全評測技術的研究與應用,以技術手段解決技術難題。
AIIA安全治理委員會已深入探索人工智能治理框架、風險管理、內生安全及安全應用等多個維度,力求在理論和技術層面為AI安全保駕護航。會上,正式啟動了“人工智能安全守護計劃”,旨在通過AI Guard品牌,建立AI系統(tǒng)情報共享及AIGC真實性與可信賴性互認機制,并推動人工智能相關保險產品的開發(fā),全方位提升AI技術服務提供方與使用方的安全防護能力。
此外,中國信通院人工智能所黑一鳴博士展示了自主研發(fā)的大模型安全加固解決方案。該方案創(chuàng)新性地采用模型微調與外掛安全知識庫等策略,在保持大模型原有性能與效率的同時,顯著增強了其對抗各類誘導攻擊的能力,為AI安全加固提供了新思路。
值得注意的是,人工智能的跨界融合特性日益顯著,這既是其發(fā)展的動力,也對法律與規(guī)范提出了更高要求。中國法學會網絡與信息法學研究會副秘書長劉金瑞指出,法學界在應對AI挑戰(zhàn)時,需深入了解技術特性,以確保所制定的規(guī)范和規(guī)制措施既符合邏輯又具實操性。
北京市金杜律師事務所合伙人寧宣鳳律師則透露,國家層面正逐步推進針對人工智能的小切口立法,涵蓋深度合成、算法、AIGC等多個領域,并探索科技倫理審查等制度建設。她進一步透露,專門的“人工智能法”也正在緊鑼密鼓的制定之中,預示著我國在AI治理領域的法制化進程正加速推進。
-
AI
+關注
關注
91文章
40159瀏覽量
301770 -
人工智能
+關注
關注
1819文章
50145瀏覽量
265808
發(fā)布評論請先 登錄
智能守護:視頻安全監(jiān)測系統(tǒng)的演進與未來
Magna AI加入NVIDIA Inception計劃,推動生產級人工智能規(guī)?;l(fā)展
嵌入式軟件單元測試中AI自動化與人工檢查的協(xié)同機制研究:基于專業(yè)工具的實證分析
嵌入式系統(tǒng)中的人工智能
人工智能安全守護計劃啟動,共建AI系統(tǒng)情報共享機制
評論