據(jù)了解,國際知名人工智能社區(qū)MLCommons近期推出了AI Safety人工智能安全基準測試的v0.5版,該測試由多領域專家團隊共同打造,以識別并防范AI應用中的潛在風險。
隨著AI技術的快速發(fā)展,相關安全問題也日益凸顯。僅過去數(shù)周內,便有LastPass公司遭遇音頻深度偽造攻擊等案例浮出水面。為了應對這一挑戰(zhàn),新推出的AI Safety基準測試將成為模型開發(fā)者的有力工具,助力他們構建更為穩(wěn)固的安全防線。
AI Safety基準測試主要通過大型語言模型對各類危險提示詞的反應來評估其安全性。該測試的v0.5版已開始收集社區(qū)反饋,預計將于今年晚些時候推出正式的v1.0版。
v0.5版的AI Safety基準測試主要關注通用聊天文本模型,而v1.0版則將加入針對圖像生成模型的測試內容,并初步探討交互式代理模型的安全測試方法。
該測試涵蓋了超過43000個測試提示詞,采用Meta公司的Llama Guard對大模型的危險提示響應進行評估。這些提示詞包括常見模板及危險場景描述短語,覆蓋七類安全危害類型,未來還將進一步擴展至至少十三類。
最后,AI Safety基準測試將根據(jù)測試結果給出五個安全評級,以便用戶更好地理解和使用。
-
人工智能
+關注
關注
1806文章
49008瀏覽量
249321 -
模型
+關注
關注
1文章
3518瀏覽量
50405 -
ai技術
+關注
關注
1文章
1308瀏覽量
25151
發(fā)布評論請先 登錄
AI應用的“安全鎖”:安全閃存技術在滿足行業(yè)認證中的作用
電氣設備的安全性與絕緣性能測試

大語言模型在軍事應用中的安全性考量
AI如何增強車輛安全性和用戶交互性
如何實現(xiàn) HTTP 協(xié)議的安全性
MLCommons推出AI基準測試0.5版
電池的安全性測試項目有哪些?

在電氣安裝中通過負載箱實現(xiàn)最大效率和安全性
AI即服務平臺的安全性分析
智能系統(tǒng)的安全性分析
固態(tài)電池安全性怎么樣
NVIDIA文本嵌入模型NV-Embed的精度基準

評論