據(jù)了解,人工智能安全企業(yè) DeepKeep日前發(fā)表了一份評估報告。報告指出,Meta公司旗下LlamA 2大型語言模型在13個風險評估類別中的表現(xiàn)僅為4項合格。
報告特別強調(diào),擁有70億參數(shù)的LlamA 2 7B模型存在嚴重的幻覺現(xiàn)象,其回答的真實性和準確性令人堪憂,幻覺率高達48%。
DeepKeep對此表示擔憂,認為該模型存在明顯的幻覺傾向,可能會導致大量錯誤信息的傳播。
此外,LlamA 2模型還存在注入和操縱的潛在風險。報告顯示,在80%的情況下,通過“提示注入”的手段,攻擊者可輕易操控LlamA的輸出,從而將用戶引流至惡意網(wǎng)站。
-
人工智能
+關(guān)注
關(guān)注
1804文章
48477瀏覽量
245193 -
Meta
+關(guān)注
關(guān)注
0文章
299瀏覽量
11675 -
語言模型
+關(guān)注
關(guān)注
0文章
558瀏覽量
10612
發(fā)布評論請先 登錄
無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?
Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

使用NVIDIA TensorRT提升Llama 3.2性能
Meta發(fā)布Llama 3.2量化版模型
Llama 3 語言模型應(yīng)用
扎克伯格:聯(lián)想運用Meta Llama大模型打造個人AI助手AI Now
使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

評論