一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

攜手 MLCommons,制定有效且值得信賴的 AI 安全基準(zhǔn)

谷歌開發(fā)者 ? 來源:未知 ? 2023-12-05 18:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 / 技術(shù)與社會部 Anoop Sinha 以及 Google Research、Responsible AI 和以人為本技術(shù)團隊 Marian Croak


標(biāo)準(zhǔn)基準(zhǔn)是衡量重要產(chǎn)品質(zhì)量的公認方法,存在于許多領(lǐng)域。一些標(biāo)準(zhǔn)基準(zhǔn)用于衡量安全性:例如,當(dāng)汽車制造商宣傳 "整體安全評分五星" 時,會引用某項基準(zhǔn)。機器學(xué)習(xí) (ML) 和 AI 技術(shù)領(lǐng)域已經(jīng)存在標(biāo)準(zhǔn)基準(zhǔn):例如,MLCommons Association 運用 MLPerf 基準(zhǔn),來衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,盡管圍繞 AI 安全已經(jīng)做了大量工作,目前仍然沒有類似的 AI 安全標(biāo)準(zhǔn)基準(zhǔn)。


  • MLCommons

    https://mlcommons.org/en/

  • MLPerf

    https://mlcommons.org/en/news/mlperf-inference-storage-q323/

  • AI 安全

    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/


我們很高興能夠為非營利組織 MLCommons Association 開展標(biāo)準(zhǔn) AI 安全基準(zhǔn)制定的工作提供支持。制定有效且值得信賴的基準(zhǔn),不僅要有先進的 AI 安全測試技術(shù),還需要綜合廣泛的觀點。MLCommons 的工作旨在匯集學(xué)術(shù)界和業(yè)界的專家研究人員來制定衡量 AI 系統(tǒng)安全性的標(biāo)準(zhǔn)基準(zhǔn),并以每個人都能理解的分?jǐn)?shù)呈現(xiàn)。我們鼓勵社區(qū)的所有成員 (從 AI 研究人員到政策專家)加入我們,為這項工作奉獻自己的力量。


  • 加入我們

    https://mlcommons.org/ai-safety



為什么要制定 AI 安全基準(zhǔn)?


像大多數(shù)先進技術(shù)一樣,AI 具有帶來巨大好處的潛力,但是如果缺乏適當(dāng)?shù)募s束,也可能會導(dǎo)致負面結(jié)果。例如,AI 技術(shù)可以在各種活動中輔助人類提高生產(chǎn)力 (如提高健康診斷的準(zhǔn)確性和研究疾病、分析能源使用情況等)。然而,如果沒有足夠的預(yù)防措施,AI 也可能被用來支持有害或惡意活動,并導(dǎo)致存在偏見或令人反感的響應(yīng)。

  • 改善健康診斷
    https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/
  • 能源使用情況
    https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/

通過為不同類別提供標(biāo)準(zhǔn)的安全措施,如有害使用、超范圍響應(yīng)、AI 控制風(fēng)險等,標(biāo)準(zhǔn)的 AI 安全基準(zhǔn)可以幫助社會從 AI 中獲益,同時確保采取足夠的預(yù)防措施來減輕這些風(fēng)險。最初,新興的安全基準(zhǔn)有助于推動 AI 安全研究,并為負責(zé)任的 AI 開發(fā)提供信息。隨著時間推移和技術(shù)成熟,這些基準(zhǔn)也可以為 AI 系統(tǒng)的用戶和購買者提供信息,最終,可能成為政策制定者的寶貴工具。


在計算機硬件領(lǐng)域,基準(zhǔn) (如 SPECTPC) 現(xiàn)已展現(xiàn)出驚人的能力,讓整個行業(yè)能夠在追求進步的過程中,保持研究、工程甚至營銷部門的步調(diào)一致。我們相信,標(biāo)準(zhǔn) AI 安全基準(zhǔn)有助于在這一重要領(lǐng)域?qū)崿F(xiàn)同樣的目標(biāo)。


  • SPEC
    https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation
  • TPC
    https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council


標(biāo)準(zhǔn) AI 安全基準(zhǔn)是什么?


在學(xué)術(shù)研究和企業(yè)工作中,人們開展了一系列 AI 安全測試 (如 RealToxicityPrompts、Stanford HELM 公平性、偏差、毒性測量以及 Google 的生成式 AI 指引)。但是,大多數(shù)測試都側(cè)重于為 AI 系統(tǒng)提供提示,并對輸出進行算法評分,雖然這是一個有用的開端,但僅限于測試提示的范圍。此外,他們通常使用開放數(shù)據(jù)集進行提示和響應(yīng),而這些提示和響應(yīng)可能已被 (通常是無意中) 納入訓(xùn)練數(shù)據(jù)中。


  • RealToxicityPrompts
    https://arxiv.org/abs/2009.11462
  • Stanford HELM
    https://crfm.stanford.edu/2022/11/17/helm.html
  • Google 的生成式 AI 指引
    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/

MLCommons 提議,按多方利益相關(guān)者流程選擇測試,并按子集分組,以衡量特定 AI 用例的安全性,并將這些需要有專業(yè)技術(shù)背景才能理解的測試結(jié)果轉(zhuǎn)化為每個人都能理解的分?jǐn)?shù)。MLCommons 建議打造一個集中現(xiàn)有測試的平臺,并鼓勵開展更嚴(yán)格的測試,以推動先進技術(shù)的發(fā)展。用戶既可以通過在線測試生成和查看分?jǐn)?shù),也可以借助私人測試引擎的離線測試來訪問這些測試。


共同努力下的 AI 安全基準(zhǔn)


負責(zé)任的 AI 開發(fā)者使用多種安全措施,包括自動測試、手動測試、紅隊測試 (red teaming,其中人類測試人員試圖產(chǎn)生對抗性結(jié)果)、軟件方面的限制、數(shù)據(jù)和模型最佳實踐以及審計。但是,確定是否已采取足夠的預(yù)防措施可能具有挑戰(zhàn)性,尤其是在開發(fā) AI 系統(tǒng)的公司群體不斷發(fā)展且具有多元化特點的情況下。標(biāo)準(zhǔn) AI 基準(zhǔn)能夠提供強大的工具,幫助供應(yīng)商和用戶衡量 AI 安全性,以及鼓勵資源生態(tài)系統(tǒng)和專注于提高 AI 安全性的專業(yè)提供商,推進社區(qū)以負責(zé)任的方式發(fā)展。


同時,如果沒有社區(qū)參與,就無法制定成熟、有效且值得信賴的 AI 安全基準(zhǔn)。這項工作需要研究人員和工程師齊心協(xié)力,為安全測試技術(shù)提供創(chuàng)新且實用的改進,使測試更加嚴(yán)格高效。同樣,企業(yè)也需要團結(jié)一致,提供測試數(shù)據(jù)、工程支持和經(jīng)濟支持。AI 安全的某些方面可能具有主觀性,要建立得到廣泛共識支持的可信基準(zhǔn)需要考慮多方觀點,包括公眾代言人、政策制定者、學(xué)者、工程師、數(shù)據(jù)工作者、商界領(lǐng)袖和企業(yè)家的觀點。



Google 對 MLCommons 的支持


Google 以 2018 年宣布AI 準(zhǔn)則為基礎(chǔ),致力于以安全、可靠和值得信賴的特定標(biāo)準(zhǔn)開發(fā)和使用 AI (您可以參閱我們 2019 年、2020 年、2021 年、2022 年的更新)。我們還在關(guān)鍵承諾方面取得了重大進展,這將幫助您大膽且負責(zé)任地開發(fā) AI,從而造福所有人。


  • 宣布
    https://blog.google/technology/ai/ai-principles/
  • AI 準(zhǔn)則
    https://ai.google/responsibility/principles/
  • 2019 年
    https://ai.google/static/documents/ai-principles-2019-progress-update.pdf
  • 2020 年
    https://ai.google/static/documents/ai-principles-2020-progress-update.pdf
  • 2021 年
    https://ai.google/static/documents/ai-principles-2021-progress-update.pdf
  • 2022 年
    https://ai.google/static/documents/ai-principles-2022-progress-update.pdf
  • 進展
    https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf

Google 正在以多種方式支持 MLCommons Association 在制定 AI 安全基準(zhǔn)方面所作的工作。

  1. 測試平臺:我們聯(lián)合其他公司提供資金,支持測試平臺的開發(fā)。
  2. 技術(shù)專長和資源:我們不斷提供技術(shù)專長和資源,例如 Monk 膚色示例數(shù)據(jù)集,以幫助確保基準(zhǔn)設(shè)計優(yōu)良且有效。
  3. 數(shù)據(jù)集:我們正在為多語言表征偏差以及針對刻板印象危害 (如 SeeGULL 和 SPICE) 的外部測試提供內(nèi)部數(shù)據(jù)集。此外,我們還共享以負責(zé)任和包容性的方式收集人工注釋為重點的數(shù)據(jù)集,如 DICESSRP

  • Monk 膚色量表示例數(shù)據(jù)集
    https://skintone.google/mste-dataset
  • SPICE
    https://github.com/google-research-datasets/SPICE/tree/main
  • DICES
    https://arxiv.org/abs/2306.11247
  • SRP
    https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset


未來方向


我們相信,這些基準(zhǔn)有助于推進 AI 安全研究,確保以負責(zé)任的方式開發(fā)和部署 AI 系統(tǒng)。AI 安全屬于集體行動問題。前沿模型論壇 (Frontier Model Forum) 和 AI 伙伴關(guān)系 (Partnership on AI) 等團體也在重要的標(biāo)準(zhǔn)化舉措方面發(fā)揮著領(lǐng)導(dǎo)作用。我們很高興從一開始便與這些團體和 MLCommons 一起開展這項工作,也期待通過更多的共同努力,來促進以負責(zé)任的方式開發(fā)新的生成式 AI 工具。歡迎您持續(xù)關(guān)注我們,及時獲悉更多資訊。


  • 集體行動問題
    https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/
  • 前沿模型論壇
    https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/
  • AI 伙伴關(guān)系
    https://partnershiponai.org/


致謝


非常感謝為這項工作做出貢獻的 Google 團隊成員: Peter Mattson、Lora Aroyo、Chris Welty、Kathy Meier-Hellstern、Parker Barnes、Tulsee Doshi、Manvinder Singh、Brian Goldman、Nitesh Goyal、Alice Friend、Nicole Delange、Kerry Barker、Madeleine Elish、Shruti Sheth、Dawn Bloxwich、William Isaac、Christina Butterfield。





原文標(biāo)題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準(zhǔn)

文章出處:【微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108091

原文標(biāo)題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準(zhǔn)

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    貨架傾斜監(jiān)測:保障倉儲安全的關(guān)鍵

    在貨架傾斜監(jiān)測方面,選擇合適高品質(zhì)的無線傾角傳感器至關(guān)重要,而直川科技的無線傾角傳感器憑借其卓越的性能和優(yōu)勢,無疑是眾多倉儲企業(yè)值得信賴的選擇,為倉儲安全保駕護航,助力現(xiàn)代物流倉儲行
    的頭像 發(fā)表于 07-04 14:36 ?96次閱讀
    貨架傾斜監(jiān)測:保障倉儲<b class='flag-5'>安全</b>的關(guān)鍵

    威盛電子推出天車安全AI監(jiān)控方案

    近日,威盛電子宣布推出”威盛天車安全AI監(jiān)控方案”。該方案基于自主研發(fā)的AI技術(shù),集成行人姿態(tài)識別、精準(zhǔn)防撞預(yù)警和智能分區(qū)警示等功能,大幅提升橋式起重機(天車)的安全管理效率。目前,該
    的頭像 發(fā)表于 05-21 13:55 ?316次閱讀

    國芯科技與美電科技攜手推出AI傳感器模組

    2024年,國芯科技與戰(zhàn)略合作伙伴深圳美電科技有限公司(以下簡稱“美電科技”)展開了深度合作。雙方以國芯科技首顆端側(cè)AI芯片CCR4001S為核心,攜手推出AI傳感器模組,迅速緊密地
    的頭像 發(fā)表于 03-18 16:34 ?544次閱讀
    國芯科技與美電科技<b class='flag-5'>攜手</b>推出<b class='flag-5'>AI</b>傳感器模組

    芯??萍糂MS:讓每塊電池的安全值得信賴

    電池作為能源存儲的核心組件,廣泛應(yīng)用于各類電子設(shè)備中。隨著快充技術(shù)的普遍應(yīng)用,大功率快充對電芯及電池管理系統(tǒng)(BMS)提出了更高的安全要求。一旦電池管理系統(tǒng)的安全防護不足,就極易引發(fā)電池起火、燃燒
    發(fā)表于 02-11 17:33 ?233次閱讀
    芯海科技BMS:讓每塊電池的<b class='flag-5'>安全</b>都<b class='flag-5'>值得</b><b class='flag-5'>信賴</b>

    芯海科技BMS:讓每塊電池的安全值得信賴

    電池作為能源存儲的核心組件,廣泛應(yīng)用于各類電子設(shè)備中。隨著快充技術(shù)的普遍應(yīng)用,大功率快充對電芯及電池管理系統(tǒng)(BMS)提出了更高的安全要求。一旦電池管理系統(tǒng)的安全防護不足,就極易引發(fā)電池起火、燃燒
    的頭像 發(fā)表于 02-10 18:33 ?434次閱讀
    芯海科技BMS:讓每塊電池的<b class='flag-5'>安全</b>都<b class='flag-5'>值得</b><b class='flag-5'>信賴</b>

    smart與元戎啟行攜手,共研智能駕駛AI大模型

    近日,智能汽車品牌smart與領(lǐng)先的人工智能企業(yè)元戎啟行正式宣布達成戰(zhàn)略合作。此次合作旨在共同研發(fā)智能駕駛AI大模型技術(shù),為新一代智能駕駛系統(tǒng)注入強大動力。 雙方將攜手打造基于AI大模型的智能駕駛
    的頭像 發(fā)表于 01-18 11:25 ?1402次閱讀

    徐工汽車榮獲2025年度值得用戶信賴創(chuàng)新城市物流裝備鼎新獎

    近日,在第十屆發(fā)現(xiàn)信賴中國卡車用戶調(diào)查暨評選活動中,徐工4米4大輕卡憑借在新能源技術(shù)上的領(lǐng)先優(yōu)勢和創(chuàng)新突破,一舉榮獲“2025年度值得用戶信賴創(chuàng)新城市物流裝備鼎新獎”。
    的頭像 發(fā)表于 01-14 10:25 ?581次閱讀

    MLCommons推出AI基準(zhǔn)測試0.5版

    開放式機器學(xué)習(xí)工程聯(lián)盟 MLCommons 在美國加州當(dāng)?shù)貢r間公布推出適用于消費類 PC 的 AI 性能的 MLPerf Client 基準(zhǔn)測試的 0.5 版,這是該測試的第一個公開版本
    的頭像 發(fā)表于 12-12 16:47 ?824次閱讀

    Momenta以AI技術(shù)助力交通安全建設(shè)

    近日,為迎接第十三個“全國交通安全日”,蘇州交警與Momenta攜手圍繞“文明交通,攜手共創(chuàng)”主題開展特別活動,全力踐行將AI技術(shù)融入交通安全
    的頭像 發(fā)表于 12-03 16:13 ?606次閱讀

    浪潮信息AI存儲性能測試的領(lǐng)先之道

    AI技術(shù)的無限可能。近日,在MLCommons的子項目MLPerf Storage v1.0性能基準(zhǔn)評測中,浪潮信息再度展現(xiàn)了在AI存儲領(lǐng)域的卓越實力。
    的頭像 發(fā)表于 10-29 16:30 ?648次閱讀
    浪潮信息<b class='flag-5'>AI</b>存儲性能測試的領(lǐng)先之道

    浪潮信息AS13000G7榮獲MLPerf? AI存儲基準(zhǔn)測試五項性能全球第一

    北京2024年9月27日?/美通社/ -- 9月25日,MLCommons協(xié)會發(fā)布最新MLPerf? Storage v1.0 AI存儲基準(zhǔn)測試成績。浪潮信息分布式存儲平臺AS13000G7表現(xiàn)出
    的頭像 發(fā)表于 09-28 16:46 ?406次閱讀
    浪潮信息AS13000G7榮獲MLPerf? <b class='flag-5'>AI</b>存儲<b class='flag-5'>基準(zhǔn)</b>測試五項性能全球第一

    Freepik攜手Magnific AI推出AI圖像生成器

    近日,設(shè)計資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標(biāo)志著AI圖像創(chuàng)作領(lǐng)域邁入了一個全新的高
    的頭像 發(fā)表于 08-30 16:23 ?1578次閱讀

    甲骨文攜手Rai Way,強化AI應(yīng)用與數(shù)據(jù)安全

    近日,全球領(lǐng)先的軟件巨頭甲骨文與意大利基礎(chǔ)設(shè)施服務(wù)提供商Rai Way宣布達成重要合作。雙方將攜手在Rai Way分布廣泛的數(shù)據(jù)中心部署甲骨文的人工智能應(yīng)用系統(tǒng),為企業(yè)客戶帶來前所未有的服務(wù)體驗與安全保障。
    的頭像 發(fā)表于 07-27 17:19 ?2565次閱讀

    Claude安卓版發(fā)布,旨在為用戶提供信賴AI助手

     7月17日最新資訊,繼今年5月成功推出iOS版本后,Anthropic公司今日正式發(fā)布了Claude應(yīng)用的安卓版本,該應(yīng)用專為安卓8.0及以上版本設(shè)備設(shè)計,旨在為用戶提供一款高效值得信賴
    的頭像 發(fā)表于 07-17 16:56 ?1141次閱讀

    平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平

    成了一把雙刃劍,其銳利的一面正逐漸指向我們的核心價值。面對這些挑戰(zhàn),制定一套有效AI治理框架和隱私保護機制變得迫在眉睫。 確保AI決策的透明度是解決這些問題的關(guān)鍵一步。透明度不僅
    發(fā)表于 07-16 15:07