一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

MLPerf訓練評估已部署機器學習模型的執(zhí)行時間

星星科技指導員 ? 來源:嵌入式計算設計 ? 作者:Saumitra Jagdale ? 2022-07-10 15:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機器學習 (ML) 需要行業(yè)標準的性能基準,以幫助創(chuàng)建和競爭評估眾多與 ML 相關的軟件和硬件解決方案。

然而,與其他領域不同,ML 訓練面臨三個不同的基準測試挑戰(zhàn):

提高訓練吞吐量的優(yōu)化可以增加求解時間。

訓練是隨機的,解決問題的時間差異很大。

軟件和硬件系統(tǒng)如此多樣化,以至于很難使用相同的二進制文件、代碼甚至超參數(shù)進行公平的基準測試。

MLcommons 的機器學習基準測試解決方案 MLPerf 旨在解決這些問題。MLPerf 在推動性能和可擴展性改進方面的功效在來自不同制造商的兩組數(shù)據(jù)中進行了統(tǒng)計評估。

MLPerf 旨在為機器學習提供一個具有代表性的基準套件,以正確測量系統(tǒng)性能,以實現(xiàn)五個高級目標:

允許對競爭系統(tǒng)進行公平比較,同時促進機器學習創(chuàng)新。

通過以公平和相關的方式衡量 ML 開發(fā)速度。

確保一致性結果的可重復性。

為商業(yè)和學術團體提供服務。

保持較低的基準測試成本,以便每個人都可以參與。

MLPerf 創(chuàng)建了一個基準套件,其中包括各種應用程序、DNN 模型和優(yōu)化器。它還準確地指定了模型和訓練技術,以創(chuàng)建每個基準的參考實現(xiàn)。MLPerf 在比較結果時建立了時間限制以減少隨機性的影響。此外,它允許 ML 和系統(tǒng)社區(qū)通過使提交代碼開源來檢查和復制結果。

每個基準都會計算在給定數(shù)據(jù)集上訓練模型以達到給定質量目標所需的時間。最終結果是通過以特定于基準的次數(shù)測量基準,刪除最低和最高值,并對剩余結果進行平均以解釋 ML 訓練持續(xù)時間的巨大差異來生成的。即使是平均結果數(shù)量也不足以消除所有波動。成像基準的結果通常為 +/- 2.5%,而其他基準通常為 +/- 5%。

MLPerf 希望通過讓提交者重新實現(xiàn)參考實現(xiàn)來刺激軟件和硬件方面的創(chuàng)新。MLPerf 有兩個部門,提供不同程度的重新實現(xiàn)自由度。封閉部門要求使用與參考實現(xiàn)相同的模型和優(yōu)化器,以便比較硬件平臺或軟件框架,“蘋果對蘋果”。開放部門旨在通過允許任何機器學習技術達到預期的質量來促進更快的模型和優(yōu)化器。

ML 系統(tǒng)的行業(yè)基準

總而言之,MLPerf Training 是涵蓋商業(yè)和學術應用的機器學習基準的集合。盡管它是唯一一個廣泛使用且覆蓋范圍如此廣泛的 ML 訓練基準套件,但它幾乎沒有做出任何貢獻。首先,通過精確定義模型架構和每個基準特征的訓練程序,可以對等效工作負載進行系統(tǒng)比較。此外,為了解決對 ML 訓練進行基準測試的挑戰(zhàn),使用了參考實現(xiàn)和規(guī)則定義。訓練過程的隨機性、為了確定性能優(yōu)化的質量影響而需要訓練完成以及需要在各種系統(tǒng)規(guī)模下改變工作負載是一些挑戰(zhàn)。

盡管 MLPerf 側重于相對系統(tǒng)性能,但正如在線結果所證明的那樣,它還提供了 ML 和基準測試的一般課程。真實數(shù)據(jù)集的大小對于確保真實的內存系統(tǒng)行為至關重要。例如,最初的 NCF 數(shù)據(jù)集太小而無法完全放入內存中。此外,當對小于工業(yè)規(guī)模的數(shù)據(jù)集進行基準測試時,訓練時間不應包括啟動時間,這在實際使用中成比例地減少。

因此,MLPerf 正在迅速將自己確立為 ML 系統(tǒng)的行業(yè)基準,同時也是一個理想的論壇,用于發(fā)布分析師、投資者和買家可以依賴的基準測試結果的新產品。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 測量系統(tǒng)

    關注

    2

    文章

    559

    瀏覽量

    42321
  • 機器學習
    +關注

    關注

    66

    文章

    8503

    瀏覽量

    134630
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    邊緣計算中的機器學習:基于 Linux 系統(tǒng)的實時推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來到Medium的這一角落。在本文中,我們將把一個機器學習模型(神經(jīng)網(wǎng)絡)部署到邊緣設備上,利用從ModbusTCP寄存器獲取的實時數(shù)據(jù)來預測一臺復古音頻放大器的當前
    的頭像 發(fā)表于 06-11 17:22 ?345次閱讀
    邊緣計算中的<b class='flag-5'>機器</b><b class='flag-5'>學習</b>:基于 Linux 系統(tǒng)的實時推理<b class='flag-5'>模型</b><b class='flag-5'>部署</b>與工業(yè)集成!

    tc397如何高精度(微秒級別)測量代碼執(zhí)行時間?

    tc397如何高精度(微秒級別)測量代碼執(zhí)行時間
    發(fā)表于 04-21 07:31

    K230D部署模型失敗的原因?

    流程中看到MicroPython部署時要選擇第三路串口,但并未成功 補充材料 參考的主要流程如下,這個文件內容是在社區(qū)官網(wǎng)的模型訓練結束后生成的文件壓縮包解壓后的結果 確認問題 1.K230D應該
    發(fā)表于 03-11 06:19

    是否可以使用OpenVINO?部署管理器在部署機器上運行Python應用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運行時軟件包。 將運行時包轉移到部署機器中。 無法確定是否可以在
    發(fā)表于 03-05 08:16

    使用BP神經(jīng)網(wǎng)絡進行時間序列預測

    和測試的時間序列數(shù)據(jù)。 確保數(shù)據(jù)具有良好的質量,并進行必要的預處理,如去除異常值、填充缺失值等。 數(shù)據(jù)劃分 : 將數(shù)據(jù)集劃分為訓練集和測試集。 訓練集用于模型
    的頭像 發(fā)表于 02-12 16:44 ?773次閱讀

    充電樁CCC認證什么時候執(zhí)行?

    充電樁CCC認證的執(zhí)行時間表如下:
    的頭像 發(fā)表于 12-25 17:12 ?819次閱讀

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    醫(yī)療領域,手術輔助機器人需要毫米級的精確控制,書中有介紹基于視覺伺服的實時控制算法,以及如何利用大模型優(yōu)化手術路徑規(guī)劃。工業(yè)場景中,協(xié)作機器人面臨的主要挑戰(zhàn)是快速適應新工藝流程。具身智能通過在線
    發(fā)表于 12-24 15:03

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    模型有更大的能力去記憶訓練數(shù)據(jù),從而可能導致過擬合,特別是在小規(guī)模數(shù)據(jù)集上。 訓練時間延長:因為需要額外的時間
    發(fā)表于 12-19 14:33

    構建云原生機器學習平臺流程

    構建云原生機器學習平臺是一個復雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓練、評估、部署
    的頭像 發(fā)表于 12-14 10:34 ?435次閱讀

    AI模型部署邊緣設備的奇妙之旅:如何實現(xiàn)手寫數(shù)字識別

    數(shù)字分類模型 如果說有自己制作數(shù)據(jù)的話,需要將數(shù)據(jù)上傳,然后在修改全局配置項,修改數(shù)據(jù)集地址以及對應的類別數(shù)。 按照廠家提供的配置直接進行訓練轉換。 模型訓練
    發(fā)表于 12-06 17:20

    從零開始訓練一個大語言模型需要投資多少錢?

    關于訓練技巧和模型評估的文章,但很少有直接告訴你如何估算訓練時間和成本的。前面分享了一些關于大模型
    的頭像 發(fā)表于 11-08 14:15 ?791次閱讀
    從零開始<b class='flag-5'>訓練</b>一個大語言<b class='flag-5'>模型</b>需要投資多少錢?

    AI大模型與傳統(tǒng)機器學習的區(qū)別

    多個神經(jīng)網(wǎng)絡層組成,每個層都包含大量的神經(jīng)元和權重參數(shù)。 傳統(tǒng)機器學習模型規(guī)模相對較小,參數(shù)數(shù)量通常只有幾千到幾百萬個,模型結構相對簡單。 二、
    的頭像 發(fā)表于 10-23 15:01 ?2590次閱讀

    直播預約 |數(shù)據(jù)智能系列講座第4期:預訓練的基礎模型下的持續(xù)學習

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預訓練的基礎模型下的持續(xù)學習」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目預訓練的基礎
    的頭像 發(fā)表于 10-18 08:09 ?595次閱讀
    直播預約 |數(shù)據(jù)智能系列講座第4期:預<b class='flag-5'>訓練</b>的基礎<b class='flag-5'>模型</b>下的持續(xù)<b class='flag-5'>學習</b>

    【《時間序列與機器學習》閱讀體驗】+ 時間序列的信息提取

    之前對《時間序列與機器學習》一書進行了整體瀏覽,并且非常輕松愉快的完成了第一章的學習,今天開始學習第二章“
    發(fā)表于 08-14 18:00

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數(shù)據(jù)作為訓練材料。這些數(shù)據(jù)集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學習模型采用自監(jiān)督
    發(fā)表于 08-02 11:03