一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用預(yù)訓(xùn)練模型預(yù)測公交車到達(dá)時(shí)間

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Jason Black ? 2022-10-11 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

沒有人喜歡站在那里等公共汽車來,尤其是當(dāng)你需要準(zhǔn)時(shí)到達(dá)某個(gè)地方的時(shí)候。如果你能預(yù)測下一班公共汽車什么時(shí)候到,那不是很棒嗎?

今年年初,亞美尼亞開發(fā)商埃德加·貢茨揚(yáng)( Edgar Gomtsyan )有一些空閑時(shí)間,他對(duì)這個(gè)問題感到困惑。他開發(fā)了自己的解決方案,而不是等待政府實(shí)體實(shí)施解決方案,或致電公交車調(diào)度員確認(rèn)公交車到達(dá)時(shí)間。基于機(jī)器學(xué)習(xí) 預(yù)測公交車到達(dá)時(shí)間 具有高精度。

碰巧, Gomtsyan 的公寓正對(duì)著一個(gè)公共汽車站所在的街道。為了跟蹤公交車的到達(dá)和離開,他在陽臺(tái)上安裝了一個(gè)小型安全攝像頭,使用圖像識(shí)別軟件。 Gomtsyan 說:“就像任何復(fù)雜的問題一樣,為了找到有效的解決方案,問題被分成了幾個(gè)小部分?!薄?/p>

他的解決方案使用了大華 IP 攝像機(jī)。對(duì)于視頻處理,他最初使用 VertexAI 其可用于圖像和對(duì)象檢測、分類和其他需要。由于擔(dān)心可能的網(wǎng)絡(luò)和電力問題,他最終決定使用 NVIDIA Jetson Nano 。您可以訪問 GitHub jetson-inference 上的各種庫和經(jīng)過訓(xùn)練的模型。

實(shí)時(shí)流協(xié)議( RTSP )將攝像機(jī)視頻流的細(xì)節(jié)連接到 Jetson Nano 。然后,使用 imagenet 對(duì)于分類和 GitHub repo 中的一個(gè)預(yù)訓(xùn)練模型, Gomtsyan 能夠立即獲得流的基本分類。

對(duì)于人群中的訓(xùn)練極客來說,事情開始變得有趣起來。使用預(yù)訓(xùn)練模型, Gomtsyan 使用他的設(shè)置在每次檢測到公交車時(shí)從視頻流中截取一個(gè)屏幕快照。他的第一個(gè)模型準(zhǔn)備好了大約 100 張照片。

但是,正如 Gomtsyan 所承認(rèn)的,“一開始說一切都是完美的是錯(cuò)誤的?!焙苊黠@,他需要更多的圖片來提高模型輸出的精度。他說,一旦他有了 300 張照片,“系統(tǒng)就越來越好了?!?。

當(dāng)他第一次分享這個(gè)項(xiàng)目的結(jié)果時(shí),他的模型已經(jīng)訓(xùn)練了 1300 多張圖片,即使在不同的天氣條件下,它也能檢測到到達(dá)和離開的巴士。他還能夠區(qū)分定時(shí)巴士和隨機(jī)到達(dá)的巴士。他的模型現(xiàn)在包括三類圖像檢測:到達(dá)的巴士、背景(不是預(yù)定巴士的一切)和離開的巴士。

例如,如果 15 幀的“到達(dá)總線”類預(yù)測大于或等于 92% ,則它將到達(dá)時(shí)間記錄到本地 CSV 文件中。

為了改進(jìn)收集的數(shù)據(jù),他的系統(tǒng)每次檢測到總線時(shí)都會(huì)從流中截取一張屏幕截圖。這有助于未來的模型再培訓(xùn)和發(fā)現(xiàn)假陽性檢測。

此外,為了克服本地存儲(chǔ) CSV 文件數(shù)據(jù)的局限性, Gomtsyan 選擇將數(shù)據(jù)存儲(chǔ)在 BigQuery 使用 谷歌物聯(lián)網(wǎng) 服務(wù)正如他所指出的,將數(shù)據(jù)存儲(chǔ)在云中“提供了一個(gè)更加靈活和可持續(xù)的解決方案,將滿足未來的增強(qiáng)?!?/p>

他利用收集到的信息創(chuàng)建了一個(gè)模型,該模型將使用頂點(diǎn)人工智能回歸服務(wù)預(yù)測下一輛公交車何時(shí)到達(dá)。 Gomtsyan 建議觀看下面的視頻,學(xué)習(xí)如何設(shè)置模型。

隨著工作模型的建立和運(yùn)行, Gomtsyan 需要一個(gè)接口,讓他知道下一輛公交車何時(shí)到達(dá)。他選擇使用基于物聯(lián)網(wǎng)的語音助手,而不是網(wǎng)站。他最初計(jì)劃使用谷歌助手來實(shí)現(xiàn)這一目的,但這比預(yù)期的更具挑戰(zhàn)性。相反,他使用了 Alexa Skill ,這是亞馬遜的語音助手工具。他創(chuàng)建了一個(gè) Alexa 技能,可以根據(jù)公寓中 Alexa 揚(yáng)聲器發(fā)出的命令查詢相應(yīng)的云功能。

poYBAGNEz26AUaz9AAZJB4ddsl8172.png

圖 2.Gomtsyan 模型的最終架構(gòu)

雖然預(yù)測并不完美,但 Gomtsyan 對(duì)未來的改進(jìn)有一些想法,可以幫助提高預(yù)測公交到達(dá)時(shí)間的準(zhǔn)確性,包括公交線路沿線的交通擁堵數(shù)據(jù)。他還考慮使用太陽能電池板為系統(tǒng)供電并使其自主,并引入 DevOps 實(shí)踐。

Gomtsyan 開發(fā)這個(gè)項(xiàng)目是為了學(xué)習(xí)和挑戰(zhàn)自己。使用他的項(xiàng)目文檔,其他開發(fā)人員可以復(fù)制并改進(jìn)他的工作。最后,他希望這個(gè)巴士預(yù)測項(xiàng)目將鼓勵(lì)其他人追求他們的想法,“無論他們聽起來多么瘋狂、困難或不可能?!?/p>

關(guān)于作者

Jason Black 是 NVIDIA 的自主機(jī)器營銷和通信高級(jí)經(jīng)理。作為過去 25 年的作家和編輯,他喜歡在流行語背后尋找故事的核心??吹?a href="http://www.www27dydycom.cn/soft/data/42-101/" target="_blank">機(jī)器人 MIG 把他帶到哪里,他很興奮。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106398
  • 攝像機(jī)
    +關(guān)注

    關(guān)注

    3

    文章

    1705

    瀏覽量

    61404
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    天雙科技高集成多功能AI一體機(jī)破局公交車駕駛困境

    在城市交通脈絡(luò)中,公交車是承擔(dān)市民通勤的主力軍。然而,早晚高峰期的擁堵,駕駛安全的隱患(疲勞駕駛、分心駕駛、視線盲區(qū))等,這些問題不僅威脅著司機(jī)和乘客的生命安全,也給公交公司的運(yùn)營管理帶來了壓力
    的頭像 發(fā)表于 06-11 14:08 ?424次閱讀

    簡儀科技新能源公交車電池模組短路測試解決方案

    隨著全球?qū)Νh(huán)保和可持續(xù)發(fā)展的重視,新能源公交車作為綠色交通工具,正在逐步取代傳統(tǒng)燃油公交車。電池系統(tǒng)是新能源公交車的核心技術(shù)之一,其性能和安全性直接關(guān)系到車輛的可靠性和運(yùn)營效率。
    的頭像 發(fā)表于 03-26 17:09 ?615次閱讀

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對(duì)大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?1673次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    從Open Model Zoo下載的FastSeg大型公共預(yù)訓(xùn)練模型,無法導(dǎo)入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共預(yù)訓(xùn)練模型。 運(yùn)行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓(xùn)練一個(gè)大語言模型需要投資多少錢》,其中高昂的預(yù)訓(xùn)練費(fèi)用讓許多對(duì)大模型
    的頭像 發(fā)表于 02-19 16:10 ?996次閱讀
    用PaddleNLP在4060單卡上實(shí)踐大<b class='flag-5'>模型</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>技術(shù)

    使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測

    使用BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測是一種常見且有效的方法。以下是一個(gè)基于BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測的詳細(xì)步驟和考慮因素: 一、數(shù)據(jù)準(zhǔn)備 收集數(shù)據(jù) :
    的頭像 發(fā)表于 02-12 16:44 ?769次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型
    發(fā)表于 01-14 16:51

    KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型

    深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類型的任務(wù)中,預(yù)訓(xùn)練模型變得越來越重要。Keras 以其用戶友好型 API 和對(duì)易用性的重視而聞名,始終處于這一動(dòng)向的前沿。Keras 擁有專用的內(nèi)容庫,如用
    的頭像 發(fā)表于 12-20 10:32 ?499次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個(gè)簡稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。預(yù)
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

    考慮各個(gè)序列之間的關(guān)系。因此,本文提出的方法更適合作為時(shí)空預(yù)測領(lǐng)域的預(yù)訓(xùn)練模型。下面為大家詳細(xì)介紹一下這篇文章。 摘要 相關(guān)時(shí)間序列分析在許
    的頭像 發(fā)表于 11-15 11:41 ?768次閱讀
    時(shí)空引導(dǎo)下的<b class='flag-5'>時(shí)間</b>序列自監(jiān)督學(xué)習(xí)框架

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個(gè)復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識(shí)。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的L
    的頭像 發(fā)表于 11-08 09:30 ?1515次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度學(xué)習(xí)框架,提供了豐富的工具和
    的頭像 發(fā)表于 11-05 17:43 ?1406次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?593次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    蘋果揭示AI新動(dòng)向:Apple Intelligence模型在谷歌云端芯片上預(yù)訓(xùn)練

    蘋果公司在最新的技術(shù)論文中披露了一項(xiàng)重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴的模型并非傳統(tǒng)上大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設(shè)計(jì)的云端芯片上進(jìn)行預(yù)訓(xùn)練。這一決定不僅打破了行
    的頭像 發(fā)表于 07-30 15:00 ?847次閱讀