一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌AI模型在即時(shí)預(yù)報(bào)降水的使用

汽車玩家 ? 來(lái)源:cnBeta ? 作者:cnBeta ? 2020-01-15 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據(jù)外媒報(bào)道,幾周前,谷歌人工智能(AI)使用了一個(gè)機(jī)器學(xué)習(xí)模型來(lái)改進(jìn)對(duì)乳腺癌的篩查工作?,F(xiàn)在,這家公司已經(jīng)在即時(shí)預(yù)報(bào)降水中使用了卷積神經(jīng)網(wǎng)絡(luò)(CNN)。谷歌 AI 研究人員在一篇名為《Machine Learning for Precipitation Nowcasting from Radar Images》的文章中提到了其在降水短期預(yù)測(cè)中對(duì) CNN 的利用。

結(jié)果看起來(lái)似乎很有前景,按照谷歌自己的說(shuō)法,其得到的結(jié)果比傳統(tǒng)方法還要好:這種降水即時(shí)預(yù)報(bào)側(cè)重于0-6 小時(shí)預(yù)報(bào),它可生成的分辨率為 1 公里、總延遲只有5-10 分鐘的預(yù)報(bào)(包括數(shù)據(jù)收集延遲),甚至在開(kāi)發(fā)的早期階段其表現(xiàn)也優(yōu)于傳統(tǒng)模型。

據(jù)了解,傳統(tǒng)方法需要結(jié)合對(duì)大氣如何工作的先驗(yàn)知識(shí),而這批研究人員使用的“物理自由”法卻將天氣預(yù)報(bào)問(wèn)題變成了一個(gè)單獨(dú)的從圖像到圖像的轉(zhuǎn)換問(wèn)題。因此,由團(tuán)隊(duì)訓(xùn)練的 CNN--U-Net--只需要對(duì)提供給它的訓(xùn)練例子估計(jì)大氣物理。

為了訓(xùn)練U-Net,團(tuán)隊(duì)使用了多光譜衛(wèi)星圖像。從 2017 年到 2019 年在美國(guó)大陸收集的數(shù)據(jù)被用于最初的訓(xùn)練。更具體一點(diǎn)來(lái)說(shuō),數(shù)據(jù)被分成了四個(gè)星期的數(shù)據(jù)塊,其中最后一個(gè)星期用作評(píng)估數(shù)據(jù)集,其余的則用作培訓(xùn)數(shù)據(jù)集。

不同于傳統(tǒng)即時(shí)預(yù)報(bào)采取的高分辨率快速刷新(HRRR)數(shù)值預(yù)報(bào)、光流(OF)算法和持久性模型的是,U-Net 模型利用精度圖和回憶圖的方法所表現(xiàn)的預(yù)報(bào)質(zhì)量更優(yōu)。

此外,該模型還提供了瞬時(shí)預(yù)測(cè)。這是一個(gè)額外的優(yōu)勢(shì),因?yàn)閭鹘y(tǒng)的方法如 HRRR 計(jì)算延遲時(shí)間有1-3 小時(shí)。這使得機(jī)器學(xué)習(xí)模型能夠處理新的數(shù)據(jù)。不過(guò) HRRR 中使用的數(shù)值模型可以做出更好的長(zhǎng)期預(yù)測(cè),部分原因是它使用了一個(gè)完整的 3D 物理模型--從 2D 圖像中很難觀察到云的形成,所以對(duì)于機(jī)器學(xué)習(xí)來(lái)說(shuō)學(xué)習(xí)對(duì)流過(guò)程顯得更難。

谷歌認(rèn)為,將 HRRR 和機(jī)器學(xué)習(xí)模型這兩種方法結(jié)合起來(lái)可能會(huì)帶來(lái)更好的效果,因?yàn)檫@兩種方法可以實(shí)現(xiàn)準(zhǔn)確、快速短期以及長(zhǎng)期預(yù)測(cè)。這家公司表示,他們有在考慮未來(lái)將機(jī)器學(xué)習(xí)技術(shù)直接應(yīng)用到 3D 觀測(cè)中。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108153
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280018
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌新一代生成式AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI 上推出新一代生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?377次閱讀

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    AI的演進(jìn)正在逼近“終端智能涌現(xiàn)”的拐點(diǎn),從通用模型向場(chǎng)景落地遷移成為關(guān)鍵議題。聯(lián)發(fā)科以“AI隨芯,應(yīng)用無(wú)界”為主題召開(kāi)天璣開(kāi)發(fā)者大會(huì)2025(MDDC 2025),不僅聚合了全球生態(tài)資源,還
    發(fā)表于 04-13 19:52

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設(shè)計(jì)。這款功能強(qiáng)大的 AI 加速器旨在處理
    的頭像 發(fā)表于 04-12 11:10 ?1840次閱讀
    <b class='flag-5'>谷歌</b>第七代TPU Ironwood深度解讀:<b class='flag-5'>AI</b>推理時(shí)代的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    與推理 AI 模型谷歌方面表示,它代表著 AI 發(fā)展從 “響應(yīng)式” 向 “主動(dòng)式” 的范式轉(zhuǎn)變,未來(lái) AI 代理將能夠主動(dòng)檢索并
    的頭像 發(fā)表于 04-12 00:57 ?2442次閱讀

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
    發(fā)表于 03-11 07:18

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新一代旗艦大模型 Gemini 2.0 P
    的頭像 發(fā)表于 02-07 15:07 ?717次閱讀

    谷歌加速AI部門整合:AI Studio團(tuán)隊(duì)并入DeepMind

    近日,谷歌正緊鑼密鼓地推進(jìn)其人工智能(AI)部門的整合工作。據(jù)谷歌AI Studio主管Logan Kilpatrick在領(lǐng)英頁(yè)面上的透露,谷歌
    的頭像 發(fā)表于 01-13 14:40 ?716次閱讀

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢(shì)可以帶來(lái)顯著的成果。通過(guò)利用谷歌的 Gemini 模型來(lái)制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3
    的頭像 發(fā)表于 01-03 10:38 ?902次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b>生成高質(zhì)量圖像

    谷歌發(fā)布Gemini 2.0 AI模型

    谷歌近日正式推出了新一代AI模型——Gemini 2.0。此次更新引入了名為“深度研究”的新特性,旨在為用戶提供更加全面和深入的復(fù)雜主題探索與報(bào)告撰寫輔助。 Gemini 2.0通過(guò)高級(jí)推理和長(zhǎng)上
    的頭像 發(fā)表于 12-12 10:13 ?647次閱讀

    NVIDIA與谷歌量子AI部門達(dá)成合作

    NVIDIA CUDA-Q 平臺(tái)使谷歌量子 AI 研究人員能夠?yàn)槠淞孔佑?jì)算機(jī)創(chuàng)建大規(guī)模的數(shù)字模型,以解決設(shè)計(jì)中面臨的各種挑戰(zhàn)
    的頭像 發(fā)表于 11-20 09:39 ?708次閱讀

    微軟GitHub與Anthropic和谷歌合作

    近日,微軟旗下的GitHub宣布了一項(xiàng)重要合作,將Anthropic和谷歌AI模型整合到其代碼助理中,為數(shù)百萬(wàn)軟件開(kāi)發(fā)者提供新的AI模型
    的頭像 發(fā)表于 10-30 16:25 ?524次閱讀

    谷歌Gemini 1.5 Flash模型升級(jí),AI聊天速度飆升50%

    谷歌近期對(duì)其Gemini AI系列進(jìn)行了重大更新,推出了Gemini 1.5 Flash模型。此次升級(jí)的核心亮點(diǎn)在于顯著提升了AI聊天的響應(yīng)速度,官方宣稱最高可達(dá)50%的增速,為用戶帶
    的頭像 發(fā)表于 09-06 18:06 ?1263次閱讀

    谷歌獲Character.AI模型技術(shù)授權(quán),創(chuàng)始人重歸谷歌懷抱

    8月5日最新資訊,創(chuàng)新企業(yè)Character.AI在上周五正式宣布,他們已經(jīng)與科技巨頭谷歌的母公司Alphabet達(dá)成了一項(xiàng)重要合作,非獨(dú)家授權(quán)谷歌使用其先進(jìn)的大型語(yǔ)言模型技術(shù)。此次合
    的頭像 發(fā)表于 08-05 14:35 ?761次閱讀

    蘋果AI模型訓(xùn)練新動(dòng)向:攜手谷歌,未選英偉達(dá)

    近日,蘋果公司發(fā)布的最新研究報(bào)告揭示了其在人工智能領(lǐng)域的又一重要戰(zhàn)略選擇——采用谷歌設(shè)計(jì)的芯片來(lái)訓(xùn)練其AI模型,而非行業(yè)巨頭英偉達(dá)的產(chǎn)品。這一決定在業(yè)界引起了廣泛關(guān)注,尤其是在當(dāng)前英偉達(dá)GPU占據(jù)
    的頭像 發(fā)表于 08-01 18:11 ?1145次閱讀

    蘋果承認(rèn)使用谷歌芯片來(lái)訓(xùn)練AI

    蘋果公司最近在一篇技術(shù)論文中披露,其先進(jìn)的人工智能系統(tǒng)Apple Intelligence背后的兩個(gè)關(guān)鍵AI模型,是在谷歌設(shè)計(jì)的云端芯片上完成預(yù)訓(xùn)練的。這一消息標(biāo)志著在尖端AI訓(xùn)練領(lǐng)域
    的頭像 發(fā)表于 07-30 17:03 ?920次閱讀