一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CMU&MIT最新開源!超強(qiáng)通用視覺(jué)位置識(shí)別!

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-08-14 11:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0. 筆者個(gè)人體會(huì)

這項(xiàng)工作可以簡(jiǎn)稱為"識(shí)別一切"!。看到官方demo的一瞬間,真的是感覺(jué)很驚嘆。

視覺(jué)位置識(shí)別的工作有很多,本質(zhì)上都可以歸類為構(gòu)建圖像數(shù)據(jù)庫(kù)+查詢圖像檢索的過(guò)程。現(xiàn)在的主要問(wèn)題是,很多識(shí)別算法都是針對(duì)特定環(huán)境進(jìn)行的,換一個(gè)環(huán)境很可能直接就掛掉了。

那么,一個(gè)真正通用的位置識(shí)別算法,應(yīng)該做到什么呢?

答案就是三個(gè)關(guān)鍵詞:任何地點(diǎn)(無(wú)縫地運(yùn)行在任何環(huán)境中,包括空中、地下和水下),任何時(shí)間(對(duì)場(chǎng)景中的時(shí)間變化,如晝夜或季節(jié)變化,或?qū)εR時(shí)物體具有魯棒性),以及跨任何視角(對(duì)視角變化具有魯棒性,包括完全相反的視角)。也就是說(shuō),在任何地點(diǎn)、任何時(shí)間、任何視角下都可以魯棒得進(jìn)行位置識(shí)別。這個(gè)任務(wù)想想就非常難!

但是最近有一個(gè)團(tuán)隊(duì)就推出了這樣的工作,也就是CMU、IIIT Hyderabad、MIT、AIML聯(lián)合開源的AnyLoc,性能非常的魯棒,并且實(shí)驗(yàn)做得很詳細(xì)。今天筆者就將帶領(lǐng)讀者一起欣賞一下這一力作,當(dāng)然筆者水平有限,如果有理解不當(dāng)?shù)牡胤綒g迎大家一起交流。限于篇幅,對(duì)本文的的深入思考與理解,我們發(fā)表在了「3D視覺(jué)從入門到精通」知識(shí)星球。

注:本文使用VPR做為視覺(jué)位置識(shí)別的簡(jiǎn)稱(Visual Place Recognition)。

1. 效果展示

先來(lái)看一個(gè)最基礎(chǔ)的任務(wù),就是根據(jù)查詢圖像進(jìn)行位置識(shí)別。這也是官方主頁(yè)上提供的交互式demo,直接點(diǎn)擊左側(cè)Query圖像上的任一點(diǎn),就可以在右側(cè)識(shí)別出選擇的位置。感興趣的小伙伴可以去官方主頁(yè)上進(jìn)行嘗試!這里也推薦「3D視覺(jué)工坊」新課程《面向自動(dòng)駕駛領(lǐng)域目標(biāo)檢測(cè)中的視覺(jué)Transformer》。

54bae148-3a2e-11ee-9e74-dac502259ad0.png

558e5d52-3a2e-11ee-9e74-dac502259ad0.png

就像論文中提到的那樣,AnyLoc在任何地點(diǎn)、任何時(shí)間、任何視角都可以進(jìn)行位置識(shí)別。最關(guān)鍵的是,在各種結(jié)構(gòu)化、非結(jié)構(gòu)化、光照變化等挑戰(zhàn)性場(chǎng)景中都可以進(jìn)行準(zhǔn)確識(shí)別!

55b91c5e-3a2e-11ee-9e74-dac502259ad0.png

569076d6-3a2e-11ee-9e74-dac502259ad0.png

AnyLoc在室內(nèi)室外、結(jié)構(gòu)化非結(jié)構(gòu)化、光照視角變化等挑戰(zhàn)性場(chǎng)景中的性能都遠(yuǎn)遠(yuǎn)超過(guò)了同類算法,簡(jiǎn)直是"八邊形戰(zhàn)士"!

56fd2cd6-3a2e-11ee-9e74-dac502259ad0.png

總之,算法已經(jīng)開源了,官方主頁(yè)上也提供了很多的demo。感興趣的小伙伴趕快去試試吧,下面來(lái)看一下具體的論文信息。

3. 摘要

視覺(jué)位置識(shí)別( Visual Place Recognition,VPR )對(duì)機(jī)器人定位至關(guān)重要。迄今為止,性能最高的VPR方法都是針對(duì)環(huán)境和任務(wù)的:盡管它們?cè)诮Y(jié)構(gòu)化環(huán)境(以城市駕駛為主)中表現(xiàn)出強(qiáng)勁的性能,但它們?cè)诜墙Y(jié)構(gòu)化環(huán)境中的性能嚴(yán)重下降,這使得大多數(shù)方法在實(shí)際部署中表現(xiàn)不佳。在這項(xiàng)工作中,我們開發(fā)了一個(gè)通用的VPR解決方案------一種跨越廣泛的結(jié)構(gòu)化和非結(jié)構(gòu)化環(huán)境(城市、室外、室內(nèi)、空中、水下和地下環(huán)境)的技術(shù),無(wú)需任何重新訓(xùn)練或微調(diào)。我們證明,從沒(méi)有VPR特定訓(xùn)練的現(xiàn)成的自監(jiān)督模型中得到的通用特征表示是構(gòu)建這種通用VPR解決方案的正確基礎(chǔ)。將這些派生特征與無(wú)監(jiān)督的特征聚合相結(jié)合,使得我們的方法AnyLoc能夠獲得比現(xiàn)有方法高達(dá)4倍的性能。通過(guò)表征這些特征的語(yǔ)義屬性,我們進(jìn)一步獲得了6 %的性能提升,揭示了封裝來(lái)自相似環(huán)境的數(shù)據(jù)集的獨(dú)特領(lǐng)域。我們?cè)敿?xì)的實(shí)驗(yàn)和分析為構(gòu)建可以在任何地方、任何時(shí)間、任何視角部署的VPR解決方案奠定了基礎(chǔ)。我們鼓勵(lì)讀者瀏覽我們的項(xiàng)目頁(yè)面和互動(dòng)演示。

4. 算法解析

本質(zhì)上來(lái)說(shuō),VPR可以被定義為一個(gè)圖像檢索問(wèn)題。機(jī)器人首先穿越環(huán)境采集圖像,建立圖像數(shù)據(jù)庫(kù),然后在后續(xù)的運(yùn)行時(shí)提供查詢圖像,在參考數(shù)據(jù)庫(kù)中檢索與該圖像最接近的匹配。但是具體的實(shí)現(xiàn)方式就多種多樣了,大家可能更熟悉的是描述子方法,包括局部描述子還有全局描述子。

但想要達(dá)到最優(yōu)性能,一般還是要針對(duì)特定環(huán)境進(jìn)行大規(guī)模訓(xùn)練。只是這種高性能帶來(lái)的是低泛化性,在自動(dòng)駕駛場(chǎng)景中訓(xùn)練的模型,幾乎不可能泛化到室內(nèi)場(chǎng)景和非結(jié)構(gòu)化場(chǎng)景中。

這篇文章的亮點(diǎn)就在于,分析了VPR的任務(wù)無(wú)關(guān)的ViT特征提取和融合,并開發(fā)了一個(gè)通用的解決方案,不需要任何針對(duì)特定VPR任務(wù)的訓(xùn)練!作者發(fā)現(xiàn),來(lái)自現(xiàn)成基礎(chǔ)模型的逐像素特征表現(xiàn)出顯著的視覺(jué)和語(yǔ)義一致性,雖然用于通用VPR時(shí),每個(gè)圖像的特性都不是最佳的,但是可以將這些逐像素不變性轉(zhuǎn)移到圖像級(jí)別以識(shí)別地點(diǎn)。

那么,要選擇何種基礎(chǔ)模型呢?

想要提取任務(wù)無(wú)關(guān)的視覺(jué)特征,這樣的自監(jiān)督基礎(chǔ)模型有三大類:

(1)聯(lián)合嵌入方法(DINO、DINOv2);

(2)對(duì)比學(xué)習(xí)方法(CLIP);

(3)基于掩碼的自編碼方法(MAE)。

作者經(jīng)過(guò)實(shí)驗(yàn),發(fā)現(xiàn)聯(lián)合嵌入學(xué)習(xí)模型可以更好得捕獲長(zhǎng)范圍的全局信息,因此AnyLoc使用DINO和DIONv2 ViT模型來(lái)提取視覺(jué)特征。

另一個(gè)問(wèn)題來(lái)了,要從這些預(yù)訓(xùn)練的ViT中提取什么視覺(jué)特征呢?

與提取單幅圖像特征(圖像特征向量)相比,提取逐像素特征可以實(shí)現(xiàn)更細(xì)粒度的匹配。而ViT的每一層都有多個(gè)特征(Query、Key、Value、Token)。因此,作者嘗試從中間層提取特征,而不使用CLS Token。具體來(lái)說(shuō),就是從數(shù)據(jù)庫(kù)圖像中選擇一個(gè)點(diǎn),將其與來(lái)自查詢圖像的所有像素特征進(jìn)行匹配,并繪制熱力圖。

5725481a-3a2e-11ee-9e74-dac502259ad0.png

有什么發(fā)現(xiàn)呢?

首先,即使存在語(yǔ)義文本和尺度變化(第一行)、感知混淆和視點(diǎn)偏移(第二行)、低光照結(jié)合相反視角(第三行),這些匹配關(guān)系也是魯棒的。

最關(guān)鍵的來(lái)了。注意如何在匹配點(diǎn)和背景之間表現(xiàn)出最大的對(duì)比度,這對(duì)于抵抗圖像中干擾物的魯棒性至關(guān)重要。

通過(guò)進(jìn)一步的跨層分析,可以發(fā)現(xiàn)一個(gè)很有意思的現(xiàn)象。ViT的較早層(頂行),特別是Key和Query,表現(xiàn)出很高的位置編碼偏差,而第31層(更深的層)的Value在相似度圖中的反差最大。

576b0f30-3a2e-11ee-9e74-dac502259ad0.png

因此,作者選擇Layer 31和Value做為局部特征表征。

特征提取完了,下面該聊聚合了。

也就是如何將局部特征組合在一起以描述圖像的各個(gè)部分,并最終描述一個(gè)環(huán)境。作者全面探索了多種無(wú)監(jiān)督聚合技術(shù):全局平均池化(GAP)、全局最大池化(GMP)、廣義平均池化(GeM)以及VLAD的軟硬對(duì)齊變體。最終選擇了內(nèi)部歸一化、級(jí)聯(lián)、間歸一化來(lái)獲取最終的VLAD描述子。

最后,構(gòu)建詞袋模型。

這一部分的目的是在不同的環(huán)境中,表征全局聚合的局部特征的獨(dú)特語(yǔ)義屬性。先前基于VLAD的工作雖然在城市場(chǎng)景中表現(xiàn)良好,但是并不適合基礎(chǔ)模型特征編碼中的開放集語(yǔ)義屬性。因此,作者通過(guò)對(duì)GeM描述子進(jìn)行表征來(lái)指導(dǎo)VLAD的詞袋選擇。這里也有個(gè)trick。就是使用PCA投影全局描述子可以在潛在空間發(fā)現(xiàn)不同的域,并且表征相似屬性(Urban,Indoor,Air,SubT,Degrad和Underwater)。而且可以觀察到查詢圖像的投影特征與各自數(shù)據(jù)庫(kù)圖像的投影特征接近,因此,最終VLAD的詞袋構(gòu)建是基于PCA分離進(jìn)行的。

5. 實(shí)驗(yàn)

AnyLoc的實(shí)驗(yàn)可謂無(wú)限創(chuàng)造困難,提供了前所未有的環(huán)境多樣性(任何地方),加上一系列時(shí)間(任何時(shí)候)和相機(jī)視點(diǎn)(任何視圖)的變化。其中結(jié)構(gòu)化環(huán)境使用了6個(gè)基準(zhǔn)的室內(nèi)和室外數(shù)據(jù)集,包含劇烈的視點(diǎn)偏移、感知混疊和顯著的視覺(jué)外觀變化。非結(jié)構(gòu)化環(huán)境使用空中、水下、地下場(chǎng)景,包含各種視覺(jué)退化、衛(wèi)星圖像、低光照以及季節(jié)變化。

57baf838-3a2e-11ee-9e74-dac502259ad0.png

評(píng)估指標(biāo)主要使用Recall,實(shí)驗(yàn)都在3090上進(jìn)行。對(duì)比方案也都是SOTA方案,包含在大規(guī)模城市數(shù)據(jù)集上為VPR任務(wù)訓(xùn)練的3個(gè)特定baseline,以及使用基礎(chǔ)模型CLS Token的3個(gè)新baseline。

5801ad6e-3a2e-11ee-9e74-dac502259ad0.png

首先對(duì)比AnyLoc在結(jié)構(gòu)、非結(jié)構(gòu)環(huán)境、視點(diǎn)偏移、時(shí)間外觀變化上對(duì)比其他SOTA VPR方案的結(jié)果。AnyLoc-VLAD-DINOv2在所有的室內(nèi)數(shù)據(jù)集上都取得了最高的召回率,室外環(huán)境稍差,但在Oxford數(shù)據(jù)集上效果尤其的好。而且比較有意思的是,在DINOv2上簡(jiǎn)單地使用GeM池化就可以顯著提高性能。

583b181a-3a2e-11ee-9e74-dac502259ad0.png

在非結(jié)構(gòu)化環(huán)境中,AnyLoc很大程度上優(yōu)于所有baseline,尤其是對(duì)于時(shí)間和視角變化。而聚合方法也很明顯優(yōu)于CLS方法。另一方面,NetVLAD、CosPlace和MixVPR這三個(gè)特定baseline也證實(shí)了隨著城市訓(xùn)練數(shù)據(jù)規(guī)模的增加,在特定任務(wù)上回表現(xiàn)得更好。

5872021c-3a2e-11ee-9e74-dac502259ad0.png

之后,對(duì)AnyLoc的設(shè)計(jì)進(jìn)行詞袋分析,特定領(lǐng)域的詞袋可以帶來(lái)最優(yōu)性能。

58e77e98-3a2e-11ee-9e74-dac502259ad0.png

下面來(lái)展示特定領(lǐng)域詞袋的魯棒域內(nèi)一致性,具體做法是使用領(lǐng)域特定的詞匯對(duì)局部特征的聚類賦值進(jìn)行可視化。在Urban域中,道路、路面、建筑物和植被在不斷變化的條件和地點(diǎn)被一致地分配到同一個(gè)簇中。對(duì)于室內(nèi)域,可以觀察到地板和天花板的域內(nèi)一致性,以及文字標(biāo)志和家具的域內(nèi)一致性。對(duì)于航空領(lǐng)域,可以觀察到道路、植被和建筑物在農(nóng)村和城市圖像中都被分配到獨(dú)特的簇中。

5906f6a6-3a2e-11ee-9e74-dac502259ad0.png

進(jìn)一步可以證明,這種域內(nèi)的魯棒一致性能夠在缺乏信息豐富度的小型參考數(shù)據(jù)庫(kù)的目標(biāo)環(huán)境中部署AnyLoc-VLAD。對(duì)于屬于給定領(lǐng)域的數(shù)據(jù)集,選擇最大的參考數(shù)據(jù)庫(kù)來(lái)形成詞袋,并在來(lái)自該領(lǐng)域的其他數(shù)據(jù)集上進(jìn)行評(píng)估。對(duì)于航拍和城市領(lǐng)域,可以觀察到,當(dāng)使用更大的詞袋來(lái)源時(shí),與僅僅使用較小的地圖相比,可以實(shí)現(xiàn)7-18 %更高的召回率,從而證明了詞袋在同一領(lǐng)域內(nèi)的可遷移性。

59b03fb8-3a2e-11ee-9e74-dac502259ad0.png

作者還對(duì)比了不同的ViT架構(gòu)、選擇的Layer以及不同的Facet對(duì)性能的影響。

59e17786-3a2e-11ee-9e74-dac502259ad0.png

還詳細(xì)對(duì)比了各種無(wú)監(jiān)督局部特征聚合方法對(duì)性能的影響,顯示GeM聚合性能更優(yōu)。有一點(diǎn)需要注意,就是硬分配比軟分配要快1.4倍。

5a0e00f8-3a2e-11ee-9e74-dac502259ad0.png

最后,還將專門面向VPR(CosPlace)訓(xùn)練的ViT與基于自監(jiān)督(DINO、DINOv2)的ViT進(jìn)行比較。舉個(gè)例子,對(duì)比基于ViT-B的方法,即使CosPlace系的整體性能有所改善,但AnyLoc-VLAD-DINOv2仍然比VLAD提高了8-13 %。這里也推薦「3D視覺(jué)工坊」新課程《面向自動(dòng)駕駛領(lǐng)域目標(biāo)檢測(cè)中的視覺(jué)Transformer》。

5a473d14-3a2e-11ee-9e74-dac502259ad0.png

6. 總結(jié)

非常有意思的工作!

站在上帝視角來(lái)看,會(huì)覺(jué)得AnyLoc的思想很簡(jiǎn)單,就是使用任務(wù)無(wú)關(guān)的基礎(chǔ)ViT模型來(lái)提取逐像素特征,然后進(jìn)行特征聚合。但其實(shí)整個(gè)分析問(wèn)題,解決問(wèn)題的思路非常巧妙。尤其是AnyLoc的結(jié)果很棒,將機(jī)器人定位擴(kuò)展到任何地點(diǎn)、任何時(shí)間、任何視角下,這對(duì)于機(jī)器人下游任務(wù)至關(guān)重要。

另一方面,模型大一統(tǒng)真的是一個(gè)大趨勢(shì),不停的出現(xiàn)一個(gè)大模型實(shí)現(xiàn)這個(gè)領(lǐng)域內(nèi)的所有功能。那么,下一個(gè)"一切"是什么呢?讓我們拭目以待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29735

    瀏覽量

    212859
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3688

    瀏覽量

    43827
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3520

    瀏覽量

    50421

原文標(biāo)題:CMU&MIT最新開源!超強(qiáng)通用視覺(jué)位置識(shí)別!任何地點(diǎn)!任何時(shí)間!任何視角!

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【KV260視覺(jué)入門套件試用體驗(yàn)】六、VITis AI車牌檢測(cè)&車牌識(shí)別

    視覺(jué)技術(shù)實(shí)現(xiàn)的自動(dòng)識(shí)別車輛牌照號(hào)碼的過(guò)程。該技術(shù)通過(guò)圖像采集、車牌檢測(cè)、字符分割和字符識(shí)別等步驟,實(shí)現(xiàn)對(duì)車牌號(hào)碼的自動(dòng)獲取與識(shí)別。車牌識(shí)別
    發(fā)表于 09-26 16:28

    CMU200手機(jī)專用測(cè)試儀表

    CMU200通用無(wú)線通信測(cè)試儀   生產(chǎn)廠商: ROHDE&SCHWARZ 產(chǎn)品簡(jiǎn)述: CMU200通用無(wú)線通信
    發(fā)表于 02-09 10:05 ?891次閱讀

    R&S/CMU300特價(jià)清銷CMU300基站綜測(cè)儀CMU300

    :10MHz~2.7GHz 產(chǎn)品簡(jiǎn)介: CMU300通用無(wú)線通信測(cè)試儀是新一代針對(duì)基站RF接口測(cè)試緊湊的解決方案。符合各個(gè)標(biāo)準(zhǔn)化機(jī)構(gòu)所制定的規(guī)范。尤其適合發(fā)射機(jī)和接收機(jī)的測(cè)試。R&S
    的頭像 發(fā)表于 10-09 15:48 ?932次閱讀

    基于CNN的惡意軟件加密C&C通信流量識(shí)別方法

    為實(shí)現(xiàn)惡意軟件加密C&C通信流量的準(zhǔn)確識(shí)別,分析正常網(wǎng)頁(yè)瀏覽訪問(wèn)和C&C通信的htps通信過(guò)程,發(fā)現(xiàn)惡意軟件C&C通信的服務(wù)器獨(dú)立性特征,提出htps通信序列建
    發(fā)表于 06-11 14:19 ?7次下載

    【新品發(fā)布】教育領(lǐng)域新成果,P &T AI計(jì)算機(jī)視覺(jué)開發(fā)套件

    華為開發(fā)者大會(huì)2021開發(fā)者課程與職業(yè)認(rèn)證展臺(tái)上,展出了Pegasus &Taurus AI計(jì)算機(jī)視覺(jué)開發(fā)套件,并且呈現(xiàn)了基于OpenHarmony的智能環(huán)?;厥照窘虒W(xué)套件DEMO。
    發(fā)表于 11-05 09:36 ?3080次閱讀
    【新品發(fā)布】教育領(lǐng)域新成果,P &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;T AI計(jì)算機(jī)<b class='flag-5'>視覺(jué)</b>開發(fā)套件

    HUATOOP HT9530識(shí)別&amp;修復(fù)小記

    HUATOOP HT9530識(shí)別&amp;修復(fù)小記
    發(fā)表于 12-02 20:36 ?30次下載
    HUATOOP HT9530<b class='flag-5'>識(shí)別</b>&<b class='flag-5'>amp</b>;修復(fù)小記

    存儲(chǔ)類&amp;作用域&amp;生命周期&amp;鏈接屬性

    目錄前言一、存儲(chǔ)類&amp;amp;作用域&amp;amp;生命周期&amp;amp;鏈接屬性的
    發(fā)表于 12-09 15:51 ?5次下載
    存儲(chǔ)類&<b class='flag-5'>amp</b>;作用域&<b class='flag-5'>amp</b>;生命周期&<b class='flag-5'>amp</b>;鏈接屬性

    2021 Kubernetes on AI &amp;amp;amp;amp; Edge Day圓滿舉行 共探邊緣云融合

    2021年12月11日-12日,由Linux基金會(huì)、LF AI &amp;DATA、LF Edge、CNCF、LFN等開源社區(qū)聯(lián)合舉辦,開源科技OSTech和西麗湖人才服務(wù)中心協(xié)辦的Kubernetes on AI &
    的頭像 發(fā)表于 12-16 09:43 ?5557次閱讀
    2021 Kubernetes on AI &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; Edge Day圓滿舉行 共探邊緣云融合

    如何區(qū)分Java中的&amp;amp;和&amp;amp;&amp;amp;

    首先給i賦值為0,如果i大于10,并且i++等于1,則輸出“錯(cuò)誤”和i的值。否則輸出“正確”和i的值。分別用&amp;和&amp;&amp;運(yùn)行,觀察運(yùn)行結(jié)果的不同。
    的頭像 發(fā)表于 02-24 10:46 ?1945次閱讀
    如何區(qū)分Java中的&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;和&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;

    if(a==1 &amp;amp;&amp;amp; a==2 &amp;amp;&amp;amp; a==3),為true,你敢信?

    接下來(lái)咱們來(lái)嘗試解決這個(gè)問(wèn)題。假設(shè) if(a==1&amp;&amp;a==12)是等于 true的,那么a肯定不可能是一個(gè)“普通的變量”。它勢(shì)必要有能力在執(zhí)行的時(shí)候能夠動(dòng)態(tài)改動(dòng)值。
    的頭像 發(fā)表于 05-08 11:01 ?1381次閱讀
    if(a==1 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; a==2 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; a==3),為true,你敢信?

    HarmonyOS &amp;amp;amp;amp;潤(rùn)和HiSpark 實(shí)戰(zhàn)開發(fā),“碼”上評(píng)選活動(dòng),邀您來(lái)賽?。?!

    出色的系統(tǒng) 助力優(yōu)秀的設(shè)備 為應(yīng)用開發(fā)者帶來(lái)豐富的體驗(yàn)與想象空間 正如當(dāng)HarmonyOS遇見潤(rùn)和HiSpark 這萬(wàn)物互聯(lián)的時(shí)代 將由你的&amp;lt; 代碼 &amp;gt;來(lái)定義 潤(rùn)
    的頭像 發(fā)表于 04-11 15:33 ?1457次閱讀
    HarmonyOS &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;潤(rùn)和HiSpark 實(shí)戰(zhàn)開發(fā),“碼”上評(píng)選活動(dòng),邀您來(lái)賽!??!

    攝像機(jī)&amp;amp;amp;雷達(dá)對(duì)車輛駕駛的輔助

    攝像機(jī)&amp;amp;雷達(dá)擔(dān)負(fù)著可輔助駕駛員安全駕駛的、高級(jí)駕駛輔助系統(tǒng)的傳感功能。尼得科正在進(jìn)一步推進(jìn)攝像機(jī)&amp;amp;雷達(dá)的高性能化進(jìn)程。
    的頭像 發(fā)表于 11-26 10:02 ?1373次閱讀
    攝像機(jī)&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;雷達(dá)對(duì)車輛駕駛的輔助

    FS201資料(pcb &amp;amp; DEMO &amp;amp; 原理圖)

    電子發(fā)燒友網(wǎng)站提供《FS201資料(pcb &amp; DEMO &amp; 原理圖).zip》資料免費(fèi)下載
    發(fā)表于 07-16 11:24 ?2次下載

    onsemi LV/MV MOSFET 產(chǎn)品介紹 &amp;amp;amp; 行業(yè)應(yīng)用

    01直播介紹直播時(shí)間2024/10/281430直播內(nèi)容1.onsemiLV/MVMOSFET產(chǎn)品優(yōu)勢(shì)&amp;市場(chǎng)地位。2.onsemiLV/MVMOSFETRoadmap。3.onsemiT10
    的頭像 發(fā)表于 10-13 08:06 ?910次閱讀
    onsemi LV/MV MOSFET 產(chǎn)品介紹 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; 行業(yè)應(yīng)用

    視覺(jué)傳感器 | 這些常見的Q&amp;amp;amp;A!今天統(tǒng)一回答!

    、二分類、OCR識(shí)別等功能。提問(wèn)Qustions&amp;解答AnswersQ上位機(jī)軟件無(wú)法檢測(cè)到設(shè)備或者設(shè)備連接不穩(wěn)定?可能原因:1.上位機(jī)軟件,受PC防火墻隔離。2.殺
    的頭像 發(fā)表于 11-05 08:03 ?784次閱讀
    <b class='flag-5'>視覺(jué)</b>傳感器 |  這些常見的Q&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;A!今天統(tǒng)一回答!