一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在Pixie中收集大量非結(jié)構(gòu)化數(shù)據(jù)

硬件三人行 ? 來(lái)源:TensorFlow ? 作者:James Bartlett 和 Za ? 2021-08-10 17:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Pixie 旨在幫助開(kāi)發(fā)者快速了解并調(diào)試產(chǎn)品系統(tǒng)。為了實(shí)現(xiàn)這一目標(biāo),我們將提供支持,幫助開(kāi)發(fā)者輕松訪問(wèn)其生產(chǎn)系統(tǒng)中的一系列指標(biāo)和日志數(shù)據(jù)。如,幫助收集系統(tǒng)中各個(gè)進(jìn)程的 CPU 和內(nèi)存用量的結(jié)構(gòu)化數(shù)據(jù),以及許多類(lèi)型的非結(jié)構(gòu)化數(shù)據(jù)(例如HTTP 請(qǐng)求的正文,或者程序發(fā)出的錯(cuò)誤消息)。

以上只是其中兩個(gè)示例,此外我們還收集許多其他類(lèi)型的數(shù)據(jù)。在本篇文章中,我們將重點(diǎn)介紹在 Pixie 中收集如 HTTP 請(qǐng)求/相應(yīng)正文等大量非結(jié)構(gòu)化數(shù)據(jù)。在可以預(yù)見(jiàn)的未來(lái)中,我們認(rèn)為查詢此類(lèi)非結(jié)構(gòu)化計(jì)算機(jī)數(shù)據(jù),可以像查詢結(jié)構(gòu)化數(shù)據(jù)一樣輕松高效。為了實(shí)現(xiàn)這一目標(biāo),我們利用最先進(jìn)的 NLP 技術(shù)來(lái)學(xué)習(xí)數(shù)據(jù)的結(jié)構(gòu)。

我們將在本文中與您分享經(jīng)驗(yàn)和進(jìn)展,希望能為您在思考類(lèi)似問(wèn)題時(shí)提供一些幫助。

HTTP 聚類(lèi)

假設(shè)使用 Pixie 的開(kāi)發(fā)者想要了解哪些類(lèi)型的 HTTP 請(qǐng)求特別慢。他們無(wú)需手動(dòng)篩查大量單獨(dú)的 HTTP 請(qǐng)求,因?yàn)槲覀兛梢詫?HTTP 請(qǐng)求進(jìn)行語(yǔ)義聚類(lèi),然后顯示每種語(yǔ)義聚類(lèi)請(qǐng)求的延遲時(shí)間序列。為了對(duì)此進(jìn)行說(shuō)明,我們先講解最終結(jié)果,然后再回過(guò)頭來(lái)講解如何得到這些結(jié)果。我們將利用 Pixie 對(duì)一款名為 Online Boutique 的演示版應(yīng)用進(jìn)行探索。將 Pixie 部署至運(yùn)行 Online Boutique 的 Kubernetes 集群之后,就可以開(kāi)始了。舉個(gè)例子,我們可以看看 Online Boutique 應(yīng)用中的網(wǎng)絡(luò)連接示意圖:

Online Boutique

https://github.com/GoogleCloudPlatform/microservices-demo

從這個(gè)服務(wù)示意圖中可以看出,前端服務(wù)處理傳入請(qǐng)求,并將其發(fā)送至各自的微服務(wù)。接下來(lái),我們深入了解一下發(fā)送至前端服務(wù)的 HTTP 請(qǐng)求及其相應(yīng)延遲時(shí)間。

HTTP 請(qǐng)求正文延遲時(shí)間 (ms)

“product_id=L9ECAV7KIM&quantity=33.325302

“email=someone%40example.com&street_ad

dress=1600+Amphitheatr.。.102.625462

“product_id=OLJCESPC7Z&quantity=3”3.4530790000000002

“product_id=L9ECAV7KIM&quantity=5”4.828718

“product_id=0PUK6V6EV0&quantity=2”5.319163

“email=someone%40example.com&street_ad

dress=1600+Amphitheatr107.361424

”product_id=0PUK6V6EV0&quantity=4“3.81733

”currency_code=EUR“0.203676

”currency_code=USD“0.220932

”product_id=0PUK6V6EV0&quantity=4“4.538055

請(qǐng)求的樣本數(shù)較少,無(wú)法立即明確判斷出情況。包含 “email=。..?address=。..” 的請(qǐng)求似乎比其他請(qǐng)求慢很多,但我們無(wú)法確定這些示例并非離群值。數(shù)據(jù)就看到這里,接下來(lái),我們使用非結(jié)構(gòu)化文本聚類(lèi)技術(shù)(稍后對(duì)此進(jìn)行介紹),通過(guò) HTTP 請(qǐng)求正文的內(nèi)容對(duì)其進(jìn)行語(yǔ)義聚類(lèi)。

這是各個(gè)語(yǔ)義集群請(qǐng)求的第 99 百分位平均響應(yīng)延遲時(shí)間圖表。利用此圖表,您可以快速確定發(fā)送至前端服務(wù)的三大類(lèi)請(qǐng)求,以及這些請(qǐng)求的延遲概況。我們能夠立即看到“電子郵件”請(qǐng)求集群的第 99 百分位平均延遲時(shí)間明顯高于其他集群,而且“產(chǎn)品”集群偶爾會(huì)出現(xiàn)延遲尖峰。針對(duì)這兩種可行的數(shù)據(jù)分析,我們可以進(jìn)一步進(jìn)行調(diào)試。現(xiàn)在,讓我們來(lái)深入探討如何達(dá)成這一目標(biāo)。

模型開(kāi)發(fā)詳細(xì)信息

要求

我們的模型將部署至客戶的產(chǎn)品集群中,因此這些模型必須為輕量級(jí),且具有高性能;理想狀態(tài)下,還應(yīng)具備足夠的速度,能夠在最小 CPU 消耗的前提下以線速處理數(shù)據(jù)。為了保障數(shù)據(jù)隔離,必須在客戶集群中訓(xùn)練客戶數(shù)據(jù)。此外,由于數(shù)據(jù)平面完全包含在客戶集群中,我們對(duì)數(shù)據(jù)有嚴(yán)格的存儲(chǔ)空間限制,因此我們必須利用 ML 技術(shù)對(duì)我們收集的數(shù)據(jù)進(jìn)行智能采樣。

數(shù)據(jù)集

我們對(duì)數(shù)據(jù)隔離有嚴(yán)格要求,因此我們使用 Loghub 數(shù)據(jù)集來(lái)引導(dǎo)模型訓(xùn)練。此數(shù)據(jù)集是來(lái)自各種上下文的日志消息(Android 系統(tǒng)日志、Apache 服務(wù)器日志、超級(jí)計(jì)算機(jī)/HPC 日志等)的集合。為了測(cè)試未知日志格式的模型泛化,我們保留了 Android 日志數(shù)據(jù)用來(lái)進(jìn)行測(cè)試,并基于日志數(shù)據(jù)的其余部分進(jìn)行訓(xùn)練。

Loghub

https://github.com/logpai/loghub

我們使用 Google 的 SentencePiece 來(lái)對(duì)日志消息進(jìn)行詞條化,尤其是利用對(duì)詞匯大小為 16k 的子詞的詞條化實(shí)現(xiàn)(基于 Unigram 語(yǔ)言模型)。下圖是我們進(jìn)行詞條化后生成的所有 16k 詞匯子詞片段構(gòu)成的詞云圖。字詞的大小表示其在數(shù)據(jù)集中出現(xiàn)的頻率。

SentencePiece

https://github.com/google/sentencepiece

詞云圖,展示對(duì) Logpai Loghub 計(jì)算機(jī)日志數(shù)據(jù)集進(jìn)行詞條化后的詞匯子詞片段

此詞云能夠顯示出我們數(shù)據(jù)集的偏向。舉個(gè)例子,約 30% 的數(shù)據(jù)為 Windows 日志,從“windows”和“microsoft”詞條的高頻率就可以看出。此外,若您目光敏銳,您可能會(huì)發(fā)現(xiàn)我們的數(shù)據(jù)集中有很多“哭臉”,但實(shí)際上“):”幾乎總是以左括號(hào)開(kāi)頭,如下例所示:

[Thu Jan 2612:23:072006] [error] config.update(): Can‘t create vm

[Fri Jan 27 1116 2006] [error] [client 202.143.128.18] client sent HTTP/1.1 request without hostname (see RFC2616 section 14.23): /

模型架構(gòu)

我們可以使用此詞條化的數(shù)據(jù)集,利用從左到右的下一字詞預(yù)測(cè)(按照 OpenAI’s GPT 模型)來(lái)訓(xùn)練基于自注意力的模型。從左到右的下一字詞預(yù)測(cè)的任務(wù)是,在給定一系列上文詞條的情況下嘗試預(yù)測(cè)下一個(gè)詞條。這種從左到右的方式使我們的模型有別于使用雙向上下文的模型,比如 BERT。我們將在未來(lái)嘗試雙向模型。此 TensorFlow教程演示了對(duì)類(lèi)似架構(gòu)的訓(xùn)練,唯一的區(qū)別是我們?cè)诮坛讨惺÷粤思軜?gòu)的編碼器端。

TensorFlow 教程

https://tensorflow.google.cn/tutorials/text/transformer

下圖展示了我們所使用的架構(gòu)。我們有 6 個(gè)解碼器塊,每個(gè)塊都有一個(gè)自注意力層和一個(gè)前饋層。請(qǐng)注意,為簡(jiǎn)潔起見(jiàn),該圖省略了自注意力和前饋層上的跳躍連接,以及與這些跳躍連接相關(guān)的層規(guī)范化。

GPT 類(lèi)語(yǔ)言模型架構(gòu)

總而言之,此架構(gòu)有 647 萬(wàn)個(gè)參數(shù),與最先進(jìn)的語(yǔ)言模型相比,這是一個(gè)非常小的架構(gòu)。舉個(gè)例子,DistillBERT 有 6,600 萬(wàn)個(gè)參數(shù)。另一方面,最大版本的 GPT-3 有 1,750 億個(gè)參數(shù)。

我們對(duì)此架構(gòu)進(jìn)行了 10 個(gè) epoch 的訓(xùn)練,每個(gè)紀(jì)元 epoch 大約有 1 億條獨(dú)特的日志消息。在每個(gè) epoch 之后,我們?cè)隍?yàn)證集上運(yùn)行模型,并將驗(yàn)證準(zhǔn)確率最高的紀(jì)元中的模型用作最終模型。在保留的 Android 日志數(shù)據(jù)上,我們下一字詞預(yù)測(cè)的測(cè)試準(zhǔn)確率達(dá)到 63.13%。鑒于我們尚未進(jìn)行超參數(shù)調(diào)優(yōu)或其他優(yōu)化,此準(zhǔn)確率水平在未來(lái)還有很大的提升空間。

我們現(xiàn)在有一種方法可以從上下文中預(yù)測(cè)計(jì)算機(jī)日志數(shù)據(jù)中的未來(lái)詞條,并且具有不錯(cuò)的準(zhǔn)確性。然而,這并不能立即幫助我們實(shí)現(xiàn)從數(shù)據(jù)中提取結(jié)構(gòu)化特征的最初目標(biāo)。為了進(jìn)一步實(shí)現(xiàn)這一目標(biāo),我們將探索語(yǔ)言模型生成的特征空間,而不是語(yǔ)言模型的預(yù)測(cè)。

我們的目標(biāo)是將復(fù)雜的數(shù)據(jù)空間轉(zhuǎn)換為固定維度的特征空間,然后將其用于后續(xù)任務(wù)。為了實(shí)現(xiàn)這一目標(biāo),我們需要將語(yǔ)言模型的輸出轉(zhuǎn)換為一個(gè)固定維度的向量,我們稱(chēng)之為特征向量。要實(shí)現(xiàn)此目標(biāo),一種方法是使用 BERT 那樣的模型。

使用 BERT 這類(lèi)模型,將預(yù)訓(xùn)練語(yǔ)言模型擴(kuò)展到監(jiān)督任務(wù)的方法是在句子的 《CLS》(或 《s》)詞條的輸出上添加一個(gè)全連接網(wǎng)絡(luò),然后在全連接網(wǎng)絡(luò)中,對(duì)某些分類(lèi)任務(wù)的模型進(jìn)行微調(diào)(如下圖所示)。由此得出的自然特征向量可作為 Softmax 層之前的輸出。

Alammar, J (2018),轉(zhuǎn)換器圖解

我們計(jì)劃在未來(lái)對(duì)這種方法進(jìn)行進(jìn)一步研究,但是現(xiàn)在我們想看看在不添加任何額外監(jiān)督的情況下能得到什么結(jié)果。這需要一種啟發(fā)式方法將我們的輸出序列轉(zhuǎn)換為固定長(zhǎng)度的向量。實(shí)現(xiàn)此目標(biāo)的一種方法是,在輸出的序列維度上使用最大池化運(yùn)算符。假設(shè)我們的語(yǔ)言模型輸出一個(gè) 256 維向量的序列,那么序列維度最大池化將輸出一個(gè)單獨(dú)的 256 維向量,其中每個(gè)維度都是序列的所有輸出中該維度的最大值。這種方法背后的理念是,在最終表示中包含具有更強(qiáng)響應(yīng)的神經(jīng)元更為重要。

結(jié)果

我們可以測(cè)試這種方法對(duì) Loghub 數(shù)據(jù)子集(我事先將其手動(dòng)標(biāo)記為不同語(yǔ)義集群)進(jìn)行聚類(lèi)的效果如何。以下是手動(dòng)標(biāo)記的測(cè)試數(shù)據(jù)集中的三個(gè)日志消息。前兩個(gè)被標(biāo)記為在同一個(gè)語(yǔ)義集群中,因?yàn)閮烧叨寂c文件查找失敗有關(guān),最后一個(gè)來(lái)自不同的集群,因?yàn)樗顷P(guān)于刷新數(shù)據(jù)的無(wú)關(guān)消息。

Loghub

https://github.com/logpai/loghub

[Wed Nov 0922:30:052005] [error] [client 216.138.114.25] script not found or unable to stat: /var/www/cgi-bin/awstats.p

[Sat Jan 2819:29:292006] [error] [client 211.154.174.50] File does not exist: /var/www/html/modules

20171230-12:25:37:318|Step_StandStepCounter|30002312|flush sensor data

同時(shí)可以利用手動(dòng)標(biāo)記的測(cè)試集,衡量模型分離不同集群的效果。為了實(shí)現(xiàn)這個(gè)目標(biāo),我們使用 KMeans 算法根據(jù)模型的輸出進(jìn)行聚類(lèi),然后將這種聚類(lèi)結(jié)果與手動(dòng)標(biāo)記的聚類(lèi)結(jié)果進(jìn)行比較。在此測(cè)試集上,模型調(diào)整后的隨機(jī)性分?jǐn)?shù)是 0.53,0.0 是隨機(jī)標(biāo)記,1.0 是完美標(biāo)記。與下一字詞預(yù)測(cè)的準(zhǔn)確率一樣,此性能不是很好,但卻是一個(gè)很好的起點(diǎn)。

我們還可以查看模型特征空間的低維度表示,使用 PCA 將維數(shù)減少至二。下圖顯示了測(cè)試數(shù)據(jù)集中每個(gè)點(diǎn)的嵌入的前兩個(gè) PCA 維度。顏色代表點(diǎn)所屬的語(yǔ)義集群。請(qǐng)注意,由于這些是嵌入空間的二維子空間中的分布圖,點(diǎn)的絕對(duì)位置幾乎沒(méi)有意義,更多的意義來(lái)自每個(gè)集群的緊密度。在下圖中,我們可以看到模型很好地分離了一些類(lèi),但在其他類(lèi)上卻失敗了。

模型特征空間的二維表示

使用此方法,我們應(yīng)該能夠在 Pixie 中對(duì)非結(jié)構(gòu)化數(shù)據(jù)進(jìn)行聚類(lèi),并用其語(yǔ)義集群 ID 對(duì)其進(jìn)行標(biāo)記,從而從非結(jié)構(gòu)化數(shù)據(jù)中提取結(jié)構(gòu)化特征。到目前為止,此特殊特征的可解釋性并不是很高,但未來(lái)我們會(huì)著手于這一點(diǎn)

推斷

現(xiàn)在,讓我們嘗試在 Pixie 系統(tǒng)中實(shí)現(xiàn)此方法。為此,我們首先需要將模型轉(zhuǎn)換為 TensorFlow Lite,然后將其加載到 Pixie 執(zhí)行引擎中。決定使用 TensorFlow Lite 是因?yàn)槲覀冃枰M可能減少消耗,并且我們希望未來(lái)能夠靈活地將其部署至異構(gòu)邊緣設(shè)備,包括 Raspberry PI 和 ARM 微控制器。

轉(zhuǎn)換至 TensorFlow Lite 十分簡(jiǎn)單。我們?yōu)樽约旱哪P蛣?chuàng)建一個(gè) TF 函數(shù)并調(diào)用內(nèi)置轉(zhuǎn)換器來(lái)生成一個(gè) TensorFlow Lite 模型 Protobuf 文件:

model = tf.keras.models.load_model(model_path)

@tf.function(input_signature=[tf.TensorSpec([1, max_length], dtype=tf.int32)def pred_fn(encoded_text):# Create a mask that masks out 0 tokens, and future tokens for next word prediction.

mask = create_padded_lookahead_mask(max_length)

# Our saved model outputs both its next word predictions, and the activations of its final layer. We only use the activations of the final layer for clustering purposes.

model_preds, last_layer_output = model([encoded_text, mask], training=False)

# Max pool over the seq dimension.return tf.reduce_max(last_layer_output, axis=1)

converter = tf.lite.TFLiteConverter.from_concrete_functions([fn.get_concrete_function()])

tflite_model = converter.convert()

Pixie 的查詢引擎可以查詢和使用 Pixie 收集的數(shù)據(jù)。此引擎已經(jīng)有了 KMeans 運(yùn)算符,所以我們需要做的就是將我們的 TFLite 模型加載到引擎中,然后編寫(xiě)一個(gè)自定義的 PxL 腳本(一個(gè)基于 Python/Pandas 的 Pixie 腳本語(yǔ)言中的腳本)來(lái)對(duì)我們的數(shù)據(jù)進(jìn)行聚類(lèi)。我們正在開(kāi)發(fā)一個(gè)公共 API,為的是將自定義 ML 模型加載到引擎中,但現(xiàn)在我們將使用一些內(nèi)部特征來(lái)實(shí)現(xiàn)這一目標(biāo)。模型加載完成后,我們就可以在 Pixie 平臺(tái)中的任何非結(jié)構(gòu)化數(shù)據(jù)上使用此模型。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:利用機(jī)器學(xué)習(xí)在 Pixie 上進(jìn)行非結(jié)構(gòu)化數(shù)據(jù)處理

文章出處:【微信號(hào):yingjiansanrenxing,微信公眾號(hào):硬件三人行】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Smarsh攜手戴爾科技構(gòu)建現(xiàn)代智能數(shù)據(jù)中心

    如今,越來(lái)越多的企業(yè)意識(shí)到,不只是合同和郵件,所有日常溝通的結(jié)構(gòu)化數(shù)據(jù)——語(yǔ)音、視頻、聊天記錄、會(huì)議紀(jì)要等,都是潛在的合規(guī)風(fēng)險(xiǎn)點(diǎn)。
    的頭像 發(fā)表于 07-08 15:58 ?199次閱讀

    智能體AI面臨結(jié)構(gòu)化數(shù)據(jù)難題:IBM推出解決方案

    ,同時(shí)提供一個(gè)開(kāi)放的混合數(shù)據(jù)基礎(chǔ)架構(gòu)和企業(yè)級(jí)的結(jié)構(gòu)化結(jié)構(gòu)化數(shù)據(jù)管理。 智能體AI面臨
    的頭像 發(fā)表于 07-02 09:40 ?136次閱讀

    DDN攜手NVIDIA釋放結(jié)構(gòu)化數(shù)據(jù)的AI價(jià)值

    DDN 通過(guò)與 NVIDIA AI 數(shù)據(jù)平臺(tái)的合作,推出聯(lián)合解決方案,簡(jiǎn)化了企業(yè)對(duì)結(jié)構(gòu)化數(shù)據(jù)的存儲(chǔ)、訪問(wèn)和激活方式,助力客戶釋放生成式 AI 的巨大商業(yè)潛能。DDN 全球合作伙伴負(fù)責(zé)
    的頭像 發(fā)表于 06-10 10:31 ?356次閱讀

    從零到一:如何利用結(jié)構(gòu)化數(shù)據(jù)臺(tái)快速部署AI解決方案

    ……這些“非標(biāo)”數(shù)據(jù)量大、來(lái)源廣、結(jié)構(gòu)雜,卻恰恰是驅(qū)動(dòng)AI模型的關(guān)鍵燃料。 ? 想要從零到一,快速部署AI解決方案,一個(gè)可行路徑是——構(gòu)建結(jié)構(gòu)化數(shù)
    的頭像 發(fā)表于 04-14 13:50 ?254次閱讀

    樹(shù)莓派AI套件:如何將混亂的數(shù)據(jù)變成有序的魔法

    使用RaspberryPiAI套件進(jìn)行結(jié)構(gòu)化數(shù)據(jù)處理——Hailo邊緣AI結(jié)構(gòu)化數(shù)據(jù)處理、R
    的頭像 發(fā)表于 03-25 09:37 ?341次閱讀
    樹(shù)莓派AI套件:如何將混亂的<b class='flag-5'>數(shù)據(jù)</b>變成有序的魔法

    VirutualLab Fusion應(yīng)用:結(jié)構(gòu)光照明的顯微鏡系統(tǒng)

    。 本案例研究了入射波的偏振及其對(duì)結(jié)構(gòu)化照明圖案對(duì)比度的影響。 場(chǎng)景 在VirtualLab Fusion構(gòu)建系統(tǒng) 系統(tǒng)構(gòu)建塊 組件求解器 總結(jié) 幾何光學(xué)仿真 通過(guò)光線追跡法 結(jié)果:光線追跡 快速物理光學(xué)仿真 通過(guò)場(chǎng)追跡法 焦平面處的
    發(fā)表于 03-21 09:26

    結(jié)構(gòu)化數(shù)據(jù)臺(tái):企業(yè)AI應(yīng)用安全落地的核心引擎

    在數(shù)字轉(zhuǎn)型浪潮結(jié)構(gòu)化數(shù)據(jù)(如文檔、圖片、音視頻等)已成為企業(yè)核心資產(chǎn),其價(jià)值挖掘能力直接影響AI應(yīng)用的效能與安全性。然而,
    的頭像 發(fā)表于 02-27 17:06 ?484次閱讀

    對(duì)象存儲(chǔ)是什么結(jié)構(gòu)類(lèi)型?

    對(duì)象存儲(chǔ)屬于結(jié)構(gòu)化數(shù)據(jù)存儲(chǔ)架構(gòu),采用扁平命名空間結(jié)構(gòu)。其核心通過(guò)唯一標(biāo)識(shí)符(ObjectID)定位數(shù)
    的頭像 發(fā)表于 02-10 11:14 ?326次閱讀

    IBM Storage -?支持AI應(yīng)用場(chǎng)景的數(shù)據(jù)存儲(chǔ)軟硬件解決方案

    為了解決數(shù)據(jù)和工作負(fù)載在各地分散的現(xiàn)狀,需要實(shí)現(xiàn)對(duì)存儲(chǔ)在分布式文件和對(duì)象存儲(chǔ)系統(tǒng)大量結(jié)構(gòu)化數(shù)據(jù)
    的頭像 發(fā)表于 12-30 15:00 ?589次閱讀
    IBM Storage -?支持AI應(yīng)用場(chǎng)景的<b class='flag-5'>數(shù)據(jù)</b>存儲(chǔ)軟硬件解決方案

    戴爾數(shù)據(jù)湖倉(cāng)助力企業(yè)數(shù)字轉(zhuǎn)型

    在數(shù)字轉(zhuǎn)型的浪潮下,企業(yè)正面臨著前所未有的數(shù)據(jù)挑戰(zhàn)。從傳統(tǒng)的結(jié)構(gòu)化數(shù)據(jù)到如今的結(jié)構(gòu)化
    的頭像 發(fā)表于 12-20 09:31 ?505次閱讀

    bds 系統(tǒng)的優(yōu)缺點(diǎn) bds與傳統(tǒng)數(shù)據(jù)庫(kù)的區(qū)別

    BDS(Big Data System)系統(tǒng),通常指的是用于處理大數(shù)據(jù)的系統(tǒng),它們能夠處理大規(guī)模數(shù)據(jù)集,包括結(jié)構(gòu)化、半結(jié)構(gòu)化
    的頭像 發(fā)表于 11-22 15:48 ?3075次閱讀

    結(jié)構(gòu)化布線在AI數(shù)據(jù)中心的關(guān)鍵作用

    AI 正在不斷顛覆各行各業(yè),推動(dòng)從電影制作到金融行業(yè)等各個(gè)領(lǐng)域的創(chuàng)新。而在 AI 系統(tǒng)的背后,隱藏著這樣一位無(wú)名英雄:結(jié)構(gòu)化布線。
    的頭像 發(fā)表于 11-21 16:51 ?894次閱讀

    emc技術(shù)在大數(shù)據(jù)分析的角色

    數(shù)據(jù)分析通常涉及來(lái)自多個(gè)來(lái)源和格式的數(shù)據(jù)。這些數(shù)據(jù)可能包括結(jié)構(gòu)化數(shù)據(jù)(如數(shù)據(jù)庫(kù)
    的頭像 發(fā)表于 11-01 15:22 ?681次閱讀

    戴爾升級(jí)結(jié)構(gòu)化存儲(chǔ)與數(shù)據(jù)管理,AI創(chuàng)新引領(lǐng)新變革

    在快速演進(jìn)的人工智能(AI)與數(shù)據(jù)驅(qū)動(dòng)的時(shí)代,企業(yè)唯有不斷追逐技術(shù)創(chuàng)新的浪潮,方能搶占先機(jī),引領(lǐng)行業(yè)前行。戴爾科技,作為AI就緒型數(shù)據(jù)平臺(tái)的領(lǐng)航者,近期對(duì)其Dell PowerScale及數(shù)據(jù)管理產(chǎn)品組合進(jìn)行了全面升級(jí),旨在通過(guò)
    的頭像 發(fā)表于 10-29 16:52 ?1006次閱讀

    基于分布式對(duì)象存儲(chǔ)WDS的信托結(jié)構(gòu)化數(shù)據(jù)整合平臺(tái)

    基于分布式對(duì)象存儲(chǔ)WDS的信托結(jié)構(gòu)化數(shù)據(jù)整合平臺(tái)
    的頭像 發(fā)表于 08-28 09:56 ?640次閱讀
    基于分布式對(duì)象存儲(chǔ)WDS的信托<b class='flag-5'>非</b><b class='flag-5'>結(jié)構(gòu)化</b><b class='flag-5'>數(shù)據(jù)</b>整合平臺(tái)