一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

QuestDB時序數據庫性能居然領先ClickHouse和InfluxDB這么多

話說科技 ? 2021-06-01 14:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Vlad Ilyushchenko,QuestDB的CTO

在QuestDB (https://questdb.io/, https://github.com/questdb/questdb),我們已經建立了一個專注于性能的開源時間序列數據庫。我們創(chuàng)建QuestDB初衷是為了將我們在超低延遲交易方面的經驗以及我們在該領域開發(fā)的技術方法帶到各種實時數據處理用途中。

QuestDB的旅程始于2013年的原型設計,我們在去年HackerNews發(fā)布會期間(https://news.ycombinator.com/item?id=23975807)發(fā)表的一篇文章中描述了2013年之后所發(fā)生的變化。我們的用戶在金融服務、物聯網、應用監(jiān)控和機器學習領域都部署了QuestDB,使時間序列分析變得快速、高效和便捷。

什么是存儲時間序列數據的最佳方式?

在項目的早期階段,我們受到了基于矢量的append-only系統(tǒng)(如kdb+)的啟發(fā),因為這種模型帶來了速度和簡潔代碼路徑的優(yōu)勢。QuestDB的數據模型使用了我們稱之為基于時間的數組,這是一種線性數據結構。這允許QuestDB在數據獲取過程中把數據切成小塊,并以并行方式處理所有數據。以錯誤的時間順序到達的數據在被持久化到磁盤之前會在內存中進行處理和重新排序。因此,數據在到達數據庫中之前已經按時間排序。因此,QuestDB不依賴計算密集的索引來為任何時間序列的查詢重新排序數據。

這種liner模型與其他開源數據庫(如InfluxDB或TimescaleDB)中的LSM樹或基于B樹的存儲引擎不同。

除了更好的數據獲取能力,QuestDB的數據布局使CPU能夠更快地訪問數據。我們的代碼庫利用最新CPU架構的SIMD指令,對多個數據元素并行處理同類操作。我們將數據存儲在列中,并按時間進行分區(qū),以在查詢時從磁盤中提取最小的數據量。

2106011125241910431403.png

數據被存儲在列中,并按時間進行分區(qū)

QuestDB與ClickHouse、InfluxDB和TimescaleDB相比如何?

我們看到時間序列基準測試套件(TSBS https://github.com/timescale/tsbs)經常出現在關于數據庫性能的討論,因此我們決定提供對QuestDB和其他系統(tǒng)進行基準測試的能力。TSBS是一個Go程序集,用于生成數據集,然后對讀寫性能進行基準測試。該套件是可擴展的,因此可以包括不同的用例和查詢類型,并在不同系統(tǒng)之間進行比較。

以下是我們在AWS EC2 m5.8xlarge實例上使用多達14個worker的純cpu用例的基準測試結果,該實例有16個內核。

210601112524164559475.png

TSBS結果比較了QuestDB、InfluxDB、ClickHouse和TimescaleDB的最大獲取吞吐量。

我們使用4個worker達到最大的攝取性能,而其他系統(tǒng)需要更多的CPU資源來達到最大的吞吐量。QuestDB用4個線程達到了95.9萬行/秒。我們發(fā)現InfluxDB需要14個線程才能達到最大的攝取率(334k行/秒),而TimescaleDB用4個線程達到145k行/秒。ClickHouse以兩倍于QuestDB的線程達到914k行/秒。

當在4個線程上運行時,QuestDB比ClickHouse快1.7倍,比InfluxDB快6.5倍,比TimescaleDB快6.6倍。

210601112523974694536.png

使用4個線程的TSBS基準測試結果:QuestDB、InfluxDB、ClickHouse和TimescaleDB每秒獲取的行數。

當我們使用AMD Ryzen5處理器再次運行該套件時,我們發(fā)現,我們能夠使用5個線程達到每秒143萬行的最大吞吐量。與我們在AWS上的參考基準m5.8xlarge實例所使用的英特爾至強Platinum相比:

2106011125221500359221.png

比較QuestDB TSBS在AWS EC2與AMD Ryzen5上的負載結果

你應該如何存儲亂序的時間序列數據?

事實證明,在攝取過程中對 "亂序"(O3)的數據進行重新排序特別具有挑戰(zhàn)性。這是一個新的方法,我們想在這篇文章中詳細介紹一下。我們對如何處理失序攝取的想法是增加一個三階段的方法。

1.保持追加模式,直到記錄不按順序到達為止

2.在內存中對暫存區(qū)的未提交的記錄進行排序

3.在提交時對分類的無序數據和持久化的數據進行核對和合并

前兩個步驟很直接,也很容易實現,依然只是處理追加的數據,這一點沒變。只有在暫存區(qū)有數據的時候,昂貴的失序提交才會啟動。這種設計的好處是,輸出是向量,這意味著我們基于向量的閱讀器仍然是兼容的。

這種預提交的排序和合并方式給數據獲取增加了一個額外的處理階段,同時也帶來了性能上的損失。不過,我們還是決定探索這種方法,看看我們能在多大程度上通過優(yōu)化失序提交來減少性能損耗。

我們如何分類、合并和提交無序的時間序列數據

處理一個暫存區(qū)給了我們一個獨特的機會來全面分析數據,在這里我們可以完全避免物理合并,并通過快速和直接的memcpy或類似的數據移動方法來替代。由于我們的基于列的存儲,這種方法可以被并行化。我們可以采用SIMD和非時序數據訪問,這對我們來說是很重要的。

我們通過優(yōu)化版本的radix排序對來自暫存區(qū)的時間戳列進行排序,所產生的索引被用于并行對暫存區(qū)的其余列進行排序。

210601112522633858319.png

并行得將列進行排序

現在排序的暫存區(qū)是相對于現有分區(qū)數據進行映射的。從一開始可能并不明顯,但我們正試圖為以下三種類型的每一種建立所需的操作和維度。

210601112522831457341.png

失序(O3)排序和合并方案

當以這種方式合并數據集時,前綴和后綴組可以是持續(xù)的數據、失序的數據,或者沒有數據。合并組(Merge Group)是最繁忙的,因為它可以被持久化的數據、失序的數據、失序的數據和持久化的數據占據,或者沒有數據。

當明確了如何分組和處理暫存區(qū)的數據時,一個工人池就會執(zhí)行所需的操作,在少量的情況下調用memcpy,其他都轉向SIMD優(yōu)化的代碼。通過前綴、合并和后綴拆分,提交的最大活度(增加CPU容量的易感性)可以通過partition_affected x number_of_columns x 3得到。

時間序列數據應該多久進行一次排序和合并?

能夠快速復制數據是一個不錯的選擇,但我們認為在大多數時間序列獲取場景中可以避免大量的數據復制。假設大多數實時失序的情況是由傳遞機制和硬件抖動造成的,我們可以推斷出時間戳分布將在一定區(qū)間范圍。

例如,如果任何新的時間戳值有很大概率落在先前收到的值的10秒內,那么邊界就是10秒,我們稱這個為滯后邊界。

當時間戳值遵循這種模式時,推遲提交可以使失序提交成為正常的追加操作。失序系統(tǒng)可以處理任何種類的延遲,但如果延遲的數據在指定的滯后邊界內到達,它將被優(yōu)先快速處理。

如何比較時間序列數據庫的性能

我們已經在TimescaleDB的TSBS GitHub倉庫中開啟了一個合并請求(Questdb基準支持 https://github.com/timescale/tsbs/issues/157),增加了針對QuestDB運行基準測試的能力。同時,用戶可以克隆我們的基準測試fork(https://github.com/questdb/tsbs),并運行該套件以查看自己的結果。

tsbs_generate_data --use-case="cpu-only" --seed=123 --scale=4000 `。

--timestamp-start="2016-01-01T00:00:00Z" --timestamp-end="2016-01-02T00:00:00Z" \

--log-interval="10s" --format="influx" > /tmp/bigcpu

tsbs_load_questdb --file /tmp/bigcpu --workers 4

構建具有授權許可的開源數據庫

在進一步推動數據庫性能的同時,使開發(fā)人員能夠輕松地開始使用我們的產品,這一點每天都激勵著我們。這就是為什么我們專注于建立一個堅實的開發(fā)者社區(qū),他們可以通過我們的開源分銷模式參與并改進產品。

除了使QuestDB易于使用之外,我們還希望使其易于審計、審查,提交代碼或其他的項目貢獻。QuestDB的所有源代碼都在GitHub(https://github.com/questdb/questdb)上以Apache 2.0許可證提供,我們歡迎對此產品的各種貢獻,包括在GitHub上創(chuàng)建issue或者提交代碼。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    數據庫數據恢復—MongoDB數據庫文件丟失的數據恢復案例

    MongoDB數據庫數據恢復環(huán)境: 一臺操作系統(tǒng)為Windows Server的虛擬機上部署MongoDB數據庫。 MongoDB數據庫故障: 工作人員在MongoDB服務仍
    的頭像 發(fā)表于 07-01 11:13 ?161次閱讀
    <b class='flag-5'>數據庫</b><b class='flag-5'>數據</b>恢復—MongoDB<b class='flag-5'>數據庫</b>文件丟失的<b class='flag-5'>數據</b>恢復案例

    數據庫數據恢復—SQL Server數據庫被加密如何恢復數據?

    SQL Server數據庫故障: SQL Server數據庫被加密,無法使用。 數據庫MDF、LDF、log日志文件名字被篡改。
    的頭像 發(fā)表于 06-25 13:54 ?146次閱讀
    <b class='flag-5'>數據庫</b><b class='flag-5'>數據</b>恢復—SQL Server<b class='flag-5'>數據庫</b>被加密如何恢復<b class='flag-5'>數據</b>?

    工業(yè)數據中臺如何支持智能決策

    工程:構建決策基礎 源異構數據融合 工業(yè)場景中,設備數據(如PLC、傳感器)、業(yè)務數據(ERP、MES)和外部數據(天氣、供應鏈)分散且格
    的頭像 發(fā)表于 06-16 17:13 ?171次閱讀

    TDengine 發(fā)布時序數據分析 AI 智能體 TDgpt,核心代碼開源

    組成部分,標志著時序數據庫在原生集成 AI 能力方面邁出了關鍵一步。 TDgpt 是內嵌于 TDengine 中的時序數據分析 AI 智能體,具備時序數據預測、異常檢測、數據補全、分類
    的頭像 發(fā)表于 03-27 10:30 ?310次閱讀
    TDengine 發(fā)布<b class='flag-5'>時序數據</b>分析 AI 智能體 TDgpt,核心代碼開源

    MySQL數據庫的安裝

    MySQL數據庫的安裝 【一】各種數據庫的端口 MySQL :3306 Redis :6379 MongoDB :27017 Django :8000 flask :5000 【二】MySQL 介紹
    的頭像 發(fā)表于 01-14 11:25 ?566次閱讀
    MySQL<b class='flag-5'>數據庫</b>的安裝

    數據庫是哪種數據庫類型?

    數據庫是一種部署在虛擬計算環(huán)境中的數據庫,它融合了云計算的彈性和可擴展性,為用戶提供高效、靈活的數據庫服務。云數據庫主要分為兩大類:關系型數據庫
    的頭像 發(fā)表于 01-07 10:22 ?515次閱讀

    時序數據庫TDengine 2024年保持高增長,實現收入翻倍

    近日,時序數據庫 (Time Series Database) TDengine 正式公布了 2024 年重大成就和發(fā)展成績盤點。在這一年中,TDengine 以持續(xù)創(chuàng)新的技術能力、迅猛增長的市場
    的頭像 發(fā)表于 01-02 13:50 ?564次閱讀
    <b class='flag-5'>時序數據庫</b>TDengine 2024年保持高增長,實現收入翻倍

    數據庫數據恢復—Mysql數據庫表記錄丟失的數據恢復流程

    Mysql數據庫故障: Mysql數據庫表記錄丟失。 Mysql數據庫故障表現: 1、Mysql數據庫表中無任何數據或只有部分
    的頭像 發(fā)表于 12-16 11:05 ?617次閱讀
    <b class='flag-5'>數據庫</b><b class='flag-5'>數據</b>恢復—Mysql<b class='flag-5'>數據庫</b>表記錄丟失的<b class='flag-5'>數據</b>恢復流程

    ClickHouse:強大的數據分析引擎

    作者:京東物流 陳昌浩 最近的工作中接觸到CK,一開始還不知道CK是什么,通過查詢才知道CK是ClickHouse,ClickHouse 是俄羅斯的Yandex于2016年開源的列式存儲數據庫
    的頭像 發(fā)表于 12-10 10:23 ?562次閱讀
    <b class='flag-5'>ClickHouse</b>:強大的<b class='flag-5'>數據</b>分析引擎

    數據庫數據恢復—MYSQL數據庫ibdata1文件損壞的數據恢復案例

    mysql數據庫故障: mysql數據庫文件ibdata1、MYI、MYD損壞。 故障表現:1、數據庫無法進行查詢等操作;2、使用mysqlcheck和myisamchk無法修復數據庫
    的頭像 發(fā)表于 12-09 11:05 ?636次閱讀

    使用片DAC61416芯片,如輸出50channel,這么多通道還能同時輸出嗎?

    如果使用片DAC61416芯片,如輸出50channel,這么多通道還能同時輸出嗎?會不會存在輸出時間上的偏差?
    發(fā)表于 11-29 10:46

    數據庫數據恢復—通過拼接數據庫碎片恢復SQLserver數據庫

    一個運行在存儲上的SQLServer數據庫,有1000多個文件,大小幾十TB。數據庫每10天生成一個NDF文件,每個NDF幾百GB大小。數據庫包含兩個LDF文件。 存儲損壞,數據庫
    的頭像 發(fā)表于 10-31 13:21 ?702次閱讀
    <b class='flag-5'>數據庫</b><b class='flag-5'>數據</b>恢復—通過拼接<b class='flag-5'>數據庫</b>碎片恢復SQLserver<b class='flag-5'>數據庫</b>

    有云服務器還需要租用數據庫嗎?

    如果你的應用程序需要處理大量的數據,并且這些數據需要高效的查詢和分析能力,那么租用專業(yè)的數據庫服務可能是更好的選擇。這些服務通常提供了更高的性能、更好的可擴展性和更強的
    的頭像 發(fā)表于 10-31 10:50 ?339次閱讀

    數據庫數據恢復—SQL Server數據庫出現823錯誤的數據恢復案例

    SQL Server數據庫故障: SQL Server附加數據庫出現錯誤823,附加數據庫失敗。數據庫沒有備份,無法通過備份恢復數據庫。
    的頭像 發(fā)表于 09-20 11:46 ?707次閱讀
    <b class='flag-5'>數據庫</b><b class='flag-5'>數據</b>恢復—SQL Server<b class='flag-5'>數據庫</b>出現823錯誤的<b class='flag-5'>數據</b>恢復案例

    利用NVIDIA RAPIDS加速DolphinDB Shark平臺提升計算性能

    DolphinDB 是一家高性能數據庫研發(fā)企業(yè),也是 NVIDIA 初創(chuàng)加速計劃成員,其開發(fā)的產品基于高性能分布式時序數據庫,是支持復雜計算和流數據
    的頭像 發(fā)表于 09-09 09:57 ?901次閱讀
    利用NVIDIA RAPIDS加速DolphinDB Shark平臺提升計算<b class='flag-5'>性能</b>