一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Spark優(yōu)化:小文件合并的步驟

如意 ? 來源:segmentfault.com ? 作者:華為云開發(fā)者社區(qū) ? 2020-08-13 17:53 ? 次閱讀

我們知道,大部分Spark計(jì)算都是在內(nèi)存中完成的,所以Spark的瓶頸一般來自于集群(standalone, yarn, mesos, k8s)的資源緊張,CPU,網(wǎng)絡(luò)帶寬,內(nèi)存。Spark的性能,想要它快,就得充分利用好系統(tǒng)資源,尤其是內(nèi)存和CPU。有時(shí)候我們也需要做一些優(yōu)化調(diào)整來減少內(nèi)存占用,例如將小文件進(jìn)行合并的操作。

一、問題現(xiàn)象

我們有一個(gè)15萬條總數(shù)據(jù)量133MB的表,使用SELECT * FROM bi.dwd_tbl_conf_info全表查詢耗時(shí)3min,另外一個(gè)500萬條總數(shù)據(jù)量6.3G的表ods_tbl_conf_detail,查詢耗時(shí)23秒。兩張表均為列式存儲(chǔ)的表。

大表查詢快,而小表反而查詢慢了,為什么會(huì)產(chǎn)生如此奇怪的現(xiàn)象呢?

二、問題探詢

數(shù)據(jù)量6.3G的表查詢耗時(shí)23秒,反而數(shù)據(jù)量133MB的小表查詢耗時(shí)3min,這非常奇怪。我們收集了對(duì)應(yīng)的建表語句,發(fā)現(xiàn)兩者沒有太大的差異,大部分為String,兩表的列數(shù)也相差不大。

CREATE TABLE IF NOT EXISTS `bi`。`dwd_tbl_conf_info` ( `corp_id` STRING COMMENT ‘’, `dept_uuid` STRING COMMENT ‘’, `user_id` STRING COMMENT ‘’, `user_name` STRING COMMENT ‘’, `uuid` STRING COMMENT ‘’, `dtime` DATE COMMENT ‘’, `slice_number` INT COMMENT ‘’, `attendee_count` INT COMMENT ‘’, `mr_id` STRING COMMENT ‘’, `mr_pkg_id` STRING COMMENT ‘’, `mr_parties` INT COMMENT ‘’, `is_mr` TINYINT COMMENT ‘R’, `is_live_conf` TINYINT COMMENT ‘’ ) CREATE TABLE IF NOT EXISTS `bi`。`ods_tbl_conf_detail` ( `id` string, `conf_uuid` string, `conf_id` string, `name` string, `number` string, `device_type` string, `j_time` bigint, `l_time` bigint, `media_type` string, `dept_name` string, `UPDATETIME` bigint, `CREATETIME` bigint, `user_id` string, `USERAGENT` string, `corp_id` string, `account` string )

因?yàn)閮蓮埍砭鶠楹芎唵蔚腟ELECT查詢操作,無任何復(fù)雜的聚合join操作,也無UDF相關(guān)的操作,所以基本確認(rèn)查詢慢的應(yīng)該發(fā)生的讀表的時(shí)候,我們將懷疑的點(diǎn)放到了讀表操作上。通過查詢兩個(gè)查詢語句的DAG和任務(wù)分布,我們發(fā)現(xiàn)了不一樣的地方。

查詢快的表,查詢時(shí)總共有68個(gè)任務(wù),任務(wù)分配比如均勻,平均7~9s左右,而查詢慢的表,查詢時(shí)總共1160個(gè)任務(wù),平均也是9s左右。如下圖所示:

Spark優(yōu)化:小文件合并的步驟

至此,我們基本發(fā)現(xiàn)了貓膩所在。大表6.3G但文件個(gè)數(shù)小,只有68個(gè),所以很快跑完了。而小表雖然只有133MB,但文件個(gè)數(shù)特別多,導(dǎo)致產(chǎn)生的任務(wù)特別多,而由于單個(gè)任務(wù)本身比較快,大部分時(shí)間花費(fèi)在任務(wù)調(diào)度上,導(dǎo)致任務(wù)耗時(shí)較長。

那如何才能解決小表查詢慢的問題呢?

三、業(yè)務(wù)調(diào)優(yōu)

那現(xiàn)在擺在我們面前就存在現(xiàn)在問題:

為什么小表會(huì)產(chǎn)生這么小文件 已經(jīng)產(chǎn)生的這么小文件如何合并

帶著這兩個(gè)問題,我們和業(yè)務(wù)的開發(fā)人員聊了一個(gè)發(fā)現(xiàn)小表是業(yè)務(wù)開發(fā)人員從原始數(shù)據(jù)表中,按照不同的時(shí)間切片查詢并做數(shù)據(jù)清洗后插入到小表中的,而由于時(shí)間切片切的比較小,導(dǎo)致這樣的插入次數(shù)特別多,從而產(chǎn)生了大量的小文件。

那么我們需要解決的問題就是2個(gè),如何才能把這些歷史的小文件進(jìn)行合并以及如何才能保證后續(xù)的業(yè)務(wù)流程中不再產(chǎn)生小文件,我們指導(dǎo)業(yè)務(wù)開發(fā)人員做了以下優(yōu)化:

使用INSERT OVERWRITE bi.dwd_tbl_conf_info SELECT * FROM bi.dwd_tbl_conf_info合并下歷史的數(shù)據(jù)。由于DLI做了數(shù)據(jù)一致性保護(hù),OVERWRITE期間不影響原有數(shù)據(jù)的讀取和查詢,OVERWRITE之后就會(huì)使用新的合并后的數(shù)據(jù)。合并后全表查詢由原來的3min縮短到9s內(nèi)完成。 原有表修改為分區(qū)表,插入時(shí)不同時(shí)間放入到不同分區(qū),查詢時(shí)只查詢需要的時(shí)間段內(nèi)的分區(qū)數(shù)據(jù),進(jìn)一步減小讀取數(shù)據(jù)量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11011

    瀏覽量

    215246
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    3884

    瀏覽量

    65584
  • SPARK
    +關(guān)注

    關(guān)注

    1

    文章

    105

    瀏覽量

    20318
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA加速的Apache Spark助力企業(yè)節(jié)省大量成本

    隨著 NVIDIA 推出 Aether 項(xiàng)目,通過采用 NVIDIA 加速的 Apache Spark 企業(yè)得以自動(dòng)加速其數(shù)據(jù)中心規(guī)模的分析工作負(fù)載,從而節(jié)省數(shù)百萬美元。
    的頭像 發(fā)表于 03-25 15:09 ?372次閱讀
    NVIDIA加速的Apache <b class='flag-5'>Spark</b>助力企業(yè)節(jié)省大量成本

    GoTo否認(rèn)與Grab合并傳聞

    印尼網(wǎng)約車巨頭GoTo于當(dāng)?shù)貢r(shí)間2月4日正式提交文件,明確否認(rèn)同競爭對(duì)手Grab的合并傳聞。該公司強(qiáng)調(diào),在未來12個(gè)月內(nèi),除實(shí)施股票回購計(jì)劃外,并無任何重大行動(dòng)計(jì)劃。 此前,市場上有消息稱Grab
    的頭像 發(fā)表于 02-06 10:08 ?507次閱讀

    帶通濾波器的設(shè)計(jì)步驟優(yōu)化方法

    帶通濾波器作為信號(hào)處理領(lǐng)域的重要組件,其設(shè)計(jì)步驟優(yōu)化方法對(duì)于確保濾波器性能滿足特定應(yīng)用需求至關(guān)重要。本文將詳細(xì)闡述帶通濾波器的設(shè)計(jì)步驟,并深入探討優(yōu)化方法,以期為相關(guān)領(lǐng)域的研究者和工
    的頭像 發(fā)表于 02-05 16:48 ?916次閱讀

    hyper-v文件,hyper-v文件查找的正確步驟和操作方法是什么?

    在使用Hyper-V進(jìn)行虛擬化操作時(shí),準(zhǔn)確找到相關(guān)文件至關(guān)重要。無論是需要對(duì)虛擬機(jī)進(jìn)行備份、遷移,還是對(duì)其配置進(jìn)行修改,都離不開對(duì)Hyper-V文件的查找。那么,查找Hyper-V文件的正確
    的頭像 發(fā)表于 01-24 14:40 ?692次閱讀
    hyper-v<b class='flag-5'>文件</b>,hyper-v<b class='flag-5'>文件</b>查找的正確<b class='flag-5'>步驟</b>和操作方法是什么?

    英國CMA有條件批準(zhǔn)沃達(dá)豐與Three合并

    近日,英國競爭與市場管理局(CMA)正式宣布,對(duì)沃達(dá)豐與長江和記實(shí)業(yè)英國子公司Three的合并案給出了有條件的批準(zhǔn)。這一決定基于沃達(dá)豐與Three所簽署的具有約束力的承諾,即投資數(shù)十億美元在英國全境
    的頭像 發(fā)表于 12-06 13:53 ?406次閱讀

    基于OpenCV的拆分和合并圖像通道實(shí)驗(yàn)案例分享_基于RK3568教學(xué)實(shí)驗(yàn)箱

    一、實(shí)驗(yàn)?zāi)康?本節(jié)視頻的目的是了解圖像通道的概念,學(xué)習(xí)OpenCV的基本操作,并掌握通過OpenCV實(shí)現(xiàn)拆分和合并圖像通道的方法。 二、實(shí)驗(yàn)原理 拆分與合并圖像 在圖像處理中,一個(gè)彩色圖像通常由多個(gè)
    發(fā)表于 12-03 14:27

    Linux文件壓縮打包的各種姿勢(shì)

    1.文件打包與壓縮 1.什么是文件壓縮? 將多個(gè)文件或目錄合并成為一個(gè)特殊的文件。比如: 搬家…腦補(bǔ)畫面 img. 2.為什么要對(duì)
    的頭像 發(fā)表于 12-02 09:25 ?470次閱讀

    如何優(yōu)化EPS文件以提高加載速度

    用于存儲(chǔ)矢量圖形和位圖圖像的文件格式,它包含了PostScript語言描述的圖形。由于EPS文件可以包含復(fù)雜的圖形和圖像數(shù)據(jù),因此文件大小通常較大。 二、優(yōu)化前的準(zhǔn)備 在開始
    的頭像 發(fā)表于 10-30 14:32 ?878次閱讀

    spark為什么比mapreduce快?

    spark為什么比mapreduce快? 首先澄清幾個(gè)誤區(qū): 1:兩者都是基于內(nèi)存計(jì)算的,任何計(jì)算框架都肯定是基于內(nèi)存的,所以網(wǎng)上說的spark是基于內(nèi)存計(jì)算所以快,顯然是錯(cuò)誤的 2;DAG計(jì)算模型
    的頭像 發(fā)表于 09-06 09:45 ?422次閱讀

    labview工程文件如何生成exe

    生成可執(zhí)行文件(EXE)是LabVIEW程序開發(fā)過程中的一個(gè)重要步驟,它允許用戶在沒有安裝LabVIEW的計(jì)算機(jī)上運(yùn)行程序。以下是步驟和注意事項(xiàng): 1. 準(zhǔn)備工作 在開始生成EXE文件
    的頭像 發(fā)表于 09-04 17:09 ?2688次閱讀

    ModusToolbox 3.2在c代碼中包含c++代碼的正確步驟是什么?

    文件,但要在 main.c 中 #include 它們時(shí) 會(huì)導(dǎo)致構(gòu)建失敗。 將 main.c 重命名為 main.cpp 會(huì)導(dǎo)致標(biāo)準(zhǔn) XMC 庫函數(shù)(如 XMC_GPIO_SetMode)中出現(xiàn)許多錯(cuò)誤。 在 c 代碼中包含 c++ 代碼的正確步驟是什么?
    發(fā)表于 07-23 08:21

    廣汽能源與泰國Spark EV簽訂合作框架協(xié)議

    近日,廣汽能源科技(泰國)有限公司與Spark EV Co.Ltd.宣布達(dá)成重要合作,雙方共同簽署了一項(xiàng)合作框架協(xié)議,旨在泰國境內(nèi)全面布局并運(yùn)營超級(jí)充電場站,為新能源汽車的普及與發(fā)展注入強(qiáng)勁動(dòng)力。
    的頭像 發(fā)表于 07-19 17:08 ?1034次閱讀

    spark運(yùn)行的基本流程

    前言: 由于最近對(duì)spark的運(yùn)行流程非常感興趣,所以閱讀了《Spark大數(shù)據(jù)處理:技術(shù)、應(yīng)用與性能優(yōu)化》一書。通過這本書的學(xué)習(xí),了解了spark的核心技術(shù)、實(shí)際應(yīng)用場景以及性能
    的頭像 發(fā)表于 07-02 10:31 ?606次閱讀
    <b class='flag-5'>spark</b>運(yùn)行的基本流程

    Spark基于DPU的Native引擎算子卸載方案

    1.背景介紹 Apache Spark(以下簡稱Spark)是一個(gè)開源的分布式計(jì)算框架,由UC Berkeley AMP Lab開發(fā),可用于批處理、交互式查詢(Spark SQL)、實(shí)時(shí)流處理
    的頭像 發(fā)表于 06-28 17:12 ?918次閱讀
    <b class='flag-5'>Spark</b>基于DPU的Native引擎算子卸載方案

    關(guān)于Spark的從0實(shí)現(xiàn)30s內(nèi)實(shí)時(shí)監(jiān)控指標(biāo)計(jì)算

    前言 說起Spark,大家就會(huì)自然而然地想到Flink,而且會(huì)不自覺地將這兩種主流的大數(shù)據(jù)實(shí)時(shí)處理技術(shù)進(jìn)行比較。然后最終得出結(jié)論:Flink實(shí)時(shí)性大于Spark。 的確,F(xiàn)link中的數(shù)據(jù)計(jì)算
    的頭像 發(fā)表于 06-14 15:52 ?658次閱讀