返回頂部
關閉軟件導航
位置:首頁 > 資訊 > 電商資訊>想進阿里騰訊先來看看大數據平臺之架構漫談
想進阿里騰訊先來看看大數據平臺之架構漫談

架構就像是一場進化史,根據不同時期的需求,演變出不同的架構,車輪滾滾,到今天,移動端框架百花齊放,讓人目不暇接。但是其中的本質是磨滅不了的,換言之根本沒有磨滅而是隱藏到了人們所看不到的地方,但是依舊發揮著不可或缺的作用。

先大概列一下互聯網行業數據倉庫、數據平臺的用途:

上面列出的內容看上去和傳統行業數據倉庫用途差不多,并且都要求數據倉庫/數據平臺有很好的穩定性、可靠性;但在互聯網行業,除了數據量大之外,越來越多的業務要求時效性,甚至很多是要求實時的。

另外,互聯網行業的業務變化非常快,不可能像傳統行業一樣,可以使用自頂向下的方法建立數據倉庫,一勞永逸,它要求新的業務很快能融入數據倉庫中來,老的下線的業務,能很方便的從現有的數據倉庫中下線;

其實,互聯網行業的數據倉庫就是所謂的靈敏數據倉庫,不但要求能快速的響應數據,也要求能快速的響應業務;

建設靈敏數據倉庫,除了對架構技術上的要求之外,還有一個很重要的方面,就是數據建模,假如一上來就想著建立一套能兼容所有數據和業務的數據模型,那就又回到傳統數據倉庫的建設上了,很難滿足對業務變化的快速響應。

應對這種情況,一般是先將核心的持久化的業務進行深度建模(比如:基于網站日志建立的網站統計分析模型和用戶瀏覽軌跡模型;基于公司核心用戶數據建立的用戶模型),其它的業務一般都采用維度+寬表的方式來建立數據模型,這塊是后話。

下面的圖是某公司使用的數據平臺架構圖,其實大多公司應該都差不多:

邏輯上,一般都有數據采集層、數據存儲與分析層、數據共享層、數據應用層,可能叫法有所不同,本質上的角色都大同小異。

我們從下往上看:

數據采集層的任務就是把數據從各種數據源中采集和存儲到數據存儲上,期間有可能會做一些簡單的清洗。

數據源的種類比較多:

作為互聯網行業,網站日志占的份額很大,網站日志存儲在多臺網站日志服務器上,

一般是在每臺網站日志服務器上部署flumeagent,實時的收集網站日志并存儲到HDFS上;

業務數據庫的種類也是多種多樣,有Mysql、Oracle、SqlServer等,這時候,我們迫切的需要一種能從各種數據庫中將數據同步到HDFS上的工具,Sqoop是一種,但是Sqoop太過繁重,而且不管數據量大小,都需要啟動MapReduce來執行,而且需要Hadoop集群的每臺機器都能訪問業務數據庫;應對此場景,淘寶開源的DataX,是一個很好的解決方案,有資源的話,可以基于DataX之上做二次開發,就能非常好的解決。

當然,Flume通過配置與開發,也可以實時的從數據庫中同步數據到HDFS。

有可能一些合作伙伴提供的數據,需要通過Ftp/等定時獲取,DataX也可以滿足該需求;

比如一些手工錄入的數據,只需要提供一個接口或小程序,即可完成;

毋庸置疑,HDFS是大數據環境下數據倉庫/數據平臺很完美的數據存儲解決方案。

離線數據分析與計算,也就是對實時性要求不高的部分,在筆者看來,Hive還是首當其沖的選擇,豐富的數據類型、內置函數;壓縮比非常高的ORC文件存儲格式;非常方便的SQL支持,使得Hive在基于結構化數據上的統計分析遠遠比MapReduce要高效的多,一句SQL可以完成的需求,開發MR可能需要上百行代碼;

當然,使用Hadoop框架自然而然也提供了MapReduce接口,假如真的很樂意開發Java,或者對SQL不熟,那么也可以使用MapReduce來做分析與計算;

Spark是這兩年非常火的,經過實踐,它的性能的確比MapReduce要好很多,而且和Hive、Yarn結合的越來越好,因此,必須支持使用Spark和SparkSQL來做分析和計算。因為已經有HadoopYarn,使用Spark其實是非常簡單的,不用單獨部署Spark集群。

這里的數據共享,其實指的是前面數據分析與計算后的結果存放的地方,其實就是關系型數據庫和NOSQL數據庫;

前面使用Hive、MR、Spark、SparkSQL分析和計算的結果,還是在HDFS上,但大多業務和應用不可能直接從HDFS上獲取數據,那么就需要一個數據共享的地方,使得各業務和產品能方便的獲取數據;和數據采集層到HDFS剛好相反,這里需要一個從HDFS將數據同步至其他目標數據源的工具,同樣,DataX也可以滿足。另外,一些實時計算的結果數據可能由實時計算模塊直接寫入數據共享。

業務產品所使用的數據,已經存在于數據共享層,直接從數據共享層訪問即可;

同業務產品,報表所使用的數據,一般也是已經統計匯總好的,存放于數據共享層;

即席查詢的用戶有很多,有可能是數據開發人員、網站和產品運營人員、數據分析人員、甚至是部門老大,他們都有即席查詢數據的需求;

想進阿里騰訊先來看看大數據平臺之架構漫談1

這種即席查詢通常是現有的報表和數據共享層的數據并不能滿足他們的需求,需要從數據存儲層直接查詢。

即席查詢一般是通過SQL完成,很大的難度在于響應速度上,使用Hive有點慢,可以用SparkSQL,它的響應速度較Hive快很多,而且能很好的與Hive兼容。

想進阿里騰訊先來看看大數據平臺之架構漫談2

當然,你也可以使用Impala,假如不在乎平臺中再多一個框架的話。

目前,很多的OLAP工具不能很好的支持從HDFS上直接獲取數據,都是通過將需要的數據同步到關系型數據庫中做OLAP,但假如數據量巨大的話,關系型數據庫顯然不行;

這時候,需要做相應的開發,從HDFS或者HBase中獲取數據,完成OLAP的功能;比如:根據用戶在界面上選擇的不定的維度和指標,通過開發接口,從HBase中獲取數據來展示。

這種接口有通用的,有定制的。比如:一個從Redis中獲取用戶屬性的接口是通用的,所有的業務都可以調用這個接口來獲取用戶屬性。

現在業務對數據倉庫實時性的需求越來越多,比如:實時的了解網站的整體流量;實時的獲取一個廣告的曝光和點擊;在海量數據下,依靠傳統數據庫和傳統實現方法基本完成不了,需要的是一種分布式的、高吞吐量的、延時低的、高可靠的實時計算框架;Storm在這塊是比較成熟了,但我選擇SparkStreaming,原因很簡單,不想多引入一個框架到平臺中,另外,SparkStreaming比Storm延時性高那么一點點,那對于我們的需要可以忽略。

我們目前使用SparkStreaming實現了實時的網站流量統計、實時的廣告效果統計兩塊功能。

做法也很簡單,由Flume在前端日志服務器上收集網站日志和廣告日志,實時的發送給SparkStreaming,由SparkStreaming完成統計,將數據存儲至Redis,業務通過訪問Redis實時獲取。

在數據倉庫/數據平臺中,有各種各樣非常多的程序和任務,比如:數據采集任務、數據同步任務、數據分析任務等;

這些任務除了定時調度,還存在非常復雜的任務依靠關系,比如:數據分析任務必須等相應的數據采集任務完成后才能開始;數據同步任務需要等數據分析任務完成后才能開始;

這就需要一個非常完善的任務調度與監控系統,它作為數據倉庫/數據平臺的中樞,負責調度和監控所有任務的分配與運行。

這塊想要做好,非常復雜,我覺得是且價值小于成本,因此我們暫不考慮這塊。目前只有天天任務運行的元數據。

在筆者看來,架構,并不是技術越多越新越好,而是在可以滿足需求的情況下,越簡單越穩定越好。目前在我們的數據平臺中,開發更多的是關注業務,而不是技術,他們把業務和需求搞清楚了,基本上只需要做簡單的SQL開發,然后配置到調度系統就可以了,假如任務異常,會收到告警。這樣,可以使更多的資源專注于業務之上。

如果您覺得 想進阿里騰訊先來看看大數據平臺之架構漫談 這篇文章對您有用,請分享給您的好友,謝謝
文章地址:http://www.meyanliao.com/article/online/7722.html
解放雙手無盡可能,有問題添加天線貓微信
主站蜘蛛池模板: 青春草无码精品视频在线观| 国产午夜无码片在线观看影院| 夫妻免费无码V看片| 无码一区二区三区| 亚洲日韩精品无码专区加勒比☆ | 精品深夜AV无码一区二区老年| 亚洲AV综合色区无码二区爱AV| a级毛片免费全部播放无码| 亚洲中文字幕无码亚洲成A人片| 亚洲午夜福利AV一区二区无码| 激情无码人妻又粗又大中国人| 久久激情亚洲精品无码?V| 亚洲AV永久无码天堂影院| 亚洲AV无码久久| 国产精品视频一区二区三区无码 | 国产产无码乱码精品久久鸭| 国产精品白浆无码流出| 亚洲视频无码高清在线| 国产成年无码久久久久毛片| 久久精品无码av| 亚洲高清无码综合性爱视频| 夫妻免费无码V看片| 久久人妻无码一区二区| 亚洲AV无码AV男人的天堂不卡| 男人的天堂无码动漫AV| 无码国产精成人午夜视频一区二区| 亚洲人成无码网站久久99热国产| 无码视频一区二区三区| 无码丰满熟妇浪潮一区二区AV| 国产精品久久久久无码av| 亚洲综合无码一区二区痴汉| 久久久久亚洲AV无码观看 | 精品日韩亚洲AV无码一区二区三区 | 亚洲av无码一区二区三区乱子伦| 无码日韩人妻AV一区免费l| 国产免费午夜a无码v视频| 无码人妻H动漫中文字幕| 精品无码一区二区三区水蜜桃| 性色AV一区二区三区无码| 东京热无码av一区二区| 亚洲午夜国产精品无码|