衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于Ceph對象存儲的混合云機制的深度解讀

存儲界 ? 來源:未知 ? 作者:李倩 ? 2018-04-29 15:12 ? 次閱讀

1.背景

毫無疑問,乘著云計算發展的東風,Ceph已經是當今最火熱的軟件定義存儲開源項目。如下圖所示,它在同一底層平臺之上可以對外提供三種存儲接口,分別是文件存儲、對象存儲以及塊存儲,本文主要關注的是對象存儲即radosgw。

基于Ceph可方便快捷地搭建安全性好、可用性高、擴展性好的私有化存儲平臺。私有化存儲平臺雖然以其安全性的優勢受到越來越多的關注,但私有化存儲平臺也存在諸多弊端。 例如在如下場景中,某跨國公司需要在國外訪問本地的業務數據,我們該如何支持這種遠距離的數據訪問需求呢。如果僅僅是在私有化環境下,無非以下兩種解決方案:

直接跨地域去訪問本地數據中心中的數據,毫無疑問,這種解決方案會帶來較高的訪問延遲。

在國外自建數據中心,不斷將本地的數據異步復制到遠程數據中心,這種解決方案的缺點是成本太高。

在這種場景下,單純的私有云存儲平臺并不能很好的解決的上面的問題。但是,通過采用混合云解決方案卻能較好地滿足上述需求。對于前文所述遠距離數據訪問的場景,我們完全能借助公有云在遠程的數據中心節點作為存儲點,將本地數據中心的數據異步復制到公有云,再通過終端直接訪問公有云中的數據,這種方式在綜合成本和快捷性方面具備較大優勢,適合這種遠距離的數據訪問需求。

2.發展現狀:RGW Cloud Sync發展歷程

基于Ceph對象存儲的混合云機制是對Ceph生態的良好補充, 基于此,社區將在Mimic這個版本上發布RGW Cloud Sync特性,初步支持將RGW中的數據導出到支持s3協議的公有云對象存儲平臺,比如我們測試中使用的騰訊云COS,同Mulsite中的其他插件一樣,RGW Cloud Sync這個特性也是做成了一個全新的同步插件(目前稱之為aws sync module),能兼容支持S3協議。RGW Cloud Sync特性的整體發展歷程如下:

Suse公司貢獻了初始版本,這個版本僅支持簡單上傳;

Red Hat在這個初始版本之上實現了完整語義的支持,比如multipart上傳、刪除等,考慮到同步大文件的時候可能會造成內存爆炸的問題,還實現了流式上傳。

對于Ceph社區即將在M版本發布的這個公有云同步特性,進行了實際落地測試使用,并根據其中存在的問題進行了反饋及開發。在實際測試過程中,我們搭建了如下所示的運行環境:

其中,Cloud Zone內部包含一個公有云同步插件,它被配置為只讀zone,用以將Rgw Zone中寫入的數據跨地域同步至騰訊云公有云對象存儲平臺COS之上。順利實現將數據從RGW中同步備份至公有云平臺,并且支持自由定制來實現將數據導入至不同云端路徑,同時我們還完善了同步狀態顯示功能,能較快監測到同步過程中發生的錯誤以及當前落后的數據等。

3.核心機制

Multisite

RGW Cloud Sync這個特性本質上是基于Multisite之上的一個全新的同步插件(aws sync module)。首先來看Multisite的一些核心機制。Multisite是RGW中數據遠程備份的一種解決方案,本質上來說它是一種基于日志的異步復制策略,下圖為一個Multisite的示意圖。

Multisite中主要有以下基本概念:

Zone:存在于一個獨立的Ceph集群,由一組rgw提供服務,對應一組后臺的pool;

Zonegroup:包含至少一個Zone,Zone之間同步數據和元數據;

Realm:一個獨立的命名空間,包含至少一個Zonegroup,Zonegroup之間同步元數據。

下面來看Multisite中的一些工作機制,分別是Data Sync、Async Framework、Sync Plugin這三部分。其中Data Sync部分主要分析Multisite中的數據同步流程,Async Framework部分會介紹Multisite中的協程框架,Sync Plugin部分會介紹Multisite中的一些同步插件。

Data Sync

Data Sync用以將一個Zonegroup內的數據進行備份,一個Zone內寫入的數據會最終同步到Zonegroup內所有Zone上,一個完整的Data Sync流程包含如下三步:

Init:將遠程的source zone與local zone建立日志分片對應關系,即將遠程的datalog映射到本地,后續通過datalog就知道有沒有數據需要更新;

Build Full Sync Map:獲取遠程bucket的元信息并建立映射關系來記錄bucket的同步狀態,如果配置multisite的時候source zone是沒有數據的,則這步會直接跳過;

Data Sync:開始object數據的同步,通過RGW api來獲取source zone的datalog并消費對應的bilog來同步數據。

下面以一個bucket中數據的增量同步來闡述Data Sync的工作機制。了解RGW的人都應該知道,一個bucket實例至少包含一個bucket shard,Data Sync是以bucket shard為單位來同步的,每個bucket shard有一個datalog shard 及bilog shard與之對應。

在建立完對應關系及進行完全量同步之后,本地Zone會記錄Sourcezone每個datalog 分片對應的sync_marker。此后local zone會定期將sync_marker與遠程datalog的max_marker比對,若仍有數據未同步,則通過rgw消費datalog entry,datalog entry中記錄了對應的bucket shard,消費bucket shard對應的bilog則可進行數據同步。如下面這個圖所示,遠程的datalog是以 gw_data_chang_log_entry這樣一種格式來存儲日志的,我們可發現,每條datalog entry中包含rgw_data_change這樣一個域,而rgw_data_change中包括的key這個域則是bucket shard的名字,之后就可以找到與之對應的bilog shard,從而消費bilog來進行增量同步。而全量同步其實就是沒有開始這個sync_marker,直接從頭開始消費datalog來進行數據同步。

Async Framework

RGW中使用的異步執行框架是基于boost::asio::coroutine這個庫來開發的,它是一個stackless coroutine,和常見的協程技術不同,Async Framework沒有使用ucontext技術來保存當前堆棧信息來支持協程,而是使用宏的技巧來達到類似效果,它通過 reenter/yield/fork 幾個偽關鍵字(宏)來實現協程。RGWCoroutine是RGW中定義的關于協程的抽象類,它本身也是boost::asio::coroutine 的子類,它是用于描述一個任務流的,包含一個待實現的隱式狀態機。RGWCoroutine可以call其他RGWCoroutine,也可以spawn一個并行的RGWCoroutine。

RGWCoroutine 類會包含一個 RGWCoroutinesStack成員,使用call調用其他RGWCoroutine的時候會將其對應的任務流都存儲在堆棧上,直到所有任務流完成之后控制權才會回到調用者處。然而,spawn一個新的RGWCoroutine時候會生成一個新的任務棧來存儲任務流,它不會阻塞當前正在執行的任務流。當一個協程需要執行一個異步IO操作的時候,它會標記自身為阻塞狀態,而這個IO事件會在任務管理器處注冊,一旦IO完成后任務管理器會解鎖當前堆棧,從而恢復這個協程的控制。下圖為一個簡單的協程使用例子,實現了一個有預定周期的請求處理器

Sync Plugin

前文所述的數據同步過程是將數據從一個ceph zone同步到另一ceph zone,我們完全可以將過程抽象出來,使數據同步變得更加通用,方便添加不同的sync module來實現將數據遷移到不同的目的地。因為上層消費datalog的邏輯都是一致的,只有最后一步上層數據到目的地這步是不一樣的,因此我們只需實現數據同步和刪除的相關接口就可實現不同的同步插件,每個插件在RGW中都被稱為一個sync module,目前Ceph中有以下四個sync module:

rgw:默認sync module,用以在ceph zone之間同步數據

log:用于獲取object的擴展屬性并進行打印

elasticsearch:用于將數據的元信息同步至ES以支持一些搜索請求

aws:Mimic版本發布,用于導出RGW中的數據到支持S3協議的對象存儲平臺 4

RGW Cloud Sync

Streaming process

前文講到Suse公司貢獻了RGW Cloud Sync的初始版本,如下圖所示,它的一個同步流程邏輯上來說主要分為三步,第一通過aws sync module通過http connection將遠程的object拉取過來裝載至內存中,之后將這個object put到云端,之后云端會返回一個put result。

對于小文件來說,這個流程是沒問題的,但是如果這個object比較大的情況,全部load到內存中就有問題了,因此Red Hat在此基礎之上支持了Streaming process。本質上是使用了一個新的協程,這里稱之為pipe CR,它采用類似管道的機制,同時保持兩個http connection,一個用于拉取遠程object,一個用于上傳object,且這兩個過程是并行的,這樣可以有效防止內存爆炸,具體如下圖所示。

Multipart upload

Multipart upload是在Streaming process基礎之上用以支持大文件的分片上傳。它的整體流程如下:

Json config

公有云存儲環境相對來說比較復雜,需要更加復雜的配置來支持aws sync module的使用,因此Red Hat在這個插件上支持了json config。

相對其他插件來說主要增加了三個配置項,分別是host_style, acl_mapping,target_path,其中host_style是配置域名的使用格式,acl_mapping 是配置acl信息的同步方式,target_path是配置元數據在目的處的存放點。如下圖所示為一個實際使用的配置,它表示配置了aws zone,采用path-style這種域名格式,target_path是rgw加其所在zonegroup的名字并加上它的user_id,之后是它的bucket名字,最終這個object在云端的路徑就是target_path加上object名字。

5.關于RGW Cloud Sync方面的后續工作主要有以下四項:

同步狀態顯示的優化,比如顯示落后的datalog、bucket、object等,同時將一些同步過程中發生的錯誤上報至Monitor;

數據的反向同步,即支持將公有云的數據同步至RGW;

支持將RGW的數據導入更多的公有云平臺,而不是僅僅支持S3協議的平臺;

在此基礎之上以RGW為橋梁來實現不同云平臺之間的數據同步。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 云計算
    +關注

    關注

    39

    文章

    7850

    瀏覽量

    137875
  • 存儲
    +關注

    關注

    13

    文章

    4355

    瀏覽量

    86177

原文標題:深度解讀基于Ceph對象存儲的混合云機制

文章出處:【微信號:cunchujie,微信公眾號:存儲界】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于DPU的Ceph存儲解決方案

    容量和性能,只需添加新的存儲節點即可,無需重新配置現有系統,非常適合環境的動態需求; 自我修復: 通過副本或糾刪碼技術,Ceph能夠自動檢測并修復數據損壞或丟失,保證數據的高可用性和持久性; 統一接口:
    的頭像 發表于 07-15 13:44 ?1387次閱讀
    基于DPU的<b class='flag-5'>Ceph</b><b class='flag-5'>存儲</b>解決方案

    Ceph是什么?Ceph的統一存儲方案簡析

    Ceph僅從軟件層面就提供了對象、塊和文件存儲對象存儲要比塊或者文件更加適應現在的混合的非結
    發表于 10-08 15:40

    什么是對象存儲

    可以通過 RESTful API 進行訪問,這使得它與許多應用程序和服務集成變得更加容易。對象存儲的好處在于,它可以非常容易地擴展,支持海量數據,并且可以使分布式環境下運行,raksmart機房服務提供
    發表于 03-10 14:42

    OC的消息轉發機制深度解讀

    相信大家對Object-C的消息傳遞機制并不陌生(如果不熟悉,我后續會再寫一篇關于消息傳遞機制的文章),今天我來講解另外一個重要的問題,就是對象在收到無法解讀的消息之后會發生什么情況。
    發表于 09-25 17:33 ?0次下載

    基于存儲密文安全共享機制

    存儲環境為海量數據的存儲和共享提供方便的同時也帶了安全隱患。為保證數據安全,用戶將自己的隱私數據加密后存儲在開放的
    發表于 03-07 14:53 ?0次下載
    基于<b class='flag-5'>云</b><b class='flag-5'>存儲</b>密文安全共享<b class='flag-5'>機制</b>

    備份正在升級至對象存儲

    大量非結構化數據需要存儲正呈指數增長,數據的存儲方式正在隨著數據自身結構和體量而發生變化,備份的存儲方式正在升級到對象
    發表于 06-28 16:10 ?1015次閱讀

    深度解讀基于Ceph對象存儲混合機制

    基于Ceph可方便快捷地搭建安全性好、可用性高、擴展性好的私有化存儲平臺。私有化存儲平臺雖然以其安全性的優勢受到越來越多的關注,但私有化存儲平臺也存在諸多弊端。
    發表于 07-08 16:11 ?1309次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>解讀</b>基于<b class='flag-5'>Ceph</b><b class='flag-5'>對象</b><b class='flag-5'>存儲</b>的<b class='flag-5'>混合</b><b class='flag-5'>云</b><b class='flag-5'>機制</b>

    對象存儲的優勢有哪些?

    當網盤、跑游戲、做備份、存視頻,數智趨勢下,對象存儲過得風生水起,從BAT的公有到企業私有都有出鏡。IDC中國SDS市場數據顯示,20
    發表于 04-15 15:11 ?951次閱讀

    存儲中的Ceph分布式文件系統及節點選擇

    集群中高效分布數據對象及其副本。經典Ceph存儲系統中在副本模式下選擇存儲節點時該系統僅以節點存儲
    發表于 03-31 10:46 ?13次下載
    <b class='flag-5'>云</b><b class='flag-5'>存儲</b>中的<b class='flag-5'>Ceph</b>分布式文件系統及節點選擇

    Ceph分布式存儲系統性能優化研究綜述

    Ceph已被廣泛地應用于計算和大數據存儲系統。作為計算的底層平臺,Ceph除了提供虛擬機的存儲
    發表于 04-13 13:58 ?5次下載
    <b class='flag-5'>Ceph</b>分布式<b class='flag-5'>存儲</b>系統性能優化研究綜述

    對象存儲和塊存儲區別介紹

     計算時代存儲技術的新熱點——對象存儲,也叫做“面向對象存儲”,也有人把它稱作
    發表于 01-03 06:51 ?1.5w次閱讀

    數據存儲的全能俠——華為對象存儲服務OBS

    大數據時代中,數據信息對企業的重要性好比是企業流動的血液,而企業數據信息的存儲空間就是心臟,擁有了為企業用戶提供海量、安全、高可靠、低成本的數據存儲能力的華為對象
    的頭像 發表于 12-29 17:48 ?982次閱讀

    對象存儲有哪些用處?

    對象存儲是一個非常靈活的解決方案,適用于多種數據存儲場景。 對象存儲用處如下:
    的頭像 發表于 03-13 12:13 ?1015次閱讀

    SDNLAB技術分享:Ceph在云英的實踐

    RBD,對象存儲RADOSGW和CephFS三種,基本覆蓋了絕大部分企業對存儲的需求,所以越來越多企業加入到使用Ceph的行列。在國內也有越來越多的個人和企業參與到
    發表于 06-16 09:32 ?426次閱讀
    SDNLAB技術分享:<b class='flag-5'>Ceph</b>在云英的實踐

    Ceph分布式存儲簡介&amp;Ceph數據恢復流程

    Ceph存儲可分為塊存儲對象存儲和文件存儲Ceph
    的頭像 發表于 09-26 15:41 ?923次閱讀
    大发888网页ban| 尊龙百家乐娱乐| 粤港澳百家乐官网娱乐网| 利博娱乐城| 伟易博百家乐娱乐城 | 百家乐园sun811| 金殿百家乐官网的玩法技巧和规则| 肥东县| 大发8888备用网址| 百家乐必赢外挂软件| 百家乐官网高手论| 澳门百家乐官网21点| 顶级赌场代理| 一筒百家乐的玩法技巧和规则 | 寒江博彩堂| 百家乐博娱乐网赌百家乐的玩法技巧和规则 | 皇马百家乐官网的玩法技巧和规则 | 百家乐官网反缆公式| 百家乐官网最长的闲| a8娱乐城线上娱乐| 威尼斯人娱乐游戏| 百家乐赌场娱乐城大全| 24山吉凶图| 百家乐官网网盛世三国| 百家乐官网的寻龙定穴| 胜负彩| 大发888资讯网007| 正品百家乐的玩法技巧和规则| 百家乐注码管理| 任我赢百家乐官网软件| 百家乐官网输了好多钱| 澳博88| 大发888下载df888| 威尼斯人娱乐的微博| 百家乐中的小路怎样| 澳门百家乐有限公司| 休闲百家乐官网的玩法技巧和规则| 豪博百家乐官网娱乐城| 百家乐官网看牌技巧| 姚记娱乐城网站| tt娱乐城备用|