Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 2AgendaWhat is GlusterFS?The latest GlusterFSReal world GlusterFS
3.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 3What isGlusterFS?
4.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 4分散ファイルシステム出典:高橋敬祐 「テクノロジー最前線 今注目の分散ファイルシステム「GlusterFS」」 『日経SYSTEMS 2014年10月号』 pp.54-59
5.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 5What is GlusterFS?Since 2005目指す世界すべてのクラウド事業者がGoogleのようにスケーラブルなストレージ基盤を構築できることクラウド事業者が自由にハードウェアを選べるようにソフトウェアを実装すること
6.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 6What is GlusterFS?特徴中央サーバを持たない構成サーバサイドはシンプル。クライアントが豊富な機能を備える。多様なインタフェース
7.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 7特徴1:中央サーバを持たない構成出典:高橋敬祐 「テクノロジー最前線 今注目の分散ファイルシステム「GlusterFS」」 『日経SYSTEMS 2014年10月号』 pp.54-59
8.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 8特徴2:クライアントに豊富な機能出典:高橋敬祐 「テクノロジー最前線 今注目の分散ファイルシステム「GlusterFS」」 『日経SYSTEMS 2014年10月号』 pp.54-59
9.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 9特徴3:多様なインタフェース出典:高橋敬祐 「テクノロジー最前線 今注目の分散ファイルシステム「GlusterFS」」 『日経SYSTEMS 2014年10月号』 pp.54-59
10.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 10self-heal出典:高橋敬祐 「テクノロジー最前線 今注目の分散ファイルシステム「GlusterFS」」 『日経SYSTEMS 2014年10月号』 pp.54-59
11.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 11The latestGlusterFS
12.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 12The latest GlusterFS3.6.0beta3, 3.5.3beta1Bug triage中 (7回目, 10/29時点)トリアージ対象のバグは全て解消新たなトリアージ対象11件
13.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 13GlusterFS 3.6 でのアップデートErasure Codingヘテロジニアスなブリックボリュームをスコープとしたglusterdのロックが可能にボリュームのスナップショットレプリケーションのチェンジログSSLサポートの強化RDMAの強化
14.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 14将来の機能追加予定ストレージ自動階層化ログをベースとしたチェイン・レプリケーションゴミ箱小容量ファイルに関する性能向上リバランスの性能向上SELinuxとのインテグレーションポリシーベースのsplit brain解決GlusterFS ServerのクォーラムREST APIカスタム・トランスレータ追加の簡易化etc...
15.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 15参考: ストレージ自動階層化出典:http://gluster.org/community/documentation/index.php/Features/gluster_compliance_archive
16.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 16その他の話題OpenShiftGlusterFlow
17.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 17GlusterFlow出典: http://glusterflow.org/
18.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 18GlusterFlow出典: http://glusterflow.org/
19.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 19Real worldGlusterFS
20.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 20ストレージプール事例:OpenStackとのインテグレーションGlusterFS GlusterFS GlusterFS GlusterFSqemulibgfapi I/FNovaKVMゲストCinderBlockStorageqemulibgfapi I/FNovaKVMゲストCinderBlockStorageqemulibgfapi I/FNovaKVMゲストCinderBlockStorageqemulibgfapi I/FNovaKVMゲストCinderBlockStorageqemulibgfapi I/FNovaKVMゲストCinderBlockStorage......
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 22libgfapi vs FUSE vs NFS・KVMゲスト50VM・このうち10VM上でfioを同時実行・各KVMゲストのIOPS上限を1000に制限↓・ホストOSのload average, iowaitに関して、libgfapiに大きなアドバンテージ。・KVMゲストのiowaitもlibgfapiが優位。
23.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 23KVMゲストの収容限界調査(libgfapi, IOPS)・qemu-kvmのバージョン2.0を使用 (1.5.3使用時は、KVMゲスト50VM時にVMがio-errorでクラッシュ)・各KVMゲストのIOPS上限を1000に制限(10VM以上の場合)
24.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 24KVMゲストの収容限界調査(libgfapi, スループット)
25.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 25イベントテーマ「SDS導入に必要なことは?」冷静になって考える本当に必要か?なぜ必要なのか?インタフェースは最適か?2冗長?3冗長?パフォーマンスのスケールアウトに対する考察収容設計は入念にアクセスパターン要求されるスループットログの管理も要検討ログローテーションログコレクタの活用
26.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 26ConclusionGlusterFSについて紹介しました。実装予定機能や関連ツールなど、技術的な話題は(今も昔も)豊富にあります。多数の商用実績があります。今回は2つの事例を紹介しました。評価として、OpenStack Cinderとしてのユースケースにおける性能評価を紹介しました。Software Defined Storageの導入は計画的に。
27.
Copyright (C) 2014,NTTPC Communications, Inc. All Rights Reserved. 27To contact us, e-mail here -> storage-contact@nttpc.co.jp