Ceph/概要
Cephパフォーマンステスト †
OSD6台構成でのクラスタを構築しクライアントからマウント.
最初はddコマンドでのテスト
〜400MByteまでは110MB/s程度の速度が出ているが,500MByte〜のファイルをddコマンドで作成すると4MB/sと出る.
バッファ問題だと思われるが,現在原因調査中.
bonnie++ †
Version 1.96 | ------Sequential Output------ | --Sequential Input- | --Random- |
Concurrency 1 | -Per Chr- | --Block-- | -Rewrite- | -Per Chr- | --Block-- | --Seeks-- |
|Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
|ceph 4G 42 2 1184 0 236 0 926 28 10017 0 180.5 1
|Latency 4582us 28642ms 16316s 2318ms 31475ms 31850ms
|Version 1.96 ------Sequential Create------ --------Random Create--------
|ceph -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
| files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
| 16 229 0 +++++ +++ 69 0 695 0 +++++ +++ 238 0
|Latency 14794ms 224us 196s 1215ms 64us 722ms
mount時ににCan't read super blockと表示される †
Ceph利用中にノードが落ちたり,書き込み中にumountすると他のノードや再度mountする際にcan't read super blockを表示されることがあります.
現在では,各サーバのプロセスをkillし,各サーバがmount しているOSDのディスクをumount,もしくは各サーバを再起動した後,もう一度Cephを起動すればclientから再度mountできるようになります.