Ceph/概要

Cephパフォーマンステスト

OSD6台構成でのクラスタを構築しクライアントからマウント.
最初はddコマンドでのテスト 〜400MByteまでは110MB/s程度の速度が出ているが,500MByte〜のファイルをddコマンドで作成すると4MB/sと出る.
バッファ問題だと思われるが,現在原因調査中.

bonnie++

Version 1.96------Sequential Output--------Sequential Input---Random-
Concurrency 1-Per Chr---Block---Rewrite--Per Chr---Block----Seeks--

|Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
|ceph 4G 42 2 1184 0 236 0 926 28 10017 0 180.5 1
|Latency 4582us 28642ms 16316s 2318ms 31475ms 31850ms
|Version 1.96 ------Sequential Create------ --------Random Create--------
|ceph -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
| files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
| 16 229 0 +++++ +++ 69 0 695 0 +++++ +++ 238 0
|Latency 14794ms 224us 196s 1215ms 64us 722ms

mount時ににCan't read super blockと表示される

Ceph利用中にノードが落ちたり,書き込み中にumountすると他のノードや再度mountする際にcan't read super blockを表示されることがあります.
現在では,各サーバのプロセスをkillし,各サーバがmount しているOSDのディスクをumount,もしくは各サーバを再起動した後,もう一度Cephを起動すればclientから再度mountできるようになります.


トップ   編集 凍結 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2010-10-08 (金) 16:31:33 (4949d)