[[Ceph/概要]]

** Cephパフォーマンステスト [#b25a410b]
OSD6台構成でのクラスタを構築しクライアントからマウント.~
最初はddコマンドでのテスト
〜400MByteまでは110MB/s程度の速度が出ているが,500MByte〜のファイルをddコマンドで作成すると4MB/sと出る.~
バッファ問題だと思われるが,現在原因調査中.

** bonnie++ [#a8b41367]
|Version  1.96|------Sequential Output------|--Sequential Input-|--Random-|
|Concurrency 1|-Per Chr-|--Block--|-Rewrite-|-Per Chr-|--Block--|--Seeks--|
|Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP~
|ceph             4G    42   2  1184   0   236   0   926  28 10017   0 180.5   1~
|Latency              4582us   28642ms    16316s    2318ms   31475ms   31850ms~
|Version  1.96       ------Sequential Create------ --------Random Create--------~
|ceph                -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--~
|              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP~
|                16   229   0 +++++ +++    69   0   695   0 +++++ +++   238   0~
|Latency             14794ms     224us      196s    1215ms      64us     722ms~

** mount時ににCan't read super blockと表示される [#medd77c5]
Ceph利用中にノードが落ちたり,書き込み中にumountすると他のノードや再度mountする際にcan't read super blockを表示されることがあります.~
現在では,各サーバのプロセスをkillし,各サーバがmount しているOSDのディスクをumount,もしくは各サーバを再起動した後,もう一度Cephを起動すればclientから再度mountできるようになります.


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS