設定後のクラスタの稼動はそれほど難しくありません。各クラスタ ノードはクラスタが常駐するホストで個別に起動します。マネジメント ノードを最初に起動し、次にデータノード、最後に SQL ノードを起動します。
マネジメント ホストでシステム シェルから以下のコマンドを発行し、MGM ノード プロセスを実行します。
shell> ndb_mgmd -f /var/lib/mysql-cluster/config.ini
ndb_mgmd に -f
あるいは --config-file
オプションを使用して設定ファイルの場所を知らせる必要があります。(詳細は
項14.6.3. 「ndb_mgmd、マネジメント
サーバープロセス」
を参照してください。)
各データ ノードのホストで、このコマンドを実行して最初の ndbd プロセスを始めます。
shell> ndbd --initial
--initial
パラメータのみを
ndbd
を最初に実行するとき、あるいはバックアップ/復旧作業あるいは設定変更後に起動したときに使用することが非常に重要ですのでこの点留意してください。これは
--initial
オプションによってノードがリカバリのログファイルを含むリカバリに必要な
ndbd
インスタンスで以前作成したファイルを削除するからです。
この例外は --initial
は ディスク
データ
ファイルは削除しないということです。クラスタの最初の再起動を実行する必要がある場合、既存のディスク
データのログファイルおよびデータ
ファイルを手動で削除する必要があります。
SQL ノードが常駐するクラスタのホストに MySQL をインストールするために RPM ファイルを使用した場合には、SQL ノードで MySQL サーバープロセスを実行するには供給された起動スクリプトを使用(する必要がある)できます。
すべてが上手くいってクラスタが正しく設定できたら、この段階でクラスタを使用できます。ndb_mgm マネジメント ノード クライアントを起動してこれをテストできます。その出力は以下になる必要があります。使用している MySQL のバージョンによって出力が多少異なる場合もあります。
shell>ndb_mgm
-- NDB Cluster -- Management Client -- ndb_mgm>SHOW
Connected to Management Server at: localhost:1186 Cluster Configuration --------------------- [ndbd(NDB)] 2 node(s) id=2 @192.168.0.30 (Version: 5.1.15-beta, Nodegroup: 0, Master) id=3 @192.168.0.40 (Version: 5.1.15-beta, Nodegroup: 0) [ndb_mgmd(MGM)] 1 node(s) id=1 @192.168.0.10 (Version: 5.1.15-beta) [mysqld(SQL)] 1 node(s) id=4 (Version: 5.1.15-beta)
注:SQL
ノードはここでは [mysqld(API)]
として使用しています。これは完全に通常で、mysqld
プロセスがクラスタ API
ノードの役割を果たしていることを表しています。
この段階でMySQL クラスタのデータベース、テーブル、およびデータを使用できる準備ができました。簡単な説明については、項14.3.5. 「サンプル データのローディングとクエリの実行」 を参照してください。