kfujii
ysk00****@partn*****
2011年 4月 6日 (水) 17:06:26 JST
赤松様 藤井です。はじめまして。 調査頂きありがとうございます。 > 藤井さんの方で出力される条件(運用手順等)がありましたら、是非 > 教えて下さい。 特別な手順は無く、毎週末に1度、サーバ再起動(shutdownコマンド) を行っているだけです。 ちなみに、Heartbeat環境は、本番環境に2セット、検証環境に2セットあり、 この現象が発生するのは、本番環境の1セットだけなのです。。。 (全て同じOSバージョン、HAバージョンです) ご回答頂きました通り、実際の運用には影響は出ておりませんので 当面は様子見をしながら、このまま運用しようと思います。 #Pacemakerも今後の参考にさせて頂きます 以上、宜しくお願い致します。 (2011/04/06 14:41), 赤松 wrote: > To:藤井様 > > 赤松です。 > はじめまして。 > > 当事象は Heartbeat の起動と停止を繰り返し行う事で出力するログ > のようです。 > > コミュニティでも同様の事象を探しましたが、いま一つ明確な情報は > 無かったです。 > > ログの意味は(そのままですが)自ノード及び対向の uptime が、本来は > プラスであるべきなのにマイナスである事を通知しています。 > > 該当箇所のプログラムを軽く追いましたが、クラスタメンバに Heartbeat > が加わる際、Heartbeat は該当サーバの各情報を更新しています。 > > その際に初期化されていない uptime 用の変数をそのまま処理しようと > しているか、若しくはOFFLINE 状態での uptime の数字が使われていると > 思われます。 > その結果が下記ログに出ているようです。 > > 前述してますが、当ログは何度も Heartbeat を指起動しないと出ない類の > ようですが、私の環境では10回以上 restart しても出力されませんでした。 > 何か他にも条件が必要なのかもしれません。 > > 藤井さんの方で出力される条件(運用手順等)がありましたら、是非 > 教えて下さい。 > > 尚、当処理はマイナス値である旨メッセージを出力していますが、その処理 > の後に HA_OK を返しています。 > 且つその後直ぐに uptime 用の変数を更新しています。 > > よって以降の処理には影響を与えないと思います。 > > 明確に回答出来なくて申し訳ないです。 > > もしどうしても不安なら、これを機に最新版(Pacemaker)のご利用を検討 > するのも良いかもしれません。 > http://linux-ha.sourceforge.jp/wp/ > > > 以上です。 > > >> 岩崎様 >> >> 藤井です。 >> >> はじめましてです。宜しくお願い致します。 >> >> 時刻ズレに関しましては、 >> 提供リソースを停止させない(フェールオーバさせる)ために、 >> SV1を再起動を行い、HAが起動した後にSV2を再起動しております。 >> >> ログが出力されるタイミングは、 >> 各サーバでHAが起動する際に、自サーバに出力されております。 >> >> 以上、宜しくお願い致します。 >> >>> 岩崎のぼる@サードウェアです。 >>> >>> はじめまして。 >>> ログを見てみると、SV1とSV2で発生時間が11分程ずれてますが、これは時間差で >>> 発生してますか? >>> それとも同時刻に発生しているが時計がずれているなんてことはありませんか? >>> >>> >>> >>> On Mon, 04 Apr 2011 15:26:54 +0900, kfujii wrote: >>>> 藤井と申します。 >>>> >>>> 初めて投稿させて頂きます。 >>>> >>>> ・RHEL 5.4 >>>> ・heartbeat-2.1.4-1 >>>> Resource:group_1 >>>> vsftpd_1 >>>> jboss_1 >>>> IPaddr_1 >>>> Resource:group_2 >>>> vsftpd_2 >>>> jboss_2 >>>> IPaddr_2 >>>> >>>> SV1:group_1Active/group_2Standby >>>> SV2:group_2Active/group_1Standby >>>> >>>> 上記のような構成でHA運用を行っております。 >>>> >>>> 週1回定期的に各サーバの再起動を行っており、最近になって >>>> HeartBeat起動時に以下のようなERRORが発生するようになりました。 >>>> HeartBeat自体は起動し正常に動作しております。 >>>> #過去半年の運用では出ていません >>>> #特に設定変更も行っていません >>>> >>>> ---SV1 >>>> Mar 27 02:31:30 SV1 ccm: [6398]: ERROR: llm_set_uptime: Negative >>>> uptime >>>> -2030043136 for node 0 [SV1] >>>> Mar 27 02:31:30 SV1 ccm: [6398]: ERROR: llm_set_uptime: Negative >>>> uptime >>>> -2063597568 for node 1 [SV2] >>>> >>>> ---SV2 >>>> Mar 27 02:42:45 SV2 ccm: [6718]: ERROR: llm_set_uptime: Negative >>>> uptime >>>> -2030043136 for node 0 [SV1] >>>> Mar 27 02:42:45 SV2 ccm: [6718]: ERROR: llm_set_uptime: Negative >>>> uptime >>>> -1996488704 for node 1 [SV2] >>>> >>>> このメッセージの意味および影響についてご教示頂きたく願います。 >>>> >>>> 以上、宜しくお願い致します >>>> >>>> _______________________________________________ >>>> Linux-ha-japan mailing list >>>> Linux****@lists***** >>>> http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan >>> >> >> _______________________________________________ >> Linux-ha-japan mailing list >> Linux****@lists***** >> http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan > > _______________________________________________ > Linux-ha-japan mailing list > Linux****@lists***** > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan > >