renay****@ybb*****
renay****@ybb*****
2016年 5月 15日 (日) 14:18:23 JST
皆さん 松尾さん こんにちは、山内です。 色々と本事象について、松尾さんにご協力頂き、問題が解決しましたので、TIPSとして周知しておきます。 原因は、/etc/sysconfig/pacemakerの設定で、Pacemakerの設定ファイル処理時にlibqbを呼び出しますが、 libqb側で設定を無効と理解してしまうことです。 以下にあるように、PCMK設定行の後ろにシェルでのコメント扱い(#)などを記載した場合に発生します。 ●/etc/sysconfig/pacemaker (省略) PCMK_fail_fast=yes #comment PCMK_logfile=none #comment PCMK_logfacility=local3 #comment PCMK_logpriority=info #comment HA_LOGFACILITY=local3 #comment 実際には、設定行によっては、問題がない行もありますが、/etc/sysconfig/pacemakerの設定行には#など を後ろに記載しないようにお願いたします。 以下にlibqbのマッチングする文字列の部分を記載しておきます。 struct syslog_names facilitynames[] = { {"auth", LOG_AUTH}, #if defined(LOG_AUTHPRIV) {"authpriv", LOG_AUTHPRIV}, #endif {"cron", LOG_CRON}, {"daemon", LOG_DAEMON}, #if defined(LOG_FTP) {"ftp", LOG_FTP}, #endif {"kern", LOG_KERN}, {"lpr", LOG_LPR}, {"mail", LOG_MAIL}, {"news", LOG_NEWS}, {"syslog", LOG_SYSLOG}, {"user", LOG_USER}, {"uucp", LOG_UUCP}, {"local0", LOG_LOCAL0}, {"local1", LOG_LOCAL1}, {"local2", LOG_LOCAL2}, {"local3", LOG_LOCAL3}, {"local4", LOG_LOCAL4}, {"local5", LOG_LOCAL5}, {"local6", LOG_LOCAL6}, {"local7", LOG_LOCAL7}, {NULL, -1} }; また、もともと/etc/sysconfig/pacemakerのサンプルにも以下のような行がありますので、 シャープ(#)を記載することは可能と誤解されやすいことも問題と思います。 (省略) # Variables for running child daemons under valgrind and/or checking for memory problems # G_SLICE=always-malloc # MALLOC_PERTURB_=221 # or 0 # MALLOC_CHECK_=3 # or 0,1,2 (省略) 最後に、松尾さん、調査へのご協力ありがとうございました。 以上です。 ----- Original Message ----- > From: Hiroshi Matsuo <yiu00****@nifty*****> > To: renay****@ybb*****; linux****@lists***** > Cc: > Date: 2016/5/10, Tue 23:05 > Subject: Re: [Linux-ha-jp]異なるOSの混在は可能でしょうか > > 山内さん > > export を削除した状態で再起動したときの変換後のログです > > May 10 22:46:11 virtual16 info: Corosync is shutting down. > May 10 22:46:11 virtual16 info: Corosync shutdown complete. > May 10 22:46:26 virtual16 info: Starting Corosync 2.3.4. > May 10 22:50:41 virtual16 info: Corosync is shutting down. > May 10 22:50:42 virtual16 info: Corosync shutdown complete. > May 10 22:50:57 virtual16 info: Starting Corosync 2.3.4. > > 同じ時間帯の変換前のログです > > May 10 22:46:11 virtual16 corosync[15577]: [MAIN ] Node was shut down by a > signalMay 10 22:46:11 virtual16 corosync[15577]: [SERV ] Unloading all Corosync > service engines. > May 10 22:46:11 virtual16 corosync[15577]: [QB ] withdrawing server sockets > May 10 22:46:11 virtual16 corosync[15577]: [SERV ] Service engine unloaded: > corosync vote quorum service v1.0May 10 22:46:11 virtual16 corosync[15577]: [QB > ] withdrawing server sockets > May 10 22:46:11 virtual16 corosync[15577]: [SERV ] Service engine unloaded: > corosync configuration map access > May 10 22:46:11 virtual16 corosync[15577]: [QB ] withdrawing server sockets > May 10 22:46:11 virtual16 corosync[15577]: [SERV ] Service engine unloaded: > corosync configuration service > May 10 22:46:11 virtual16 corosync[15577]: [QB ] withdrawing server sockets > May 10 22:46:11 virtual16 corosync[15577]: [SERV ] Service engine unloaded: > corosync cluster closed process group > service v1.01 > May 10 22:46:11 virtual16 corosync[15577]: [QB ] withdrawing server sockets > May 10 22:46:11 virtual16 corosync[15577]: [SERV ] Service engine unloaded: > corosync cluster quorum service v0.1 > May 10 22:46:11 virtual16 corosync[15577]: [SERV ] Service engine unloaded: > corosync profile loading service > May 10 22:46:11 virtual16 corosync[15577]: [WD ] magically closing the > watchdog. > May 10 22:46:11 virtual16 corosync[15577]: [SERV ] Service engine unloaded: > corosync watchdog service > May 10 22:46:11 virtual16 corosync[15577]: [MAIN ] Corosync Cluster Engine > exiting normally > May 10 22:46:26 virtual16 corosync[16953]: [MAIN ] Corosync Cluster Engine > ('2.3.4'): started and ready to provide service.May 10 22:46:26 > virtual16 corosync[16953]: [MAIN ] Corosync built-in features: watchdog systemd > snmp pie relro bindnowMay 10 22:46:26 virtual16 corosync[16954]: [TOTEM ] > Initializing transport (UDP/IP Multicast). > May 10 22:46:26 virtual16 corosync[16954]: [TOTEM ] Initializing > transmit/receive security (NSS) crypto: aes256 hash: sha1May 10 22:46:26 > virtual16 corosync[16954]: [TOTEM ] The network interface [192.168.1.16] is now > up. > May 10 22:46:26 virtual16 corosync[16954]: [SERV ] Service engine loaded: > corosync configuration map access [0] > May 10 22:46:26 virtual16 corosync[16954]: [QB ] server name: cmap > May 10 22:46:26 virtual16 corosync[16954]: [SERV ] Service engine loaded: > corosync configuration service [1] > May 10 22:46:26 virtual16 corosync[16954]: [QB ] server name: cfgMay 10 > 22:46:27 virtual16 corosync[16954]: [SERV ] Service engine loaded: corosync > cluster closed process group s > ervice v1.01 [2] > May 10 22:46:27 virtual16 corosync[16954]: [QB ] server name: cpg > May 10 22:46:27 virtual16 corosync[16954]: [SERV ] Service engine loaded: > corosync profile loading service [4] > May 10 22:46:27 virtual16 corosync[16954]: [WD ] Watchdog is now been tickled > by corosync. > May 10 22:46:27 virtual16 corosync[16954]: [WD ] no resources configured. > May 10 22:46:27 virtual16 corosync[16954]: [SERV ] Service engine loaded: > corosync watchdog service [7]May 10 22:46:27 virtual16 corosync[16954]: [QUORUM] > Using quorum provider corosync_votequorum > May 10 22:46:27 virtual16 corosync[16954]: [SERV ] Service engine loaded: > corosync vote quorum service v1.0 [5] > May 10 22:46:27 virtual16 corosync[16954]: [QB ] server name: votequorum > May 10 22:46:27 virtual16 corosync[16954]: [SERV ] Service engine loaded: > corosync cluster quorum service v0.1 [3] > May 10 22:46:27 virtual16 corosync[16954]: [QB ] server name: quorum > May 10 22:46:27 virtual16 corosync[16954]: [TOTEM ] A new membership > (192.168.1.16:340716) was formed. Members joined: -1062731504 > May 10 22:46:27 virtual16 corosync[16954]: [QUORUM] Members[1]: -1062731504 > May 10 22:46:27 virtual16 corosync[16954]: [MAIN ] Completed service > synchronization, ready to provide service. > May 10 22:46:27 virtual16 corosync[16954]: [TOTEM ] A new membership > (192.168.1.5:340720) was formed. Members joined: -1062731515 -1062731513May 10 > 22:46:27 virtual16 corosync[16954]: [QUORUM] This node is within the primary > component and will provide ser > vice. > May 10 22:46:27 virtual16 corosync[16954]: [QUORUM] Members[3]: -1062731515 > -1062731513 -1062731504 > May 10 22:46:27 virtual16 corosync[16954]: [MAIN ] Completed service > synchronization, ready to provide service. > May 10 22:50:41 virtual16 corosync[16954]: [MAIN ] Node was shut down by a > signal > May 10 22:50:41 virtual16 corosync[16954]: [SERV ] Unloading all Corosync > service engines. > May 10 22:50:41 virtual16 corosync[16954]: [QB ] withdrawing server sockets > May 10 22:50:41 virtual16 corosync[16954]: [SERV ] Service engine unloaded: > corosync vote quorum service v1.0 > May 10 22:50:41 virtual16 corosync[16954]: [QB ] withdrawing server sockets > May 10 22:50:41 virtual16 corosync[16954]: [SERV ] Service engine unloaded: > corosync configuration map access > May 10 22:50:41 virtual16 corosync[16954]: [QB ] withdrawing server > socketsMay 10 22:50:41 virtual16 corosync[16954]: [SERV ] Service engine > unloaded: corosync configuration service > May 10 22:50:41 virtual16 corosync[16954]: [QB ] withdrawing server > socketsMay 10 22:50:41 virtual16 corosync[16954]: [SERV ] Service engine > unloaded: corosync cluster closed process group > service v1.01 > May 10 22:50:41 virtual16 corosync[16954]: [QB ] withdrawing server sockets > May 10 22:50:41 virtual16 corosync[16954]: [SERV ] Service engine unloaded: > corosync cluster quorum service v0.1 > May 10 22:50:41 virtual16 corosync[16954]: [SERV ] Service engine unloaded: > corosync profile loading service > May 10 22:50:41 virtual16 corosync[16954]: [WD ] magically closing the > watchdog. > May 10 22:50:41 virtual16 corosync[16954]: [SERV ] Service engine unloaded: > corosync watchdog service > May 10 22:50:42 virtual16 corosync[16954]: [MAIN ] Corosync Cluster Engine > exiting normally > May 10 22:50:57 virtual16 corosync[17975]: [MAIN ] Corosync Cluster Engine > ('2.3.4'): started and ready to provid > e service. > May 10 22:50:57 virtual16 corosync[17975]: [MAIN ] Corosync built-in features: > watchdog systemd snmp pie relro bi > ndnow > May 10 22:50:57 virtual16 corosync[17976]: [TOTEM ] Initializing transport > (UDP/IP Multicast). > May 10 22:50:57 virtual16 corosync[17976]: [TOTEM ] Initializing > transmit/receive security (NSS) crypto: aes256 ha > sh: sha1 > May 10 22:50:57 virtual16 corosync[17976]: [TOTEM ] The network interface > [192.168.1.16] is now up. > May 10 22:50:57 virtual16 corosync[17976]: [SERV ] Service engine loaded: > corosync configuration map access [0] > May 10 22:50:57 virtual16 corosync[17976]: [QB ] server name: cmap > May 10 22:50:57 virtual16 corosync[17976]: [SERV ] Service engine loaded: > corosync configuration service [1] > May 10 22:50:57 virtual16 corosync[17976]: [QB ] server name: cfg > May 10 22:50:57 virtual16 corosync[17976]: [SERV ] Service engine loaded: > corosync cluster closed process group service v1.01 [2] > May 10 22:50:57 virtual16 corosync[17976]: [QB ] server name: cpg > > この後は動きがありません。 > > 松尾 > > >>>> renayama19661014さん wrote: > >> 松尾さん >> >> こんばんは、山内です。 >> >> ご連絡いただいた内容を見る限り、logconvが変換できなかったのは、exportがCentOS7側で記載されていた為だとは思います。 >> >> が・・・・ >> 起動しないというのは、また、別も問題かと思います。 >> >> /etc/sysconfig/pacemakerの設定自体は、問題はないと思いますので、 >> 何か他の要因で起動しない可能性もあるかと思います。 >> >> 差し支えなければ、CentOS7でexportを削除した時の、ログを添付して頂ければ、 >> もう少し詳細な原因が確認出来るかも知れません。 >> >> 以上です。 >> >> >> >> ----- Original Message ----- >> > From: Hiroshi Matsuo <yiu00****@nifty*****> >> > To: renay****@ybb*****; linux****@lists***** >> > Cc: >> > Date: 2016/5/10, Tue 19:58 >> > Subject: Re: [Linux-ha-jp]異なるOSの混在は可能でしょうか >> > >> > 山内さん >> > >> > まず変更前の状況ですが、 Centos6側が >> > >> > export PCMK_fail_fast=yes >> > >> > export PCMK_logfile=none >> > export PCMK_logfacility=local3 >> > export PCMK_logpriority=info >> > export HA_LOGFACILITY=local3 >> > >> > Centos7 側が >> > >> > PCMK_fail_fast=yes >> > >> > export PCMK_logfile=none >> > export PCMK_logfacility=local3 >> > export PCMK_logpriority=info >> > export HA_LOGFACILITY=local3 >> > >> > となっています。 Centos7側のログ関係の4行の export を全部取ります >> > と、 Pacemaker が起動しなくなりました。 >> > >> > 具体的には systemctl restart pacemaker でプロンプトに戻らなくなり、 >> > 強制的に電源オフして起動すると、 corosync は起動しますが pacemaker >> > は起動しません。 ログ関係の4行に export を戻してやって os を再起動 >> > すると元の状態に戻りました。 >> > >> > 変更をミスったかと、再度、4行の export を取って pacemaker を再起動 >> > してやると、今度はプロンプトに戻りましたが、ログを見ると、 >> > corosync と pacemaker と起動中の RA のシャットダウンは完了していま >> > すが起動は corosync の起動までで、 pacemaker と RA の起動は出来て >> > いません。 export を戻して pacemaker を再起動すると元に戻りました。 >> > >> > こんなところです。 >> > >> > 松尾 >> > >> > >> >>>> renayama19661014さん wrote: >> > >> >> 松尾さん >> >> >> >> こんにちは、山内です。 >> >> >> >> >> > > 非常にわかりずらいのですが、ログのfacilityの設定などを行う/etc/sysconfig/pacemakerは、CentOS6/CentOS7で異なる設定を行う必要があります。 >> >> この設定の影響で、松尾さんの環境では変換がされない事象が起きていると思われます。 >> >> >> >> 以下となっているか、御確認ください。 >> >> >> >> > 1)CentOS7側の/etc/sysconfig/pacemakerではPacemaker用の環境変数にはexportを付けない。 >> >> 2)CentOS6側の/etc/sysconfig/pacemakerではPacemaker用の環境変数にはexportを付ける。 >> >> >> >> 確認した環境の記載例も添付以下に示します。 >> >> >> >> 1)CentOS7側の/etc/sysconfig/pacemaker >> >> (省略) >> >> # >> >> VALGRIND_OPTS="--leak-check=full --trace-children=no >> >> --num-callers=25 --log-file=/var/lib/pacemaker/valgrind-%p >> >> > --suppressions=/usr/share/pacemaker/tests/valgrind-pcmk.suppressions >> >> --gen-suppressions=all" >> >> PCMK_logfile=none >> >> PCMK_logfacility=local1 >> >> PCMK_logpriority=info >> >> PCMK_fail_fast=yes >> >> HA_LOGFACILITY=local1 >> >> >> >> 2)CentOS6側の/etc/sysconfig/pacemaker >> >> (省略) >> >> # >> >> VALGRIND_OPTS="--leak-check=full --trace-children=no >> >> --num-callers=25 --log-file=/var/lib/pacemaker/valgrind-%p >> >> > --suppressions=/usr/share/pacemaker/tests/valgrind-pcmk.suppressions >> >> --gen-suppressions=all" >> >> export PCMK_logfile=none >> >> export PCMK_logfacility=local1 >> >> export PCMK_logpriority=info >> >> export PCMK_fail_fast=yes >> >> export HA_LOGFACILITY=local1 >> >> >> >> >> > > ちなみに、確認したCentOS7/CentOS6の2ノード構成で、上記設定を正しく行っていない状況で、pingのcloneとdiskdのcloneリソースを起動した場合には、以下のようにCentOS7/CentOS6では、logconvのログが出力されました。 >> >> たぶん、松尾さんの状況も同じ用な出力になったものと思います。 >> >> ----------------- >> >> [root @ ct72-01 >> >> ~]# cat /var/log/pm_logconv.out >> >> May10 17:41:47 ct72-01 info: Starting Corosync 2.3.4. >> >> May10 17:41:48 ct72-01 info: Starting Pacemaker 1.1.13. >> >> May10 17:43:45 ct72-01 info: Resource prmDiskd started. (rc=0) >> >> May10 17:43:45 ct72-01 info: Resource prmPing started. (rc=0) >> >> >> >> [root @ ct67-01 >> >> ~]# cat /var/log/pm_logconv.out >> >> May10 17:42:18 ct67-01 info: Starting Corosync 2.3.4. >> >> May10 17:42:21 ct67-01 info: Starting Pacemaker 1.1.13. >> >> May10 17:42:21 ct67-01 info: Start "cib" > process.(pid=2982) >> >> May10 17:42:21 ct67-01 info: Start "stonith-ng" >> > process.(pid=2983) >> >> May10 17:42:21 ct67-01 info: Start "lrmd" > process.(pid=2984) >> >> May10 17:42:21 ct67-01 info: Start "attrd" > process..(pid=2985) >> >> May10 17:42:21 ct67-01 info: Start "pengine" > process.(pid=2986) >> >> May10 17:42:21 ct67-01 info: Start "crmd" > process.(pid=2987) >> >> May10 17:42:22 ct67-01 info: Node ct67-01 is member >> >> May10 17:42:22 ct67-01 info: Attribute "ringnumber_0" > is updated >> > to "192.168.10.170 is UP" at "ct72-01". >> >> May10 17:42:22 ct67-01 info: Attribute "ringnumber_1" > is updated >> > to "192.168.20.170 is UP" at "ct72-01". >> >> May10 17:42:22 ct67-01 info: Attribute "ringnumber_0" > is updated >> > to "192.168.10.171 is UP" at "ct67-01". >> >> May10 17:42:22 ct67-01 info: Attribute "ringnumber_1" > is updated >> > to "192.168.20.171 is UP" at "ct67-01". >> >> May10 17:42:23 ct67-01 info: Node ct72-01 is member >> >> May10 17:42:23 ct67-01 info: Set DC node to ct72-01. >> >> May10 17:43:43 ct67-01 info: Resource prmDiskd tries to start. >> >> May10 17:43:43 ct67-01 info: Resource prmPing tries to start. >> >> May10 17:43:43 ct67-01 info: Attribute > "diskcheck_status" >> > is updated to "normal" at "ct67-01". >> >> May10 17:43:43 ct67-01 info: Attribute > "diskcheck_status" >> > is updated to "normal" at "ct72-01". >> >> May10 17:43:44 ct67-01 info: Resource prmDiskd started. (rc=0) >> >> May10 17:43:44 ct67-01 info: Resource prmPing started. (rc=0) >> >> May10 17:43:44 ct67-01 info: Attribute > "default_ping_set" >> > is updated to "100" at "ct67-01". >> >> May10 17:43:44 ct67-01 info: Attribute > "default_ping_set" >> > is updated to "100" at "ct72-01". >> >> ----------------- >> >> >> >> >> >> logconvの設定については、linux-ha-japanのコミュニティでドキュメントの開示準備が進められています。 >> >> 開示されれば、そちらも参考になると思います。 >> >> >> >> 以上です。 >> >> >> >> >> >> >> >> >> >> ----- Original Message ----- >> >> > From: Hiroshi Matsuo <yiu00****@nifty*****> >> >> > To: renay****@ybb*****; linux****@lists***** >> >> > Cc: >> >> > Date: 2016/5/10, Tue 07:51 >> >> > Subject: Re: [Linux-ha-jp]異なるOSの混在は可能でしょうか >> >> > >> >> > 山内さん おはようございます。 >> >> > >> >> > 1)については再起動後出るようになったかは未確認でしたが今朝出ていな >> >> > いことが確認されました。 >> >> > >> >> > 2)について、他のノードの起動のログが出ません。このときの変換前のロ >> >> > グは先のメールでお送りしました。 logconv のログに出ているのは自分 >> >> > 自身の Corosync, Pacemaker のプロセスの起動・停止と RA の起動・停 >> >> > 止のログだけです。 >> >> > >> >> > 松尾 >> >> > >> >> > >> >> >>>> renayama19661014さん wrote: >> >> > >> >> >> 松尾さん >> >> >> >> >> >> おはようございます。山内です。 >> >> >> >> >> >> ご確認と情報、ありがとうございます。 >> >> >> >> >> >> ifcheckdはきちんと起動したようですね。 >> >> >> logconvの問題をまとめると、以下ということでしょうか? >> >> >> >> >> >> 1)CentOS7側で、属性の変化のlogconvのログが出ない。 >> >> >> >> >> >> 2)CentOS7側で、ノードやリソースの起動・停止のlogconvのログは出る。 >> >> >> #変換前のログはこの前のメールでいただいたもの・・・ >> >> >> #CentOS6系は1)2)は、問題ない。 >> >> >> >> >> >> >> >> >> 以上です。 >> >> >> >> >> >> >> >> >> >> >> >> >> >> >> ----- Original Message ----- >> >> >> > From: Hiroshi Matsuo <yiu00****@nifty*****> >> >> >> > To: renayama19661014 @ ybb..ne.jp; >> > linux****@lists***** >> >> >> > Cc: >> >> >> > Date: 2016/5/9, Mon 23:56 >> >> >> > Subject: Re: [Linux-ha-jp]異なるOSの混在は可能でしょうか >> >> >> > >> >> >> > 松尾です。 >> >> >> > >> >> >> > systemctl enable pm_logconv >> >> >> > >> >> >> > についてですが、.bash_history を調べましたところ、以前に、 centos6 >> >> >> > と違って pm_logconv が自動的に起動していないのに気づいて >> >> >> > >> >> >> > systemctl start pm_logconv >> >> >> > systemctl enable pm_logconv >> >> >> > >> >> >> > を実施していました。ですから、 Corosync, Pacemaker の起動・停止、 >> >> >> > リソースエージェントの起動・停止などの情報は以前から変換後のログに >> >> >> > 出力されていました。それ以外は出力されていないようですが。 >> >> >> > >> >> >> > >> >> >> > >> >> >> >>>> renayama19661014さん wrote: >> >> >> > >> >> >> >> 松尾さん >> >> >> >> >> >> >> >> こんばんは、山内です。 >> >> >> >> >> >> >> >> 以下、御確認ください。 >> >> >> >> >> >> >> >> 1) CentOS7のノードのringnumberの属性が表示されない件 >> >> >> >> 2) CentOS7のノードのpm_logconvがイベントを検知しない件 >> >> >> >> >> >> >> >> > ですが、CentOS7系では、systemd経由で1)2)関連のプロセスを起動する必要がありますので、 >> >> >> >> >> > ifcheckdならびに、pm_logconvをcorosync/Pacemaker起動前に起動する様に設定が必要となります。 >> >> >> >> >> >> >> >> ---------------------- >> >> >> >> [root @ ct72-01 ~]# systemctl enable pm_logconv >> >> >> >> Created symlink from >> >> >> > >> > /etc/systemd/system/multi-user.target.wants/pm_logconv..service to >> >> >> > /usr/lib/systemd/system/pm_logconv.service. >> >> >> >> [root @ ct72-01 ~]# systemctl enable ifcheckd >> >> >> >> Created symlink from >> >> >> > > /etc/systemd/system/multi-user.target.wants/ifcheckd.service >> > to >> >> >> > /usr/lib/systemd/system/ifcheckd.service. >> >> >> >> ---------------------- >> >> >> >> >> >> >> >> 上記を実施した後、CentOS7側のノードを一旦OS再起動していただければと思います。 >> >> >> >> >> >> >> >> >> >> >> > >> >> > >> > > なお、CentOS6系では、initctl経由での1)2)起動の為、Pacemakerインストール後のOS再起動で、両プロセスが自動起動となりますので、 >> >> >> >> 上記の手順は不要です。 >> >> >> >> >> >> >> >> >> >> >> >> 以上です。 >> >> >> >> >> >> >> >> >> >> >> >> >> >> >> >> ----- Original Message ----- >> >> >> >> > From: > "renay****@ybb*****" >> >> >> > <renay****@ybb*****> >> >> >> >> > To: > "linux****@lists*****" >> >> >> > <linux****@lists*****> >> >> >> >> > Cc: >> >> >> >> > Date: 2016/5/6, Fri 02:05 >> >> >> >> > Subject: Re: [Linux-ha-jp] > 異なるOSの混在は可能でしょうか >> >> >> >> > >> >> >> >> > 松尾さん >> >> >> >> > >> >> >> >> > こんばんは、山内です。 >> >> >> >> > >> >> >> >> > 情報ありがとうございます。 >> >> >> >> > >> >> >> >> > どちらも少し気になる事象ではありますので、GW明けにでも >> >> >> >> > 私も環境を作成して動作させてみようと思います。 >> >> >> >> > >> >> >> >> > また、何かわかりましたら、ご一報しますね。 >> >> >> >> > >> >> >> >> > 以上です。 >> >> >> >> > >> >> >> >> > >> >> >> >> > >> >> >> >> > ----- Original Message ----- >> >> >> >> >> From: Hiroshi Matsuo >> > <yiu00****@nifty*****> >> >> >> >> >> To: linux****@lists***** >> >> >> >> >> Cc: >> >> >> >> >> Date: 2016/5/6, Fri 01:20 >> >> >> >> >> Subject: Re: [Linux-ha-jp] > 異なるOSの混在は可能でしょうか >> >> >> >> >> >> >> >> >> >> 山内さん >> >> >> >> >> >> >> >> >> >> Pacemaker のログと Corosync のログをまとめて > ha-log >> > に出力しそれを >> >> >> >> >> pm_logconv で変換しています。 >> >> >> >> >> >> >> >> >> >> ログレベルの設定などは同じにしたつもりですが、 centos7 > の方では属 >> >> >> >> >> 性値が変わったという情報や、ノードが消えたとか出現したとかの情報が >> >> >> >> >> pm_logconv > の出力に出ません。調べてみますと、後者(ノードの情報) >> >> >> >> >> のほうは pm_logconv > による変換前のログには出ています。前者(属性値 >> >> >> >> >> の情報)のほうは変換前のログにも出ていないようです。 >> >> >> >> >> >> >> >> >> >> また、 crm_mon -A による属性値の連続表示で、 > どちらのノードから表 >> >> >> >> >> 示させても centos7 のノードには、 >> >> >> >> >> + ringnumber_0 : > 192..168.1.X is UP >> >> >> >> >> の表示が出ないようです(表示されなくても特に問題はありませんが)。 >> >> >> >> >> それ以外の属性値( ping の結果、 SysInfo > に手を加えて表示させてい >> >> >> >> >> る属性値)は表示されています。 >> >> >> >> >> >> >> >> >> >> 松尾 >> >> >> >> >> >> >> >> >> >> >> >> >> >> >>>>> renayama19661014さん > wrote: >> >> >> >> >> >> >> >> >> >>> 松尾さん >> >> >> >> >>> >> >> >> >> >>> こんばんは、山内です。 >> >> >> >> >>> >> >> >> >> >>> 情報ありがとうございます。 >> >> >> >> >>> >> >> >> >> >>> ちなみに、情報とおっしゃっているのは、ログ回りでしょうか? >> >> >> >> >>> > それとも、Pacemaker/Corosync系のコマンド系でしょうか? >> >> >> >> >>> >> >> >> >> >>> >> > ちょっと気にはなりますので、差し支えなければ情報をどんな違いか開示していただけると助かります。 >> >> >> >> >>> >> >> >> >> >>> 以上です。 >> >> >> >> >>> >> >> >> >> >>> >> >> >> >> >>> ----- Original Message ----- >> >> >> >> >>> > From: Hiroshi Matsuo >> >> > <yiu00****@nifty*****> >> >> >> >> >>> > To: > linux****@lists***** >> >> >> >> >>> > Cc: >> >> >> >> >>> > Date: 2016/5/5, Thu 23:08 >> >> >> >> >>> > Subject: Re: > [Linux-ha-jp] >> > 異なるOSの混在は可能でしょうか >> >> >> >> >>> > >> >> >> >> >>> > > やってみましたがうまくクラスタに参加することが出来ました。 >> >> >> >> >>> > >> >> >> >> >>> > でも、 os > によって情報の出方に微妙な違いがあるようです。 >> >> >> >> >>> > >> >> >> >> >>> > 松尾 >> >> >> >> >>> > >> >> >> >> >>> > >> >> >> >> >>> >>>> > renayama19661014さん >> > wrote: >> >> >> >> >>> > >> >> >> >> >>> >> 松尾さん >> >> >> >> >>> >> >> >> >> >> >>> >> 今晩は、山内です。 >> >> >> >> >>> >> >> >> >> >> >>> >> 実際に構築にしたことはありませんが、 >> >> >> >> >>> >> >> >> >> > > Centos6とCentos7であれば、同じバージョンのPacemakerであれば、大丈夫だと思われます。 >> >> >> >> >>> >> >> >> >> >> >>> >> 以上です。 >> >> >> >> >>> >> >> >> >> >> >>> >> ----- Original > Message ----- >> >> >> >> >>> >> > From: Hiroshi > Matsuo >> >> >> > <yiu00****@nifty*****> >> >> >> >> >>> >> > To: >> > linux****@lists***** >> >> >> >> >>> >> > Cc: >> >> >> >> >>> >> > Date: 2016/5/3, > Tue 19:30 >> >> >> >> >>> >> > Subject: > [Linux-ha-jp] >> >> > 異なるOSの混在は可能でしょうか >> >> >> >> >>> >> > >> >> >> >> >>> >> > > 初めて投稿します。松尾博と申します。 >> >> >> >> >>> >> > >> >> >> >> >>> >> > > 突飛な質問になるかもしれませんがお許しください。 >> >> >> >> >>> >> > >> >> >> >> >>> >> > os が > centos6のマシンと >> > centos7のマシンにそれぞれ >> >> >> >> >>> >> > >> >> > Pacemaker-1.1.13-1.1をインストールして一つのクラスタとすることは可 >> >> >> >> >>> >> > 能でしょうか。 >> >> >> >> >>> >> > >> >> >> >> >>> >> > >> >> >> > _______________________________________________ >> >> >> >> >>> >> > Linux-ha-japan > mailing >> > list >> >> >> >> >>> >> > >> > Linux****@lists***** >> >> >> >> >>> >> > >> >> >> > > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> >> >> >>> >> > >> >> >> >> >>> >> >> >> >> >> >>> >> >> >> > _______________________________________________ >> >> >> >> >>> >> Linux-ha-japan > mailing list >> >> >> >> >>> >> > Linux****@lists***** >> >> >> >> >>> >> >> >> >> > > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> >> >> >>> > >> >> >> >> >>> > >> >> > _______________________________________________ >> >> >> >> >>> > Linux-ha-japan mailing > list >> >> >> >> >>> > > Linux****@lists***** >> >> >> >> >>> > >> >> > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> >> >> >>> > >> >> >> >> >>> >> >> >> >> >>> >> > _______________________________________________ >> >> >> >> >>> Linux-ha-japan mailing list >> >> >> >> >>> Linux****@lists***** >> >> >> >> >>> >> >> > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> >> >> >> >> >> >> >> >> >> > _______________________________________________ >> >> >> >> >> Linux-ha-japan mailing list >> >> >> >> >> Linux****@lists***** >> >> >> >> >> >> > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> >> >> >> >> >> >> >> > >> >> >> >> > > _______________________________________________ >> >> >> >> > Linux-ha-japan mailing list >> >> >> >> > Linux****@lists***** >> >> >> >> > >> > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> >> >> > >> >> >> >> >> >> >> >> > _______________________________________________ >> >> >> >> Linux-ha-japan mailing list >> >> >> >> Linux****@lists***** >> >> >> >> > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> >> > >> >> >> >> >> >> _______________________________________________ >> >> >> Linux-ha-japan mailing list >> >> >> Linux****@lists***** >> >> >> http://lists.osdn.me/mailman/listinfo/linux-ha-japan >> >> > >> > >> >> _______________________________________________ >> Linux-ha-japan mailing list >> Linux****@lists***** >> http://lists.osdn.me/mailman/listinfo/linux-ha-japan >