個人用ツール

Pandora:Documentation ja:Virtual environment monitoring

提供: Pandora FMS Wiki JP

移動先: 案内, 検索

Pandora FMS ドキュメント一覧に戻る

目次

仮想環境モニタリング

Amazon EC2

VMware

RHEV

Nutanix

XenServer

OpenNebula

IBM HMC

HPVM


Amazon EC2

VMware

RHEV

Nutanix

XenServer

OpenNebula

IBM HMC

HPVM

Amazon EC2

To monitor EC2 in Enterprise environments, please click on this link

EC2 環境を監視するには、 こちらを参照してください。

Template warning.png

This guide corresponds to the OpenSource component for EC2 monitoring.


Template warning.png

このガイドは、オープンソースの EC2 監視用コンポーネントに対応したものです。


This specific monitor uses the CloudWatch API to monitor instances in an Amazon EC2 environment. However, you are required to have the CloudWatch service enabled in your instance. Download the EC2 module from the Pandora FMS Module Library.

ここでは、Amazon EC2 のインスタンスをモニタリングするために CloudWatch API を利用します。インスタンスにおいて、cloudwatch を有効にする必要があります。pandorafms.com のモジュールライブラリに、フリーのプラグインがあります。(EC2 で検索)

The main purpose of this remote server plugin is to obtain information from your instances by using the network server plug-in. That means you must register the plugin on the server and create different modules to obtain the information from your EC2 Servers.

このリモートサーバプラグインの基本的な考え方は、ネットワークプラグインサーバを使ってインスタンスから情報を取得するものです。つまり、サーバにプラグインを登録し、EC2 サーバの情報を異なるモジュールとして取得します。

This is an example of the execution:

以下に実行例を示します。

/home/slerena/ec2_plugin.sh -A AKIAILTVCAS26GTKLD4A -S CgmQ6DxUWES05txju+alJLoM57acDudHogkLotWk -i i-9d0b4af1 -n AWS/EC2 -m CPUUtilization

It will return a numeric percentage value of the 'CPU Usage' metric in the instance named 'i-9d0b4af1'.

これは、インスタンス i-9d0b4af1 において、"CPUUtilization" の値を返します。

To install it, follow this steps:

インストールは次のようにします。

  1. Have a running JAVA environment and a JAVA home directory. In the Pandora FMS Appliance (VMware/Image), it is located under '/usr/'.
  2. Copy this plugin to a path, change the permissions to '755' and enter the base path on the 'AWS_CLOUDWATCH_HOME' variable which is located among the first lines of the plugin. Edit the first lines of the plugin.
  1. JAVA が動作するようにし、JAVA のホームディレクトリを設定します。Pandora FMS アプライアンス(Vmwareイメージ)では、/usr/ です。
  2. プラグインを上記ディレクトリにコピーし、パーミッションを 755 にします。また、プラグインの最初の行に定義されている AWS_CLOUDWATCH_HOME 変数を設定します。プラグインの最初の行を編集する必要があります。

The plugin consists of several files:

プラグインには、いくつかのファイルがあります。

/ec2_plugin.sh: The plugin itself /ec2_plugin.sh - プラグイン本体です。 /bin/* - Components of Amazon CloudWatch (Monitoring) Command Line Tools, included in this bundle. This scripts are distributed under the Apache Licence. /bin/* - Amazon CloudWatch (モニタリング) コマンドラインツールのコンポーネントで、プラグインの配布ファイルに含まれています。このスクリプトは、Apache ライセンスに基づいて配布されています。

Put the whole package on a dir in the server, for example:

全てのファイルをサーバに展開します。例えば以下の場所です。

/usr/share/pandora_server/plugin/ec2 

And set the AWS_CLOUDWATCH_HOME to /usr/share/pandora_server/plugin/ec2

そして、AWS_CLOUDWATCH_HOME を /usr/share/pandora_server/plugin/ec2 に設定します。

If you have doubts about if it's correctly installed, execute directly this command:

正しくインストールできたか確認するには、以下のコマンドを実行します。

/usr/share/pandora_server/plugin/ec2/mon-cmd --version 

Should returl something like:

以下のように表示されます。

Amazon CloudWatch CLI version 1.0.9.5 (API 2010-08-01) 

If it returns approximately the same string, you're ready to use the plugin.

同様に表示されれば、プラグインは利用可能です。

If not, you probably need to install and configure properly the Amazon CloudWatch (Monitoring) Command Line Tools. Follow these steps to do it:

そうでなければ、おそらく、Amazon CloudWatch (モニタリング) コマンドラインツールのインストールと設定が必要です。以下のステップを実行してください。


インストール

Requirements:

  1. Please ensure that a JAVA version from version 1.5 or higher is installed on your system (the command to check this is 'java -version').
  2. Unzip the installation's zip package.
  3. Set the following environment variables:
    1. 'AWS_CLOUDWATCH_HOME': The directory where the deployment files to check with were copied to:
    2.  UNIX: 'ls ${AWS_CLOUDWATCH_HOME}/bin' (should list 'mon-list-metrics')
       Windows: 'dir %AWS_CLOUDWATCH_HOME%\bin' (should list 'mon-list-metrics')
      
    3. JAVA_HOME - Home directory of the Java installation
    4. Add to your path )
    5. '{AWS_CLOUDWATCH_HOME}/bin'(under Windows it's: '%AWS_CLOUDWATCH_HOME%\bin'
      

手順:

  1. システムに、JAVA のバージョン 1.5 もしくはそれ以上がインストールされている必要があります。(java -version)
  2. zip ファイルを展開します。
  3. 以下の環境変数を設定します。
    1. 'AWS_CLOUDWATCH_HOME': ファイルを展開したディレクトリです。確認は以下のようにします。
    2.  Unix: ls ${AWS_CLOUDWATCH_HOME}/bin で、mon-list-metrics ... が表示されます。)
       Windows: dir %AWS_CLOUDWATCH_HOME%\bin で、mon-list-metrics ... が表示されます。)
      
    3. JAVA_HOME - Java をインストールしたホームディレクトリです。
    4. パスを追加します。
    5. '${AWS_CLOUDWATCH_HOME}/bin' (Windows の場合は '%AWS_CLOUDWATCH_HOME%\bin')
      

設定

Please provide your AWS user credentials by using the command-line tools. There are two ways to provide the credentials:

  1. Using AWS passwords.
  2. Using X.509 certificates.

AWS ユーザ権限でコマンドラインツールを利用できるようにします。権限を与えるには 2つの方法があります。

  1. AWS パスワードの利用
  2. X.509 証明書の利用

AWS パスワードの利用

  • Explicitly specify credentials in the command line: --I ACCESS_KEY --S SECRET_KEY
  • Create a credentials file. The deployment includes a template file:
 ${AWS_CLOUDWATCH_HOME}/credential-file-path.template.
  • コマンドラインで明示的に認証情報を指定します。--I ACCESS_KEY --S SECRET_KEY
  • 認証ファイルを作成します。テンプレートファイルは以下にあります。
 ${AWS_CLOUDWATCH_HOME}/credential-file-path.template
  • Edit a copy of this file to add its information.
  • In UNIX, limit permissions for the owner of the credentials file:
$ chmod 600 <the file created above>.
  • 情報を追加するために、このファイルのコピーを編集します。
  • UNIX では、認証ファイルのオーナーにパーミッションを限定します。
$ chmod 600 <上記で作成したファイル>

Once the file is created, there are several ways to reference it:

ファイルを作成したら、それを参照するいくつかの方法があります。

  • Set the following environment variable:
export AWS_CREDENTIAL_FILE=<credentials file>
  • You can also provide the following option with each command
--aws-credential-file <credentials file>
  • 次の環境変数を設定します。
export AWS_CREDENTIAL_FILE=<作成した認証ファイル>
  • それぞれのコマンド実行に次のようなオプションを設定します。
--aws-credential-file <作成した認証ファイル>

X.509 Certs の利用

1. Please save your certificate and private keys to e.g. 'my-cert.pem' and 'my-pk.pem' files.

1. 公開鍵と秘密鍵をファイルに保存します。例えば、my-cert.pem および1 my-pk.pem

2. There are two ways to provide the certificate information to the command line tool:

2. コマンドラインツールに認証情報を提供するには 2種類の方法があります。

2.1. Please set the following environment variables:

2.1 次の環境変数を設定します。

       EC2_CERT=/path/to/cert/file
       EC2_PRIVATE_KEY=/path/to/key/file

2.2 Please specify the files for every command directly on the command-line:

2.2 各コマンドのコマンドラインでファイルを指定します。

       <command> --ec2-cert-file-path=/path/to/cert/file --ec2-private-key-file-path=/path/to/key/file

カスタム JVM プロパティの設定

By setting the environment variable SERVICE_JVM_ARGS, you can pass arbitrary JVM properties to the command line. For example, the following line sets proxy server properties in Linux/UNIX export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080"

環境変数 SERVICE_JVM_ARGS を設定することにより、コマンドラインに任意の JVM プロパティを渡すことができます。例えば、以下では Linux/UNIX においてプロキシサーバのプロパティを設定します。export SERVICE_JVM_ARGS="-Dhttp.proxyHost=http://my.proxy.com -Dhttp.proxyPort=8080"

実行

Check that your setup works properly, run the following command:

設定が正しくできたか確認するために、次のコマンドを実行します。

  $ mon-cmd --help

You should see the usage page for all Monitoring commands

全てのモニタリングコマンドで利用方法を表示します。

  $ mon-list-metrics --headers

You should see a header line. If you have any metrics defined, you should see them as well.

ヘッダーが表示されます。何らかの特別な定義をしていたなら、それも確認してください。

VMware

Virtual environments are very important for IT architectures, that is why monitoring these environments is crucial for the proper performance of your company. With Pandora FMS Enterprise you can have the VMware Monitoring Plugin, which allows you to control VMware architectures easily.

IT アーキテクチャにとって仮想環境はとても重要です。そのため、これらの環境を監視することは、あなたの会社のシステムの適切なパフォーマンスを確認するために必要です。Pandora FMS Enterprise では VMware Monitoring Plugin を利用でき、VMware アーキテクチャを簡単に操作することができます。

モニタする WMware アーキテクチャ

With this system, it's possible to monitor architectures like the one below.

このシステムでは、以下のようなアーキテクチャをモニタすることができます。

650px

Pandora FMS can monitor VCenter, ESXi servers, and the components that virtualize: Datastores and Virtual Machines. Pandora FMS relies on the API provided by the VMware Perl SDK for data collection.

Pandora FMS は、VCenter、ESXi サーバ、データストアおよび、データストアや仮想マシンといった仮想化コンポーネントを監視できます。Pandora FMS は、データ収集のために VMware Perl SDK が提供する API を利用します。

自動検出アプリケーションを通しての監視

Follow the steps described in this link to monitor your VMware infraestructure through Discovery.

自動検出を通して VMware インフラストラクチャの監視については、こちら を参照してください。

プラグインの要件

These are the requirements to ensure the proper performance of the VMware plugin:

VMware プラグインが適切に機能するための要件は次の通りです。

  • Pandora FMS v7.0NG.732 o superior.
  • VMware vSphere SDK para Perl
  • Pandora FMS v7.0NG.732 またはそれ以上
  • Perl 用の VMware vSphere SDK

Info.png

In Pandora FMS ISO you have all the components needed to monitor VMware available.


Info.png

Pandora FMS ISO には、VMware を監視するために必要な全コンポーネントが含まれています。


監視のための vCenter 設定

Discovery Applications VMware makes use of the metrics provided by the VMware vCenter and ESXi API. The availability of these metrics depends on the levels configured for statistics collection.

VMware の自動検出アプリケーションは、VMware vCenter および ESXi API が提供する機能を用います。これらが使用可能かどうかは、情報収集用に設定されているレベルによって異なります。

These levels could be changed inside vCenter Server Settings menu in Statistics options. You will see a description of wath counters are collected by vCenter for each time option and level. The minumum level to yse Pandora FMS monitoring plugin is Level 2

これらのレベルは、Statistics オプションの vCenter Server Settings メニューにて変更できます。vCenter で、それぞれの時間オプションとレベルで、どのカウンタを収集するかを参照することができます。Pandora FMS モニタリングプラグインが利用する最低レベルは Level 2 です。



ファイル:Niveles vmware.png



Depending on the vCenter configuration, it is possible that some modules don't report data in Pandora FMS. This can be because some plugin is missing in the vCenter, it is necessary to install a VMware agent in the entity or simply because the entity is turned off (virtual machine or ESXi). To solve these problems you should consult the VMware documentation.

vCenter の設定によっては、いくつかのモジュールは、Pandora FMS へデータを送信しません。 これは、vCenter でいくつかのプラグインが不足している場合です。これは、エンティティに VMware エージェントをインストールする必要があるか、単にエンティティがオフになっているためです(仮想マシンまたは ESXi)。これらの問題を解決するには、VMware のドキュメントを確認してください。

Some solutions, such as Hardware Status monitoring, may require advanced configuration of both the vCenter and the hosts that support ESX.

ハードウエアの状態監視などでは、vCenter および ESX をサポートするホストの高度な設定が必要になる場合があります。

VMware プラグインのデプロイ

From Pandora FMS version 732 onwards, VMware monitoring is done using the Discovery Applications system (more information in the following link.)

Pandora FMS バージョン 732 以降では、VMware の監視は、自動検出アプリケーション システムを用いて行われます。(より詳細は、こちら を参照してください。)

If for some particular reason you want to manually configure the plugin outside of this functionality, you can use the classic mode described below.

いくつかの理由によりこの機能の外で手動でプラグインを設定したい場合は、以下に説明する旧手法を使うことができます。

In Pandora FMS ISO image the VMware plugin, together with the extensions, comes preinstalled. If you need to deploy or update your version of the VMware plugin for a more recent one, please follow the steps described in the following points:

Pandora FMS ISO イメージには、拡張と合わせて VMware プラグインがあらかじめインストールされています。VMware プラグインをインストールしたり最新のバージョンにアップデートする必要がある場合は、以下に示す手順に従ってください。


手動でのプラグインデプロイ

1. Access the directory in which the files of the VMWare plugin have been extracted

1. VMware プラグインを展開したファイルがあるディレクトリへ行きます。

2. Copy vmware-plugin.{pl,conf} to the corresponding directory

2. vmware-plugin.{pl,conf} を対応するディレクトリににコピーします。

sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/
sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf}
sudo chmod g+w /usr/share/pandora_server/util/plugin/vmware-plugin.conf

3. Verify the necessary data to configure the plugin.

3. プラグインを設定するために必要なデータを確認します。

In the "Configuration" menu in the Pandora FMS console, a password can be assigned to the API just like the allowed origins.

Pandora FMS コンソールの "設定(Configuration)" メニューで、API パスワードを設定します。



ファイル:Vmware API settings.JPG


4. Edit the configuration file vmware-plugin.conf

4. 設定ファイル vmware-plugin.conf を編集します。

5. Verify the availability of VMware SDK for Perl

5. VMware SDK for Perl が使えるかどうかを確認します。

A script with the following content can be launched to validate the VMware SDK Perl installation

VMware SDK Perl のインストールを確認するには、以下のスクリプトを実行します。

#!/usr/bin/perl

use strict;
use warnings;

use VMware::VIRuntime;

print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Execute the script:

スクリプトの実行:

perl check_vmware.pl

The output should be similar to the next one:

出力結果は次のようになります。

VMware SDK Version: 6.5.0

Info.png

Verify that the SDK version is greater than or equal to the version of your VMware products.


Info.png

SDK のバージョンが VMware 製品のバージョンと同じか新しいことを確認してください。


Template warning.png

From Pandora FMS version 717 you will also need to install the perl library PluginTools.pm, (available together with the server in /usr/lib/perl5/PandoraFMS) in the computer where you want to deploy it (copy to /usr/lib/perl5/PandoraFMS in the computer that is going to execute the plugin).


Template warning.png

Pandora FMS バージョン 717 から、デプロイするマシンに perl ライブラリ PluginTools.pm のインストールも必要です(サーバと一緒に /usr/lib/perl5/PandoraFMS 以下にあります)。(プラグインを実行するマシンの /usr/lib/perl5/PandoraFMS にコピーします)


VMware vSphere SDK for Perl のインストール

Get the VMware software by visiting their Download Center.

ダウンロードセンター から、VMware ソフトウエアを入手します。

Template warning.png

If you have installed Pandora FMS using the appliance (ISO Centos) it is not necessary to install additional software as long as the version to monitor VMware is less than 6.5.


Template warning.png

アプライアンス(CentOS ベースの ISO)を用いて Pandora FMS をインストールしている場合は、監視する VMware バージョンが 6.5 以下の場合、追加のソフトウエアのインストールは不要です。


Linux SDK のインストール

Info.png

This procedure was tested for SDK versions 4.1, 5.1., 6.0 and 6.5


Info.png

この手順は、SDK バージョン 4.1、5.1、6.0、6.5 でテストしています


Template warning.png

It's always recommended to utilize the SDK version with its corresponding VMware software version, e.g.: The 4.1 VMware software is recommended to be used with the version 4.1 of the SDK.


Template warning.png

SDK は、対応する VMware ソフトウエアバージョンと同等のものを利用することをお勧めします。例えば、VMware ソフトウエアが 4.1 の場合は、4.1 の SDK を利用することをお勧めします。


Unzip the SDK package by the following command first:

最初に、次のコマンドで SDK パッケージを展開します。

# tar -xzvf VMware-vSphere-Perl-SDK-x.x.x-xxxxxx.i386.tar.gz

Then, compile and install the SDK by the following commands:

次に、次のコマンドで SDK をコンパイルおよびインストールします。

# perl Makefile.PL
# make
# make install

If the SDK was installed successfully without the appearance of any errors, you can connect with the vCenter by using the following command:

SDK のインストールが成功しエラーが表示されなければ、次のコマンドで vCenter に接続することができます。

# /usr/lib/vmware-viperl/apps/general/connect.pl --server <vcenter_ip> --username <vcenter_user> --password <vcenter_pass>

The command response should be like this:

コマンドの実行結果は次のようになります。

Connection Successful
Server Time : 2013-02-21T16:24:05.213672Z
SDK の旧バージョンから 6.5 へのアップグレード

If you are upgrading the VMware SDK, we recommend the following steps:

VMware SDK をアップグレードする場合は、以下の手順をお勧めします。

# Install the Developer Tools
yum groupinstall "Developer Tools"
# Install CPAN
yum install perl-CPAN
# Install some dependencies
yum install openssl-devel perl-Class-MethodMaker
# Unzip the VMware SDK Perl installation files 
tar xvzf VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.tar.gz
# Access the directory
cd vmware-vsphere-cli-distrib
# Launch the installer
./vmware-install.pl
# Developer Tools のインストール
yum groupinstall "Developer Tools"
# CPAN のインストール
yum install perl-CPAN
# いくつかの依存ファイルのインストール
yum install openssl-devel perl-Class-MethodMaker
# VMware SDK Perl インストールファイルの展開 
tar xvzf VMware-vSphere-Perl-SDK-6.5.0-4566394.x86_64.tar.gz
# ディレクトリへアクセス
cd vmware-vsphere-cli-distrib
# インストーラを起動
./vmware-install.pl

During the installation:

インストール中:

  • Accept the licence.
  • Indicate not to use the prebuilt modules for VMware SDK.
  • Accept the automatic installation of the modules through the CPAN automated system.
  • Verify that all the requirements have been installed correctly.
  • Indicate the directory where the VMware SDK Perl modules should be installed.
  • ライセンスを承諾
  • not to use the prebuilt modules for VMware SDK が表示される
  • CPAN 経由でのモジュールの自動インストールを承諾
  • すべての必要ファイルが正しくインストールされたか確認
  • VMware SDK Perl モジュールがインストールされるディレクトリを表示

Note: Occasionally the perl UUID package may generate errors when installed in CentOS 7, perform the following steps to add the component:

注意: perl UUID パッケージが CentOS 7 にインストールされたときにエラーを生成することがあります。コンポーネントを追加するために以下のステップを実行してください:

# Install the necessary dependencies for UUID-0.03
yum install libuuid-devel perl-JSON-PP
# Download the code packet from http://search.cpan.org/~cfaber/UUID-0.03/UUID.pm
wget http://search.cpan.org/CPAN/authors/id/C/CF/CFABER/UUID-0.03.tar.gz
# Unzip the file and access the directory
tar xvzf UUID-0.03.tar.gz
cd UUID-0.03
# Generate the necessary files for the compilation of the Perl module
perl Makefile.PL
# Compile the Perl module
make
# You should receive a response similar to Manifying blib/man3/UUID.3pm
# Install the new compiled module 
make install
# UUID-0.03 に必要な依存ファイルをインストール
yum install libuuid-devel perl-JSON-PP
# http://search.cpan.org/~cfaber/UUID-0.03/UUID.pm から必要ファイルをダウンロード
wget http://search.cpan.org/CPAN/authors/id/C/CF/CFABER/UUID-0.03.tar.gz
# ファイルを展開してディレクトリへ移動
tar xvzf UUID-0.03.tar.gz
cd UUID-0.03
# Perl モジュールのコンパイルに必要なファイルの生成
perl Makefile.PL
# Perl モジュールのコンパイル
make
# Manifying blib/man3/UUID.3pm といった表示を確認
# コンパイルしたモジュールのインストール 
make install

Once the pending modules are installed, run the VMware SDK Perl installation process again.

モジュールをインストールしたら、VMware SDK Perl のインストール処理を実行します。

./vmware-install.pl


Unfortunately, the VMware uninstaller does not completely remove previous VMware module libraries. We will have to do this step manually:

残念ながら、VMware アンインストーラは、以前の VMware モジュールライブラリを完全に削除しません。以下のように手動で削除する必要があります。

Template warning.png

Verify that the libraries have been installed correctly en/usr/lib/vmware-vcli/VMware/share/ before continuing.


Template warning.png

続ける前に、en/usr/lib/vmware-vcli/VMware/share/ にライブラリが正しくインストールされているか確認してください。


# Clean old libraries
rm -rf /usr/share/perl5/vendor_perl/VMware
rm -rf /usr/share/perl5/VMware
# Add the new VMware libraries
cp -R /usr/lib/vmware-vcli/VMware/share/VMware /usr/share/perl5/vendor_perl/
# 古いライブラリを削除
rm -rf /usr/share/perl5/vendor_perl/VMware
rm -rf /usr/share/perl5/VMware
# 新しい VMware ライブラリを追加
cp -R /usr/lib/vmware-vcli/VMware/share/VMware /usr/share/perl5/vendor_perl/

Once this is done you can launch a script with the following content to validate your installation of VMware SDK Perl

完了したら、VMware SDK Perl のインストールを確認するために、次の内容のスクリプトを実行します。

#!/usr/bin/perl

use strict;
use warnings;

use VMware::VIRuntime;

print "VMware SDK Version: " . $VMware::VIRuntime::VERSION . "\n";

Execute the script:

スクリプトの実行:

perl check_vmware.pl

The output must be as follows:

出力は次のようになります。

VMware SDK Version: 6.5.0

If the output is different please verify that you have followed all steps correctly or contact support at https://support.artica.es

出力結果が異なる場合は、すべてのステップを正しく実行したか確認してください。

Windows での SDK 設定

The version of Perl which was shipped with the vSphere SDK doesn't work with VMware's PERL libraries. Please follow these steps to fix this problem:

vSphare SDK と共に提供される Perl のバージョンでは、VMware の perl ライブラリが動作しません。問題に対処するためには次の手順を実施します。

  • Install the VMware vSphere SDK.
  • Install the Strawberry PERL version 5.12.
  • Copy the directory named 'C:\Program Files\VMware\VMware vSphere CLI\Perl\lib\VMware' to 'C:\strawberry\perl\lib'.
  • Uninstall the VMware vSphere SDK.
  • VMware vSphere SDK をインストール
  • Strawberry PERL version 5.12. をインストール
  • 'C:\Program Files\VMware\VMware vSphere CLI\Perl\lib\VMware' を 'C:\strawberry\perl\lib' へコピー
  • VMware vSphere SDK をアンインストール

プラグイン設定

You can configure the VMware plugin manually or by using the available console extension along with the downloadable VMware plugin files.

VMware プラグインは手動で設定することも、ダウンロード可能な VMware プラグインファイルと共に利用可能なコンソール拡張機能を使用して設定することもできます。

手動でのプラグイン設定

The configuration file of the VMware Environment Monitoring Plugin contains the following general elements.

VMware 環境監視プラグインの設定ファイルには、次のような要素があります。

We recommend to use the extension available in your Pandora FMS console to manage the multiple configurations of the VMware plugin.

VMware プラグインの複数の設定を管理するには、Pandora FMS コンソールの拡張を使用することをお勧めします。

You can manually edit the configuration file; remember that the lines that start with '#' will be interpreted as comments.

手動で設定ファイルを編集することができます。'#' で始まる行はコメントです。

server
FQDN or IP of the VMware server we want to monitor
user
user with permissions in vCenter
pass
user password
datacenter
Datacenter name (by default: ha-datacenter)
temporal
Temporary work directory, by default: /tmp
logfile
Log file, by default /tmp/vmware_plugin.log
entities_list
Entities to monitor file, by default /tmp/vmware_entitites_list.txt
transfer_mode
TRansfer mode from XML to Pandora, by default local
tentacle_ip
Pandora FMS server address, by default 127.0.0.1
tentacle_port
Port for Tentacle communications, by default 41121
tentacle_opts
Extra options for remote Tentacle
local_folder
In local transfer, destination folder for the report XML /var/spool/pandora/data_in
pandora_url
Web address of the Pandora FMS console, by default <nowki>http://127.0.0.1/pandora_console</nowiki>
api_pass
API password of the Pandora FMS console
api_user
User with access to the Pandora FMS API
api_user_pass
User password with API access
retry_send
Retry (1) or not (0) the XML sending in case of error (similar to buffer_xml)
event_mode
Recover VMware events information (1) or not (0)
event_pointer_file
Auxiliary index file for VMware events , by default /tmp/vmware_events_pointer.txt
Virtual network monitoring
Include the monitoring of virtual switches
Encrypt passwords
Use encrypted passwords in the configuration file
verbosity
Debug level (recommended 1)
threads
Maximum number of threads in use (recommended 4)
interval
Interval in seconds of the agents and modules that will be generated (adjust depending on the execution frequency of the plugin)
Recon Interval
Interval in seconds after which the temporary entity cache file will auto-delete to rescan the VMware infrastructure again.
group
Destination Server Group of the agents generated by the plugin
virtual_network_monitoring
Enables (1) or disables (0) the virtual switches monitoring (standard)
use_ds_alias_as_name
Enables (1) or disables (0) use the alias as agent name in datastore agents

Server, datacenter, user, pass e interval pueden ser ajustados desde la consola de Pandora

server
監視した VMware サーバの FQDN または IP。
user
vCenter で必要な権限のあるユーザ。
pass
ユーザのパスワード。
datacenter
Datacenter 名。 (デフォルト: ha-datacenter)
temporal
テンポラリディレクトリ。デフォルト: /tmp
logfile
ログファイル。デフォルト: /tmp/vmware_plugin.log
entities_list
監視するエンティティファイル。デフォルト: /tmp/vmware_entitites_list.txt
transfer_mode
XML を Pandora へ転送するモード。デフォルト: local
tentacle_ip
Pandora FMS サーバアドレス。デフォルト: 127.0.0.1
tentacle_port
tentacle ポート。デフォルト: 41121
tentacle_opts
tentacle の追加オプション。
local_folder
XML をローカル転送する場合の保存先フォルダ: /var/spool/pandora/data_in
pandora_url
Pandora FMS コンソールの Web アドレス。デフォルト: http://127.0.0.1/pandora_console
api_pass
Pandora FMS コンソールの API パスワード。
api_user
Pandora FMS API へアクセスするユーザ。
api_user_pass
API アクセスするユーザのパスワード
retry_send
XML 送信エラー時にリトライする(1) しない(0) の設定。(buffer_xml に似ています)
event_mode
VMware イベント情報をリカバーする(1) しない(0) の設定。
event_pointer_file
VMware イベントの補助インデックスファイル。デフォルト: /tmp/vmware_events_pointer.txt
Virtual network monitoring
仮想スイッチの監視を含める。
Encrypt passwords
設定ファイルでの暗号化パスワードの利用。
verbosity
デバッグレベル。(1 をお勧めします)
threads
利用する最大スレッド数。(4 をお勧めします)
interval
エージェントおよびモジュールを生成する秒間隔。(プラグインの実行頻度に応じて調整します)
Recon Interval
一時エンティティキャッシュファイルが自動削除されたのち、VMware インフラストラクチャが再スキャンされるまでの秒間隔。
group
プラグインにより生成されたエージェントのサーバグループ。
virtual_network_monitoring
仮想スイッチ監視を有効化(1) または、無効化(0) する設定。
use_ds_alias_as_name
データストアエージェントで、別名をエージェント名として利用する(1) または、しない(0) 設定。

Server, datacenter, user, pass e interval pueden ser ajustados desde la consola de Pandora

サーバ、データセンター、ユーザ、パス、間隔は、Pandora コンソールから調整できます。

Info.png

If you are using Pandora FMS 5.0 or a higher version and you want to use the plugin extensions or event monitoring, you must configure correctly Pandora FMS API. For it you will have to add an API password and give access to the pertinent addresses in the API access list. These fields are defined in the Pandora FMS console general configuration.


Info.png

Pandora FMS 5.0 以上を利用していて、かつプラグイン拡張またはイベント監視を使いたい場合は、Pandora FMS API を正しく設定する必要があります。それには、API パスワードおよび、API アクセス許可アドレスを正しく設定する必要があります。 これらの設定は、Pandora FMS コンソールの一般設定にあります。


VMware 監視の設定

Follow the steps described in Discovery to configure the monitoring of your VMware infrastructure through Discovery.

自動検出を通して VMware インフラストラクチャの監視を設定するには、アプリケーション検出: VMware で説明している手順に従います。

VMware プラグインの実行

To check the operation of your configuration you can run:

設定した機能を確認するには、次のコマンドを実行します。

perl /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf


Nota:

注意:

  • En VMware SDK 6.5.0. Si recibiera la siguiente salida durante la ejecución del plugin:
  • VMware SDK 6.5.0 で、プラグインの実行中に次のような出力が表示された場合:
Server version unavailable at 'https://your_vmwre_fqdn:443/sdk/vimService.wsdl' at /usr/local/lib64/perl5/VMware/VICommon.pm line 734.


La solución pasa por ajustar las versiones de las librerías LWP de perl:

perl LWP ライブラリのバージョンを調整することで解決します:

cpan install GAAS/libwww-perl-5.837.tar.gz



Puede elegir diferentes formas de automatizar la ejecución del plugin:

プラグインの実行を自動化する方法はいくつかあります。

Pandora FMS エージェントからのスケジュール実行

Utilizar el agente de Pandora FMS:

Pandora FMS エージェントを利用します:

Copiar vmware-plugin.{pl,conf} en un punto accesible por el agente de Pandora FMS:

Pandora FMS エージェントがアクセス可能な場所へ vmware-plugin.{pl,conf} をコピーします。

 sudo cp /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} /etc/pandora/plugins/

No hay un fichero de configuración vmware-plugin-events.conf en el .tar pero puede crearlo copiando vmware-plugin.conf y modificando 'event_mode' a 1 manualmente.

.tar には設定ファイル vmware-plugin-events.confは ありませんが、vmware-plugin.confをコピーして 'event_mode' を手動で 1に変更することで作成できます。

Ahora hay que añadir un nuevo módulo de tipo plugin al archivo de configuración del agente, con la siguiente línea:

次のように、新しいプラグインモジュールをエージェント設定ファイルに追加します。

module_plugin perl /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin.conf

Si además queremos realizar el copiado de los eventos debemos crear otro módulo plugin con un archivo de configuración diferente que habilite la copia de eventos. La sintaxis sería la siguiente:

イベントのコピーも実行したい場合は、イベントのコピーを行う別の設定ファイルを使用して別のプラグインモジュールを作成する必要があります。 構文は次の通りです。

module_plugin perl /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-events.conf

En sistemas Windows será necesario especificar el intérprete usado. El comando sería:

Windows システムでは、使用するインタプリタを指定する必要があります。 コマンドは次のようになります。

module_plugin perl "C:\Program Files\pandora_agent\util\vmware-plugin.pl" "C:\Program Files\pandora_agent\util\vmware-plugin.conf"

En las siguientes secciones se explica en detalle los parámetros del archivo de configuración del plugin.

プラグイン設定ファイルのパラメータについては、以降のセクションで詳しく説明します。

Template warning.png

El plugin de VMware requiere mucho tiempo de ejecución debido al uso de una API SOAP pesada. Por ello en sistemas con gran cantidad de entidades a monitorizar podría ser necesario distribuir la carga entre varios agentes software de Pandora FMS o elegir otro modo de programación. Toda la información al respecto está en las siguientes secciones


Template warning.png

VMware プラグインは、重い SOAP API を使用するため、多くのリソースを必要とします。 したがって、監視するエンティティが多数あるシステムでは、複数の Pandora FM Sソフトウェアエージェントに負荷を分散させるか、別のプログラミングモードを選択する必要があります。 これに関するすべての情報は次の章にあります。




システム cron からのスケジュール実行

Puede programar la ejecución del plugin desde el propio cron de sistema. Recuerde que el valor de intervalo de los elementos generados (interval en la configuración) y la periodicidad de ejecución deben ser coherentes:

システム cron からプラグインの実行を行うことができます。 生成された要素の実行間隔(設定した間隔)と実際の実行間隔は一致している必要があります。

# crontab に追加するエントリー。この設定では 600秒間隔にしています。
*/10 * * * * root perl /usr/share/pandora_server/util/plugin/vmware-plugin.pl /usr/share/pandora_server/util/plugin/vmware-plugin.conf

VMware 仮想アーキテクチャのモニタリング

To see the result of the plugin's execution go to 'Monitoring' > 'Views' > 'Agent Detail' to do so.

プラグインの実行結果を見るには、'モニタリング(Monitoring)' -> 'エージェント詳細(Agent Detail)' へ行きます。



ファイル:Menu monitoring.png



The picture below shows the agents created by the plug in along with the other Pandora FMS agents.

以下では、他の Pandora FMS エージェントと一緒にプラグインにより作成されたエージェントが表示されます。

800px



If we click on the name of an agent we will see the Pandora FMS agent view where the modules monitored by the VMware plugin will appear.

エージェント名をクリックすると、Pandroa FMS エージェント表示で VMware プラグインで監視されているモジュールを見ることができます。



Agent detail screen.jpg



The plug in displays a basic monitoring for every VMware element by default. The default settings for these entities consist of the following:

デフォルトでは、プラグインは各 VMware の要素ごとに基本的な監視項目を表示します。これらのデフォルトのエンティティ設定を以降に示します。

データセンターのデフォルトモジュール

  • Ping
  • Check 443 port

データストアのデフォルトモジュール

  • Capacity
  • Free Space
  • Disk Overallocation
  • Free Space Bytes

ESXi のデフォルトモジュール

  • CPU Usage
  • Memory Usage
  • Data received
  • Data transmitted
  • Disk Read Latency
  • Disk Write Latency
  • Host Alive

仮想マシンのデフォルトモジュール

  • CPU Usage
  • Memory Usage
  • Tools Running Status
  • Host Alive
  • Disk Free
  • Disk Read Latency
  • Disk Write Latency
  • Data received
  • Data transmitted
  • Net Usage

In the following section we are going to explain the information that reports each module in detail.

以降の章では、それぞれのモジュールの情報の詳細について説明します。

VMware 仮想アーキテクチャエージェントモジュール

Some modules may not be available depending on the VMware version and environment settings. In the following tables, the available modules and their available features will be described.

VMware のバージョンおよび環境設定により、いくつかのモジュールが存在しない場合もあります。以下に示す表では、存在するモージュールとその機能を説明します。

Info.png

The plugin allows you to configure custom ' Performance Counters for ESX hosts and virtual machines'. You can see how to do it in the section where the contents of the configuration file is detailed


Info.png

プラグインは、' ESX ホストおよび仮想マシンのパフォーマンスカウンタ' の設定をすることができます。その方法については、設定ファイルの説明の章にて説明しています。


データセンターモジュール

Module Description API Version Availability
Ping Check ping to the machine that supports vCenter All Always
Check 443 port Check to port 443 on the machine that supports the vCenter All Always
モジュール 説明 API バージョン 存在性
Ping vCenter をサポートするマシンに対して ping の監視をします すべて 常時
Check 443 port vCenter をサポートするマシンに対して 443 番ポートの応答を監視します すべて 常時

データストアエージェントモジュール

Module Description APIVersion Availability
Capacity Maximum capacity of the Datastore in bytes All Always
Free Space Datastore free space percentage All Always
Disk Overallocation Disk overallocation percentage ≥v4.0 Always
Free Space Bytes Amount of free space in bytes All Always
モジュール 説明 API バージョン 存在性
Capacity バイト単位のデータストアの最大容量 すべて 常時
Free Space データストアの空き率 すべて 常時
Disk Overallocation ディスクのオーバーロケーション率 ≥v4.0 常時
Free Space Bytes バイト単位での空き容量 すべて 常時

ESXi ホストエージェントモジュール

Module Description API Version Availability
Boot Time Last time the host was booted All Always
CPU Info [x] CPU general information (It creates one module per each ESXi CPU) All If connected
Memory Size Total amount of the host physical memory in Bytes All If connected
Overall CPU Usage Addition of the use of all CPUs in Mhz All If connected
Overall Memory Usage Physical memory used in the host in MB All If connected
Power State State of the host power ≥v2.5 Always
SSL Thumbprint Host SSL print ≥v4.0 If configured
Uptime Host Uptime in seconds ≥v4.1 If connected
VNIC Info [x] nformation about the host virtual network interfaces All If connected and configured
Host Alive Module Keep Alive kind which value is 1 if the ESX is connected and 0 if it's not All Always
Connection State State of the host connection All Always
Disk Read Rate of readed Kbps of the disk All Stats level ≥2
Disk Write Rate of written Kbps of the disk All Stats level ≥2
Disk Read Latency Latency of the disk reading in miliseconds All Stats level ≥2
Disk Write Latency Latency of the disk writing in miliseconds All Stats level ≥2
Data received Range of host received Kbps All Stats level ≥2
Data transmitted Range of host sent Kbps All Stats level ≥2
Packages Received Number of packages received in the interval All Stats level ≥2
Packages Transmitted Number of packages sent in the interval All Stats level ≥2
CPU Usage Percentage of CPU usage All Stats level ≥2
Memory Usage Percentage of RAM usage All Stats Level ≥2
Net Usage Sent and received data of all NICs All Stats level ≥2
Disk Rate Aggregated I/O rate in KB/sec All Stats level ≥2
Max. Disk Latency Max. latency of all disks All Stats level ≥2
HA Status Host HA status ≥v5.0 If configured
モジュール 説明 API バージョン 存在性
Boot Time ホストが起動した時間 すべて 常時
CPU Info [x] CPU の一般情報 (ESXi CPU ごとに一つのモジュールです) すべて 接続されている場合
Memory Size バイト単位でのホストの物理メモリ容量 すべて 接続されている場合
Overall CPU Usage Mhz 単位での全 CPU の利用状況 すべて 接続されている場合
Overall Memory Usage MB 単位でのホストでの利用物理メモリ量 すべて 接続されている場合
Power State ホストの電源状態 ≥v2.5 常時
SSL Thumbprint ホストの SSL print ≥v4.0 接続されている場合
Uptime 秒単位でのホストの uptime ≥v4.1 接続されている場合
VNIC Info [x] ホストの仮想ネットワークインタフェースの情報 すべて 接続され、設定されている場合
Host Alive ESX が接続されている場合に 1、そうでない場合に 0 になるキープアライブモジュール すべて 常時
Connection State ホストの接続状態 すべて 常時
Disk Read Kbps 単位でのディスクの読み出し速度 すべて 状態レベルが ≥2 の場合
Disk Write Kbps 単位でのディスクの書き込み速度 すべて 状態レベルが ≥2 の場合
Disk Read Latency ミリ秒単位でのディスク読み出し遅延 すべて 状態レベルが ≥2 の場合
Disk Write Latency ミリ秒単位でのディスク書き込み遅延 すべて 状態レベルが ≥2 の場合
Data received Kbps 単位でのホストが受け取ったデータ量 すべて 状態レベルが ≥2 の場合
Data transmitted Kbps 単位でのホストが送信したデータ量 すべて 状態レベルが ≥2 の場合
Packages Received 一定間隔内で受け取ったパケット数 すべて 状態レベルが ≥2 の場合
Packages Transmitted 一定間隔内で送信したパケット数 すべて 状態レベルが ≥2 の場合
CPU Usage CPU 利用率(%) すべて 状態レベルが ≥2 の場合
Memory Usage メモリ利用率(%) すべて 状態レベルが ≥2 の場合
Net Usage 全 NIC での送受信データ量 すべて 状態レベルが ≥2 の場合
Disk Rate KB/sec 単位でのトータル I/O 量 すべて 状態レベルが ≥2 の場合
Max. Disk Latency 全ディスクの最大遅延 すべて 状態レベルが ≥2 の場合
HA Status ホストの HA 状態 ≥v5.0 設定されている場合
Sensor* ハードウエアセンサーの状態 (sensor ごとに一つのモジュールです) すべて ESXi >= 3.5

仮想マシンエージェントモジュール

These modules provide information from VMware architecture point of view. If you want to monitor other paremeters related to a virtual machine you must consider other option such as Monitoring with software agents or Remote Monitoring.

これらのモジュールは、VMware アーキテクチャ視点からの情報を提供します。仮想マシンに関する他のパラメータをモニタしたい場合は、ソフトウエアエージェントを使ったモニタリングリモートモニタリングに示した手法を考慮する必要があります。



Module Description API Version Availability
Boot Time Last date where the virtual machine was booted All If connected
Connection State Connection state All Always
Consumed Overhead Memory Memory consumed by the virtual machine in MB ≥v4.0 If configured
CPU Allocation Information about the resources assigned to the virtual machine CPU All If configured
Disk Free [x] Virtual Machine Free Disk Percentage. (It will be one module for each disk that that the virtual machine contains) All If configured
Guest State Host operative system operating way All If configured
Host Info Information about the VMware host All If configured
Host Alive Module kind Keep Alive that is 1 if the virtual machine is on execution and 0 otherwise All Always
Host Memory Usage Consumed memory by the virtual machine in MB All If connected
Host Name Name of the Host Operative system All If configured
IP Address [x] System IP address (It will show one per network interface available) ≥v4.1 If configured
MAC Address [x] System MAC address. It will show one per every network interface available). All If configured
Max CPU Usage Maximum limit of the virtual machine CPU usage All If configured
Max Memory Usage Maximum limit of the virtual machine RAM Memory All If connected
Memory Allocation Limit of the resources for the memory All If configured
Memory Overhead Memory used by the virtual machine above the requirements of the host operative system in Bytes All If configured
Overall CPU Demand Basic statistics on the CPU performance in Mhz ≥v4.0 If connected
Overall CPU Usage Basic statistics on the CPU usage in Mhz All If connected
Power State Current state of the virtual machine power All Always
Private Memory Memory in MB that is given to the virtual machine of the non shared memory ≥v4.0 If connected
Shared Memory Memory in Mb that is given to the virtual machine of the shared memory ≥v4.0 If connected
Tools Running Status Current state of the VMWare Tools execution installed in the host operative system ≥v4.0 If configured
Trigger Alarm State State of the VMware alarms All If configured
Uptime Seconds Virtual machine Uptime in seconds ≥v4.1 If connected
Virtual Image Path Virtual machine configuration file path(.vmx) All Always
Disk Read Rate of the disk read Kbps All Stats level ≥2
Disk Write TRate of the disk written Kbps All Stats level ≥2
Disk Read Latency Disk Reading latency in milliseconds All Stats level ≥2
Disk Write Latency Disk writting latency in milliseconds All Stats level ≥2
Data received Host Kbps received range All Stats level ≥2
Data transmitted Host Kbps sent range All Stats level ≥2
Packages Received Number of packages received in the interval All Stats level ≥2
Packages Transmitted Number of packages received in the interval All Stats level ≥2
CPU Usage Percentage of CPU usage All Stats level ≥2
Memory Usage Porcentage of RAM usage All Stats level ≥2
Net Usage Send and received data of all NICs All Stats level ≥2
Disk Rate Aggregated I/O rate in KB/sec All Stats level ≥2
Max. Disk Latency Max. latency of all disks All Stats level ≥2
HeartBeat Number of virtual machine heartbeat All Stats level ≥2
CPU Ready Percentage of time when machine is ready but is not schedule on physical CPU All Stats level ≥2
Number Snapshots Number of snapshots for the virtual machine (This module may affect the monitoring performance', that is why we strongly recommend executing it with a hight value, for example, every hour) All If configured
HA Status HA status for the virtual machine ≥v5.0 If configured



モジュール 説明 API バージョン 存在性
Boot Time 仮想マシンが起動した時間 すべて 接続されている場合
Connection State 接続状態 すべて 常時
Consumed Overhead Memory MB 単位での仮想マシンが利用するメモリ量 ≥v4.0 接続されている場合
CPU Allocation 仮想マシンの CPU に割り当てられているリソースに関する情報 すべて 接続されている場合
Disk Free [x] 仮想マシンのディスク空き率(%) (仮想マシンのディスクごとに一つのモジュールになります) すべて 接続されている場合
Guest State ホストOSの動作状況 すべて 接続されている場合
Host Info VMware ホストに関する情報 すべて 設定されている場合
Host Alive 仮想マシンが実行されている場合は 1、そうでなければ 0 を返す、キープアライブモジュール すべて 常時
Host Memory Usage MB 単位での仮想マシンが利用しているメモリ量 すべて 接続されている場合
Host Name ホスト OS の名前 すべて 設定されている場合
IP Address [x] システムの IP アドレス (ネットワークインタフェースごとに 1つです) ≥v4.1 設定されている場合
MAC Address [x] システムの MAC アドレス (ネットワークインタフェースごとに 1つです) すべて 設定されている場合
Max CPU Usage 仮想マシンの CPU 使用率最大上限値 すべて 設定されている場合
Max Memory Usage 仮想マシンのメモリ使用率最大上限値 すべて 設定されている場合
Memory Allocation メモリのリソース制限 すべて 設定されている場合
Memory Overhead バイト単位での、ホストのメモリを超えて仮想マシンが使っているメモリ量 すべて 設定されている場合
Overall CPU Demand Mhz 単位での CPU パフォーマンスの基本統計情報 ≥v4.0 接続されている場合
Overall CPU Usage Mhz 単位での CPU 使用率の基本統計情報 すべて 接続されている場合
Power State 仮想マシンの現在の電源状態 すべて 常時
Private Memory MB 単位の共有せずに仮想マシンに割り当てられているメモリ容量 ≥v4.0 接続されている場合
Shared Memory MB 単位の共有して仮想マシンに割り当てられているメモリ容量 ≥v4.0 接続されている場合
Tools Running Status ホスト OS にインストールされている VMWare Tools の実行状況 ≥v4.0 設定されている場合
Trigger Alarm State VMware アラームの状態 すべて 設定されている場合
Uptime Seconds 秒単位での仮想マシンの uptime ≥v4.1 接続されている場合
Virtual Image Path 仮想マシンの設定ファイル(.vmx)パス すべて 常時
Disk Read Kbps 単位でのディスク読み出し速度 すべて 状態レベルが ≥2 の場合
Disk Write Kbps 単位でのディスク書き込み速度 すべて 状態レベルが ≥2 の場合
Disk Read Latency ミリ秒単位でのディスク読み出し遅延 すべて 状態レベルが ≥2 の場合
Disk Write Latency ミリ秒単位でのディスク書き込み遅延 すべて 状態レベルが ≥2 の場合
Data received Kbps 単位でのホストが受け取ったデータ すべて 状態レベルが ≥2 の場合
Data transmitted Kbps 単位でのホストが送信したデータ すべて 状態レベルが ≥2 の場合
Packages Received 一定間隔において受け取ったパケット数 すべて 状態レベルが ≥2 の場合
Packages Transmitted 一定時間において送信したパケット数 すべて 状態レベルが ≥2 の場合
CPU Usage CPU 利用率(%) すべて 状態レベルが ≥2 の場合
Memory Usage メモリ使用率(%) すべて 状態レベルが ≥2 の場合
Net Usage すべてのNICでの送受信データ量 すべて 状態レベルが ≥2 の場合
Disk Rate KB/sec 単位での全ディスク I/O 量 すべて 状態レベルが ≥2 の場合
Max. Disk Latency 全ディスクにおける最大遅延 すべて 状態レベルが ≥2 の場合
HeartBeat 仮想マシン heartbeat の数 すべて 状態レベルが ≥2 の場合
CPU Ready マシンの準備ができていて物理 CPU のスケジューリングができなかった時間の割合 すべて 状態レベルが ≥2 の場合
Number Snapshots 仮想マシンのスナップショット数 (このモジュールは監視のパフォーマンスに影響します。 そのため、1時間ごとなど実行間隔をあけることを強くお勧めします。) すべて 設定されている場合
HA Status 仮想マシンの HA 状態 ≥v5.0 設定されている場合

Template warning.png

Some modules may require to have the VMware tools installed


Template warning.png

いくつかのモジュールは、VMware tools のインストールが必要です。


VMware のイベント監視

This feature was created to copy event information from the VMware vCenter to Pandora FMS.

この機能は、VMWare vCenter から Pandora FMS へイベント情報をコピーするために作成されました。

These events belong to Pandora FMS event management workflow and are associated automatically to the agent which represents de vCenter (if any). The next picture shows an example of events generated by the recon task.

これらのイベントは、Pandora FMS イベント管理フローにのっとり、自動的に vCenter エージェントに割り当てられます。次の画面は、自動検出タスクで生成されたイベントの例です。



800px



The copy process respect all the information and severity that VMware assigns on event creation, so the events with a critical, warning or information severity levels preserved these levels in Pandora. The following picture is an example of detailed information in Pandora FMS.

コピー処理は、VMware が生成したイベントの情報や重要度を引き継ぎます。イベントにおける、障害、警告、情報といった重要度のレベルを Pandora に渡します。次の画面は Pandora FMS での詳細情報の例です。



800px



With all the events in Pandora FMS you could perform all actions available for event management for example: alert creation, filter configuration, incident creation, etc.

Pandora FMS でのすべてのイベントは、イベント管理のアクションを実行できます。たとえば、アラーと生成、フィルタ設定、インシデント作成などです。

VMware 仮想アーキテクチャの管理と表示

Two extensions are distributed along with the VMWare plug in: The VMware Manager and VMware View. VMware View allows you to easily see all the VMware architecture components. By the VMware Manager, you're also able to manage virtual machines, stopping, starting, resetting or canceling the activity from the Pandora FMS Console. These extensions are optional and are solely going to work in conjunction with Pandora FMS 4.0 or newer versions.

VMWare プラグインと一緒に、VMware Manager および VMware View という 2つの拡張を配布しています。VMware View は、VMware アーキテクチャのコンポーネントを簡単に表示することができます。また、VMware Manager は、Pandora FMS コンソールから仮想マシンの停止、起動、再起動、稼働の中止など、仮想マシンを管理することができます。これらの拡張は、Pandora FMS 4.0 以降でのみ動作するオプションです。

From the plug-in versions 4.1 and above, these extensions are encompassed by a single extension, which in turn is divided into the two above cited, and one last extension called VMware Settings. This latest extension is supported from version 5.1 of Pandora FMS and above only.

バージョン 4.1 以降のプラグインから、これらの拡張は一つにまとめられました。拡張は VMware Settings と呼びます。この新しい拡張は、Pandora FMS 5.1 以降でサポートされています。

VMware View 拡張の利用

To begin using the WMware architecture visor, click on the WMware View submenu in the View Agents menu.

VMware アーキテクチャ表示を使うには、エージェント参照の VMware View をクリックします。

Vmware view menu.png
ファイル:Vmware view welcome.png

The VMware View extension is going to display a map with all the VMware architecture discovered.

VMware View 拡張は、自動検出タスクで見つけた全 VMware アーキテクチャを含んだ以下のようなマップを表示します。



Vmware view map.png



The map contains the elements of the VMware architecture(virtual machines, ESX,Datastores and Datacenters) with different icons that identify them and also the Pandora FMS agents state that represent each element. Besides it's showed the relationship that exists between the virtual machines, ESX and DataCenter. This way, with a quick view you could see the state of the VMware architecture in a very easy way.

マップには、VMware アーキテクチャの要素(仮想マシン、ESX、データストアおよび、データセンター)が、それぞれを区別できる異なるアイコンで表示されています。また、Pandora FMS エージェントの状態がそれぞれの要素の状態を表します。さらに、仮想マシン、ESX および データセンター間の関係を表示しています。これにより、簡単にすばやく VMware アーキテクチャの状態を見ることができます。

This extension has some options that help to improve the architecture visualization hidding elements, enlarging the letter size and allowing to do zoom to could see the elements closer.

この拡張には、要素を隠したり、文字を大きくしたり、要素を拡大したりといった、アーキテクチャの表示の改善を手助けしてくれるいくつかのオプションがあります。



Vmware view map options.png



By using the previous options you could only see the Datacenter and the ESX with a font size 14 and with a zoom of 2x

上記のオプションを使って、フォントサイズ 14、2倍のズームで、データセンターと ESX だけを見ることができます。



Vmware view map options example.png



VMware ビューダッシュボード (バージョン 5.0 以上)

For Pandora FMS 5.0 or higher versions, the VMware View extension brings two additional map views of the virtual architecture topology. The new tabs allow you to switch between different views of the VMware View extension.

Pandora FMS バージョン 5.0 以上では、VMware ビュー拡張により、仮想アーキテクチャトポロジを表示する 2つの追加マップビューがあります。新たなタブでは、VMware ビュー拡張の異なる表示を切り替えることができます。

ファイル:Vmware tabs 50.png



The first view is a general dashboard where you can see the general virtual architecture in numbers at a glance: how many virtual machines, datastores or ESXi host have a problem. Furthermore, thanks to the graphs that show the five virtual machines with the most memory, CPU, disk and network consume of the entire virtual architecture, you can also check easily general performance parameters .

最初のビューは、一目で、仮想マシン、データストアや、ESXi ホスト問題が発生しているかをわかるようにした、一般的な仮想アーキテクチャを表示するダッシュボードです。さらに、グラフにより仮想アーキテクチャ全体の中で、5つの仮想マシンが使っている、メモリ、CPU、ディスク、ネットワークがわかります。一般的なパフォーマンスパラメータも簡単に確認することができます。

700px



The second view allows you to check performance parameters of each ESX host. With this view, you can choose an ESX host for which a dashboard with the status of the host and virtual machines, metrics relating to the usage of CPU, memory, disk and network ESXi host will be displayed. Furthermore, this also offers a graphical view of the the virtual machines with the most resources (CPU, memory, disk and network) consume.

2つ目のビューでは、ESX ホストのパフォーマンスパラメータを確認することができます。このビューでは、ホストおよび仮想マシンの状態を確認したい ESX ホストを選択することができます。ESXi ホストにおける CPU、メモリ、ディスク、ネットワーク利用状況が表示されます。さらに、仮想マシンのほとんどのリソース情報 (CPU、メモリ、ディスク、ネットワーク) もグラフィカルに参照することができます。

700px



VMware View オプションタブ

In Pandora FMS 7.0NG.716, the VMWare extension is included along with Pandora FMS Console Enterprise.

Pandora FMS 7.0NG 716 では、VMware 拡張は、Enterprise 版 Pandora FMS コンソールに含まれています。

Now it has a configuration panel to set dashboard and map options:

ダッシュボードおよびマップオプションを設定するための、設定パネルがあります。

  • You can adjust the view thresholds (minimum - maximum) of the dashboard graphs.
  • You can adjust the default map view settings.
  • Contains a link to the configuration management system.
  • ダッシュボードグラフでの表示閾値(最小 - 最大)を調整することができます。
  • デフォルトマップビューを調整することができます。
  • 設定管理システムへのリンクを含めることができます。

Accessible in the options tab of VMWare View:

VMware View のオプションタブ:

ファイル:Vmware view options tab.png

VMware Manager 拡張の利用

To use the VMware Manager extension you should go to the operating view of one agent that corresponds with a virtual machine in the VMware architecture. In this view you could see an icon with the WMware symbol the corresponds to the extension.

VMware Manager 拡張を利用するには、VMware アーキテクチャ内の仮想マシンエージェントの操作画面へ行きます。そこに、拡張にリンクした VMware のアイコンがあります。



Vmware manager icon.png



The VMware Manager extension allows to manage virtual machines from the Pandora FMS console. The extension shows the current state of the virtual machine with a color code (green= on, orange=off and grey=stopped), besides, in a combo it shows the available status and allows to change the state of the virtual machine selecting it clicking on the Change Status button.

VMware Manager 拡張では、仮想マシンを Pandora FMS コンソールから管理できます。拡張は仮想マシンの現在の状態を色で表示(緑=on、オレンジ=off、グレー=停止中)します。さらにコンボボックスにとりうる状態が表示され、選択して Change Status ボタンをクリックすることにより仮想マシンの状態を変更することができます。



Vmware manager options.png



With this extension, you can stop a virtual machine that is on by selecting the Stop status like the following image shows:

この拡張で、次のように Stop を選択することにより仮想マシンを停止することができます。



Vmware manager example stop.png



It stops the machine and makes the VMware Manage extension view change: now it will show that the machine is stopped as the following image shows:

これによりマシンが停止し、VMware Manage 拡張での表示が変ります。次のようにマシンが停止状態であると表示されます。



Vmware manager example stopped.png



Template warning.png

'This extension requires the installation of the VMware SDK for Perl 'on the same machine that supports the Pandora. The extension will not work without VmWare SDK for Perl


Template warning.png

この拡張を利用するには、Pandora を動作させるのと同じマシンに Perl 用 VMware SDK がインストールされている必要があります。 Perl 用 VMware SDK がインストールされていないと拡張は動きません。


プラグイン設定

By default, the VMware Recon Script adds all the checks previously explained and discovers all your entities. Through the configuration file you can configure the monitoring and choose the variables to monitor.

デフォルトでは、VMware 自動検出スクリプトは前述の通り見つけたもの全てを追加します。しかし、設定ファイルにより、監視したい対象を選択する設定が可能です。

The configuration file contains all the information necessary for monitoring, consolidated in the following sections: Configuration, Rename, Reject, Datacenter, Datastore, ESX and VM. Subsequently, each section explains its possible configuration.

設定ファイルは、Configuration, Rename, Reject, Datacenter, Datastore, ESX, VM' といったセクションの監視対象の情報を持ちます。以下に、それぞれのセクションと設定可能な内容について説明します。


Info.png

All the errors related to the configuration file are explained in the Pandora error log server and also in the event viewer of Pandora. Therefore, you can see if there is any problems in the configuration file by consulting these sources


Info.png

設定ファイルに関する全エラーは、Pandora サーバのエラーログに出力され、かつ、Pandora のイベントビューワに表示されます。これらから設定ファイルに何らかの問題があるかどうかを確認できます。


設定ファイル

全体設定

The general configuration is defined by the token named Configuration and contains the following parameters:

全般的な設定は、Configuration トークンで定義します。次のようなパラメータがあります。

  • Server: The vCenter's IP.
  • User: The vCenter's user.
  • Pass: The vCenter's password.
  • Datacenter: The Data Center you intend to monitor.
  • Temporal: The temporary directory.
  • Logfile: The log file's location.
  • entities_list: The file location, containing the list of the monitored entities.
  • transfer_mode: The transfer mode for XMLs. It can be 'tentacle' or 'local'.
    • Tentacle: It sends XMLs files to the Pandora FMS Server by using the Tentacle protocol.
    • Local: It copies files found in a local folder. The agent is required to be executed on the same machine on which the local folder is located.
  • tentacle_ip: The Pandora FMS Server IP to which the information is sent.
  • tentacle_port: The Pandora FMS server port to which the information is sent (default value is '41121').
  • tentacle_opts: Some additional options for sending with Tentacle (default value is 'none').
  • local_folder: The destination directory to copy XMLs with local mode turned on.
  • pandora_url: The Pandora FMS console's URL (e.g. 'http://192.168.70.81/pandora_console').
  • api_pass: The Pandora FMS API password.
  • api_user: The Pandora FMS Console user.
  • api_user_pass: The Pandora FMS Console's user password.
  • retry_send: Actives (1) or deactivates (0) the .data files resend.
  • event_mode: The flag which enables the event collecting mode. If it's set to '1', the event collecting mode is enabled. If it's set to '0', the event collecting mode is disabled.
  • event_pointer_file: The temporary file location which stores the pointer to the collection events.
  • Verbosity: The log level (please set it to '0' for errors which prevent the plug-in's operation and to '1' for all errors).
  • Threads: The number of plug-in threads (default value is '1').
  • Interval: The agent's interval which represents the VMware entities.
  • server: vCenter の IP アドレス。
  • user: vCenter ユーザ。
  • pass: vCenter パスワード。
  • datacenter: 監視するデータセンター。
  • temporal: テンポラリディレクトリ。
  • logfile: ログファイルの場所。
  • entities_list: 監視対象エンティティ一覧のファイルの場所。
  • transfer_mode: XML の転送モード。tentacle または local が指定できます。
    • tentacle: Pandora FMS サーバへ Tentacle プロトコルを用いて XML を送信します。
    • local: ファイルをローカルのホルダにコピーします。指定したローカルホルダがあるのと同じマシンでエージェントを動かす必要があります。
  • tentacle_ip: 情報を送信する Pandora サーバの IP アドレス。
  • tentacle_port: 情報を送信する先のポート番号。デフォルトは 41121。
  • tentacle_opts: Tentacle で送信する場合の追加オプション。(デフォルトはなし)
  • local_folder: local モードの場合の XML のコピー先ディレクトリ。
  • pandora_url: Pandora FMS コンソール URL。(例: http://192.168.70.81/pandora_console).
  • api_pass: Pandora FMS API パスワード。
  • api_user: Pandora FMS コンソールユーザ。
  • api_user_pass: Pandora FMS コンソールユーザのパスワード。
  • retry_send: .data ファイルの再送の有効化(1)/無効化(0)。
  • event_mode: イベント収集モードを有効にするためのフラグ。1 の場合はイベント収集モードが有効となり、0 の場合は無効となります。
  • event_pointer_file: イベントを収集するためのポインタを保存するためのテンポラリファイルの場所。
  • verbosity: ログレベル。(0 ではプラグインの実行エラー出力を抑制し、1 ではすべてのエラーを出力します。)
  • threads: プラグインスレッドの数。(デフォルトは 1)
  • interval: VMware エンティティを表すエージェントインターバル。

An example of this section in the configuration file might be the following:

このセクションの設定例を以下に示します。

Configuration
server 192.168.70.249
user Administrator
pass S1stemas
datacenter artica
temporal /tmp
logfile /tmp/vmware_plugin.log
entities_list /tmp/vmware_entities_list.txt
transfer_mode tentacle
tentacle_ip 192.168.70.81
tentacle_port 41121
tentacle_opts
local_folder /var/spool/pandora/data_in
pandora_url http://192.168.70.81/pandora_console
api_pass 1234
api_user admin
api_user_pass pandora
event_mode 0
event_pointer_file /tmp/vmware_events_pointer.txt

Info.png

If you are using the plugin on Windows, you will have to change all the file paths for routes compatible with Windows.


Info.png

Windows のプラグインを利用している場合は、パスの表記を Windows に合わせてください。


エンティティのスキャン

Info.png

To use this feature in Discovery, add the desired configuration within Extra settings.


Info.png

自動検出でこの機能を利用するには、Extra settings に設定を追加します。


Due to the size of the clients' VMware infrastructures, a general scan of all available entities in each run could trigger performance issues.

クライアントの VMware インフラストラクチャのサイズが大きいため、各実行で利用可能なすべてのエンティティの一般的なスキャンはパフォーマンスの問題を引き起こす可能性があります。

To avoid this situation, the VMware monitoring plugin has the entity file (entities_list) where it stores the list of entities scanned in the first execution.

この状況を避けるために、VMware 監視プラグインには、最初の実行でスキャンされたエンティティの一覧を格納するエンティティファイル(entities_list)があります。

As long as this file exists, the monitoring will be limited to the entities indicated in it.

このファイルが存在する限り、監視はその中に示されているエンティティに制限されます。

If you need a periodic scan of your VMware infrastructure, you can delete this file from time to time (e.g. every hour) using the cron system.

VMware インフラストラクチャを定期的にスキャンする必要がある場合は、cron システムを使用してこのファイルを時々(たとえば 1時間ごとに)削除できます。

エンティティの名前変更

Info.png

To use this feature in Discovery, add the desired configuration within Extra settings.


Info.png

自動検出でこの機能を利用するには、Extra settings に設定を追加します。


Entity renaming is done using the Rename token and allows entities discovered by the plugin to be renamed. By using this feature, the agents created in Pandora will appear with the new name assigned. The structure of this section is the following:

エンティティの名前変更は Renameトークンを使用して行います。プラグインによって検出されたエンティティの名前の変更ができます。 この機能を使用すると、Pandora で作成されたエージェントは新しい名前が割り当てられて表示されます。このセクションの書式は次の通りです。

<現在の名前> TO <新しい名前>

A good configuration example could be like the one below.

設定例を以下に示します。

#Rename entities
Rename
Debian 11 TO Virtual Machine 1
RedHat 12 TO Web server 
ESX Workstation TO Host Work Sales
エンティティの除外

Info.png

To use this feature in Discovery, add the desired configuration within Extra settings.


Info.png

自動検出でこの機能を利用するには、Extra settings に設定を追加します。


The plug in allows you to dismiss entities by type or individually. Both options are explained below.

プラグインは、タイプまたは個別にエンティティを除外できます。両方のオプションを以下に説明します。

The dismiss function uses the token Reject to dismiss entities. In this section, you can dismiss entities according to their type, e.g. all virtual machines or all ESX hosts. The accepted values for this function are the following: all_datastore, all_datacenter, all_esx and all_vm.

エンティティの除外には、Reject トークンを利用します。このセクションでは、タイプによってエンティティを除外します。例えば、全仮想マシンや全 ESX ホストです。ここで設定可能な値は、all_datastore, all_datacenter, all_esx, all_vm のいずれかです。

A configuration for this section that would dimiss all the entities would be like the on below.

このセクションで、すべてのエンティティを除外する設定は次の通りです。

#Dismissed entities
Reject
all_datastore
all_datacenter
all_esx
all_vm

To dismiss entities individually, you have to delete the entity file created by the plugin. The plugin creates this file in the location indicated by the parameter entities_list (by default /tmp/vmware_entities_list.txt). This plugin fills the content of this file with the first execution, or creates a list with all the discovered enities (when it does not exist). A good example of this file could be like the one below.

個別のエンティティを除外するには、プラグインにより作成されたエンティティファイルを削除する必要があります。プラグインは、このファイルを entities_list パラメータに示された場所 (デフォルトは /tmp/vmware_entities_list.txt) に作成します。プラグインは、検出した全エンティティのリストを書いたファイルを最初の実行時(ファイルが存在しない場合)に生成します。このファイルの例を以下に示します。

Datacenter
artica
Datastore
datastore_1
datastore2
ESX
192.168.70.252
VM
Pandora FMS 4.0.3
Debian2
Debian3
Debian4
Redhat
debian5
Debian6
Debian8
Debian7
Debian11
Debian10
Debian9
NSM
Pandora
vcenter
suse11.2

The configuration file is divided in several tokens: Datacenter, Datastore, ESX y VM where different entities are listed. Once the configuration file is created, the plugin will read the entities to monitor. If you wish to dismiss certain entity, you just have to delete it from the folder. If, for example, you do not want to monitor the following entities: Debian2, datastore2, NSM, suse11.2 and 192.168.70.252, the configuration file will be like the one below:

設定ファイルは、異なるエンティティがリストアップされた Datacenter, Datastore, ESX, VM といったいくつかのトークンで分かれています。設定ファイルが作成されると、プラグインは監視するエンティティを読み込みます。特定のエンティティを除外したい場合は、フォルダーからそのファイルを削除します。例えば、Debian2, datastore2, NSM, suse11.2 および 192.168.70.252 のエンティティを監視したくない場合は、設定ファイルは次のようになります。

Datacenter
artica
Datastore
datastore_1
ESX
VM
Pandora FMS 4.0.3
Debian3
Debian4
Redhat
debian5
Debian6
Debian8
Debian7
Debian11
Debian10
Debian9
Pandora
vcenter

This feature allows you to distribute the monitoring loading by limiting the number of monitored entities in every plugin execution. Below, more loading distribution techniques will be explained.

この機能により、各プラグインの実行における監視対象のエンティティを制限し監視の負荷を分散させることができます。以下に、より詳しい負荷分散のテクニックを説明します。

監視設定

Info.png

To use this feature in Discovery, add the desired configuration within Extra settings


Info.png

自動検出でこの機能を利用するには、Extra settings に設定を追加します。


The next file sections configure the modules created for every type of entity. These sections use the Datacenter, Datastore, ESX and VM sections. In these sections, you can enable and disable modules to monitor. For the following example, we have performed a configuration according to the modules that we would like to create for the ESX and virtual machines.

次のセクションは、すべてのタイプのエンティティにおいて作成されたモジュールの設定です。これらのセクションでは、Datacenter, Datastore, ESX および VM を使います。監視するモジュールの有効・無効を設定できます。以下の例は、ESX および仮想マシンのモジュールに関する設定です。

...
#ESX Modules
ESX
cpuUsagePercent disabled
diskRead enabled
diskWrite enabled

#VM Modules
VM
diskReadLatency disabled
diskWriteLatency disabled
diskRate enabled
...

Every configuration line is a module. Although in the example above, all the modules are created with default values, you can configure the following values: name, description and limits for warning and critical status. An example of this type of configuration would be like the one below.

各設定行がモジュールです。上記の例ではすべてのモジュールがデフォルトの値で作成されていますが、名前、説明、警告および障害状態の閾値は、設定変更することができます。この設定例を以下に示します。

...
#VM Modules
VM
diskReadLatency disabled
diskWriteLatency disabled
diskRate name = Disk Rate; desc = Lec Rate/Esc disk; limits_warn = 5 10; limits_crit = 0 4
...

The options available for the module configuration are the following ones:

モジュール設定のオプションは、次の通りです。

  • <module> disabled: The module will NOT be created
  • <module> enabled: The module "WILL" be created (with values by default)
  • <module> name = <nombre>; desc = <description>; limits_warn <lim_warn>; limits_crit <lim_crit>: The module will be created with the name and description given. The module will define thresholds for maximum and minimum states with Critical Warning
  • <モジュール名> disabled: モジュールは作成されません
  • <モジュール名> enabled: (デフォルト値で)モジュールが作成されます。
  • <モジュール名> name = <名前>; desc = <説明>; limits_warn <警告閾値>; limits_crit <障害閾値>: 指定した名前および説明でモジュールが作成されます。障害と警告の最大・最小閾値を定義します。

Please keep in mind that it's very important to respect the structure of the configuration file lines, and above all seeing that the character ; is attached to the name and description of the module. These two lines are NOT EQUIVALENT (see spaces before character ;):

設定ファイルの行の構造を尊重することが非常に重要であり、とりわけ、 ";" 文字がモジュールの名前と説明に付加されていることが重要です。これらの 2行は 等しくないです(";" 文字の前の空白を確認してください)。

diskRate name = Disk Rate; desc = Lec Rate/Esc Disk; limits_warn = 5 10; limits_crit = 0 4
diskRate name = Disk Rate    ; desc = Lec Rate/Esc disk    ; limits_warn = 5 10; limits_crit    = 0    4

Modules are referenced by their short names or a simpler equivalent name to write it in the command line. The short and full names mapping tables are explained in the next section.

モジュールは、コマンドラインで記述する場合は、その短い名前または簡単な名前で参照されます。短い名前と長い名前のマッピングは、次の節で説明します。

Let's analyse the configuration of the example above. We have configured the Disk Rate module that will be created with the following values:

上記設定例を確認してみましょう。次に示す値で作成される Disk Rate モジュールを設定しています。

* Nombre: Disk Rate
* Descripción: Lec Rate/Esc disk
* Min Warning: 5
* Max Warning: 10
* Min Critical: 0
* Max Critical: 4
* 名前: Disk Rate
* 説明: Lec Rate/Esc disk
* 警告の最小値: 5
* 警告の最大値: 10
* 障害の最小値: 0
* 障害の最大値: 4

There are modules generated dynamically. For example, those modules on disks or network interfaces. For these metrics, the plugin creates a module for each element discovered. These modules have special names in Pandora FMS, for example:

動的に生成されるモジュールがあります。例えば、ディスクやネットワークインタフェースのモジュールです。これらのメトリックでは、プラグインは検出したそれぞれのエレメントごとにモジュールを作成します。これらのモジュールは、Pandora FMS 内で特別な名前を持ちます。例えば次の通りです。

Disk Free [0]
Disk Free [1]
Disk Free [2]
...

In these cases, since the name has a dynamic part, it is allowed to use macro%s that will be replaced by the variable part of the module name. An example of dynamic module configuration would be the following one:

これらの場合、名前に動的な部分があり、%s マクロを使ってモジュール名の数値部分を置き換えることができます。動的モジュールの設定例を以下に示します。

diskfree name = Disk (% s) free space; desc = Free space for disk; limits_warn = 0 0; limits_crit = 0 0

In this case, the default module name would be like that:

この場合、デフォルトのモジュール名は次の通りですが、

 Free Disk [0]

And will be renamed:

次のように変更されます。

 Disk (0) free space

From the version 5.0, you can set text strings for the limits of the Warning and Critical status of the modules. The configuration would look like this:

バージョン 5.0 からは、モジュールの警告および障害状態判断に文字列を利用することができます。次のような設定になります。

 PowerState operation name = State; desc = VM operating state; limits_warn =. * suspended. *; limits_crit =. * poweredOff. *

You can configure regular expressions to provide greater flexibility in setting limits.

判定基準を定義するのに自由度の高い正規表現を利用することができます。

カスタムパフォーマンス測定

Info.png

To use this feature in Discovery, add the desired configuration within Extra settings


Info.png

自動検出でこの機能を利用するには、Extra settings に設定を追加します。


In this section you can configure new modules for Performance Counters', virtual machines and ESX. To set a new performance module, you have to use the following structure:

この節では、仮想マシンと ESX のパフォーマンスカウンタのための新たなモジュールを設定します。新たなパフォーマンスモジュールを設定するには、次の構造を利用します。

custom_performance type = mem; metric = swapinRate; module_type = generic_data; name = Swap In Rate; desc = Swap In Rate for host; limits_warn = 0 0; limits_crit = 0 0

These are the parameters to set:

設定パラメータは次の通りです。

  • Type: Type of metrics to monitor. The types of metrics are:
    • Cpu: CPU
    • Mem: Memory
    • Disk: Disk
    • Net: Network
    • Sys: System
  • Metric: The metrics to monitor (explained later view metrics where available).
  • Module_type: The Pandora FMS module type (e.g. 'generic_data').
  • Name: The module's name.
  • Desc: The description of the module.
  • Limits_warn: The 'Warning' limits for the state.
  • Limits_crit: The 'Critical' state-limits.
  • Type: 監視するメトリックのタイプ。指定可能なタイプは次の通りです。
    • 'Cpu' CPU
    • 'Mem': メモリ
    • 'Disk': ディスク
    • 'Net' ネットワーク
    • 'Sys': システム
  • Metric: 監視するメトリック。(メトリックの表示にて後述します)
  • Module_type: Pandora のモジュールタイプ。(例 generic_data).
  • Name: モジュール名。
  • Desc: モジュールの説明。
  • Limits_warn: 警告閾値
  • Limits_crit: 障害閾値

You can check the available metrics for each type in the Performance section of each entity. This view shows performance metrics that can be monitored with the VMware plugin and is in the vCenter. For example, the following image shows the Performance view for an ESX host. それぞれのエンティティの Performance セクションのそれぞれのタイプに存在するメトリックを確認できます。以下では、VMware プラグインで vCenter 内より監視できるパフォーマンスメトリックを表示しています。例えば、以下の例では、ESX ホストの Performance view を表示しています。

800px



To see a complete list of all the metrics sorted by type, please click on the Advanced button and then on the Char option button. A window which contains a list of all metric types and their respective metrics are going to be displayed like the ones on the picture below:

タイプごとのすべてのメトリックの一覧を参照するには、Advanced ボタンをクリックし、Char オプションボタンをクリックします。以下のように、メトリックの全タイプの一覧と、それぞれのタイプのメトリックのウインドウが表示されます。



600px



For each type of metric will appear a number of counters (the variables that you can monitor with Pandora). To monitor a variable, you have to use your Internal Name. Besides, you have to make sure that the level of statistics (configured in the vCenter) shows the variable you seek through a comparison of the variable with the Collection Level of the metric.

メトリックの各タイプには、カウンタ番号(Pandoraで監視できる値)があります。値を監視するには、内部の Name を利用する必要があります。さらに、(vCenterで設定されている)状態レベルをメトリックの Collection Level と比較検索して確認する必要があります。



600px



If, for example, you wish to see the CPU usage of an ESX host, you should search for cpy type variables for an ESX and select utilization. In this case, the line that you have to add to the configuration file will be like the one below. 例えば、ESX ホストの CPU 使用率を見たい場合は、ESX の CPU タイプの値を探し、utilization を選択します。この場合、設定ファイルに追加する必要がある設定は、次のようになります。

custom_performance type = cpu; metric = utilization; module_type = generic_data, name = CPU Utilization, desc = CPU Utilization for ESX; limits_warn = 0 0; limits_crit = 0 0

同一エージェントでの複数データセンターの監視

Each plugin module configured in the agent monitors a datacenter, so if you want to monitor several datacenter with the same Pandora FMS software agent, it will be necessary to take the following considerations.

エージェントに設定したそれぞれのプラグインモジュールが、データセンターを監視します。複数のデータセンターを一つの Pandora FMS ソフトウエアエージェントで監視したい場合は、次の事に注意してください。

  • It is necessary to add a module_plugin for each datacenter to monitor, for example
  • 監視するそれぞれのデータセンター用に module_plugin を追加する必要があります。例えば、次の通りです。
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
  • In each configuration file it will be necessary to change the parameters: logfile, entities_list, event_pointer_file. The configuration files would look like this:
  • それぞれの設定ファイルで、logfileentities_listevent_pointer_file パラメータを変更する必要があります。設定ファイルは次のようになります。

vmware-plugin-datacenter1.conf

 ...
 logfile / tmp/vmware_plugin_datacenter1.log
 entities_list / tmp/vmware_entities_list_datacenter1.txt
 event_pointer_file / tmp/vmware_events_pointer_datacenter1.txt
 ...

vmware-plugin-datacenter2.conf

 ...
 logfile / tmp/vmware_plugin_datacenter2.log
 entities_list / tmp/vmware_entities_list_datacenter2.txt
 event_pointer_file / tmp/vmware_events_pointer_datacenter2.txt
 ...
  • If you also want to copy events, you must have two more plugin modules with the respective configuration files and activate the flag event_mode. The configuration of the module_plugin would look like this:
  • また、イベントをコピーしたい場合は、2つ以上のプラグインモジュールを設定ファイルに追加し、event_mode フラグを有効にします。module_plugin の設定は次のようになります。
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter1-events.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2.conf
module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-datacenter2-events.conf

複数の Pandora サーバ間での監視の負荷分散

The options of plugin configuration file allow you to distribute monitoring load between Pandora FMS server easily.

プラグイン設定ファイルのオプションで、Pandora FMS サーバ間で監視の負荷分散ができます。

For example, imagine we have this structure in our virtualization environment:

たとえば、仮想環境が次のような構成だとします。

DC
|
|- Datastore_1
|- DataStore_2
|
|- ESX_1
      |- mv1.1
      |- mv1.2
      |- mv1.3

|- ESX_2
      |- mv2.1
      |- mv2.2
      |- mv2.3

In our environment we have two Pandora FMS servers for monitoring. A esay way to split the load is to monitor the Datacenter, Datastores and ESX in the first server and all virtual machines in the second one. The configuration file for recon script will be the following:

この環境において、監視のための 2つの Pandora FMS サーバがあります。負荷を分散する簡単な方法としては、データセンター、データストア、ESX を 1台目のサーバで監視し、仮想サーバを 2台目のサーバで監視します。自動検出スクリプトの設定ファイルは、次のようになります。

Server 1:

サーバ 1:

Reject
all_vm

Server 2:

サーバ 2:

Reject
all_datacenter
all_datastore
all_esx

Server 1 will monitor all except virtual machines and Server 2 will only monitor the virtual machines.

サーバ 1 は、仮想マシン以外のすべてを監視し、サーバ 2 は、仮想マシンのみを監視します。

Another option is to split monitoring by ESX server, the first Pandora server will monitor all related to the first ESX and the second all related to second ESX. The configuration files will be as follows:

他の分散方法としては、ESX サーバごとに監視を分ける方法です。1台目の Pandora サーバが、1台目の ESX サーバに関するすべてを監視し、2台目が 2台目の ESX を監視します。設定ファイルは次のようになります。

Server 1:

サーバ 1:

Datacenter
DC
Datastore
Datastore_1
ESX
ESX_1
VM
mv1.1
mv1.2
mv1.3

Server 1 ignores everything related to the second group of VMware entities. It's going to monitor the first part of the environment.

サーバ 1 は、2つ目の VMware グループに関連するすべてを無視します。それにより、1つ目の環境のみ監視します。

Server 2:

サーバ 2:

Datastore
DataStore_2
ESX
ESX_2
VM
mv2.1
mv2.2
mv2.3

Server 2 dismiss all related to first group of VMware entities in addition to Datacenter, because this entities are monitored by Server 1.

サーバ 2 は、1つ目の VMware グループに関連するすべてとデータセンターを無視します。データセンターは、サーバ 1 で監視されるエンティティのためです。

The feature to reject entities is very flexible and allows you to split the load by assigning a few entities to each Pandora FMS Agent.

エンティティを対象外にする機能はとても柔軟で、それぞれの Pandora FMS エージェントに少ないエンティティを割り当てることにより、負荷を分散することができます。

設定ファイル例

すべてのモジュールを無効にするファイル
#These lines are comments

#Datastore Modules
Datastore
capacity disabled
freeSpace disabled 
overallocation disabled

#ESX Modules
ESX
bootTime disabled
cpuInfo disabled
memorySize disabled
overallCpuUsage disabled
overallMemoryUsage disabled
powerState disabled
sslThumbprint disabled
uptime disabled
vnicInfo disabled
hostAlive disabled
connectionState disabled
diskRead disabled
diskWrite disabled
diskReadLatency disabled
diskWriteLatency disabled
netReceived disabled
netTransmitted disabled
netPkgRx disabled
netPkgTx disabled
cpuStatus disabled
storageStatus disabled
memStatus disabled
memoryAllocation disabled 

#VM Modules
VM
bootTime disabled
connectionState disabled
consumedOverheadMemory disabled 
cpuAllocation disabled
diskFree disabled
guestState disabled
host disabled
hostAlive disabled
hostMemoryUsage disabled
hostName disabled
ipAddress disabled
macAddress disabled
maxCpuUsage disabled
memoryAllocation disabled
memoryOverhead disabled
overallCpuDemand disabled
overallCpuUsage disabled
powerState disabled
privateMemory disabled
sharedMemory disabled
toolsRunningStatus disabled
triggeredAlarmState disabled
uptimeSeconds disabled
virtualImagePath disabled
uptimeSeconds disabled
diskRead disabled
diskWrite disabled
diskReadLatency disabled
diskWriteLatency disabled
netReceived disabled
netTransmitted disabled
netPkgRx disabled
netPkgTx  disabled

短い名前の関係表

データセンター
長い名前 短い名前
Ping ping
Check 443 port check443
データストア
長い名前 短い名前
Capacity capacity
Free Space freeSpace
Disk Overallocation overallocation
Free Space Bytes freeSpaceBytes
ESX
長い名前 短い名前
Boot Time bootTime
CPU Info cpuInfo
Memory Size memorySize
Overall CPU Usage overallCpuUsage
Overall Memory Usage overallMemoryUsage
Power State powerState
SSL Thumbprint sslThumbprint
Uptime uptime
VNIC Info vnicInfo
Host Alive hostAlive
Connection State connectionState
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HA Status haStatus
Sensor* haStatus
仮想マシン
長い名前 短い名前
Boot Time bootTime
Connection State connectionState
Consumed Overhead Memory consumedOverheadMemory
CPU Allocation cpuAllocation
Disk Free diskFree
Guest State guestState
Host Info host
Host Alive hostAlive
Host Memory Usage hostMemoryUsage
Host Name hostName
IP Address ipAddress
MAC Address macAddress
Max CPU Usage maxCpuUsage
Max Memory Usage maxMemoryUsage
Memory Allocation memoryAllocation
Memory Overhead memoryOverhead
Overall CPU Demand overallCpuDemand
Overall CPU Usage overallCpuUsage
Power State powerState
Private Memory privateMemory
Shared Memory sharedMemory
Tools Running Status toolsRunningStatus
Trigger Alarm State triggeredAlarmState
Uptime Seconds uptimeSeconds
Virtual Image Path virtualImagePath
Disk Read diskRead
Disk Write diskWrite
Disk Read Latency diskReadLatency
Disk Write Latency diskWriteLatency
Data received netReceived
Data transmitted netTransmitted
Packages Received netPkgRx
Packages Transmitted netPkgTx
CPU Usage cpuUsagePercent
Memory Usage memoryUsagePercent
Net Usage netUsage
Disk Rate diskRate
Max Disk Latency maxDiskLatency
HeartBeat heartbeat
CPU Ready cpuReady
Number Snapshots snapshotCounter
HA Status haStatus

イベントテーブル

Info.png

This list of events will help you configure alerts of events in Pandora FMS. For a complete and updated reference of all possible events, you should check the VMware documentation


Info.png

このイベント一覧は、Pandora FMS でイベントのアラートを設定するのに役立ちます。正しい最新のイベント一覧は、VMware のドキュメントを確認してください。


イベント 重要度 イベントタイプ グループ
An account was created on host {host.name} Informational System All
Account {account} was removed on host {host.name} Informational System All
An account was updated on host {host.name} Informational System All
The default password for the root user on the host {host.name} has not been changed Informational System All
Alarm '{alarm.name}' on {entity.name} triggered an action Informational System All
Created alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} sent email to {to} Informational System All
Alarm '{alarm.name}' on {entity.name} cannot send email to {to} Critical System All
Reconfigured alarm '{alarm.name}' on {entity.name} Informational System All
Removed alarm '{alarm.name}' on {entity.name} Informational System All
Alarm '{alarm.name}' on {entity.name} ran script {script} Informational System All
Alarm '{alarm.name}' on {entity.name} did not complete script: {reason.msg} Critical System All
Alarm '{alarm.name}': an SNMP trap for entity {entity.name} was sent Informational System All
Alarm '{alarm.name}' on entity {entity.name} did not send SNMP trap: {reason.msg} Critical System All
Alarm '{alarm.name}' on {entity.name} changed from {from.@enum.ManagedEntity.Status} to {to.@enum.ManagedEntity.Status} Informational System All
All running virtual machines are licensed Informational System All
User cannot logon since the user is already logged on Informational System All
Cannot login {userName}@{ipAddress} Critical System All
The operation performed on host {host.name} in {datacenter.name} was canceled Informational System All
Changed ownership of file name {filename} from {oldOwner} to {newOwner} on {host.name} in {datacenter.name}. Informational System All
Cannot change ownership of file name {filename} from {owner} to {attemptedOwner} on {host.name} in {datacenter.name}. Critical System All
Checked cluster for compliance Informational System All
Created cluster {computeResource.name} in {datacenter.name} Informational System All
Removed cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Insufficient capacity in cluster {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Reconfigured cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Configuration status on cluster {computeResource.name} changed from {oldStatus.@enum.ManagedEntity.Status} to {newStatus.@enum.ManagedEntity.Status} in {datacenter.name} Informational System All
Created new custom field definition {name} Informational System All
Removed field definition {name} Informational System All
Renamed field definition from {name} to {newName} Informational System All
Changed custom field {name} on {entity.name} in {datacenter.name} to {value} Informational System All
Cannot complete customization of VM {vm.name}. See customization log at {logLocation} on the guest OS for details. Informational System All
An error occurred while setting up Linux identity. See log file '{logLocation}' on guest OS for details. Critical System All
An error occurred while setting up network properties of the guest OS. See the log file {logLocation} in the guest OS for details. Critical System All
Started customization of VM {vm.name}. Customization log located at {logLocation} in the guest OS. Informational System All
Customization of VM {vm.name} succeeded. Customization log located at {logLocation} in the guest OS. Informational System All
The version of Sysprep {sysprepVersion} provided for customizing VM {vm.name} does not match the version of guest OS {systemVersion}. See the log file {logLocation} in the guest OS for more information. Critical System All
An error occurred while customizing VM {vm.name}. For details reference the log file {logLocation} in the guest OS. Critical System All
dvPort group {net.name} in {datacenter.name} was added to switch {dvs.name}. Informational System All
dvPort group {net.name} in {datacenter.name} was deleted. Informational System All
Informational System All
dvPort group {net.name} in {datacenter.name} was reconfigured. Informational System All
dvPort group {oldName} in {datacenter.name} was renamed to {newName} Informational System All
HA admission control disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA admission control enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
Re-established contact with a primary host in this HA cluster Informational System All
Unable to contact a primary HA agent in cluster {computeResource.name} in {datacenter.name} Critical System All
All hosts in the HA cluster {computeResource.name} in {datacenter.name} were isolated from the network. Check the network configuration for proper network redundancy in the management network. Critical System All
HA disabled on cluster {computeResource.name} in {datacenter.name} Informational System All
HA enabled on cluster {computeResource.name} in {datacenter.name} Informational System All
A possible host failure has been detected by HA on {failedHost.name} in cluster {computeResource.name} in {datacenter.name} Critical System All
Host {isolatedHost.name} has been isolated from cluster {computeResource.name} in {datacenter.name} Warning System All
Created datacenter {datacenter.name} in folder {parent.name} Informational System All
Renamed datacenter from {oldName} to {newName} Informational System All
Datastore {datastore.name} increased in capacity from {oldCapacity} bytes to {newCapacity} bytes in {datacenter.name} Informational System All
Removed unconfigured datastore {datastore.name} Informational System All
Discovered datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Multiple datastores named {datastore} detected on host {host.name} in {datacenter.name} Critical System All
<internal> Informational System All
File or directory {sourceFile} copied from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
File or directory {targetFile} deleted from {datastore.name} Informational System All
File or directory {sourceFile} moved from {sourceDatastore.name} to {datastore.name} as {targetFile} Informational System All
Reconfigured Storage I/O Control on datastore {datastore.name} Informational System All
Configured datastore principal {datastorePrincipal} on host {host.name} in {datacenter.name} Informational System All
Removed datastore {datastore.name} from {host.name} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Renamed datastore from {oldName} to {newName} in {datacenter.name} Informational System All
Disabled DRS on cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
Enabled DRS on {computeResource.name} with automation level {behavior} in {datacenter.name} Informational System All
DRS put {host.name} into standby mode Informational System All
DRS is putting {host.name} into standby mode Informational System All
DRS cannot move {host.name} out of standby mode Critical System All
DRS moved {host.name} out of standby mode Informational System All
DRS is moving {host.name} out of standby mode Informational System All
DRS invocation not completed Critical System All
DRS has recovered from the failure Informational System All
Unable to apply DRS resource settings on host {host.name} in {datacenter.name}. {reason.msg}. This can significantly reduce the effectiveness of DRS. Critical System All
Resource configuration specification returns to synchronization from previous failure on host '{host.name}' in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is now compliant with DRS VM-Host affinity rules Informational System All
{vm.name} on {host.name} in {datacenter.name} is violating a DRS VM-Host affinity rule Informational System All
DRS migrated {vm.name} from {sourceHost.name} to {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
DRS powered On {vm.name} on {host.name} in {datacenter.name} Informational System All
Virtual machine {macAddress} on host {host.name} has a duplicate IP {duplicateIP} Informational System All
A vNetwork Distributed Switch {dvs.name} was created in {datacenter.name}. Informational System All
vNetwork Distributed Switch {dvs.name} in {datacenter.name} was deleted. Informational System All
vNetwork Distributed Switch event Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host was synchronized with that of the vCenter Server. Informational System All
The host {hostJoined.name} joined the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostLeft.name} left the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The host {hostMember.name} changed status on the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} configuration on the host differed from that of the vCenter Server. Warning System All
vNetwork Distributed Switch {srcDvs.name} was merged into {dstDvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was blocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The port {portKey} was connected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
New ports were created in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
Deleted ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The dvPort {portKey} was disconnected in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} entered passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} exited passthrough mode in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was moved into the dvPort group {portgroupName} in {datacenter.name}. Informational System All
dvPort {portKey} was moved out of the dvPort group {portgroupName} in {datacenter.name}. Informational System All
The port {portKey} link was down in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
The port {portKey} link was up in the vNetwork Distributed Switch {dvs.name} in {datacenter.name} Informational System All
Reconfigured ports in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
dvPort {portKey} was unblocked in the vNetwork Distributed Switch {dvs.name} in {datacenter.name}. Informational System All
The vNetwork Distributed Switch {dvs.name} in {datacenter.name} was reconfigured. Informational System All
The vNetwork Distributed Switch {oldName} in {datacenter.name} was renamed to {newName}. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is available. Informational System All
An upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} is in progress. Informational System All
Cannot complete an upgrade for the vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} Informational System All
vNetwork Distributed Switch {dvs.name} in datacenter {datacenter.name} was upgraded. Informational System All
Host {host.name} in {datacenter.name} has entered maintenance mode Informational System All
The host {host.name} is in standby mode Informational System All
Host {host.name} in {datacenter.name} has started to enter maintenance mode Informational System All
The host {host.name} is entering standby mode Informational System All
{message} Critical System All
Host {host.name} in {datacenter.name} has exited maintenance mode Informational System All
The host {host.name} could not exit standby mode Critical System All
The host {host.name} is no longer in standby mode Informational System All
The host {host.name} is exiting standby mode Informational System All
Sufficient resources are available to satisfy HA failover level in cluster {computeResource.name} in {datacenter.name} Informational System All
General event: {message} Informational System All
Error detected on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected on {host.name} in {datacenter.name}: {message} Warning System All
User logged event: {message} Informational System All
Error detected for {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Issue detected for {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
The vNetwork Distributed Switch corresponding to the proxy switches {switchUuid} on the host {host.name} does not exist in vCenter Server or does not contain this host. Informational System All
A ghost proxy switch {switchUuid} on the host {host.name} was resolved. Informational System All
The message changed: {message} Informational System All
{componentName} status changed from {oldStatus} to {newStatus} Informational System All
Cannot add host {hostname} to datacenter {datacenter.name} Critical System All
Added host {host.name} to datacenter {datacenter.name} Informational System All
Administrator access to the host {host.name} is disabled Warning System All
Administrator access to the host {host.name} has been restored Warning System All
Cannot connect {host.name} in {datacenter.name}: cannot configure management account Critical System All
Cannot connect {host.name} in {datacenter.name}: already managed by {serverName} Critical System All
Cannot connect host {host.name} in {datacenter.name} : server agent is not responding Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect user name or password Critical System All
Cannot connect {host.name} in {datacenter.name}: incompatible version Critical System All
Cannot connect host {host.name} in {datacenter.name}. Did not install or upgrade vCenter agent service. Critical System All
Cannot connect {host.name} in {datacenter.name}: error connecting to host Critical System All
Cannot connect {host.name} in {datacenter.name}: network error Critical System All
Cannot connect host {host.name} in {datacenter.name}: account has insufficient privileges Critical System All
Cannot connect host {host.name} in {datacenter.name} Critical System All
Cannot connect {host.name} in {datacenter.name}: not enough CPU licenses Critical System All
Cannot connect {host.name} in {datacenter.name}: incorrect host name Critical System All
Cannot connect {host.name} in {datacenter.name}: time-out waiting for host response Critical System All
Host {host.name} checked for compliance. Informational System All
Host {host.name} is in compliance with the attached profile Informational System All
Host configuration changes applied. Informational System All
Connected to {host.name} in {datacenter.name} Informational System All
Host {host.name} in {datacenter.name} is not responding Critical System All
dvPort connected to host {host.name} in {datacenter.name} changed status Informational System All
HA agent disabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
HA is being disabled on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
HA agent enabled on {host.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
Enabling HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error {message}: {reason.@enum.HostDasErrorEvent.HostDasErrorReason} Critical System All
HA agent on host {host.name} in cluster {computeResource.name} in {datacenter.name} is configured correctly Informational System All
Disconnected from {host.name} in {datacenter.name}. Reason: {reason.@enum.HostDisconnectedEvent.ReasonCode} Informational System All
Cannot restore some administrator permissions to the host {host.name} Critical System All
Host {host.name} has the following extra networks not used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Cannot complete command 'hostname -s' on host {host.name} or returned incorrect name format Critical System All
Maximum ({capacity}) number of hosts allowed for this edition of vCenter Server has been reached Critical System All
The virtual machine inventory file on host {host.name} is damaged or unreadable. Informational System All
IP address of the host {host.name} changed from {oldIP} to {newIP} Informational System All
Configuration of host IP address is inconsistent on host {host.name}: address resolved to {ipAddress} and {ipAddress2} Critical System All
Cannot resolve IP address to short name on host {host.name} Critical System All
Host {host.name} could not reach isolation address: {isolationIp} Critical System All
A host license for {host.name} has expired Critical System All
Host {host.name} does not have the following networks used by other hosts for HA communication:{ips}. Consider using HA advanced option das.allowNetwork to control network usage Critical System All
Host monitoring state in {computeResource.name} in {datacenter.name} changed to {state.@enum.DasConfigInfo.ServiceState} Informational System All
Host {host.name} currently has no available networks for HA Communication. The following networks are currently used by HA: {ips} Critical System All
Host {host.name} has no port groups enabled for HA communication. Critical System All
Host {host.name} currently has no management network redundancy Critical System All
Host {host.name} is not in compliance with the attached profile Critical System All
Host {host.name} is not a cluster member in {datacenter.name} Critical System All
Insufficient capacity in host {computeResource.name} to satisfy resource configuration in {datacenter.name} Critical System All
Primary agent {primaryAgent} was not specified as a short name to host {host.name} Critical System All
Profile is applied on the host {host.name} Informational System All
Cannot reconnect to {host.name} in {datacenter.name} Critical System All
Removed host {host.name} in {datacenter.name} Informational System All
Host names {shortName} and {shortName2} both resolved to the same IP address. Check the host's network configuration and DNS entries Critical System All
Cannot resolve short name {shortName} to IP address on host {host.name} Critical System All
Shut down of {host.name} in {datacenter.name}: {reason} Informational System All
Configuration status on host {computeResource.name} changed from {oldStatus.@enum.ManagedEntity.Status} to {newStatus.@enum.ManagedEntity.Status} in {datacenter.name} Informational System All
Cannot synchronize host {host.name}. {reason.msg} Critical System All
Cannot install or upgrade vCenter agent service on {host.name} in {datacenter.name} Critical System All
The userworld swap is not enabled on the host {host.name} Warning System All
Host {host.name} vNIC {vnic.vnic} was reconfigured to use dvPort {vnic.port.portKey} with port level configuration, which might be different from the dvPort group. Informational System All
WWNs are changed for {host.name} Warning System All
The WWN ({wwn}) of {host.name} conflicts with the currently registered WWN Critical System All
Host {host.name} did not provide the information needed to acquire the correct set of licenses Critical System All
{message} Informational System All
Insufficient resources to satisfy HA failover level on cluster {computeResource.name} in {datacenter.name} Critical System All
The license edition '{feature}' is invalid Critical System All
License {feature.featureName} has expired Critical System All
License inventory is not compliant. Licenses are overused Critical System All
Unable to acquire licenses due to a restriction in the option file on the license server. Critical System All
License server {licenseServer} is available Informational System All
License server {licenseServer} is unavailable Critical System All
Created local datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
The Local Tech Support Mode for the host {host.name} has been enabled Informational System All
Datastore {datastore} which is configured to back the locker does not exist Warning System All
Locker was reconfigured from {oldDatastore} to {newDatastore} datastore Informational System All
Unable to migrate {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Critical System All
Unable to migrate {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} in {datacenter.name}: {fault.msg} Warning System All
Cannot migrate {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Critical System All
Migration of {vm.name} from {host.name} to {dstHost.name} and resource pool {dstPool.name} in {datacenter.name}: {fault.msg} Warning System All
Migration of {vm.name} from {host.name} in {datacenter.name}: {fault.msg} Warning System All
Created NAS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Cannot login user {userName}@{ipAddress}: no permission Critical System All
No datastores have been configured on the host {host.name} Informational System All
A required license {feature.featureName} is not reserved Critical System All
Unable to automatically migrate {vm.name} from {host.name} Informational System All
Non-VI workload detected on datastore {datastore.name} Critical System All
Not enough resources to failover {vm.name} in {computeResource.name} in {datacenter.name} Informational System All
The vNetwork Distributed Switch configuration on some hosts differed from that of the vCenter Server. Warning System All
Permission created for {principal} on {entity.name}, role is {role.name}, propagation is {propagate.@enum.auth.Permission.propagate} Informational System All
Permission rule removed for {principal} on {entity.name} Informational System All
Permission changed for {principal} on {entity.name}, role is {role.name}, propagation is {propagate.@enum.auth.Permission.propagate} Informational System All
Profile {profile.name} attached. Informational System All
Profile {profile.name} was changed. Informational System All
Profile is created. Informational System All
Profile {profile.name} detached. Informational System All
Profile {profile.name} reference host changed. Informational System All
Profile was removed. Informational System All
Remote Tech Support Mode (SSH) for the host {host.name} has been enabled Informational System All
Created resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Removed resource pool {resourcePool.name} on {computeResource.name} in {datacenter.name} Informational System All
Moved resource pool {resourcePool.name} from {oldParent.name} to {newParent.name} on {computeResource.name} in {datacenter.name} Informational System All
Updated configuration for {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Informational System All
Resource usage exceeds configuration for resource pool {resourcePool.name} in compute-resource {computeResource.name} in {datacenter.name} Critical System All
New role {role.name} created Informational System All
Role {role.name} removed Informational System All
Modifed role {role.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} completed successfully Informational System All
Created task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} sent email to {to} Informational System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot send email to {to}: {reason.msg} Critical System All
Task {scheduledTask.name} on {entity.name} in {datacenter.name} cannot be completed: {reason.msg} Critical System All
Reconfigured task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Removed task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
Running task {scheduledTask.name} on {entity.name} in {datacenter.name} Informational System All
A vCenter Server license has expired Critical System All
vCenter started Informational System All
A session for user '{terminatedUsername}' has stopped Informational System All
Task: {info.descriptionId} Informational System All
Task: {info.descriptionId} time-out Informational System All
Upgrading template {legacyTemplate} Informational System All
Cannot upgrade template {legacyTemplate} due to: {reason.msg} Informational System All
Template {legacyTemplate} upgrade completed Informational System All
The operation performed on {host.name} in {datacenter.name} timed out Warning System All
There are {unlicensed} unlicensed virtual machines on host {host} - there are only {available} licenses available Informational System All
{unlicensed} unlicensed virtual machines found on host {host} Informational System All
The agent on host {host.name} is updated and will soon restart Informational System All
User {userLogin} was added to group {group} Informational System All
User {userName}@{ipAddress} logged in Informational System All
User {userName} logged out Informational System All
Password was changed for account {userLogin} on host {host.name} Informational System All
User {userLogin} removed from group {group} Informational System All
{message} Informational System All
Created VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Expanded VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
Extended VMFS datastore {datastore.name} on {host.name} in {datacenter.name} Informational System All
A vMotion license for {host.name} has expired Critical System All
Cannot uninstall vCenter agent from {host.name} in {datacenter.name}. {reason.@enum.fault.AgentInstallFailed.Reason} Critical System All
vCenter agent has been uninstalled from {host.name} in {datacenter.name} Informational System All
Cannot upgrade vCenter agent on {host.name} in {datacenter.name}. {reason.@enum.fault.AgentInstallFailed.Reason} Critical System All
vCenter agent has been upgraded on {host.name} in {datacenter.name} Informational System All
VIM account password was changed on host {host.name} Informational System All
Remote console to {vm.name} on {host.name} in {datacenter.name} has been opened Informational System All
A ticket for {vm.name} of type {ticketType} on {host.name} in {datacenter.name} has been acquired Informational System All
Invalid name for {vm.name} on {host.name} in {datacenter.name}. Renamed from {oldName} to {newName} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Cloning {vm.name} on host {host.name} in {datacenter.name} to {destName} on host {destHost.name} Informational System All
Creating {vm.name} on host {host.name} in {datacenter.name} Informational System All
Deploying {vm.name} on host {host.name} in {datacenter.name} from template {srcTemplate.name} Informational System All
Migrating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Informational System All
Relocating {vm.name} in {datacenter.name} from {host.name} to {destHost.name} Informational System All
Cannot clone {vm.name}: {reason.msg} Critical System All
Clone of {sourceVm.name} completed Informational System All
Configuration file for {vm.name} on {host.name} in {datacenter.name} cannot be found Informational System All
Virtual machine {vm.name} is connected Informational System All
Created virtual machine {vm.name} on {host.name} in {datacenter.name} Informational System All
dvPort connected to VM {vm.name} on {host.name} in {datacenter.name} changed status Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {reason.@enum.VmDasBeingResetEvent.ReasonCode} Informational System All
{vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} reset by HA. Reason: {reason.@enum.VmDasBeingResetEvent.ReasonCode}. A screenshot is saved at {screenshotFilePath}. Informational System All
Cannot reset {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
Unable to update HA agents given the state of {vm.name} Critical System All
HA agents have been updated with the current state of the virtual machine Informational System All
Disconnecting all hosts as the date of virtual machine {vm.name} has been rolled back Critical System All
Cannot deploy template: {reason.msg} Critical System All
Template {srcTemplate.name} deployed on host {host.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is disconnected Informational System All
Discovered {vm.name} on {host.name} in {datacenter.name} Informational System All
Cannot create virtual disk {disk} Critical System All
Migrating {vm.name} off host {host.name} in {datacenter.name} Informational System All
End a recording session on {vm.name} Informational System All
End a replay session on {vm.name} Informational System All
Cannot migrate {vm.name} from {host.name} to {destHost.name} in {datacenter.name} Critical System All
Cannot complete relayout {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot complete relayout for virtual machine {vm.name} which has disks on a VMFS2 volume. Critical System All
vCenter cannot start the Secondary VM {vm.name}. Reason: {reason.@enum.VmFailedStartingSecondaryEvent.FailureReason} Critical System All
Cannot power Off {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot power On {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot reboot the guest OS for {vm.name} on {host.name} in {datacenter.name}. {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot shut down the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
{vm.name} cannot standby the guest OS on {host.name} in {datacenter.name}: {reason.msg} Critical System All
Cannot suspend {vm.name} on {host.name} in {datacenter.name}: {reason.msg} Critical System All
vCenter cannot update the Secondary VM {vm.name} configuration Critical System All
Failover unsuccessful for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Reason: {reason.msg} Warning System All
Fault Tolerance state on {vm.name} changed from {oldState.@enum.VirtualMachine.FaultToleranceState} to {newState.@enum.VirtualMachine.FaultToleranceState} Informational System All
Fault Tolerance protection has been turned off for {vm.name} Informational System All
The Fault Tolerance VM ({vm.name}) has been terminated. {reason.@enum.VmFaultToleranceVmTerminatedEvent.TerminateReason} Informational System All
Guest OS reboot for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS shut down for {vm.name} on {host.name} in {datacenter.name} Informational System All
Guest OS standby for {vm.name} on {host.name} in {datacenter.name} Informational System All
VM monitoring state in {computeResource.name} in {datacenter.name} changed to {state.@enum.DasConfigInfo.VmMonitoringState} Informational System All
Assign a new instance UUID ({instanceUuid}) to {vm.name} Informational System All
The instance UUID of {vm.name} has been changed from ({oldInstanceUuid}) to ({newInstanceUuid}) Informational System All
The instance UUID ({instanceUuid}) of {vm.name} conflicts with the instance UUID assigned to {conflictedVm.name} Critical System All
New MAC address ({mac}) assigned to adapter {adapter} for {vm.name} Informational System All
Changed MAC address from {oldMac} to {newMac} for adapter {adapter} for {vm.name} Warning System All
The MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
Reached maximum Secondary VM (with FT turned On) restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Reached maximum VM restart count for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name}. Warning System All
Error message on {vm.name} on {host.name} in {datacenter.name}: {message} Critical System All
Message on {vm.name} on {host.name} in {datacenter.name}: {message} Informational System All
Warning message on {vm.name} on {host.name} in {datacenter.name}: {message} Warning System All
Migration of virtual machine {vm.name} from {sourceHost.name} to {host.name} completed Informational System All
No compatible host for the Secondary VM {vm.name} Critical System All
Not all networks for {vm.name} are accessible by {destHost.name} Warning System All
{vm.name} does not exist on {host.name} in {datacenter.name} Warning System All
{vm.name} was powered Off on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name} Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered off Informational System All
{vm.name} on {host.name} in {datacenter.name} is powered on Informational System All
Virtual machine {vm.name} powered On with vNICs connected to dvPorts that have a port level configuration, which might be different from the dvPort group configuration. Informational System All
VM ({vm.name}) failed over to {host.name}. {reason.@enum.VirtualMachine.NeedSecondaryReason} Critical System All
Reconfigured {vm.name} on {host.name} in {datacenter.name} Informational System All
Registered {vm.name} on {host.name} in {datacenter.name} Informational System All
Relayout of {vm.name} on {host.name} in {datacenter.name} completed Informational System All
{vm.name} on {host.name} in {datacenter.name} is in the correct format and relayout is not necessary Informational System All
{vm.name} on {host.name} reloaded from new configuration {configPath}. Informational System All
{vm.name} on {host.name} could not be reloaded from {configPath}. Critical System All
Cannot relocate virtual machine '{vm.name}' in {datacenter.name} Critical System All
Completed the relocation of the virtual machine Informational System All
Remote console connected to {vm.name} on host {host.name} Informational System All
Remote console disconnected from {vm.name} on host {host.name} Informational System All
Removed {vm.name} on {host.name} from {datacenter.name} Informational System All
Renamed {vm.name} from {oldName} to {newName} in {datacenter.name} Warning System All
{vm.name} on {host.name} in {datacenter.name} is reset Informational System All
Moved {vm.name} from resource pool {oldParent.name} to {newParent.name} in {datacenter.name} Informational System All
Changed resource allocation for {vm.name} Informational System All
Virtual machine {vm.name} was restarted on {host.name} since {sourceHost.name} failed Informational System All
{vm.name} on {host.name} in {datacenter.name} is resumed Informational System All
A Secondary VM has been added for {vm.name} Informational System All
vCenter disabled Fault Tolerance on VM '{vm.name}' because the Secondary VM could not be powered On. Critical System All
Disabled Secondary VM for {vm.name} Informational System All
Enabled Secondary VM for {vm.name} Informational System All
Started Secondary VM for {vm.name} Informational System All
{vm.name} was shut down on the isolated host {isolatedHost.name} in cluster {computeResource.name} in {datacenter.name}: {shutdownResult.@enum.VmShutdownOnIsolationEvent.Operation} Informational System All
Start a recording session on {vm.name} Informational System All
Start a replay session on {vm.name} Informational System All
{vm.name} on host {host.name} in {datacenter.name} is starting Informational System All
Starting Secondary VM for {vm.name} Informational System All
The static MAC address ({mac}) of {vm.name} conflicts with MAC assigned to {conflictedVm.name} Critical System All
{vm.name} on {host.name} in {datacenter.name} is stopping Informational System All
{vm.name} on {host.name} in {datacenter.name} is suspended Informational System All
{vm.name} on {host.name} in {datacenter.name} is being suspended Informational System All
Starting the Secondary VM {vm.name} timed out within {timeout} ms Critical System All
Unsupported guest OS {guestId} for {vm.name} on {host.name} in {datacenter.name} Warning System All
Virtual hardware upgraded to version {version} Informational System All
Cannot upgrade virtual hardware Critical System All
Upgrading virtual hardware on {vm.name} in {datacenter.name} to version {version} Informational System All
Assigned new BIOS UUID ({uuid}) to {vm.name} on {host.name} in {datacenter.name} Informational System All
Changed BIOS UUID from {oldUuid} to {newUuid} for {vm.name} on {host.name} in {datacenter.name} Warning System All
BIOS ID ({uuid}) of {vm.name} conflicts with that of {conflictedVm.name} Critical System All
New WWNs assigned to {vm.name} Informational System All
WWNs are changed for {vm.name} Warning System All
The WWN ({wwn}) of {vm.name} conflicts with the currently registered WWN Critical System All
{message} Warning System All
Booting from iSCSI failed with an error. See the VMware Knowledge Base for information on configuring iBFT networking. Warning System All
com.vmware.license.AddLicenseEvent|License {licenseKey} added to VirtualCenter Informational System All
com.vmware.license.AssignLicenseEvent|License {licenseKey} assigned to asset {entityName} with id {entityId} Informational System All
com.vmware.license.DLFDownloadFailedEvent|Failed to download license information from the host {hostname} due to {errorReason.@enum.com.vmware.license.DLFDownloadFailedEvent.DLFDownloadFailedReason} Warning System All
com.vmware.license.LicenseAssignFailedEvent|License assignment on the host fails. Reasons: {errorMessage.@enum.com.vmware.license.LicenseAssignError}. Informational System All
com.vmware.license.LicenseExpiryEvent|Your host license will expire in {remainingDays} days. The host will be disconnected from VC when its license expires. Warning System All
com.vmware.license.LicenseUserThresholdExceededEvent|Current license usage ({currentUsage} {costUnitText}) for {edition} exceeded the user-defined threshold ({threshold} {costUnitText}) Warning System All
com.vmware.license.RemoveLicenseEvent|License {licenseKey} removed from VirtualCenter Informational System All
com.vmware.license.UnassignLicenseEvent|License unassigned from asset {entityName} with id {entityId} Informational System All
com.vmware.vc.HA.ClusterFailoverActionCompletedEvent|HA completed a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.HA.ClusterFailoverActionInitiatedEvent|HA initiated a failover action in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.DasAgentRunningEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is running Informational System All
com.vmware.vc.HA.DasFailoverHostFailedEvent|HA failover host {host.name} in cluster {computeResource.name} in {datacenter.name} has failed Critical System All
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent|All shared datastores failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent|All VM networks failed on the host {hostName} in cluster {computeResource.name} in {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostFailedEvent|A possible host failure has been detected by HA on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Critical System All
com.vmware.vc.HA.DasHostMonitoringDisabledEvent|No virtual machine failover will occur until Host Monitoring is enabled in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.HA.DasTotalClusterFailureEvent|HA recovered from a total cluster failure in cluster {computeResource.name} in datacenter {datacenter.name} Warning System All
com.vmware.vc.HA.HostDasAgentHealthyEvent|HA Agent on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is healthy Informational System All
com.vmware.vc.HA.HostDasErrorEvent|HA agent on {host.name} in cluster {computeResource.name} in {datacenter.name} has an error: {reason.@enum.HostDasErrorEvent.HostDasErrorReason} Critical System All
com.vmware.vc.VCHealthStateChangedEvent|vCenter Service overall health changed from '{oldState}' to '{newState}' Informational System All
com.vmware.vc.cim.CIMGroupHealthStateChanged|Health of [data.group] changed from [data.oldState] to [data.newState]. Informational System All
com.vmware.vc.datastore.UpdateVmFilesFailedEvent|Failed to update VM files on datastore {ds.name} using host {hostName} Critical System All
com.vmware.vc.datastore.UpdatedVmFilesEvent|Updated VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.datastore.UpdatingVmFilesEvent|Updating VM files on datastore {ds.name} using host {hostName} Informational System All
com.vmware.vc.ft.VmAffectedByDasDisabledEvent|VMware HA has been disabled in cluster {computeResource.name} of datacenter {datacenter.name}. HA will not restart VM {vm.name} or its Secondary VM after a failure. Warning System All
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent|Network passthrough is active on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent|Network passthrough is inactive on adapter {deviceLabel} of virtual machine {vm.name} on host {host.name} in {datacenter.name} Informational System All
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because the FT state is disabled Informational System All
com.vmware.vc.vcp.FtFailoverEvent|FT Primary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} is going to fail over to Secondary VM due to component failure Informational System All
com.vmware.vc.vcp.FtFailoverFailedEvent|FT virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to failover to secondary Critical System All
com.vmware.vc.vcp.FtSecondaryRestartEvent|HA VM Component Protection is restarting FT secondary virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to component failure Informational System All
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent|FT Secondary VM {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent|HA VM Component Protection protects virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} as non-FT virtual machine because it has been in the needSecondary state too long Informational System All
com.vmware.vc.vcp.TestEndEvent|VM Component Protection test ends on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.TestStartEvent|VM Component Protection test starts on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VcpNoActionEvent|HA VM Component Protection did not take action on virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} due to the feature configuration setting Informational System All
com.vmware.vc.vcp.VmDatastoreFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {datastore} Critical System All
com.vmware.vc.vcp.VmNetworkFailedEvent|Virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} lost access to {network} Critical System All
com.vmware.vc.vcp.VmPowerOffHangEvent|HA VM Component Protection could not power off virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} successfully after trying {numTimes} times and will keep trying Critical System All
com.vmware.vc.vcp.VmRestartEvent|HA VM Component Protection is restarting virtual machine {vm.name} due to component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} Informational System All
com.vmware.vc.vcp.VmRestartFailedEvent|Virtual machine {vm.name} affected by component failure on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} failed to restart Critical System All
com.vmware.vc.vcp.VmWaitForCandidateHostEvent|HA VM Component Protection could not find a destination host for virtual machine {vm.name} on host {host.name} in cluster {computeResource.name} in datacenter {datacenter.name} after waiting {numSecWait} seconds and will keep trying Critical System All
com.vmware.vc.vmam.AppMonitoringNotSupported|Application monitoring is not supported on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent|Application heartbeat status changed to {status} for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent|Application heartbeat failed for {vm.name} on {host.name} in cluster {computeResource.name} in {datacenter.name} Warning System All
esx.clear.net.connectivity.restored|Network connectivity restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.dvport.connectivity.restored|Network connectivity restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.dvport.redundancy.restored|Uplink redundancy restored on DVPorts: {1}. Physical NIC {2} is up. Informational System All
esx.clear.net.redundancy.restored|Uplink redundancy restored on virtual switch {1}, portgroups: {2}. Physical NIC {3} is up. Informational System All
esx.clear.net.vmnic.linkstate.up|Physical NIC {1} linkstate is up. Informational System All
esx.clear.storage.connectivity.restored|Connectivity to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.clear.storage.redundancy.restored|Path redundancy to storage device {1} (Datastores: {2}) restored. Path {3} is active again. Informational System All
esx.problem.apei.bert.memory.error.corrected|A corrected memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.fatal|A fatal memory error occurred in the last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.memory.error.recoverable|A recoverable memory error occurred in last boot. The following details were reported. Physical Addr: {1}, Physical Addr Mask: {2}, Node: {3}, Card: {4}, Module: {5}, Bank: {6}, Device: {7}, Row: {8}, Column: {9} Error type: {10} Critical System All
esx.problem.apei.bert.pcie.error.corrected|A corrected PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.fatal|Platform encounterd a fatal PCIe error in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.apei.bert.pcie.error.recoverable|A recoverable PCIe error occurred in last boot. The following details were reported. Port Type: {1}, Device: {2}, Bus #: {3}, Function: {4}, Slot: {5}, Device Vendor: {6}, Version: {7}, Command Register: {8}, Status Register: {9}. Critical System All
esx.problem.iorm.nonviworkload|An external I/O activity is detected on datastore {1}, this is an unsupported configuration. Consult the Resource Management Guide or follow the Ask VMware link for more information. Informational System All
esx.problem.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
esx.problem.net.dvport.connectivity.lost|Lost network connectivity on DVPorts: {1}. Physical NIC {2} is down. Critical System All
esx.problem.net.dvport.redundancy.degraded|Uplink redundancy degraded on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.dvport.redundancy.lost|Lost uplink redundancy on DVPorts: {1}. Physical NIC {2} is down. Warning System All
esx.problem.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
esx.problem.net.migrate.bindtovmk|The ESX advanced configuration option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Update the configuration option with a valid vmknic. Alternatively, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
esx.problem.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
esx.problem.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
esx.problem.net.uplink.mtu.failed|VMkernel failed to set the MTU value {1} on the uplink {2}. Warning System All
esx.problem.net.vmknic.ip.duplicate|A duplicate IP address was detected for {1} on the interface {2}. The current owner is {3}. Warning System All
esx.problem.net.vmnic.linkstate.down|Physical NIC {1} linkstate is down. Informational System All
esx.problem.net.vmnic.watchdog.reset|Uplink {1} has recovered from a transient failure due to watchdog timeout Informational System All
esx.problem.scsi.device.limitreached|The maximum number of supported devices of {1} has been reached. A device from plugin {2} could not be created. Critical System All
esx.problem.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. Affected datastores (if any): {2}. Warning System All
esx.problem.scsi.scsipath.limitreached|The maximum number of supported paths of {1} has been reached. Path {2} could not be added. Critical System All
esx.problem.storage.connectivity.devicepor|Frequent PowerOn Reset Unit Attentions are occurring on device {1}. This might indicate a storage problem. Affected datastores: {2} Warning System All
esx.problem.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
esx.problem.storage.connectivity.pathpor|Frequent PowerOn Reset Unit Attentions are occurring on path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.connectivity.pathstatechanges|Frequent path state changes are occurring for path {1}. This might indicate a storage problem. Affected device: {2}. Affected datastores: {3} Warning System All
esx.problem.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
esx.problem.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
esx.problem.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
esx.problem.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
esx.problem.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
esx.problem.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.nfs.mount.connect.failed|Failed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.mount.limit.exceeded|Failed to mount to the server {1} mount point {2}. {3} Critical System All
esx.problem.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
esx.problem.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
esx.problem.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
esx.problem.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All
vim.event.LicenseDowngradedEvent|License downgrade: {licenseKey} removes the following features: {lostFeatures} Warning System All
vprob.net.connectivity.lost|Lost network connectivity on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Critical System All
vprob.net.e1000.tso6.notsupported|Guest-initiated IPv6 TCP Segmentation Offload (TSO) packets ignored. Manually disable TSO inside the guest operating system in virtual machine {1}, or use a different virtual adapter. Critical System All
vprob.net.migrate.bindtovmk|The ESX advanced config option /Migrate/Vmknic is set to an invalid vmknic: {1}. /Migrate/Vmknic specifies a vmknic that vMotion binds to for improved performance. Please update the config option with a valid vmknic or, if you do not want vMotion to bind to a specific vmknic, remove the invalid vmknic and leave the option blank. Warning System All
vprob.net.proxyswitch.port.unavailable|Virtual NIC with hardware address {1} failed to connect to distributed virtual port {2} on switch {3}. There are no more ports available on the host proxy switch. Warning System All
vprob.net.redundancy.degraded|Uplink redundancy degraded on virtual switch {1}. Physical NIC {2} is down. {3} uplinks still up. Affected portgroups:{4}. Warning System All
vprob.net.redundancy.lost|Lost uplink redundancy on virtual switch {1}. Physical NIC {2} is down. Affected portgroups:{3}. Warning System All
vprob.scsi.device.thinprov.atquota|Space utilization on thin-provisioned device {1} exceeded configured threshold. Warning System All
vprob.storage.connectivity.lost|Lost connectivity to storage device {1}. Path {2} is down. Affected datastores: {3}. Critical System All
vprob.storage.redundancy.degraded|Path redundancy to storage device {1} degraded. Path {2} is down. {3} remaining active paths. Affected datastores: {4}. Warning System All
vprob.storage.redundancy.lost|Lost path redundancy to storage device {1}. Path {2} is down. Affected datastores: {3}. Warning System All
vprob.vmfs.heartbeat.recovered|Successfully restored access to volume {1} ({2}) following connectivity issues. Informational System All
vprob.vmfs.heartbeat.timedout|Lost access to volume {1} ({2}) due to connectivity issues. Recovery attempt is in progress and outcome will be reported shortly. Informational System All
vprob.vmfs.heartbeat.unrecoverable|Lost connectivity to volume {1} ({2}) and subsequent recovery attempts have failed. Critical System All
vprob.vmfs.journal.createfailed|No space for journal on volume {1} ({2}). Opening volume in read-only metadata mode with limited write support. Critical System All
vprob.vmfs.lock.corruptondisk|At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume may be damaged too. Critical System All
vprob.vmfs.nfs.server.disconnect|Lost connection to server {1} mount point {2} mounted as {3} ({4}). Critical System All
vprob.vmfs.nfs.server.restored|Restored connection to server {1} mount point {2} mounted as {3} ({4}). Informational System All
vprob.vmfs.resource.corruptondisk|At least one corrupt resource metadata region was detected on volume {1} ({2}). Other regions of the volume might be damaged too. Critical System All
vprob.vmfs.volume.locked|Volume on device {1} locked, possibly because remote host {2} encountered an error during a volume operation and could not recover. Critical System All

RHEV

Red Hat Enterprise Virtualization (RHEV) is one of the most used virtualization technologies by companies with Data Center based on Red Hat. Pandora FMS offers the possibility to monitor virtual architectures based on RHEV through the plugin RHEV Monitoring Plugin which allows you to control all variables related to RHEV virtual architecture easily.

Red Hat Enterprise Virtualization (RHEV) は、RedHat を利用するデータセンター企業で使われている仮想化技術の一つです。Pandora FMS は、RHEV Monitoring Plugin というプラグインを通してRHEV を使った仮想アーキテクチャをモニタすることができます。これは、簡単に RHEV の仮想アーキテクチャに関連するすべての値を制御することができます。

モニタする RHEV アーキテクチャ

With this plugin you can monitor the whole RHEV architecture: Data Centers, Host Clusters, Storage Domains, Networks, Hosts and Virtual Machines, offering a global view of the virtual environment status.

このプラグインで、データセンター、ホストクラスタ、ストレージドメイン、ネットワーク、ホストおよび、仮想マシンといった、RHEV アーキテクチャの全体をモニタすることができ、仮想環境の全体の状態を確認することができます。

To do this Pandora uses the official API provided by RHEV virtualization system.

これを実現するために、Pandora では RHEV 仮想化システムによって公式に提供されている API を利用しています。

RHEV モニタリングプラグインでのモニタリング

RHEV environment monitoring is based on two components:

RHEV 環境のモニタリングは、2つのコンポーネントに基づいています。

  1. An agent plugin which perform entity autodiscovery and data collection tasks. This agent plugin sends information to Pandora FMS.
  2. 自動検出動作を行うエージェントプラグインとデータ収集タスク。このエージェントプラグインは、Pandora FMS へ情報を送信します。
  3. A recon script which updates several parameters of entities discovered. This script is required for extensions.
  4. 検出したいくつかのパラメータを更新する自動検出スクリプト。このスクリプトは、「拡張」のために必要です。
  5. RHEV View and RHEV Manager extensions. They are extensions which provide an added value to the plugin allowing you to see the monitored infrastructure and managing virtual machines (switch on/switch off) all of this through Pandora FMS console.
  6. RHEV View および RHEV Manager 拡張。これらは、プラグインに機能追加し、Pandora FMS のコンソールからインフラのモニタリングおよび仮想マシンの管理 (電源ON/OFF) ができるようにした「拡張」です。


Template warning.png

To use recon script you must enable reconserver


Template warning.png

自動検出スクリプトを利用するには、自動検出サーバを有効にする必要があります。


Template warning.png

To ensure that some API variables return the correct data of virtual machine associated you must install RHEV agent, you could find all tips to do that in RHEV documentation


Template warning.png

仮想マシンで収集するデータを API で返すようにするには、RHEV エージェントをインストールする必要があります。詳細については、RHEV のドキュメントを参照してください。


Info.png

To monitor operation system installed in a virtual machine is recommended to use a Pandora FMS agent instead RHEV API


Info.png

仮想マシンにインストールされた OS をモニタするには、RHEV API ではなくPandora FMS エージェントが必要です。


プラグイン動作の仕組

RHEV Monitoring Plugin extracts information through web API of RHEV virtualization environment.

RHEV モニタリングプラグインは、RHEV 仮想環境の web API を通して情報を展開します。

If you only want to monitor, just configure the software agent plugin which performs this task.

モニタしたいだけであれば、この処理を実行するソフトウエアエージェントプラグインを設定します。

The agent plugin performs the device autodiscovery and creates XML with modules for each device discovered. The plugin configuration allow you to select which elements you want to monitor and configure the modules. The modules created by the plugin are totally configurables and you can: change the name and description and add max and min values for Warning and Critical status of the module.

エージェントプラグインは、デバイスの自動検出を行い、検出したデバイスごとにモジュールを定義し XML を生成します。プラグインの設定では、どの要素をモニタリングしたいかを選択しモジュールを設定することができます。プラグインで作成されたモジュールの設定は変更が可能です。モジュールの、名前、説明、警告や障害状態の最小値、最大値を変更できます。

Template warning.png

Updating values for Warning and Critical status through XML is available for Pandora FMS 4.0 and higher, for earlier versions you can perform this task using web console


Template warning.png

Pandora FMS 4.0 以降では XML を通して警告および障害状態の値(閾値)を更新することができますが、それより前のバージョンでは、ウェブコンソールから変更します。


Once XML were created the agent plugin sends the files, either using tentacle or copying them to local files, according to the transference method chosen.

XML が生成されると、エージェントプラグインは転送手法の設定に従って tentacle またはローカルでのファイルコピーにより、そのファイルを送信します。

If you also going to use the RHEV View and RHEV Manager extensions, you will need to use the recon script.

また、RHEV View および RHEV Manager 拡張を利用する場合は、自動検出スクリプトを利用する必要があります。

The recon script updates several values of each Pandora FMS agent present in RHEV virtualization environment. These variables are required to visualize entities properly in RHEV View extension and to manage virtual machines properly with RHEV Manager extension.

自動検出スクリプトは、RHEV 仮想環境のそれぞれの Pandora FMS エージェントの値を更新します。これらの値は、RHEV View 拡張で状態を正しく表示したり、RHEV Manager 拡張で仮想マシンを正しく管理するために必要な値です。

インストール要件

The agent plugin requires the following software:

エージェントプラグインは、次のソフトウエアが必要です。

  • curl
  • perl-XML-Simple
  • agente software de Pandora FMS
  • tentacle_client (if you want to use tentacle to send files. tentacle_client is provided with Pandora FMS Software Agent)
  • curl
  • perl-XML-Simple
  • Pandora FMS ソフトウエアエージェント
  • tentacle_client (ファイルの送信に tentacle を利用したい場合。tentacle_client は、Pandora FMS ソフトウエアエージェントと共に配布されています。)

Red Hat

On Red Hat based systems you can install the dependencies with the command:

RedHat システムでは、次のように依存ファイルをインストールします。

yum install perl-XML-Simple curl

SLES

On SUSE based systems you can install the dependencies with the command:

SUSE システムでは、次のように依存ファイルをインストールします。

zypper install perl-XML-Simple curl

Debian/Ubuntu

On Debian/Ubuntu based systems you can install the dependencies with the command:

Debian/Ubuntu システムでは、次のように依存ファイルをインストールします。

apt-get install libxml-simple-perl curl

Pandora FMS ソフトウエアエージェントのインストール

Pandora FMS software agent installation is exaplined in section Installing Pandora FMS, there you can find all documentation to install the agent on your platform.

Pandora FMS ソフトウエアエージェントのインストールは、Pandora FMSのインストールにて説明しています。ここに、エージェントをインストールためのドキュメントがそろっています。

RHEV 証明書のダウンロード

Before to run the plugin you need to download the certificate to connect to RHEV API using HTTPS. To download the certificate execute the following command:

プラグインを実行する前に、RHEV API に HTTPS で接続するための証明書をダウンロードする必要があります。証明書をダウンロードするには、次のコマンドを実行します。

curl -o rhevm.cer http://[RHEVM-HOST]:8080/ca.crt

Where [RHEV-HOST] is the server name of RHEV API server. For example:

ここで、[RHEV-HOST] は、RHEV API サーバのサーバ名です。例えば次の通りです。

curl -o rhevm.cer http://rhevm.server:8080/ca.crt

Once the certificate was downloaded you can ensure the API connection works fine with the following command:

証明書をダウンロードしたら、次のコマンドで API に接続することができます。

curl -X GET -H "Accept: application/xml" -u [USER:PASS] --cacert [CERT] https://[RHEVM-HOST]:8443/api

Using the following values:

次の値を指定してください。

  • USER: user@domain to connect to API
  • PASS: password for user to connect to API
  • CERT: path of certificate downloaded
  • RHEVM-HOST: address of host API
  • USER: API へ接続する user@domain
  • PASS: API へ接続するためのユーザのパスワード
  • CERT: ダウンロードした証明書のパス
  • RHEVM-HOST: API ホストのアドレス

An example with some real data could be like this:

実際の実行例は次の通りです。

curl -X GET -H "Accept: application/xml" -u [user@testdomain:12345] --cacert /home/user/ca.crt https://rhevm.server:8443/api

If all go fine the command will return an output in XML format with general information about RHEV API.

すべて成功すると、コマンドが XML フォーマットで RHEV API の一般情報を出力します。

RHEV 設定時に考慮すべき点

The RHEV virtualization environment is possible to have several entities with the same name. This feature creates a problem because in Pandora FMS these entities are transformed to agents and two agents with the same name are not allowed. In addition to this trouble it creates problems parsing the output of API in XML formal showing an error like this:

RHEV の仮想化環境は、同じ名前で複数のエンティティを持つことができます。この機能では、Pandora FMS において複数のエージェントが同じ名前でデータを送信してしまうという問題があります。この問題に加えて、API が出力する XML のパースにおいて次のようなエラーが出る問題があります。

Warning: <data_center> element has non-unique value in 'name' key attribute: Default at ./plugin-rhev.pl line 199

To solve this problem you must follow a name policy for entities of RHEV virtualization environment which doesn't allow to duplicate names.

この問題の解決のためには、RHEV 仮想環境のエンティティの名前付けポリシーを、同一名にならないようにする必要があります。

エージェントプラグインのインストール

To install the agent plugin just copy the files rhev-plugin.pl and rhev-plugin.conf in a folder accesible by the Pandora agent installed in the machine you want to execute the plugin. The plugin could be executed by an agent installed in the same machine of Pandora FMS server or on another one.

エージェントプラグインをインストールするには、rhev-plugin.pl および rhev-plugin.conf をプラグインを実行させたいマシンにインストールした pandora エージェントがアクセスできるフォルダにコピーするだけです。プラグインは、Pandora FMS サーバと同じマシンまたは他のマシンにインストールされたエージェントより実行できます。

To run the plugin you must added the a line like the following to agent configuration file (by default /etc/pandora/pandora_agent.conf):

プラグインを実行するには、エージェントの設定ファイル(デフォルトでは /etc/pandora/pandora_agent.conf です)に次のような行を追加します。

module_plugin /root/rhev-plugin.pl /root/rhev-plugin.conf

By adding this line the agent plugin will perform its actions every agent execution.

この行を追加することにより、エージェントの実行間隔でエージェントプラグインが実行されます。

RHEV 仮想アーキテクチャのモニタリング

To see the result of the plug-in execution, please click on Monitoring > Views > Agent Detail. プラグインの実行結果を見るには、モニタリング(Monitoring) > 表示(Views) > エージェント詳細(Agent Detail) をクリックします。

ファイル:Menu monitoring.png



As you can see, the plugin creates one agent in Pandora FMS per entitie detected when discovering RHEV architecture. 見ての通り、プラグインが Pandora FMS 内に、RHEV アーキテクチャで検出したエンティティごとに一つのエージェントを作成しています。

ファイル:List agents rhev.png



If you click on the agent name you could see the monitoring modules created by the plugin, in addition to other data related to the agent as you can see in the following image: エージェント名をクリックすると、プラグインにより作成されたモジュールを見ることができます。加えて、エージェントに関連したその他データを次のように見ることができます。

ファイル:Rhev agent vm.png



For each kind of entity several modules are create automatically monitoring important information of each one. For example the next picture shows several modules created to monitor a Virtual Machine. それぞれのエンティティで、それぞれ重要な情報をモニタリングするための複数のモジュールが自動的に作成されます。例えば、次の例では仮想マシンをモニタするために作成された複数のモジュールが表示されています。

ファイル:Rhev vm modules.png



If the agent selected is associated to a Host instead a Virtual Machine, the modules monitored are different. The following picture shows an example of modules for a Host entity. 仮想マシンではなくホストに関連づけられたエージェントを選択した場合は、モニタリングモジュールは異なります。次の例は、ホストエンティティのモジュールの例を表示しています。

ファイル:Rhev host modules.png



RHEV plugin also monitors events occurred in virtual architectures. The plugin creates a module per event monitor in each agent affected, as you can see in the following picture. RHEV プラグインは、仮想アーキテクチャ内で発生したイベントもモニタリングできます。プラグインは、次の画面のように、それぞれのエージェントにイベントをモニタするモジュールを作成します。

800px



The data of these modules created based on events are: the hour when the event occurred and the event description. You can see an example of this data in the next picture. イベントに基づいたこれらのモジュールのデータは、イベントが発生した時間とイベントの説明です。以下にデータの例を示します。

800px



In addition to the agents and modules related to RHEV architectura, a module is generated inside de agent which executes the plugin. This module is called RHEV Plugin by default, you can see an example of the result for this module in the following image. RHEV アーキテクチャに関連したエージェントおよびモジュールに加え、プラグインを実行するエージェントで生成されたモジュールもあります。このモジュールは、デフォルトではRHEV Pluginという名前で、このモジュールの実行結果例は次の通りです。

ファイル:Result modulo plugin agente rhev.png



The content of this plugin will be the result of plugin execution, could be OK if the execution was fine or could show an error string explaining the error if something unexpected occurs. This information is also available in a log file.

このプラグインの内容はプラグインの実行結果であり、実行が正常にできた場合は OK で、エラーが発生した場合は、エラー文字列を表示します。この情報は、ログファイルにも書かれます。

エンティティ状態のモニタリング

The status modules of entities return the predefined values of RHEV architecture. This means that the values will be strings which have a content similar to: up, down, error, maintenance, non_operational, etc. depending on the status and the entity monitored.

エンティティの状態モジュールは、RHEV アーキテクチャで事前に定義された値を返します。これは、モニタするエンティティの状態に応じて、値が up, down, error, maintenance, non_operational などの文字列であることを意味します。

To assign warning and critical values you must define a regular expression in the module configuration. For example, to define the module will be in critical status when the values are error. down and non_operational, set the Str. field of critival value for this moduel with the following regular expresion:

警告や障害状態を定義するには、モジュール設定にて正規表現を利用する必要があります。例えば、値が errordownnon_operational の時に障害状態とするには、そのモジュールの障害の場合の文字列(Str.)フィールドに、次の正規表現を設定します。

error|down|non_operational

For erlier versions of Pandora FMS 4.0 is not possible to use this option, but you can define the alert using the same condition. To create an alert template with the previous example do the following steps:

Pandora FMS 4.0 の初期バージョンではこのオプションは利用できませんが、同一の場合の条件を利用して設定することができます。上記の例でアラーとテンプレートを作成するには、次の手順を実施します。

  1. Create an alert template with critical priority and set the filed Condition Type to Regural expresion.
  2. 優先度が障害のアラートテンプレートを作成し、'条件種別(Condition Type) フィールドを 正規表現(Regular expresion) に設定します。
  3. In the filed value insert the regular expresion as follows: error|down|non_operational. This means that the alert will be fired when the module values are error, down or non_operational.
  4. error|down|non_operational という正規表現をフィールドに入力します。これは、モジュールの値が errordownnon_operational のいずれかになった場合にアラートを実行するという意味になります。
  5. Complete the next step as usual.
  6. 以降は通常の設定を行います。

Once template is defined you can select any actions to execute when the alert is triggered: create an event, send an email or SMS, etc. etc.

テンプレートを定義すると、イベント作成、メールや SMS 送信など、アラートが発生したときの実行アクションを選択することができます。

RHEV アーキテクチャのためのエージェントモジュール

Following are detailed the modules available for each element of RHEV architecture.

以下に、RHEV アーキテクチャのそれぞれの要素のためのモジュールの詳細について示します。

データセンター

  • Status: The Data Center's status.
  • Status: データセンターの状態

ストレージドメイン

  • Available Space: The available space of a storage domain.
  • Committed Space: The dedicated space of a storage domain.
  • Used Space: The currently used space of a storage domain.
  • Percent Free Space: The percentage of free space on a storage domain.
  • Available Space: ストレージドメインの空き容量
  • Committed Space: ストレージドメインのコミット容量
  • Used Space: ストレージドメインの利用容量
  • Percent Free Space: ストレージドメインの空き容量率

ネットワーク

  • Status: The virtual network's status.
  • STP Status: The Spanning Tree Protocol's status.
  • Status: 仮想ネットワークの状態
  • STP Status: スパニングツリープロトコルの状態

クラスタ

  • Overcommit Percent: The over-commit percentage of the cluster.
  • Transparent HugePages: The transparent HugePage status.
  • High threshold: The 'high' threshold for policy planning.
  • Low threshold: The 'low' threshold for policy planning.
  • Threshold duration: The threshold duration for policy planning.
  • Overcommit Percent: クラスタのオーバーコミット率
  • Transparent HugePages: Transparent HugePage の状態
  • High threshold: ポリシープランニングのための上位閾値
  • Low threshold: ポリシープランニングのための下位閾値
  • Threshold duration: ポリシープランニングのための閾値期間

ホスト

  • Status: The host's status.
  • Buffers size: The buffer size.
  • Cache size: The cache size.
  • Cached swap: The amount of memory for cached swap (in bytes).
  • Free memory: The amount of free memory (in bytes).
  • Percent free memory: The percentage of free memory.
  • Swap cached percent: The percentage of cached swap memory.
  • Swap free: The amount of free swapping space (in bytes).
  • Swap free percent: The percentage of free swap memory.
  • Total Memory: The amount of total memory for this Host (in bytes).
  • Total Swap: The amount of swap memory (in bytes).
  • Used memory: The amount of used memory (in bytes).
  • Used Swap: The amount of used swap memory (in bytes).
  • Nic [x] TX: The transmission rate for NIC x (in bytes per sec.). It's going to generate one module for each interface.
  • Nic [x] RX: The reception rate for NIC x (in bytes per sec.). It's going to generate one module for each interface.
  • Nic [x] erros TX: The number of transmission errors for NIC x. It's going to generate one module for each interface.
  • Nic [x] erros RX: The number of reception errors for NIC x. It's going to generate one module for each interface.
  • User CPU: The percentage of CPU used by user.
  • System CPU: The used percentage of the CPU by the system.
  • CPU Idle: The idle percentage of the CPU.
  • CPU Load: The average CPU load for the last 5 minutes.
  • KSM CPU: The percentage of the CPU which gets used by the KSM.
  • Active VM: The number of active virtual machines on the host.
  • Migrating VM: The number of virtual machines currently in the process of migrating on the host.
  • Total VM: The total number of virtual machines for this host.
  • Fence Status: The status of host fencing.
  • Status: ホストの状態
  • Buffers size: バッファサイズ
  • Cache size: キャッシュサイズ
  • Cached swap: キャッシュスワップのためのメモリ量 (バイト単位)
  • Free memory: 空きメモリ量 (バイト単位)
  • Percent free memory: 空きメモリ率
  • Swap cached percent: キャッシュスワップメモリ率
  • Swap free: スワップの空き容量 (バイト単位)
  • Swap free percent: 空きスワップメモリ率
  • Total Memory: このホストのトータルメモリ容量 (バイト単位)
  • Total Swap: スワップメモリ容量 (バイト単位)
  • Used memory: 利用メモリ量 (バイト単位)
  • Used Swap: 利用スワップメモリ量 (バイト単位)
  • Nic [x] TX: nic x の送信速度 (バイト/秒) インタフェースごとにモジュールが生成されます。
  • Nic [x] RX: nic x の受信速度 (バイト/秒) インタフェースごとにモジュールが生成されます。
  • Nic [x] erros TX: nic x の送信エラー数。インタフェースごとにモジュールが生成されます。
  • Nic [x] erros RX: nic x の受信エラー数。インタフェースごとにモジュールが生成されます。
  • User CPU: user CPU 使用率
  • System CPU: system CPU 使用率
  • CPU Idle: idle CPU 使用率
  • CPU Load: 5分間のロードアベレージ
  • KSM CPU: KSM の CPU 使用率
  • Active VM: ホスト内の稼働中の仮想マシン数
  • Migrating VM: ホスト内でマイグレーション処理中の仮想マシン数
  • Total VM: このホストにおける全仮想マシン数
  • Fence Status: ホストフェンスの状態

仮想マシン

  • Status: The virtual machine's status.
  • Disk [x] read: The disk read rate for disk x (in bytes / sec.). It's going to generate one module for each disk.
  • Disk [x] write: The disk write rate for disk x (in bytes / sec.). It's going to generate one module for each disk.
  • Disk [x] size: The disk size for disk x. It's going to generate one module for each disk.
  • Disk [x] status: The status of disk x. It's going to generate one module for each disk.
  • Nic [x] TX: The transmission rate for NIC x (in bytes / sec.). It's going to generate one module for each NIC.
  • Nic [x] RX: The reception rate for NIC x (in bytes / sec.). It's going to generate one module for each NIC.
  • Nic [x] erros TX: The number of transmission errors for NIC x. It's going to generate one module for each NIC.
  • Nic [x] erros RX: The number of reception errors for NIC x. It's going to generate one module for each NIC.
  • Installed memory: The amount of installed memory (in bytes).
  • Percent free memory: The percentage of free memory.
  • Used memory: The amount of used memory (in bytes).
  • Stateless: The status of the 'stateless' feature.
  • HA Status: The status of the HA (High Accessibility) feature.
  • Total CPU: The percentage of the total used CPU load by this virtual machine.
  • Hypervisor CPU: The percentage of the hyper-visor CPU load used by virtual machine.
  • Guest CPU: The percentage of host CPU load used by the virtual machine.
  • Status: 仮想マシンの状態
  • Disk [x] read: ディスク x の読み込み速度 (バイト/秒)。ディスクごとにモジュールが生成されます。
  • Disk [x] write: ディスク x の書き込み速度 (バイト/秒)。ディスクごとにモジュールが生成されます。
  • Disk [x] size: disk x のディスクサイズ。ディスクごとにモジュールが生成されます。
  • Disk [x] status: disk x の状態。ディスクごとにモジュールが生成されます。
  • Nic [x] TX: nic x の送信速度 (バイト/秒)。nic ごとにモジュールが生成されます。
  • Nic [x] RX: nic x の受信速度 (バイト/秒)。nic ごとにモジュールが生成されます。
  • Nic [x] erros TX: nic x の送信エラー数。nic ごとにモジュールが生成されます。
  • Nic [x] erros RX: nic x の受信エラー数。nic ごとにモジュールが生成されます。
  • Installed memory: 設定されたメモリ容量 (バイト単位)
  • Percent free memory: 空きメモリ率
  • Used memory: 利用メモリ量 (バイト単位)
  • Stateless: ステートレス機能の状態
  • HA Status: HA 機能の状態
  • Total CPU: この仮想マシン全体の CPU 使用率
  • Hypervisor CPU: 仮想マシンによって使われている、ハイパーバイザーの CPU 使用率
  • Guest CPU: 仮想マシンの CPU 使用率

イベント

  • Event [x]: The description for event x which occurred on the system. For every detected event, one module is created within each affected agent.
  • Event [x]: システム内で発生したイベント x の説明。それぞれのエージェント内に、検出されたイベントごとにモジュールが作成されます。

RHEV アーキテクチャの管理と参照

This section explains the instalation, configuration and how RHEV View and RHEV Manager extensions work.

この節では、インストール、設定、および、どのように RHEV View および RHEV Manager 拡張が動作するかを説明します。

Template warning.png

RHEV View and RHEV Manager extensions only work with Pandora FMS 4.0.2 or higher versions


Template warning.png

RHEV View および RHEV Manager 拡張は、Pandora FMS 4.0.2 以上 でのみ動作します。


自動検出タスクのインストール

Following is detailed recon script installation and recon task creation which updates the variables used by the extensions.

以下に、自動検出スクリプトのインストールと、拡張で使われている値を更新する自動検出タスク作成の詳細を示します。

自動検出スクリプトのインストール

Prior to the creation of the Recon Task, you're required to register the Recon Script which updates the values which are required by the extensions. Please click on Manage Servers and on Manage recon script to do so.

自動検出タスクを作成する前に、拡張が要求する値を更新するための自動検出スクリプトを登録する必要があります。そのためには、サーバ管理(Manage Servers)内の自動検出スクリプト管理(Manage recon script)サブメニューをクリックします。

Recon script menu.jpg

Once the main screen of Manage recon script has popped up, please click on the Add button.

自動検出スクリプト管理(Manage recon script)のメイン画面へ行ったら、追加(Add)ボタンをクリックします。

Recon script screen.jpg

In this moment, a form to enter the details for the new Recon Script is going to appear. You're required to fill out the fields properly as shown on the image below. In the field called Script fullpath you're required to insert the interpreter or program which executes the script ('perl' in this case) and the full path to the script. Once the form is filled out properly, please click on Create.

新たな自動検出スクリプトのデータを入力するためのフォームが表示されたら、次のようにすべてのフォームに入力します。スクリプトのフルパス(Script fullpath)にはスクリプトを実行するプログラム(この例ではperl)と、スクリプトのフルパスを入力します。フォームへの入力が完了したら、作成(Create)をクリックします。

800px‎‎‎‎‎‎

The moment the recon script is registered, you're going to see a screen, showing the processing was executed properly and the script was registered, appearing on the list.

自動検出スクリプトが登録されたら、リストにスクリプトが登録され処理が正常に完了した画面が表示されます。

800px
自動検出タスクの作成

To ensure the variables used by the extensions are updated periodically, you're required to create a Recon Task which is going to be executed on each defined time interval. To create a Recon Task, please click on Manage Servers and on Manage recontask.

拡張が必要とする定期的に更新される値を得るには、指定した時間間隔で実行される自動検出タスクを作成する必要があります。自動検出タスクを作成するには、サーバ管理(Manage Servers)内の自動検出タスク(Recon Task)サブメニューをクリックします。

Recon task menu.jpg

As you can see on the image below, the main view of Recon Task is shown. Please click on Create to create a new one.

次のような自動検出タスクのメイン画面が表示されます。新規作成のために作成(Create)をクリックします。

Recon task screen.jpg

After clicking on Create, the form on the picture below is going to appear. It's very important to select the Custom Script option in the Mode field, because it's going to allow you to select a registered script (the RHEV Recon Script in this case).

作成(Create)をクリックすると、次のようなフォームが表示されます。モード(Mode)フィールドでは、カスタムスクリプト(Custom Script)を選択することがとても重要です。なぜなら、先の登録しておいたスクリプト(この例では RHEV 自動検出スクリプトです)を選択できるようにするためです。

ファイル:Recon creation rhev.png

The field called Script field is reserved for recon script parameters. For this recon script, you're required to use the following parameters:

スクリプトフィールド(Script field)というフィールドは、自動検出スクリプトのパラメータのために予約されています。この自動検出スクリプトでは、以下のパラメータが必要です。

  • server: The address of the host which runs the API.
  • user: The user to access the API (the syntax is 'user@domain').
  • pass: The password to access the API.
  • cert: The path to the API certificate.
  • pandoraconf: The path to where the Pandora FMS configuration file is located.
  • server: API を実行するホストのアドレス
  • user: API へアクセスするユーザ(書式は "user@domain" です)
  • pass: API アクセスのためのパスワード
  • cert: API 証明書のパス
  • pandoraconf: Pandora FMS 設定ファイルが置かれているパス

Template warning.png

The cert parameter is going to be used by the Recon Task and RHEV Manager extensions. It's very important to make sure the Pandora FMS Servers -and- Web Servers are allowed to access to this location.


Template warning.png

certパラメータは、自動検出タスクおよび、RHEV Manager拡張で利用されます。Pandora FMS サーバおよびウェブサーバがAPIにアクセスできるようにするためにとても重要です。


Please click on the Add button to create a new Recon Task and to finish the process.

最後に、新たな自動検出タスクを作成するために追加(Add)をクリックします。

In this moment, the following screen is going to appear, showing the process was completed successfully. The new Recon Task is going to appear on the list.

処理が正常に完了し、新たな自動検出タスクがリストに登録され、次のような画面が表示されます。新たな自動検出タスクが一覧に表示されます。

ファイル:Recon creation rhev2.png

In this moment, you possess one Recon Task which will be executed on each defined interval. It will update all variables related to the agents which are going to monitor the RHEV virtual architecture.

これで、指定した間隔で実行される一つの自動検出タスクが登録されたことになります。このタスクにより RHEV 仮想アーキテクチャをモニタリングするエージェントのデータが更新されます。

RHEV View および RHEV Manager 拡張のインストール

To install the extensions just copy the content of extensions folder, that will appear after decompress the plugin, to extensions folder inside enterprise part of Pandora FMS console, the command to perform this actions is:

拡張のインストールは、extensions フォルダの中身をコピーするだけです。つぎのようなコマンドで、プラグインを展開したものを Pandora FMS コンソールの enterprise の中へコピーします。

cp -R extensions/* <pandora_console_dir>/enterprise/extensions/

From now the RHEV monitoring extensions are available.

これで、RHEV モニタリング拡張が使えるようになります。

RHEV View 拡張の利用

To use the RHEV View extension, please click on Monitoring and RHEV View.

RHEV View 拡張を利用するには、モニタリング(Monitoring) メニューの中の RHEV View をクリックします。

ファイル:Rhev view menu.png

The extension is going to open a map, showing all components of the RHEV architecture which gets discovered by the plug in.

拡張は、プラグインで検出した RHEV アーキテクチャの全コンポーネントを次のようにマップ表示します。

800px

The different elements of RHEV architecture (e.g. Data Centers, Storage Domains, Clusters, Networks, Hosts and Virtual Machines) will appear on the map. Each element is represented by a different icon for each kind of element. The relationship between icons show the relationship between the RHEV architecture elements. You're able to see the status of every element and their relationships to each other at a glance by this view.

マップ内には、RHEV アーキテクチャの異なる要素(データセンター、ストレージドメイン、クラスタ、ネットワーク、ホスト、仮想マシン)が表示されます。それぞれの要素はアイコン表示され、それぞれの要素ごとに異なります。アイコン間の関係は、RHEV アーキテクチャの要素間の関係として表示します。この画面では、一目で要素の関係と状態を見ることができます。

The extension has a menu to configure the view: Hiding or showing the entities, enlarging the text size, zooming in and out to see a more detailed picture of the network.

拡張には、表示を設定するためのメニューがあります。エンティティを隠したり表示したり、テキストのサイズを変更したり、詳細画像の拡大・縮小ができます。

800px

On the picture below, the elements, networks, hosts and virtual machines are hidden, because we need to see a detailed view of the relationship between clusters and storage domains with a data center.

以下の画像の例では、ネットワーク、ホスト、仮想マシンのエレメントは隠れています。なぜなら、データセンターで、クラスタとストレージドメインの関係の詳細を見たいからです。

800px

RHEV Manager 拡張の利用

RHEV Manager extension it's available in agent operation view which represent RHEV virtual machines inside Pandora FMS.

RHEV Manager 拡張は、Pandora FMS 内で RHEV 仮想マシンを表示するエージェント操作画面にあります。

Template warning.png

The RHEV Manager Extension utilizes the curl' command. The installation of this command is required and has to be accessible to the Web Server on which the Pandora FMS Console is installed on.


Template warning.png

この拡張は、curlコマンドを利用します。このコマンドがインストールされ、Pandora FMS コンソールを実行する web サーバプロセスのユーザ権限で利用できる必要があります。


To access the extension, please click on the icon which is represented by the RedHat logo in the agent's tab bar.

拡張にアクセスするには、エージェントのタブにある Red Hat ロゴのアイコンをクリックします。

ファイル:Rhev icon operation agent.png

The extensions allow you to manage the virtual machine ('switch on/off' and 'suspend') without being forced to use RHEV Management Console. The extension shows the current status of the virtual machine by a code of colors ('green' = powered on, 'orange' = suspended and 'grey' = powered off), and a combo containing the available states. You're able to change them by clicking on the Change Status button.

拡張では、RHEV 管理コンソールを使わずに仮想マシンを管理(電源 on/off、サスペンド)することができます。拡張は、色で仮想マシンの現在の状態を表示(緑=電源on、オレンジ=サスペンド、グレー=電源off)します。また、状態を選択し、状態変更(Change Status) ボタンをクリックして状態を変更することができます。

ファイル:Rhev combo options.png

If you're clicking the Stop status to stop a virtual machine, the extension is going to contact the RHEV API and sends the command. The result is going to be a change in the virtual machine status and the combo options, as you can see on the picture below:

仮想マシンを停止するために停止(Stop)状態を選択すると、拡張は RHEV API に接続しコマンドを送信します。結果、仮想マシンの状態が変化し、選択オプションが次のようになります。

ファイル:Rhev status down.png

The change between some states consists of several steps, e.g. changing from Stop to Start. In this case, the extension is going to show the virtual machine status for each step. To change e.g. from 'Stop' to 'Start', the virtual machine crosses the states shown below:

いくつかの状態の間の変更には、いくつかのステップがあります。例えば、停止(Stop) から 開始(Start) への変更です。この場合、拡張はそれぞれのステップで仮想マシンの状態を表示します。停止から開始への変更では、仮想マシンの状態は次のように変化します。

550px
550px
550px
550px

エージェントプラグイン設定

Agent plugin configuration is done using a configuration file called rhev-plugin.conf by defualt.

エージェントプラグイン設定は、デフォルトで rhev-plugin.conf という設定ファイル使って行います。

By default the agent plugin select all entities and creates all modules with default values for name and description. All this parameters can be customized through configuration file.

デフォルトでは、エージェントプラグインは全エンティティを選択し、名前と説明をデフォルトの値で全モジュールを作成します。これらのパラメータはすべて設定ファイルを通してカスタマイズできます。

設定ファイル

Configuration file has two different areas: the global variables and monitoring configuration variables.

設定ファイルは、全体の設定と個々の監視の設定の 2つの部分から成ります。

The global variables section begins on the token named Configuration and carries the information about the plug-in configuration. The parameters allowed in this section are the following:

全体の設定の部分では、Configuration という記述から始まり、プラグイン設定に関する情報があります。この部分で設定可能なパラメータは次の通りです。

  • module_name: module name of module reported in agent which executes the plugin.
  • module_name: プラグインを実行するエージェントから報告されるモジュール名です。
  • server: host name which runs RHEV API.
  • server: RHEV API を実行するホスト名です。
  • user: used to connect to API, in format user@domain.
  • user: API に接続するユーザです。user@domain という書式です。
  • pass: password to connect to API.
  • pass: API へ接続するパスワードです。
  • cert: path of API certificate.
  • cert: API 証明書のパスです。
  • temporal: temporal folder.
  • temporal: テンポラリフォルダです。
  • logfile: name of logfile.
  • logfile: ログファイル名です。
  • transfer_mode: transfer mode. Coudl be: local or tentacle
  • transfer_mode: 転送モードです。local または tentacle です。
  • tentacle_ip: tentacle server IP to send information. Typically it is placed in the same machine of Pandora server. This option is only available if you use tentacle as transfer_mode.
  • tentacle_ip: 情報の送信先の tentacle サーバの IP です。一般的に Pandora サーバと同じマシンです。転送モードに tentacle を利用した場合に利用できます。
  • tentacle_port: port of tentacle server. This option is only available if you use tentacle as transfer_mode.
  • tentacle_port: tentacle サーバのポート番号です。転送モードに tentacle を利用した場合に利用できます。
  • tentacle_opts: extra options of tentacle server. This option is only available if you use tentacle as transfer_mode.
  • tentacle_opts: tentacle サーバの拡張オプションです。転送モードに tentacle を利用した場合に利用できます。

The monitoring configuration section comes with several subsections. The first one contains the token named Reject and allows you to create a list which is going to contain the names of the entities of the virtualization environment which are going to get rejected. To reject an entity, you're required to put the name on the list as shown below:

監視設定部分には、いくつかのサブセクションがあります。一つ目は、Reject というトークンがあり、除外する仮想環境のエンティティの名前のリストを作成することができます。エンティティを除外するには、次のように名前のリストを記載する必要があります。

#Dismissed entities
Reject
mv1
mv_WindowsXP
mv_WebServer1
...

It is possible to discard all entities of the same type, e. g. all hosts, all virtual machines, etc. The tokens for each entity are: all_dc (Data Center), all_host (Hosts), all_network (Networks), all_storage (Storage Domain), all_cluster (Cluster), all_vm (Virtual Machines). An example of using these tokens would be:

全ホスト、全仮想マシンなど、一つの種類のすべてのエンティティを除外することもできます。それぞれのエンティティのトークンは、all_dc (データセンタ)、all_host (ホスト)、all_network (ネットワーク)、all_storage (ストレージドメイン)、all_cluster (クラスタ)、all_vm (仮想マシン)です。これらのトークンの利用例を以下に示します。

#Dismissed entities
Reject
all_dc
all_host
all_network
all_storage
all_cluster
all_vm

The second section is defined by the token named Rename and allows you to change entity names. This feature is very useful if you want to combine software agent and API information on the same agent. The configuration for this section is conducted by mentioning the old name followed by the new one and a space character between them as shown below.

2つ目のセクションは、Rename というトークンで定義され、エンティティの名前を変更できます。この機能は、Pandora FMS の同一エージェント内でソフトウエアエージェントと API 情報を結びつけるのにとても便利です。このセクションの設定は、古い名前、新しい名前の順にスペースを入れて次のように記述します。

#Rename entities
Rename
mv_WebServer1 WebServer1
mv_WindowsXP WindowsXP Test
...

The following subsections are related to the entity's monitoring configuration. Each entity has it's own token named DataCenter', StorageDomain, Network, Cluster, Host y VM. For each entity, it's e.g. possible to define whether the modules are disabled or enabled and to provide max. and min. values for the Warning and Critical states:

次のサブセクションは、エンティティのモニタリング設定に関するものです。それぞれのエンティティには、それぞれ DataCenter, StorageDomain, Network, Cluster, Host および VM というトークンがあります。各エンティティで、モジュールの有効・無効、警告や障害状態となる最小値や最大値を定義することができます。例を以下に示します。

#VM Modules
VM
status disabled
errors_total_tx name = TX Error Net [%s]; desc = Total error TX net; limits = 60 70 71 100
memory_used name = Used Mem; desc = Memory used by the virtual machine; limits = 256 1024 1025 2048
...

Each line is associated to a monitoring module. There are two options:

それぞれの行はモニタリングモジュールに関連していて、次の 2つのオプションがあります。

  • <module> disabled: The module is -not- going to be created.
  • <module> name = <name>; desc = <description>; limits = <min_warning> <max_warning> <min_critical> <max_critical>: The module is going to be created with a specified name and description. It's also going to contain the thresholds for min. and max. values and for the 'Warning' and 'Critical' states.
  • <モジュール> disabled: モジュールは、作成されません
  • <モジュール> name = <名前>; desc = <説明>; limits = <警告の最小値> <警告の最大値> <障害の最小値> <障害の最大値>: モジュールは、指定した名前と説明で作成されます。また、警告および障害の最大・最小の閾値を指定します。

It's very important to pay special attention to the configuration file's line structure and syntax, especially to the character ;. It's located in direct vicinity to the module's name and its description. The command line examples which are shown below are NOT THE SAME. Please take a good look at the blanks near the ;:

設定ファイルの行構造に注意し、特にモジュール名とモジュールの説明の近くの; 文字に注意することがとても重要です。これらの行は、同じではありません。(; 文字の前のスペースを確認してください)

errors_total_tx name = TX Error Net [%s]; desc = Total error TX net; limits = 60 70 71 100 #OK
errors_total_tx name = TX Error Net [%s]    ; desc = Total error TX net    ; limits = 60 70 71 100 #Wrong

The modules are referenced by their short names, and a name is easier to write on the command line. A table that explains how to link full names and short names is located in the next section.

モジュールは、コマンドラインで入力しやすい短い名前で参照されます。フルネームと短い名前の関連付けした表を次の章に示します。

This is an example of the configuration of virtual machines:

仮想マシンの設定例 (VM セクション) を見てみましょう。

To monitor virtual machines was defined as a list of enabled or disabled modules inside the configuration file in the VM section. The 'status' module is disabled and the modules named 'errors_total_tx' and 'memory_used' contain custom values. The rest of the modules which are not showing up on the list, are going to be created along with a set of default values for them. By this configuration, the module named 'memory_used' is going to get the following values:

仮想マシンをモニタするには、設定ファイルの VM セクションで、モジュールを有効化・無効化するかの一覧を定義します。status モジュールは無効化されており、errors_total_tx および memory_used モジュールはカスタム値を持っています。リストに無い残りのモジュールは、デフォルトの値で作成されます。この設定で、memory_used モジュールは次の値になります。

  • Name: The used memory.
  • Description: The memory used by the virtual machine.
  • Min Warning: 256
  • Max Warning: 1024
  • Min Critical: 1025
  • Max Critical: 2048

The modules are generated dynamically, e.g. modules related to disks or network interfaces, which are going to create one module for each detected item, have a special syntax for the module's name:

ディスクやネットワークインタフェースに関連するモジュールは動的に生成されます。それぞれの要素ごとにモジュールが作成され、次のようにモジュール名は特別な書式になっています。

errors_total_tx name = Errores TX Net [%s]; desc = Errores totales TX de red; limits = 60 70 71 100

In this case, the name has a dynamic part which allows you to use the macro % which will be replaced with the dynamic part of the module's name by the plugin.

この場合、名前は動的に決まる部分があり、% マクロを利用することができます。これはプラグインによりモジュール名で動的に変わるものに置き換えられます。

The module named errors_total_tx e.g. has this default name:

例えば、errors_total_tx モジュールのデフォルトの名前は次の通りです。

Nic [nic1] errors TX 

By this configuration, the name is going to be:

この設定での名前は次の通りです。

TX Error Net [nic1] 

Where 'nic1' is the dynamic part of the module's name.

nic1 がモジュール名で動的に決まる部分です。

Template warning.png

All errors related to the configuration file are shown in the log file. They are also going to be sent as an asynchronous module to Pandora FMS which is going to appear in the agent which is executing the plug in.


Template warning.png

設定ファイルに関連する全てのエラーはログファイルに出力されます。また、Pandora FMS のプラグインを実行するエージェント内部の非同期モジュールへ送信されます。


In addition to the section related to each element, the configuration file has a common section for the events. This section is defined by the token named 'EventCodes' and all event codes to monitor will be listed inside it:

それぞれの要素に関連したセクションに加え、設定ファイルにはイベント設定のための共通セクションがあります。このセクションは、EventCodes というトークンで定義され、モニタするすべてのイベントコード一覧を次のように定義します。

EventCodes
30
920
980
509
956

If you don't define this section, the event monitoring is -not- going to be executed.

このセクションを定義しないと、イベントモニタリングは動作しません。

複数のソフトウエアエージェントでのモニタリング負荷の分散

Through configuration file is possible to split the monitoring load of RHEV virtualization environment.

設定ファイルを通して、RHEV 仮想環境のモニタリング負荷を分散することができます。

To do that you must distribute the entities to be monitored between the agents. In this example we have the following architecture:

そのためには、モニタするエンティティをエージェント間で分割する必要があります。この例では、次のようなアーキテクチャを想定します。

DC1
 |
 |- Cluster 1.1
       |- c1.1mv1
       |- c1.1mv2
       |- c1.1mv3

 |- Cluster 1.2
       |- c1.2mv1
       |- c1.2mv2
       |- c1.2mv3

DC2
 |
 |- Cluster 2.1
       |- c2.1mv1
       |- c2.1mv2
       |- c2.1mv3

 |- Cluster 2.2
       |- c2.2mv1
       |- c2.2mv2
       |- c2.2mv3

A way to split the load coudl be assigning one DataCenter to each agent, to do that we will use the feature to reject entities (token Reject).

負荷を分散する方法として、一つのデータセンタをそれぞれ違うエージェントに割り当てます。そのためには、エンティティを除外する機能 (Rejectトークン) を利用します。

The first agent only monitors Datacenter DC1 and rejects the entities in DC2:

最初のエージェントはデータセンター DC1 のみをモニタし、DC2 のエンティティは除外します。

Reject
DC2
Cluster 2.1
Cluster 2.2
c2.1mv1
c2.1mv2
c2.1mv3
c2.2mv1
c2.2mv2
c2.2mv3

The second software agent monitors the Datacenter DC2 and rejects de DC1

2つ目のソフトウエアエージェントは、データセンター DC2 をモニタし、DC1 は除外します。

Reject
DC1
Cluster 1.1
Cluster 1.2
c1.1mv1
c1.1mv2
c1.1mv3
c1.2mv1
c1.2mv2
c1.2mv3

Also its possible to split the load based on clusters. For example we hace four software agents and each one will monitor a different cluster.

また、クラスタをベースに負荷を分散することもできます。例えば、4つのソフトウエアエージェントがあり、それぞれ異なるクラスタをモニタします。

Software agent 1, monitors Cluster 1.1 and rejects the other entities.

ソフトウエアエージェント1 ではクラスタ 1.1 をモニタし、他のエンティティを除外します。

Reject
DC1
Cluster 1.2
c1.2mv1
c1.2mv2
c1.2mv3
DC2
Cluster 2.1
Cluster 2.2
c2.1mv1
c2.1mv2
c2.1mv3
c2.2mv1
c2.2mv2
c2.2mv3

Software agent 2, monitors Cluster 1.2 and rejects the other entities.

ソフトウエアエージェント2 ではクラスタ 1.2 をモニタし、他のエンティティを除外します。

Reject
DC1
Cluster 1.1
c1.1mv1
c1.1mv2
c1.1mv3
DC2
Cluster 2.1
Cluster 2.2
c2.1mv1
c2.1mv2
c2.1mv3
c2.2mv1
c2.2mv2
c2.2mv3

Software agent 3, monitors Cluster 2.1 and rejects the other entities.

ソフトウエアエージェント3ではクラスタ 2.1 をモニタし、他のエンティティを除外します。

Reject
DC1
Cluster 1.1
Cluster 1.2
c1.1mv1
c1.1mv2
c1.1mv3
c1.2mv1
c1.2mv2
c1.2mv3
DC2
Cluster 2.2
c2.2mv1
c2.2mv2
c2.2mv3

Software agent 4, monitors Cluster 2.2 and rejects the other entities.

ソフトウエアエージェント4ではクラスタ 2.2 をモニタし、他のエンティティを除外します。

Reject
DC1
Cluster 1.1
Cluster 1.2
c1.1mv1
c1.1mv2
c1.1mv3
c1.2mv1
c1.2mv2
c1.2mv3
DC2
Cluster 2.1
c2.1mv1
c2.1mv2
c2.1mv3

Rejected entities configuration is very flexible and you could split the load assigning several entities to each software agent.

エンティティの除外設定はとても柔軟で、それぞれのソフトウエアエージェントで複数のエンティティのモニタリング負荷を分散させることができます。

設定ファイル例

全モジュール無効化の例
#These lines are comments

#Plugin configuration parameters
Configuration
server rhevm.server
user user@testdomain
pass 12345
cert /home/user/rhevm.cer
temporal /tmp
logfile /tmp/plugin-rhev.log
transfer_mode local
tentacle_ip 127.0.0.1
tentacle_port 41121
tentacle_opts

#Dismissed entities
Reject

#Data Center modules
DataCenter
status disabled

#StorageDomain modules
StorageDomain
available disabled
used disabled
committed disabled
free_percent disabled 

#Networks modules
Network
status disabled
stp disabled

#Clusters modules
Cluster
overcommit disabled
hugepages disabled
threshold_low disabled
threshold_high disabled
threshold_duration disabled

#Host Modules
Host
status disabled 
vm_active disabled
vm_migrating disabled
vm_total disabled
data_current_rx disabled
data_current_tx disabled
errors_total_rx disabled
errors_total_tx disabled
memory_cached disabled
memory_total disabled
swap_free_percent disabled
swap_cached_percent disabled
swap_free disabled
cpu_current_idle disabled
cpu_current_user disabled
memory_used disabled
ksm_cpu_current disabled
memory_free_percent disabled
swap_total disabled
memory_buffers disabled
cpu_current_system disabled
cpu_load_avg_5m disabled
swap_cached disabled
swap_used disabled
memory_free disabled
fence_status disabled

#VM Modules
VM
status disabled
stateless disabled
ha disabled
cpu_current_guest disabled
cpu_current_hypervisor disabled
memory_free_percent disabled
memory_installed disabled
memory_used disabled
cpu_current_total disabled
data_current_read disabled
data_current_write disabled
size disabled
disk_status disabled
data_current_rx disabled 
data_current_tx disabled
errors_total_rx disabled
errors_total_tx disabled

モジュール名関係表

データセンター
長い名前 短い名前
Status status
ストレージドメイン
長い名前 短い名前
Available Space available
Used Space used
Committed Space committed
Percent Free Space free_percent
ネットワーク
長い名前 短い名前
Status status
STP Status stp
クラスタ
長い名前 短い名前
Overcommit Percent overcommit
Transparent HugePages hugepages
Low Threshold threshold_low
High Threshold threshold_high
Threshold duration threshold_duration
ホスト
長い名前 短い名前
Status status
Active VM vm_active
Migrating VM vm_migrating
Total VM vm_total
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx
Cache size memory_cached
Total memory memory_total
Swap free percent swap_free_percent
Swap cached percent swap_cached_percent
Swap free swap_free
CPU Idle cpu_current_idle
User CPU cpu_current_user
Used memory memory_used
KSM CPU ksm_cpu_current
Percent free memory memory_free_percent
Total swap swap_total
Buffers size memory_buffers
System CPU cpu_current_system
CPU Load cpu_load_avg_5m
Cached swap swap_cached
Used swap swap_used
Free memory memory_free
Fence Status fence_status
仮想マシン
長い名前 短い名前
Status status
Stateless stateless
HA Status ha
Guest CPU cpu_current_guest
Hypervisor CPU cpu_current_hypervisor
Percent free memory memory_free_percent
Installed memory memory_installed
Used memory memory_used
Total CPU cpu_current_total
Disk [x] read data_current_read
Disk [x] write data_current_write
Disk [x] size size
Disk [x] status disk_status
Nic [x] RX data_current_rx
Nic [x] TX data_current_tx
Nic [x] errors RX errors_total_rx
Nic [x] errors TX errors_total_tx

Nutanix

The Nutanix hyperconvergence solution offers us the possibility of managing all network, disk, processing and memory resources from a single point.

Nutanix ハイパーコンバージドソリューションでは、ネットワーク、ディスク、処理、メモリリソースのすべてを一ヵ所で管理することができます。

Pandora FMS monitoring plugin for Nutanix, allows us to control at all times the status of our Nutanix solution.

Pandora FMS の Nutanix 監視プラグインにより、Nutaix ソリューションの状態を常に監視することができます。

400px



プラグイン操作

The Nutanix plugin is a program written in Perl, which will connect to the REST API of Nutanix PRISM, retrieving the necessary metrics to monitor the following elements:

Nutanix プラグインは、Perl で書かれたプログラムで、Nutanix PRISM の REST API へ接続します。以下の要素を監視するために必要なメトリックスを取得します。

  • Nutanix clusters
  • Storing devices
  • Containers
  • Virtual machines
  • Hosts
  • Status of replication processes
  • Nutanix クラスタ
  • ストレージデバイス
  • コンテナ
  • 仮想マシン
  • ホスト
  • レプリケーションプロセスの状態


プラグインの必要条件

In order to retrieve the REST API information, we will need:

REST API から情報を取得するためには、以下が必要です。

  • The IP address/ FQDN of the portal.
  • A user with reading permissions on the API.
  • The password of that user.
  • ポータルの IPアドレス/FQDN
  • API の読み出し権限を持った ユーザ
  • ユーザの パスワード

Regarding the communication of monitoring results to your Pandora FMS. You'll need:

監視結果を Pandora FMS へ反映させるために、以下が必要です。

  • The information transfer mode, either locally or via Tentacle.
    • If it is local, the address of the directory where the XML files with the results are to be delivered as well as the write permissions in that directory.
    • In case of being communication via Tentacle, it will be necessary to be able to connect against the IP address or FQDN of the Pandora server, the port used by your Tentacle installation, the location of the Tentacle client as well as any extraordinary option you have defined.



  • ローカルまたは Tentacle での 情報の転送
    • ローカルであれば、結果を含む XML ファイルを置くディレクトリが必要です。またディレクトリには書き込み権限が必要です。
    • Tentacle を利用する場合は、Pandora サーバの IPアドレスまたは FQDN に Tentacle のポートで接続できる必要があります。tentacle クライアントの場所やオプションの定義も必要です。

プラグインのインストール

Download the files required by the plugin from the module library

プラグインに必要なファイルを モジュールライブラリ からダウンロードします。

Transfer the files to the remote computer from where you want to monitor your Nutanix infrastructure and extract the files from the plugin:

Nutanix インフラストラクチャを監視するリモートのコンピュータへファイルを転送し、プラグインファイルを展開します。

tar xvzf pandora_nutanix.tar.gz

プラグイン設定

The following fields are declared:

次のフィールドがあります。

Nutanix API configuration

nx_fqdn
Prism main server address
nx_port
Port where the REST API is published (default 9440)
nx_user
User with reading privileges on the REST API
nx_pass
that user's password
use_https
Use https (1) or not (0)
nx_rest_version
API Rest version (by default 'v1')

Nutanix API 設定

nx_fqdn
Prism メインサーバのアドレス
nx_port
REST API のポート番号(デフォルトは 9440)
nx_user
REST API の読み出し権限を持ったユーザ
nx_pass
上記ユーザのパスワード
use_https
https を利用する(1)かしないか(0)
nx_rest_version
API バージョン(デフォルトは 'v1')

Nutanix agent configuration

agent_interval
Interval of the agents generated by the plugin (default 300)
agent_group
Group to which the agents generated will belong (if' autocreate_group' is commented in the configuration of your PandoraServer), by default Nutanix
module_interval
Interval of generated agent modules (multiplication factor, default 1)
module_tags
Tags associated with the new modules of the agents generated.
module_group
Group to which new modules will belong to.

Nutanix エージェント設定

agent_interval
プラグインで生成されるエージェントの間隔(デフォルトは 300)
agent_group
生成されるエージェントが所属するグループ(Pandora サーバの設定で 'autocreate_group' が無効化されている場合) デフォルトは、Nutanix です。
module_interval
生成されたエージェントのモジュールの間隔(倍率指定で、デフォルトは 1)
module_tags
生成されたエージェントの新規モジュールに関連付けるタグ
module_group
新たなモジュールが所属するグループ

Configuration of communication to the Pandora server

mode
Data transfer mode, "local" or "tentacle"
tentacle_ip
Pandora server IP address, only applies in tentacle mode
tentacle_port
Port where the Tentacle service is listening
tentacle_opts
Any extra options you have configured in your Tentacle service
tentacle_client
Complete path to your Tentacle customer
temp
Temporary Work Directory
local_folder
Delivery path for the "local" data transfer mode

Pandora サーバとの通信設定

mode
データ転送モード "local" または "tentacle"
tentacle_ip
Pandora サーバの IP アドレス。tentacle モードでのみ利用します。
tentacle_port
Tentacle の接続ポート番号
tentacle_opts
Tentacle の拡張オプション
tentacle_client
Tentacle クライアントのパス
temp
テンポラリディレクトリ
local_folder
"local" データ転送モード時のディレクトリパス

Filters

cluster_monitoring
Enable (1) or not (0) cluster monitoring
storage_monitoring
Enable (1) or not (0) monitoring of storage devices
container_monitoring
Enable (1) or not (0) monitoring of storage containers
vm_monitoring
Enable (1) or not (0) monitoring of virtual machines
host_monitoring
Enable (1) or not (0) monitoring of virtual machine servers (Nutanix nodes)
pd_monitoring
Enable (1) or not (0) monitoring of protection domains

フィルタ

cluster_monitoring
クラスタ監視の有効化(1)または無効化(0)
storage_monitoring
ストレージデバイス監視の有効化(1)または無効化(0)
container_monitoring
ストレージコンテナ監視の有効化(1)または無効化(0)
vm_monitoring
仮想マシン監視の有効化(1)または無効化(0)
host_monitoring
仮想マシンサーバ(Nutanixノード)監視の有効化(1)または無効化(0)
pd_monitoring
プロテクションドメイン監視の有効化(1)または無効化(0)

Customization

cluster_agent_header
Header for the agent name of cluster-type devices agent
storage_agent_header
Header for agent name of storage device type agent
host_agent_header
Header for the agent name of virtual machine server type devices (Nutanix nodes)
container_agent_header
Header for agent name of storage container type devices
vm_agent_header
Header for agent name of virtual machine type device agent
pd_agent_header
Header for the agent name of protection domain type devices agent

カスタマイズ

cluster_agent_header
クラスタタイプデバイスエージェントのエージェント名ヘッダ
storage_agent_header
ストレージデバイスタイプエージェントのエージェント名ヘッダ
host_agent_header
仮想マシンサーバタイプデバイス(Nutanix ノード)エージェントのエージェント名ヘッダ
container_agent_header
ストレージコンテナタイプデバイスエージェントのエージェント名ヘッダ
vm_agent_header
仮想マシンタイプデバイスエージェントのエージェント名ヘッダ
pd_agent_header
プロテクションドメインタイプデバイスエージェントのエージェント名ヘッダ

Module generation rules

vm_stat
Add-module aggregation rule for monitoring virtual machines, by default 'hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*', This indicates the extraordinary modules that will be generated, when the name of the metric matches the regular expressions indicated in this field. Add the value ".*" to monitor all available metrics.
host_stat
Rule for adding modules for monitoring virtual machine servers (Nutanix nodes), default' hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|. *avg*'.This indicates the extraordinary modules that will be generated when the name of the metric matches the regular expressions indicated in this field. Add the value ".*"to monitor all available metrics.
pd_stat
Rule for adding modules for the monitoring of protection domains, by default 'replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes', this indicates the extraordinary modules that will be generated, when the name of the metric matches the regular expressions indicated in this field".*" Add the value.to monitor all available metrics.

モジュール生成ルール

vm_stat
仮想マシンを監視するためのモジュール追加集約ルールです。デフォルトは 'hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|.*avg.*' です。メトリックの名前がこのフィールドに示されている正規表現と一致した場合に、異常モジュールを生成します。すべてのメトリックを監視するには、".*" を追加します。
host_stat
仮想マシンサーバ(Nutanix ノード)を監視するためのモジュールを追加するルールです。デフォルトは、' hypervisor_cpu_usage_ppm|hypervisor_memory_usage_ppm|. *avg*' です。メトリックの名前がこのフィールドに示されている正規表現と一致した場合に、異常モジュールを生成します。すべてのメトリックを監視するには、".*" を追加します。
pd_stat
プロテクションドメインを監視するためのモジュールを追加するルールです。デフォルトは、'replication_transmitted_bandwidth_kBps|replication_total_transmitted_bytes' です。メトリックの名前がこのフィールドに示されている正規表現と一致した場合に、異常モジュールを生成します。すべてのメトリックを監視するには、".*" を追加します。

Renamed entities

RENAME aaa TO bbb
Rule for renaming entities, you can define as many directives as you need to rename elements

名前変更エンティティ

RENAME aaa TO bbb
エンティティの名前を変更するためのルールで、要素の名前を変更するのに必要な数のディレクティブを定義できます。

Entities exclusion

REJECT aaa
Rule for entity monitoring exclusion, you can define as many directives as you need to exclude

エンティティの除外

REJECT aaa
エンティティを監視から除外するルールで、除外したい数のディレクティブを定義できます。



プラグインの実行

It is recommended to run the plugin remotely from a computer with access to both Pandora Server and its Nutanix infrastructure to monitor.

プラグインを実行するサーバは、監視のために Pandora サーバおよび Nutanix インフラストラクチャの両方にアクセスできる必要があります。

Manual execution:

手動実行:

./pandora_nutanix-linux-x64 pandora_nutanix.conf


You can automate the execution of the plugin in the system cron by adding the following line to /etc/crontab

/etc/crontab に以下の設定を追加することにより、cron でプラグインを自動実行できます。

*/5 * * * * root /path/to/plugin/pandora_nutanix-linux-x64 /path/to/plugin/pandora_nutanix.conf



プラグインの結果

Captures with the results obtained by the plugin:

プラグインが取得した結果は次のようになります。

Example of Nutanix architecture map:

Nutanix アーキテクチャマップの例:

600px




Example of Nutanix architecture agent view:

Nutanix アーキテクチャエージェント表示の例:

600px




Example of module view for Host Nutanix agents:

Nutanix エージェントのモジュール表示の例:

600px



XenServer

Xen is an open source virtual machine monitor developed by the University of Cambridge.

Xen は、ケンブリッジ大学で開発されたオープンソースの仮想環境です。

The goal of the design is to be able to run instances of operating systems with all their features, fully functional in a simple computer.

設計の目標は、すべての機能を備えたオペレーティングシステムのインスタンスを、単純なコンピュータで完全に機能させることです。

Xen provides secure isolation, resource control, quality of service guarantees and hot migration of virtual machines. Operating systems can be explicitly modified to run Xen (although maintaining compatibility with user applications). This allows Xen to achieve high-performance virtualization without special hardware support.

Xenは、安全な隔離、リソース管理、サービス品質の保証、仮想マシンのホットマイグレーションを提供します。 オペレーティングシステムは、Xen で実行するための変更を行います(ただし、ユーザアプリケーションとの互換性は維持されます)。 これにより、Xen は特別なハードウェアサポートなしで高性能仮想化を実現します。

Intel has made a number of contributions to Xen that have enabled it to add support for its VT-X Vanderpool architecture extensions. This technology allows unmodified operating systems to act as hosts within Xen virtual machines, as long as the physical server supports Intel or AMD's VT extensions.

インテルは、VT-X Vanderpool アーキテクチャ拡張をサポートするための複数の機能を Xen に提供しました。 この技術により、物理サーバが Intel または AMD の VT 拡張をサポートしていれば、オペレーティングシステムを変更することなく Xen の仮想マシンとして動作することが可能になります。

500px



プラグイン操作

The Pandora FMS plugin for Xen environment monitoring is written in Python. Use XenAPI to retrieve all the necessary information. It allows the monitoring of the following types of elements:

Xen 環境監視のための Pandora FMS プラグインは、Python で書かれています。 必要な情報をすべて取得するには、XenAPI を使用します。 これにより、次のタイプの要素の監視が可能になります。

  • Virtualized systems in Xen
  • Storage resources
  • Xen's own server (host).
  • Xen 内の仮想化システム
  • ストレージリソース
  • Xen 自身のサーバ(ホスト)

ファイル:Xen.PNG



プラグインに必要なもの

It is essential that the system running the plugin has the following requirements:

プラグインを実行するシステムには次のものが必要です。

  • Installed Python
  • Python libraries installed:
    • XenAPI
    • xmltodict
  • Access to your XenServer API (web, enable traffic from the computer running the plugin to port 443 or 80 of XenServer)
  • It is recommended that virtual machines have Xen Server Tools installed, since the information available is quite excessive otherwise.
  • Python のインストール
  • 以下の Python ライブラリ
    • XenAPI
    • xmltodict
  • XenServer API へのアクセス (プラグインを実行するマシンから、XenServer へのポート 443 または 80 での接続許可)
  • 利用できる情報が多いため、仮想マシンには Xen Server Tools のインストールを推奨します。

Info.png

Plugin operation has been successfully tested on XenServer 6.5 and 7.2 systems




Info.png

プラグインは、XenServer 6.5 および 7.2 のシステムでテストしています。


プラグインのインストール

Download your copy of the Pandora FMS plugin for XenServer from the module library.

Pandora FMS の XenServer プラグインを、モジュールライブラリ からダウンロードします。

You can deploy it on the computer of your choice (Windows or Linux), extracting the contents of the file in a non-volatile directory from where you can run it either using Pandora FMS agent or system cron.

実行環境のマシン(Windows または Linux)で、Pandora FMS エージェントまたはシステム cron を使用して実行できるディレクトリにファイルを展開します。



プラグイン設定

Available configuration for Pandora FMS plugin for Xen:

Xen 用の Pandora FMS プラグイン設定は以下の通りです。

Configuration block [CONF]

xen_server_ip
Xen Server IP/FQDN adress
user
User with query permissions about the Xen API
password
User password
temporal
Temporary Work Directory

設定ブロック [CONF]

xen_server_ip
Xen Server の IP/FQDN アドレス
user
Xen API に対してクエリを出せるユーザ
password
ユーザのパスワード
temporal
テンポラリディレクトリ

設定ブロック [PANDORA]

tentacle_client
Tentacle クライアントの実行ファイルの場所
tentacle_ip
Tentacle の接続先 IP アドレス
tentacle_port
Tentacle の接続先ポート
logfile
ログファイルのパス
interval
生成したエージェントの間隔
group
生成したエージェントに割り当てるグループ

Configuration block [TUNNING]

time_adjustment
Parameter that allows the adjustment of the possible time differences between the computer running the plugin and the Xen server. (default =10, measured in seconds).
scan_vm_ip
Parameter that allows to define if the plugin will try to obtain the IPs of the VMs of the Xen server. You can only take the IPs of those VMs with the XenTools installed. It can be enabled (scan_vm_ip=true) or disabled (scan_vm_ip=false). If not specified, it is considered enabled.

設定ブロック [TUNNING]

time_adjustment
プラグインを実行しているコンピュータと Xen server との間で許容可能な時間差を調整するパラメータ。(デフォルト =10, 秒単位)
scan_vm_ip
プラグインが Xen サーバーの VM の IP を取得するかどうかを定義するパラメータ。XenTools がインストールされた VM の IP のみ取得できます。有効化(scan_vm_ip=true)または、無効化(scan_vm_ip=false)の設定ができます。設定されていない場合は、有効になります。

Configuration block [RENAME]

xen_element_name=pandora_agent_name
In this block, as many entries as desired can be defined with this format. It allows to change the names of the Xen Server elements to different ones to be used as agent names in Pandora. VMs, SRs and Xen Server itself can be renamed, for example:
[RENAME]
example-xen-server=Example Xen Server
Example Xen Server 2=example-xen-server-2
example-vm=Example VM
Example VM 2=example-vm-2
example-sr=Example SR
Example SR 2=example-sr-2
Even though names may have blank spaces, quotation marks should not be used.

設定ブロック [RENAME]

xen_element_name=pandora_agent_name
このブロックでは、以下のフォーマットで多くのエントリーを定義できます。XenServer 要素の名前を Pandora で使われるエージェント名に変更することができます。VMs、SR、Xen Server 自身を変更することができ、以下に例を示します。
[RENAME]
example-xen-server=Example Xen Server
Example Xen Server 2=example-xen-server-2
example-vm=Example VM
Example VM 2=example-vm-2
example-sr=Example SR
Example SR 2=example-sr-2
名前にスペースが含まれていても、クオートでくくる必要はありません。

プラグインの実行

You can program the execution of the plugin from any Pandora FMS agent adding the following to its configuration:

Pandora FMS エージェントの設定に以下を追加することによって、プラグインの実行ができます。

module_plugin python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"

To program it through the system cron you can add the following line to /etc/crontab:

システムの cron で設定する場合は、/etc/crontab に以下を追加します。

*/5 * * * * root python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf" > /dev/null 2>&1

If you run the plugin manually, the output must be similar to the one below:

プラグインを手動実行すると、出力は以下のようになります。

python "<ruta>\xen-plugin.py" "<ruta>\xen-plugin.conf"
<module>
<name><![CDATA[XenServer Plugin]]></name>
<type><![CDATA[async_string]]></type>
<description><![CDATA[Result of XenServer Plugin execution]]></description>
<data><![CDATA[OK]]></data>
</module>



プラグインの結果

Captures with the results obtained by the plugin:

プラグインが取得した結果か以下のようになります。

Example of Xen architecture map:

Xen アーキテクチャマップの例:

600px




Example of Xen architecture agent view:

Xen アーキテクチャエージェント表示の例:

600px




Example of module view for Host Xen agents:

Xen エージェントのモジュール表示の例:

600px



OpenNebula

OpenNebula is a platform for cloud computing focused on distributed and heterogeneous data centers, providing the virtual infrastructure to build private, public, and hybrid implementations of infrastructure as a service (IaaS) clouds.

OpenNebula は、分散型および異機種のデータセンターに焦点を当てたクラウドコンピューティングのプラットフォームであり、インフラストラクチャのプライベート、パブリック、およびハイブリッドのインプリメンテーションをサービス(IaaS)クラウドとして構築する仮想インフラストラクチャを提供します。

OpenNebula is open source software under the Apache 2 License.

OpenNebula は、Apache 2 ライセンスのオープンソースソフトウエアです。

500px



プラグイン操作

The Pandora FMS plugin for OpenNebula environment monitoring is written in Perl. It runs locally on the OpenNebula server and will retrieve all the necessary information using OpenNebula's own management commands. It allows the monitoring of the following types of elements:

OpenNebula 環境を監視するための Pandora FMS プラグインは Perl で書かれています。OpenNebula サーバのローカルで実行し、OpenNebula 自身の管理コマンドを使って必要な情報を取得します。

  • Clusters
  • Hosts
  • Virtual machines
  • Storing resources
  • クラスタ
  • ホスト
  • 仮想マシン
  • ストレージリソース



プラグインに必要なもの

It is essential that the system running the plugin has the following requirements:

プラグインの実行には以下が必要です。

  • Available Perl in the computer
  • User with privileges to execute the following commands:
    • onehost
    • onecluster
    • onedatastore
  • Perl のインストール
  • 以下のコマンドの実行権限
    • onehost
    • onecluster
    • onedatastore

Info.png

Plugin operation has been successfully tested on OpenNebula systems 5.X.X


Info.png

プラグインの実行は OpenNebula システム 5.X.X でテストしています。



プラグインのインストール

Download your copy of the Pandora FMS plugin for OpenNebula from the module library.

OpenNebula 用の Pandora FMS プラグインは、モジュールライブラリ からダウンロードします。

You must extract the contents of the file in a non-volatile directory from where you can run it either using Pandora FMS agent or system cron.

Pandora FMS エージェントまたはシステム cron を使用して実行できるディレクトリにファイルを展開します。

unzip pandora_OpenNebula.zip



プラグインの設定

Configuration available for Pandora FMS plugin for OpenNebula:

OpenNebula 用の Pandora FMS プラグインには以下の設定があります。

Configuration of communication to the Pandora server

mode
Data transfer mode, "local" or "tentacle"
tentacle_ip
Pandora server IP address, only applies in tentacle mode
tentacle_port
Port where the Tentacle service is listening
tentacle_opts
Any extra options you have configured in your Tentacle service
tentacle_client
Complete Path to your Tentacle client
temp
Temporary Work Directory
local_folder
Delivery path for the "local" data transfer mode

Pandora サーバとの通信設定

mode
データ転送モード。"local" または "tentacle" です。
tentacle_ip
Pandora サーバの IP アドレス。tentacle モードの場合のみ。
tentacle_port
Tentacle サーバのポート番号
tentacle_opts
Tentacle の追加オプション
tentacle_client
Tentacle クライアントのパス
temp
テンポラリディレクトリ
local_folder
データ転送モードが "local" の場合のパス

Agent configuration

agent_interval
Agent interval, 300 by default
agent_group
Agent group, OpenNebula by default

エージェント設定

agent_interval
エージェント間隔。デフォルトは 300。
agent_group
エージェントグループ。デフォルトは OpenNebula。

Module customization

MODULE_GROUP
Module group, OpenNebula by default
MODULE_INTERVAL
Module interval (multiplier), 1 by default
MODULE_TAGS
Tags for the modules

モジュールカスタマイズ

MODULE_GROUP
モジュールグループ。デフォルトは、OpenNebula。
MODULE_INTERVAL
モジュール間隔(倍率)。デフォルトは 1
MODULE_TAGS
モジュールのタグ

Name customization

cluster_agent_header
Header for the agent name of cluster-type devices agent
host_agent_header
Header for the agent name of virtual machine server type device agent
storage_agent_header
Header for agent name of storage device type agent
vm_agent_header
Header for agent name of virtual machine type device agent

名前のカスタマイズ

cluster_agent_header
クラスタタイプデバイスエージェントのエージェント名ヘッダ
host_agent_header
仮想マシンサーバタイプデバイスエージェントのエージェント名ヘッダ
storage_agent_header
ストレージデバイスタイプエージェントのエージェント名ヘッダ
vm_agent_header
仮想マシンタイプデバイスエージェントのエージェント名ヘッダ

Filters

cluster_monitoring
Enable(1) or not (0) cluster monitoring
host_monitoring
Enable(1) or not (0) virtual machine servers monitoring
storage_monitoring
Enable(1) or not (0) storage devices monitoring
vm_monitoring
Enable(1) or not (0) virtual machines monitoring

フィルタ

cluster_monitoring
クラスタ監視の有効化(1)または無効化(0)
host_monitoring
仮想マシンサーバ監視の有効化(1)または無効化(0)
storage_monitoring
ストレージデバイス監視の有効化(1)または無効化(0)
vm_monitoring
仮想マシン監視の有効化(1)または無効化(0)

Entities renaming

RENAME aaa TO bbb
Rule for renaming entities, you can define as many directives as you need to rename elements

エンティティのリネーム

RENAME aaa TO bbb
エンティティのリネームルールで、必要なだけ定義することができます。

Entities exclusion

REJECT aaa
Rule for entity monitoring exclusion, you can define as many directives as you need to exclude

エンティティの除外

REJECT aaa
監視対象外エンティティのルールで、必要なだけ定義することができます。



プラグインの実行

To program it through the system cron you can add the following line to /etc/crontab:

システム cron で設定するには、次の行を /etc/crontab へ追加します。

*/5 * * * * root "<ruta>/pandora_opennebula" "<ruta>/pandora_opennebula.conf" > /dev/null 2>&1


If you run the plugin manually, the output must be similar to the one below:

プラグインを手動実行すると、出力は次のようになります。

[root@valhalla ~]# ./pandora_opennebula pandora_opennebula.conf
[root@valhalla ~]# echo $?
0



プラグインの実行結果

List of modules generated by the OpenNebula plugin:

OpenNebula プラグインで生成されるモジュール一覧です。

For Hosts:

ホスト:

  1. Available CPU
  2. Available Disk
  3. Available memory
  4. Error Error reported by OpenNebula
  5. State
  6. Total zombies
  7. VMs running


For storage devices:

ストレージデバイス:

  1. Disk Free %


For virtual machines:

仮想マシン:

  1. Assigned CPU
  2. Assigned Memory
  3. Network RX
  4. Network TX
  5. State
  6. Time running

Example of OpenNebula architecture map:

OpenNebula アーキテクチャマップの例:

600px





IBM HMC

This plugin allows you to monitor IBM AIX virtualization machines through the HMC hardware management console. This plugin will collect information from all logical partitions created in an AIX environment managed by an HMC system, creating one agent for each managed server, each logical partition, and each virtual IO server.

このプラグインは、HMC ハードウエア管理コンソールを通して IBM AIX 仮想環境を監視できます。 このプラグインは、HMC システムによって AIX 環境に作成されたすべての論理パーティションから情報を収集します。各管理サーバ、論理パーティション、仮想 IO サーバごとに一つのエージェントを作成します。

To collect information via SSH, the plugin can use three modes of operation:

SSH で情報を収集するために、プラグインは以下の 3つのモードを使えます。

  1. Based on expect using the script ssh_launcher.sh
  2. Based on the Net::SSH::Perl library
  3. Based on the Net::SSH::Expect library
  1. スクリプト ssh_launcher.sh の利用をもとにしたもの
  2. Net::SSH::Perl ライブラリをもとにしたもの
  3. Net::SSH::Expect ライブラリをもとにしたもの

To complement the captured information, queries will also be made against the REST API. (in https://fqdn:12443/rest/api/{root_element} by default).

キャプチャされた情報を補完するために、REST API に対してもクエリが実行されます。(デフォルトは https://fqdn:12443/rest/api/{root_element} です。)



必要条件

The necessary parameters for the monitoring that has to be provided by the area that requires monitoring services are:

監視に必要なパラメータは次の通りです。

  • User name for authentication in the HMC system (read-only)
    • The user must have permission to connect to the REST API and to login to the HMC shell and execute the following commands (at least):
      • lssyscfg
      • lshwres
  • That user's password
  • HMC location (FQDN/IP) (p.e. myhmc.mydomain)
  • Base URL of the HMC rest API (e.g. https://myhmc.mydomain:12443)
  • HMC システムの認証に必要なユーザ名(読み出し専用)
    • ユーザは REST API への接続権限および、HMC シェルへログインし(少なくとも)次のコマンドを実行する権限が必要です。
      • lssyscfg
      • lshwres
  • ユーザのパスワード
  • HMC の場所(FQDN/IP) (myhmc.mydomain など)
  • HMC REST API のベース URL (https://myhmc.mydomain:12443 など)



プラグインにより生成されるモジュール

The parameters monitored by the plugin are (grouped by element type):

プラグインによって監視されるパラメータは次の通りです。(エレメントタイプでグループ化されます)

  • Current logical partitions Current logical partitions deployed
  • Max logical partitions Max available logical partitions
  • Max memory available Available memory
  • Max memory installed Max memory installed
  • Proc pool DefaultPool current proc units
  • Proc pool DefaultPool max proc units
  • Proc pool DevelopmentPool current proc units
  • Proc pool DevelopmentPool max proc units
  • Proc pool ProductionPool current proc units
  • Proc pool ProductionPool max proc units
  • Proc pool TestPool current proc units
  • Proc pool TestPool max proc units
  • Proc pool VIOPool current proc units
  • Proc pool VIOPool max proc units
  • Processor pools configured Processor pools configured
  • Processor units available Available processor units
  • Processor units installed Installed processor units
  • State Status of the managed system
  • UUID Used to query the HMC API
  • Virtual proc units max Max virtual processor units for logical partitions
  • Current logical partitions 展開されている現在の論理パーティション
  • Max logical partitions 最大論理パーティション数
  • Max memory available 未使用メモリ
  • Max memory installed 最大搭載メモリ
  • Proc pool DefaultPool current proc units
  • Proc pool DefaultPool max proc units
  • Proc pool DevelopmentPool current proc units
  • Proc pool DevelopmentPool max proc units
  • Proc pool ProductionPool current proc units
  • Proc pool ProductionPool max proc units
  • Proc pool TestPool current proc units
  • Proc pool TestPool max proc units
  • Proc pool VIOPool current proc units
  • Proc pool VIOPool max proc units
  • Processor pools configured 設定されているプロセッサプール
  • Processor units available 未使用プロセッサユニット
  • Processor units installed 搭載されているプロセッサユニット
  • State 管理システムの状態
  • UUID HMC API を照会するために使用されます
  • Virtual proc units max 論理パーティションの最大仮想プロセッサユニット

LPAR:

  • Auto start Logical partition autostart configuration
  • LPAR type Logical partition type
  • LPAR UUID Used to query the HMC API
  • Max memory Max memory
  • Max memory current Available memory
  • Processor units available Available processor units
  • Processor units current Installed processor units
  • RMC IP address RMC IP address
  • RMC state RMC status on the LPAR
  • State Logical partition status
  • Virtual proc units Virtual processor units assigned to this LPAR
  • Auto start 自動起動設定の論理パーティション
  • LPAR type 論理パーティションタイプ
  • LPAR UUID HMC API を照会するために使用されます
  • Max memory 最大メモリ
  • Max memory current 未使用メモリ
  • Processor units available 未使用プロセッサユニット
  • Processor units current 搭載プロセッサユニット
  • RMC IP address RMC IP アドレス
  • RMC state LPAR の RMC の状態
  • State 論理パーティションの状態
  • Virtual proc units この LPAR に割り当てられた仮想プロセッサユニット

Virtual IO:

  • Auto start Logical partition autostart configuration
  • LPAR type Logical partition type
  • LPAR UUID Used to query the HMC API
  • Max memory Max memory
  • Max memory current Available memory
  • Processor units available Available processor units
  • Processor units current Installed processor units
  • RMC IP address RMC IP address
  • RMC state RMC status on the LPAR
  • State Logical partition status
  • Virtual proc units Virtual processor units assigned to this LPAR
  • Auto start 自動起動設定の論理パーティション
  • LPAR type 論理パーティションタイプ
  • LPAR UUID HMC API を照会するために使用されます
  • Max memory 最大メモリ
  • Max memory current 未使用メモリ
  • Processor units available 未使用プロセッサユニット
  • Processor units current 搭載プロセッサユニット
  • RMC IP address RMC IP アドレス
  • RMC state LPAR の RMC の状態
  • State 論理パーティションの状態
  • Virtual proc units この LPAR へ割り当てられている仮想プロセッサユニット



プラグイン設定

The parameters monitored by the plugin are (grouped by element type):

プラグインのパラメータは次の通りです。(エレメントタイプごとにグループ化)

Configuration of communication to Pandora's server

mode
Data transfer mode, "local" or "tentacle"
tentacle_ip
Pandora server IP address, only applies in tentacle mode
tentacle_port
Port where the Tentacle service is listening
tentacle_opts
Any extra options you have configured in your Tentacle service
tentacle_client
Complete path to your Tentacle client
temp
Temporary work directory
local_folder
Delivery path for the "local" data transfer mode

Pandora サーバとの通信設定

mode
データ転送モード。"local" または "tentacle"
tentacle_ip
Pandora サーバの IP アドレス。tentacle モードの場合のみ利用。
tentacle_port
Tentacle サーバのポート
tentacle_opts
Tentacle の追加パラメータ
tentacle_client
Tentacle クライアントのパス
temp
テンポラリディレクトリ
local_folder
データ転送モードが "local" の場合のパス

Access configuration to HMC

hmc_host
IP or FQDN of the HMC
hmc_user
User with reading permission
hmc_pass
Password

HMC へのアクセス設定

hmc_host
HMC の IP または FQDN
hmc_user
読み出し権限のユーザ
hmc_pass
パスワード
as_agent_plugin
The plugin output will be returned in XML format for programmed executions with Pandora FMS agent (as_agent_plugin = 1). Or standard output (as_agent_plugin = 0) for runs programmed with the cron system or performed as a server plugin.
as_agent_plugin
Pandora FMS エージェントで実行する場合(as_agent_plugin = 1)、プラグインの出力は XML フォーマットで返されます。システムの cron で実行するかまたは、サーバプラグインとして実行する場合(as_agent_plugin = 0)は、標準出力に状態が返されます。

Agent configuration

agent_name
Optional, set a name for the parent agent, 'hostname' by default
agent_interval
Agent interval, 300 by default
agent_group
Agent group, IBM by default

エージェント設定

agent_name
オプション。親エージェントの名前を設定します。デフォルトは 'hostname' です。
agent_interval
エージェントの間隔。デフォルトは 300。
agent_group
エージェントグループ。デフォルトは IBM。

Module customization

module_group
Module group, IBM by default
module_interval
Module interval (multiplier), 1 by default
module_tags
Tags for the modules

モジュールカスタマイズ

module_group
モジュールグループ。デフォルトは IBM。
module_interval
モジュールの間隔(倍率)。デフォルトは 1。
module_tags
モジュールのタグ

Entities renaming

その他エンティティ

For renaming entities, a block rename is used:

名前変更エンティティ。rename というブロックを使います。

rename
MyLPAR_NAME TO my new name
MyLPAR_NAME2 TO my second new name
rename_end



プラグインの実行

The Pandora plugin for monitoring IBM AIX systems through HMC is deployed as follows:

IBM AIX システムを HMC を通して監視するための Pandora プラグインは次のように展開しますj。

Setting the as_agent_plugin parameter to 1 (execution as agent plugin):

as_agent_plugin パラメータを 1 に設定した場合(エージェントプラグインとしての実行):

module_plugin /usr/bin/perl pandora_hmc.pl pandora_hmc.conf


Setting the as_agent_plugin parameter to 0 (execution as server plugin):

as_agent_plugin パラメータを 0 に設定した場合(サーバプラグインとしての実行):

# /etc/crontab
*/5 * * * * root /usr/bin/perl /root/hmc/pandora_hmc.pl /root/vmware/pandora_hmc .conf



HPVM

Machine virtualization, provided by Hewlett-Packard, allows multiple virtual machines to run concurrently on any Itanium server running HP-UX. It is a server-optimized product.

Hewlett-Packard が提供する仮想化で、HP-UX を実行する Itanium サーバ上で複数の仮想マシンを同時に実行することができます。サーバに最適化された製品です。



プラグイン設定

This plugin allows you to monitor HPVM virtualization machines. It launches as an agent plugin, generating in parallel one more agent for each virtualized computer hosted in the monitored system.

このプラグインは、HPVM 仮想化サーバを監視できます。エージェントプラグインとして起動し、監視対象システム内に起動している各仮想マシンごとに、エージェントを生成します。

Local commands are used to collect the information.

情報を収集するためにローカルコマンドを利用します。



プラグインに必要なもの

  1. Deploy a Pandora FMS agent on the computer you want to monitor
  2. To have a user with permissions to run the plugin
  3. This user must have permission to execute the command hpvvmstatus to interpret the output:
    1. hpvmstatus
    2. hpvmstatus -X
    3. hpvmstatus -r -X
  1. 監視対象のいコンピュータへの Pandora FMS エージェントのインストール
  2. プラグインの実行権限を持ったユーザ
  3. ユーザは、以下のように hpvvmstatus コマンドを実行する権限が必要です
    1. hpvmstatus
    2. hpvmstatus -X
    3. hpvmstatus -r -X



プラグインのインストール

Download your copy of the Pandora FMS plugin for OpenNebula from the module library.

Pandora FMS プラグインは、モジュールライブラリ からダウンロードします。

You can program the execution using collections and the Pandora FMS agent deployed or extract the content of the file in a non-volatile directory from where you can execute it through cron of your system.

実行できる場所に展開します。

unzip pandora_HPVM.zip



プラグイン設定

Configuration available for Pandora FMS plugin for HPVM:

HPVM 用の Pandora FMS プラグインの設定は以下の通りです。

Configuration of communication to the Pandora server

mode
Data transfer mode, "local" or "tentacle"
tentacle_ip
Pandora server IP address, only applies in tentacle mode
tentacle_port
Port where the Tentacle service is listening
tentacle_opts
Any extra options you have configured in your Tentacle service
tentacle_client
Complete Path to your Tentacle client
temp
Temporary Work Directory
local_folder
Delivery path for the "local" data transfer mode

Pandora サーバとの通信設定

mode
データ転送モード。"local" または "tentacle"
tentacle_ip
Pandora サーバの IP アドレス。データ転送モードが tentacle の場合のみ。
tentacle_port
Tentacle サーバのポート
tentacle_opts
Tentacle の拡張オプション
tentacle_client
Tentacle クライアントのパス
temp
テンポラリディレクトリ
local_folder
データ転送モードが "local" の場合のパス

Agent configuration

agent_name
Optional, set a name for the parent agent, 'hostname' by default
agent_interval
Agent interval, 300 by default
agent_group
Agent group, HPVM by default

エージェント設定

agent_name
オプション。エージェント名を設定します。デフォルトは 'hostname' です。
agent_interval
エージェント間隔。デフォルトは 300。
agent_group
エージェントグループ。デフォルトは HPVM。

Module customization

MODULE_GROUP
Module group, OpenNebula by default
MODULE_INTERVAL
Module interval (multiplier), 1 by default
MODULE_TAGS
Tags for the modules

モジュールカスタマイズ

MODULE_GROUP
モジュールグループ。
MODULE_INTERVAL
モジュールの間隔(倍率)。デフォルトは 1。
MODULE_TAGS
モジュールのタグ



プラグインの実行

Running the plugin from Pandora FMS agent, it will appear in the agent configuration file:

Pandora FMS エージェントからのプラグイン実行では、エージェント設定ファイルに次の設定をします。

module_plugin /usr/bin/perl pandora_hpvm.pl pandora_hpvm.conf

For a manual test, configure the plugin by following the steps described above, you can launch it as follows:

手動でテストをするには、プラグインを設定し次のように起動します。

perl pandora_hpvm.pl pandora_hpvm.conf




プラグインの実行結果

List of modules generated by the plugin by element type.

プラグインで生成されるモジュールの一覧を要素ごとに示します。

Agentes servidor (quien lanza el plugin)

  • Available VMs
  • HPVM Plugin HPVM Plugin execution status
  • HPVM Service Presence of hpvmctrld (X instances)
  • HPVM Service CPU usage CPU usage of hpvmctrld (X instances)
  • HPVM Service RAM usage RAM usage of hpvmctrld (X instances)
  • hpvmapp Presence of hpvmapp (X instances)
  • hpvmapp CPU usage CPU usage of hpvmapp (X instances)
  • hpvmapp RAM usage RAM usage of hpvmapp (X instances)

サーバーエージェント (プラグインを起動するユーザ)

  • Available VMs
  • HPVM Plugin HPVM プラグイン実行ステータス
  • HPVM Service hpvmctrld の稼働状態 (X インスタンス)
  • HPVM Service CPU usage hpvmctrld の CPU 利用率 (X インスタンス)
  • HPVM Service RAM usage hpvmctrld のメモリ利用率 (X インスタンス)
  • hpvmapp hpvmapp の稼働状態 (X インスタンス)
  • hpvmapp CPU usage hpvmapp の CPU 利用率 (X インスタンス)
  • hpvmapp RAM usage hpvmapp のメモリ使用率 (X インスタンス)

Virtual Machines

  • boot_type
  • console_type
  • CPU usage
  • device_number
  • direct_io_number
  • distributed
  • effective_serverid
  • guest_type
  • Host RAM available
  • Host RAM free
  • local_id
  • memory total
  • model_name
  • networks_number
  • run_pid
  • run_serverid
  • serial_number
  • uuid
  • vcpu_number
  • vm_condition
  • vm_config_label
  • vm_config_version
  • vm_state
  • vm_version
  • vm_version_label

仮想マシン

  • boot_type
  • console_type
  • CPU usage
  • device_number
  • direct_io_number
  • distributed
  • effective_serverid
  • guest_type
  • Host RAM available
  • Host RAM free
  • local_id
  • memory total
  • model_name
  • networks_number
  • run_pid
  • run_serverid
  • serial_number
  • uuid
  • vcpu_number
  • vm_condition
  • vm_config_label
  • vm_config_version
  • vm_state
  • vm_version
  • vm_version_label



(OBSOLETE)

VMware 設定拡張によるプラグインのインストール


Info.png

This extension is going to be installed by the ISO of the Enterprise Version 5.1 by default.


Info.png

この拡張は、バージョン 5.1 の Enterprise 版 ISO イメージではデフォルトでインストールされています。


By the VMware Settings extension, we're able to set up the VMware plug-in execution directly from the Pandora FMS Console. This extension appears under 'Administration' -> 'Setup' and 'VMware'.

VMware 設定拡張により、Pandora FMS コンソールから直接 VMware プラグインを設定することができます。 この拡張は、'システム管理(Administration)' -> '設定(Setup)' および 'VMware' にあります。

Within it, we're able to set the plug-in's path, the config's file path and the parameters 'V-Center IP', the data center's name, 'username', 'password' and the runtime plugin.

その中で、プラグインのパス、設定ファイルパスおよび、'V-Center IP'、データセンター名、'username'、'password' のパラメータ、プラグイン実行タイミングを設定できます。



800px



The execution of the plug in is added as a new Cron Job which can be executed every 5, 10 or 15 minutes. The execution of the Pandora FMS cron extension, which has to be added in the file '/etc/crontab', is required to be configured as shown below.

プラグインの実行は、5分、10分、15分などの間隔での Cron ジョブのとして追加されます。Pandora FMS の cron 拡張の実行には、'/etc/crontab' に次の設定が必要です。

*/1 * * * * root wget -q -O http//localhost/pandora_console/enterprise/extensions/cron/cron.php >> /var/www/html/pandora_console/pandora_console.log



Template warning.png

This extension requires the installation of Pandora FMS 5.1 to be compatible to the implementation of the Pandora FMS cron job and has to be configured to an interval of one minute. Without this requirement, the extension is not going to work properly.




Template warning.png

この拡張は Pandora FMS 5.1 のインストールと、Pandora FMS cron ジョブが 1分間隔で実行されるように設定されている必要があります。これらの条件を満たさないと、拡張は正しく動作しません。


After configuring the plug in, a new task is added within the cron jobs by the following settings:

プラグインの設定後は、次のような内容で cron ジョブ内に新たなタスクが追加されています。



500px‎



Template warning.png

This particular cron job can only be set from the VMware Settings extension. Any changes made from a different location or tool within the cron job is going to cause a malfunction of the plug in.


Template warning.png

この特別な cron ジョブは、VMware 設定(VMware Settings)拡張からのみ設定できます。他の場所での変更や cron ジョブのツールでの変更は、プラグインの誤動作を引き起こします。


プラグインの手動インストール

1. Change your working directory to where you extracted VMware plugin files

1. VMware プラグインファイルを展開したディレクトリへ行きます。

2. Copy extensions to pandora_console/enterprise/extensions/

2. extensions を pandora_console/enterprise/extensions/ へコピーします。

sudo -u apache cp -R extensions/vmware* /var/www/html/pandora_console/enterprise/extensions/

3. Copy vmware-plugin.{pl,conf}, to appropriate directory

3. vmware-plugin.{pl,conf} を適切なディレクトリへコピーします。

sudo cp vmware-plugin.pl vmware-plugin.conf /usr/share/pandora_server/util/plugin/
sudo chown pandora:apache /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf}
sudo chmod g+w /usr/share/pandora_server/util/plugin/vmware-plugin.conf


4. Edit vmware-plugin.conf

4. vmware-plugin.conf を編集します。

tentacle_ip: IP address of monitoring server    
pandora_url: "http://127.0.0.1/pandora_console" 
server: IP address of vCenter              
datacenter: Center Name                   
user: account for vCenter                
pass: password for vCenter               

server, datacenter, user, pass can be set at Pandora Console

server, datacenter, user, pass は、Pandora コンソールで設定できます。

5. Visit "Setting" screen at Pandora Console and setup API password

5. Pandora コンソールの "設定" 画面へ行き、API パスワードを設定します。

in example

例:

api password: 1234
APIパスワード: 1234

6. Copy vmware-plugin.{pl,conf} for Pandora Agent

6. vmware-plugin.{pl,conf} を Pandora エージェント用にコピーします。

sudo cp /usr/share/pandora_server/util/plugin/vmware-plugin.{pl,conf} /etc/pandora/plugins/

There is no vmware-plugin-events.conf in the tar, but you can create it by copying the vmware-plugin.conf and modifying 'event_mode' to 1 by hand.

tar ファイルには vmware-plugin-events.conf はありませんが、vmware-plugin.conf をコピーし 'event_mode' を 1 に編集することで作成できます。

エージェントプラグインの設定と確認

In order to install the plug-in agent, please copy the 'vmware-plugin.pl' and 'vmware-plugin.conf' files to the folder '/etc/pandora/plugins' by the following command:

プラグインエージェントをインストールするには、'vmware-plugin.pl' と 'vmware-plugin.conf' ファイルを '/etc/pandora/plugins' ディレクトリに次のようにコピーします。

cp vmware-plugin.pl vmware-plugin.con /etc/pandora/plugins

Then add a new module plug-in type to the agent configuration file by the following line:

そして、次のように、新たなモジュールプラグインをエージェント設定ファイルに追加します。

module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin.conf

If you also wish to copy events, create another plug-in module with a different configuration file that enables to copy events. The command would be like this:

イベントもコピーしたい場合は、異なる設定ファイルでイベントコピーを有効にする別のプラグインモジュールを作成します。コマンドは次のようになります。

module_plugin /etc/pandora/plugins/vmware-plugin.pl /etc/pandora/plugins/vmware-plugin-events.conf

Under a Windows system, you're required to specify the interpreter you're intending to use. The command could e.g. look like this:

Windows システムでは、利用するインタープリターを指定する必要があります。例えば、次のようにします。

module_plugin perl "C:\Program Files\pandora_agent\util\vmware-plugin.pl" "C:\Program Files\pandora_agent\util\vmware-plugin.conf"

The following sections explain the parameters of the plug-in configuration file in detail.

以降の章では、プラグイン設定のパラメータ詳細について説明します。

Template warning.png

Since the VMware plug in uses a very heavy SOAP API, it takes too much time to execute some tasks. On systems with a large number of entities to monitor, it may be necessary to share and distribute the load among various Pandora FMS Software Agents. All relevant information is going to be provided in the sections below.


Template warning.png

VMware プラグインは重い SOAP API を使うため、タスクの実行に時間がかかります。監視項目が大量にあるシステムでは、複数の Pandora FMS エージェントで負荷分散する必要があります。関連する情報は、以降の章で説明します。


Info.png

If you are using Pandora FMS 5.0 or a higher version and you intend to use the plug-in extensions or any event monitoring, you're required to properly configure the Pandora API. You're also required to provide an API password and access to the relevant addresses in the API access list to do so. These fields are defined in the general configuration of the Pandora FMS Console.


Info.png

Pandora FMS 5.0 またはそれ以上のバージョンを利用し、プラグイン拡張やイベント監視を意図している場合は、Pandora API を正しく設定する必要があります。API パスワードとアクセス許可リストを正しく設定する必要があります。これらの設定は、Pandora FMS コンソールの全体の設定にあります。


VMware 設定拡張の利用

By the VMware Settings extension, we're able to set up the VMware plug-in execution directly from the Pandora FMS Console. This extension appears under 'Administration' -> 'Setup' and 'VMware'.

VMware 設定拡張により、Pandora FMS コンソールから VMware プラグイン実行ディレクトリを設定することができます。 この拡張は、'システム管理(Administration)' -> '設定(Setup)' および 'VMware' にあります。

Within it, we're able to set the plug-in's path, the config's file path and the parameters 'V-Center IP', the data center's name, 'username', 'password' and the runtime plugin.

ここでは、プラグインのパス、設定ファイルパスおよび、vCenter の IP、データセンターの名前、ユーザ名、パスワードのパラメータ、ランタイムプラグインを設定できます。



ファイル:Vmware settings.png



The execution of the plugin is added as a new Cron Job which can be executed every 5, 10 or 15 minutes. The execution of the Pandora FMS cron extension, which has to be added in the file '/etc/crontab', is required to be configured as shown below.

プラグインの実行は、5,10,15分ごとに実行される新たな Cron ジョブとして追加されます。Pandora FMS cron 拡張の実行には、次に示す設定を '/etc/crontab' ファイルに追加する必要があります。

*/1 * * * * root wget -q -O http//localhost/pandora_console/enterprise/extensions/cron/cron.php >> /var/www/html/pandora_console/pandora_console.log



Template warning.png

This extension requires the installation of Pandora FMS 5.1 to be compatible to the implementation of the Pandora FMS cron job and has to be configured to an interval of one minute. Without this requirement, the extension is not going to work properly.




Template warning.png

この拡張は、1分間隔で設定された Pandora FMS cron ジョブの実装のために、Pandora FMS 5.1 のインストールが必要です。この条件を満たさないと、拡張は正しく動作しません





After configuring the plugin, a new task is added within the cron jobs by the following settings:

プラグイン設定後、次のような設定で cron ジョブに新たなタスクが追加されます。



ファイル:Vmware cron.png



Template warning.png

This particular cron job can only be set from VMware Settings extension. Any changes made from a different location or tool within the cron job is going to cause a malfunction of the plug in.


Template warning.png

この特別な cron ジョブは、VMware 設定拡張からのみ設定できます。別の場所やツールからの cron ジョブの変更は、プラグインの誤動作の原因となります。


VMware モニタリングプラグインを利用したモニタリング

VMware monitoring is based on several components:

WMware のモニタリング環境は、以下のいくつかのコンポーネントをベースにしています。

  1. An agent plugin that discovers all the entities of your environment and collects the information to monitor. For Pandora FMS 5.0 and higher versions, the plugin also can update some agents parameters required by the extensions. Besides, it can copy the events from VMware vCenter to Pandora FMS console.
  2. A recon task for Pandora FMS 4.0.3 and previous versions to update the parameters required by the extension and copy the events from VMware vCenter to Pandora console.
  3. VMware View and VMware Manager extensions that allow you to manage virtual machines easily and have a view of the whole environment.
  1. エージェントプラグインは、対象となる環境のすべてのエンティティを検出し監視する情報を収集します。Pandora FMS 5.0 またはそれ以上のバージョンでは、プラグインは拡張が必要とするいくつかのエージェントのパラメータも更新できます。さらに、VMware vCenter からのイベントを Pandora FMS コンソールにコピーできます。
  2. Pandora FMS 4.0.3 およびそれ以前のバージョンにおいては、自動検出タスク が拡張が必要とするパラメータを更新します。また、VMware vCenter からのイベントを Pandora コンソールへコピーします。
  3. VMware View および VMware Manager 拡張は、仮想マシンを簡単に管理したり全体の環境を参照できるようにします。

With this system we get an agent for each ESXi host, Datastore or virtual machine found, plus an additional one for the Datacenter. This will allow us to treat them as independent entities regardless of the relationship that exists between them within the virtualization architecture. In addition, each agent will have the corresponding modules for its monitoring according to the type of VMware entity it represents. If we need more detailed information about the operating system of the virtual machines or the applications they move, we can install a Pandora agent in them, and configure them to deliver all the information in the same agents already discovered by the VMware plugin.

このシステムでは、ESXi ホストごとに、検出されたデータストアまたは仮想マシンのエージェントと、データセンター用のエージェントが追加されます。これにより、仮想化アーキテクチャ内でのそれぞれの関係にかかわらず、それらを独立したエンティティとして扱うことができます。さらに、各エージェントは、それが表す VMware エンティティのタイプに応じて、監視に必要な関連するモジュールを備えています。仮想マシンの OS やアプリケーションに関する詳細な情報が必要な場合は、Pandora エージェントをインストールし、VMware プラグインですでに検出されたのと同じエージェントにすべての情報を追加するように設定できます。

プラグインの内部処理

For versions 5.0 or higher the plugin performs all the functions: autodiscovery of entities, data collection, copying of events and configuration of custom fields.

バージョン 5.0 またはそれ以降では、エージェントプラグインは、エンティティの検出、データ収集、イベントコピー、カスタムフィールド設定の、全機能を実行します。

For each entity discovered, the plugin sends an XML file to the Pandora server to be processed. This entity will become an agent inside Pandora FMS in case it doesn't exist, or it will add the new information to an existing one.

それぞれ検出されたエンティティごとに、プラグインは処理のための XML ファイルを Pandora サーバへ送ります。このエンティティは、Pandora 内ではエージェントになります。コンソールにコピーされたイベントは、イベントビューに表示され、システムから生成されたイベントとして管理されます。

The events copied to the console will appear in the events view and it will be possible to manage them as the events generated by the system.

コンソールにコピーされたイベントはイベント表示に現れ、システムによって生成されたイベントのように管理することができます。

The plugin keeps some auxiliary files that contain information related to the monitoring configuration: logs, monitored entities, pointer for event monitoring, etc.

プラグインには、監視の設定に関連するいくつかの補助ファイルや情報があります。ログ、監視対象エンティティ、イベント監視のポインタなどです。

Template warning.png

Since it could affect the monitoring performance, it is very important not to delete these files.


Template warning.png

監視性能に影響を与える可能性があるため、これらのファイルは削除してはいけません。


VMware マネージャ拡張、VMware VIew および VMware マネージャのインストール

To install the extensions you just have to copy the contents of the extensions folder that you will find when decompressing the plugin in the Extensions folder of the Enterprise part of Pandora FMS console, the commands to execute are the following ones:

拡張をインストールするには、Pandora FMS コンソールの Enterprise の extensions フォルダにファイルをコピーして展開するだけです。

cp -R extensions/* <pandora_console_dir>/enterprise/extensions/

From that moment on, the extensions of the VMware plugin will be available.

これにより、VMware プラグインの拡張が使えるようになります。

Info.png

To use the extension VMware Manager it's necessary to install the VMware SDK for Perl in the machine where the Pandora FMS console is located.


Info.png

VMware Manager 拡張を利用するには、Pandora FMS コンソールをインストールしたマシンに、VMware SDK for Perl をインストールする必要があります。


コンソール拡張でのプラグイン設定

Info.png

This extension comes installed by default in the Enterprise ISO from version 5.1. onwards.


Info.png

この拡張は、バージョン 5.1 以降の Enterprise ISO にはデフォルトでインストールされています。


Info.png

From version 7.0 717 there is a possibility to manage multiple plugin instances as well as dynamic maps and interface improvements.


Info.png

バージョン 7.0 717 からは、動的マップとインターフェースの改善だけでなく、複数のプラグインインスタンスを管理することができます。


With the VMware extension we can configure directly from Pandora FMS console the execution of the VMware plugin. It will appear in Setup > VMware.

VMware 拡張では、VMware プラグインの実行を Pandora FMS コンソールから直接設定することができます。 設定(Setup) > VMware から行えます。


350px



Inside it we will have to configure the plugin's path. A validation of the route that we indicate will be carried out.

そこでは、プラグインのパスを設定する必要があります。以下に例を示します。



900px



We can add a new configuration file clicking on "Create new file", which will show us a form where we can configure the new execution instance of Pandora FMS plugin for VMware:

"新規ファイル作成(Create new file)" をクリックすることにより、新たな設定ファイルを追加することができます。これにより、VMware 用の Pandora FMS プラグインの新しい実行インスタンスを設定できるフォームが表示されます。



900px



Note: Since multiple configurations are allowed, you must specify a name for your configuration. This name is simply a configuration ID tag.

注意: 複数の設定ができるため、設定には名前を付ける必要があります。この名前は単なる設定の ID タグです。

Note: The location of the configuration file must be a complete path to the destination file where the configuration will be saved.

注意: 設定ファイルの場所は、それを保存する絶対パスである必要があります。}}

For example:

例:

/var/www/html/pandora_console/attachment/myvmware_config.conf


Template warning.png

The configuration files are saved by default at /var/www/html/pandora_console. Establish a different directory to prevent them from being accessed from the web in an unsecured installation of apache.


{{warning|設定ファイルは、デフォルトでは /var/www/html/pandora_console に保存されます。apache の設定でアクセスできる設定になっているのを避けたい場合には別のディレクトリを設定します。

You can automate the plugin execution using Pandora FMS cron extension. The plugin execution will be added as a new task programmed in Pandora FMS console, with the selected periodicity.

プラグインは、Pandora FMS cron 拡張により自動実行できます。プラグインの実行は、Pandora FMS コンソールで選択した間隔で新たな計画タスクとして追加されます。



900px




The execution of Pandora cron extension is an essential requirement, added inside /etc/crontab file, and configured as follows:

Pandora cron 拡張の実行には、/etc/crontab ファイルに以下のような設定を追加する必要があります。

*/1 * * * * root wget -q -O http//localhost/pandora_console/enterprise/extensions/cron/cron.php >> /var/www/html/pandora_console/pandora_console.log


Template warning.png

This extension requires versions of Pandora FMS 5.1 or newer installed so that the execution of Pandora's cron job is compatible with an interval of one minute, without this requirement the extension will not work correctly.


Template warning.png

この拡張は、Pandora FMS 5.1 またはそれ以上のバージョンが必要です。1分間隔での Pandora cron ジョブの実行が必要なためで、そうでないと拡張は正常に動作しません。


Once the plugin has been configured, a new task will be added, within the scheduled tasks with the following configuration:

プラグインの設定が完了したら、計画タスクに以下の設定で新たなタスクが追加されます。



200px‎



Template warning.png

These programmed tasks ONLY can be managed from the extension VMware Settings, any configuration made on it within the programmed tasks, will cause a malfunction in the plugin.


Template warning.png

これらのタスクは、VMware Settings 拡張からのみ'管理できます。プログラムされたタスク内で行われた設定は、プラグインの誤動作の原因となります。


Note: If you get a different result than indicated after accessing the VMware plugin administration, verify that the user who launches the web server (by default apache) has read and write permissions on the configuration files.

注意: VMware プラグイン管理にアクセスしたときに異なる結果が表示された場合は、Web サーバをどのユーザが起動しているか(デフォルトは apache)、設定ファイルディレクトリに読み書き権限があるかを確認してください。




Pandora FMS ドキュメント一覧に戻る