【0001】[0001]
【産業上の利用分野】本発明は、プラント状態表示装置
に係り、特に、ニューラルネットなどを利用することに
より、プラントパラメータ間の関係及びその変化を分り
易く表示するプラント状態表示装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a plant status displaydevice , and more particularly, to a plant status displaydevice which displays a relation between plant parameters and a change thereof by using a neural network or the like so as to be easily understood. About.
【0002】[0002]
【従来の技術】火力・原子力プラントなどの大規模プラ
ントでは、運転員はプラント状態を把握するために、大
量のプラントデータの中から必要なものを自分で選択し
て、それらの値を確認する必要がある。例えば、発電端
効率に影響を及ぼすパラメータは何かを判断する場合、
多種のパラメータの変化特性を確認して、各々の関連か
ら発電端効率に影響を及ぼすパラメータの種類、その影
響の度合いを判断する必要がある。このため、運転員の
負担が大きいという問題がある。これを解決するための
技術として、例えば、プロセス運転支援方法及びシステ
ム(特開平3ー15902号公報)がある。この技術で
は、プロセスの過去の運転履歴情報のうち、異なる時点
の複数の入力変数値の代表的なパターンをニューラルネ
ットの入力層に与え、それに対応する制御変数値を教師
信号としてニューラルネットに学習させ、学習結果に基
づいて、各入力変数と各制御変数との間の因果関係を知
識として抽出し、これに基づき運転支援を実施する。こ
の技術によれば、入力変数と制御変数の関係を知識とし
て運転員に提示することが可能である。しかしながら、
この技術は、制御変数の決定を支援することを目的とし
たものであり、入力変数と制御変数の関係を直感的に認
識し易い形で提示することについては配慮されていな
い。つまり、「もし…ならば、…である」という形式と
して運転員に提示することはできるが、変数間の定量的
な関係を直感的に理解し易い形で提供することはできな
い。さらに、この技術は、入力変数と制御変数の間の関
係のみに注目するものであり、任意のパラメータ間の関
係を求めることは配慮していない。また、運転履歴情報
からの知識抽出を目的とするものであり、プラントパラ
メータ間の関係の時間的な変化を検知もしくは表示する
ことについては考慮していない。2. Description of the Related Art In a large-scale plant such as a thermal or nuclear power plant, an operator selects necessary items from a large amount of plant data by himself / herself and checks their values in order to grasp the state of the plant. There is a need. For example, when deciding what parameters affect the power generation efficiency,
 It is necessary to confirm the change characteristics of various parameters and determine the type of the parameter that affects the power generation end efficiency and the degree of the influence from each relationship. Therefore, there is a problem that the burden on the operator is large. As a technique for solving this, there is, for example, a process operation support method and system (Japanese Patent Laid-Open No. 3-15902). In this technique, a representative pattern of a plurality of input variable values at different points in time in the past operation history information of a process is given to an input layer of a neural network, and a corresponding control variable value is learned to a neural network as a teacher signal. Then, a causal relationship between each input variable and each control variable is extracted as knowledge based on the learning result, and driving support is performed based on the extracted causal relationship. According to this technique, it is possible to present the relationship between the input variables and the control variables to the operator as knowledge. However,
 This technique aims at supporting the determination of a control variable, and does not take into consideration the presentation of the relationship between an input variable and a control variable in an intuitive and easy-to-recognize manner. That is, although it can be presented to the operator in the form of "if ... then ...", the quantitative relationship between variables cannot be provided in an intuitive and easy-to-understand manner. Further, this technique focuses only on the relationship between the input variables and the control variables, and does not consider obtaining the relationship between arbitrary parameters. Further, the purpose is to extract knowledge from operation history information, and does not consider detecting or displaying a temporal change in a relationship between plant parameters.
【0003】[0003]
【発明が解決しようとする課題】本発明の目的は、任意
のプラントパラメータ間の関係を自動的に認識して、運
転員に分かり易い形態で表示し、また、認識したパラメ
ータ間の関係を基に、その時間的な変化かつ/またはプ
ラントの主要パラメータの値に応じた変化特性を併せて
提供し、さらに、上記認識したパラメータ間の関係につ
いての情報を基に、プラントパラメータ間の関係の変化
を自動的に検知し、運転員に提供することにある。SUMMARY OF THE INVENTION It is an object of the present invention to automatically recognize the relationship between arbitrary plant parameters, display the relationship in a form that is easy for an operator to understand, and based on the relationship between the recognized parameters. And a change characteristic corresponding to the time-dependent change and / or the value of the main parameter of the plant, and further, based on the information on the relation between the recognized parameters, the change of the relation between the plant parameters. Is automatically detected and provided to the operator.
【0004】[0004]
【課題を解決するための手段】上記目的を達成するため
に、プラントパラメータに係るデータの取り込み・記憶
手段と、異なる時点において取り込んだプラントパラメ
ータに係る複数組のデータをもとに、該パラメータ間の
影響の度合を演算するニューラルネット演算手段と、該
演算手段の入力層と出力層のユニットのみを表示し、各
々の前記ユニットに対応する前記パラメータ間の影響の
度合を描画する線の太さまたは色または線種を用いて表
示する表示手段を有する。また、プラントパラメータに
係るデータの取り込み・記憶手段と、ニューラルネット
演算手段と、ニューラルネット関連データ記憶手段と、
表示手段から成るプラント状態表示装置において、取り
込み・記憶手段に記憶されたデータの値をニューラルネ
ット演算手段の入力層及び出力層に与えて学習し、その
学習結果をプラントパラメータ間の影響の度合の時間変
化としてニューラルネット関連データ記憶手段に記憶
し、該学習結果の時間変化をニューラルネットの構造と
共に表示手段に表示する。また、プラントパラメータに
係るデータの取り込み・記憶手段と、ニューラルネット
演算手段と、ニューラルネット関連データ記憶手段と、
表示手段から成るプラント状態表示装置において、取り
込み・記憶手段に記憶されたデータの値をニューラルネ
ット演算手段の入力層及び出力層に与えて学習し、その
学習結果をプラント状態ごとのプラントパラメータ間の
影響の度合の変化としてニューラルネット関連データ記
憶手段に記憶し、該学習結果のプラント状態ごとの変化
をニューラルネットの構造と共に表示手段に表示する。
また、プラントパラメータに係るデータの取り込み・記
憶手段と、ニューラルネット演算手段と、表示手段から
成るプラント状態表示装置において、プラントデータを
用いた学習により得たニューラルネットの重み係数の値
の変化を基にプラントの状態の変化を検知する予測・診
断手段を有する。また、プラントパラメータに係るデー
タの取り込み・記憶手段と、ニューラルネット演算手段
と、表示手段から成るプラント状態表示装置において、
ニューラルネットの出力層及び入力層に与えるプラント
パラメータの種類を指定し、入力層に与えられたプラン
トパラメータの中から、出力層に与えられたプラントパ
ラメータに影響を及ぼすプラントパラメータを、プラン
トの運転履歴データを用いたニューラルネットの学習に
より自動的に選択する。In order to achieve the above-mentioned object, means for fetching and storing data relating to plant parameters and a plurality of sets of data relating to plant parameters fetched at different points in time are used to store the parameters. Neural network operation means for calculating the degree of influence of the above, and only the units of the input layer and the output layer of the operation means are displayed, and the thickness of a line for drawing the degree of influence between the parameters corresponding to each of the units. Alternatively, it has a display means for displaying using a color or a line type. In addition, data acquisition and storage means relating to plant parameters, neural network operation means, neural network related data storage means,
 In a plant state display device comprising display means, learning is performed by giving values of data stored in a fetching / storing means to an input layer and an output layer of a neural network operation means, and learning results of the degree of influence between plant parameters are obtained. The time change is stored in the neural network related data storage means, and the time change of the learning result is displayed on the display means together with the structure of the neural network. In addition, data acquisition and storage means relating to plant parameters, neural network operation means, neural network related data storage means,
 In a plant state display device comprising display means, a value of data stored in a fetching / storing means is given to an input layer and an output layer of a neural network operation means for learning, and a learning result is obtained between plant parameters for each plant state. The change in the degree of influence is stored in the neural network related data storage means, and the change of the learning result for each plant state is displayed on the display means together with the structure of the neural network.
 Further, in a plant state display device including data acquisition / storage means relating to plant parameters, a neural network operation means, and a display means, a change in a value of a weight coefficient of a neural network obtained by learning using plant data is used. Has a prediction / diagnosis means for detecting a change in the state of the plant. Further, in a plant state display device including a data acquisition / storage unit for a plant parameter, a neural network operation unit, and a display unit,
 Specify the types of plant parameters to be given to the output layer and the input layer of the neural network, and, from the plant parameters given to the input layer, the plant parameters that affect the plant parameters given to the output layer It is automatically selected by learning a neural network using data.
【0005】[0005]
【作用】本発明によれば、プラントデータ間の関係を履
歴情報から自動的に学習し、ニューラルネット構造など
に関連づけて、そのリンクの太さ、色などにより分り易
くグラフィック表示することが可能となる。また、この
関係を、時系列的にかつ/または主要パラメータの値で
整理して、分り易くグラフィック表示することが可能と
なる。さらに、重み係数などの変化から、自動的にプラ
ントパラメータ間の関係の変化、すなわち、プラント状
態の変化を検知することが可能となる。また、重み係数
などの値を基に、1つ以上のパラメータが変化した場合
の他のパラメータの値の予測を実施することが同様に可
能となる。According to the present invention, it is possible to automatically learn the relationship between plant data from history information, relate the relationship to a neural network structure, etc., and display it in a graphic form that is easy to understand by the thickness and color of the link. Become. In addition, this relationship can be arranged in time series and / or by the values of the main parameters, and can be displayed in a graphic manner so as to be easily understood. Further, it is possible to automatically detect a change in the relationship between the plant parameters, that is, a change in the plant state, from the change in the weight coefficient or the like. In addition, it is also possible to predict the value of another parameter when one or more parameters change based on the value of the weight coefficient or the like.
【0006】[0006]
【実施例】以下、本発明の実施例を図面により説明す
る。図1は、本発明のプラント状態表示装置の第一の実
施例を示すブロック図である。図1において、101は
プラント、201はデータとり込み記憶装置、301は
プラントデータ記憶装置、401はニューラルネット処
理装置、501はニューラルネット関連データ記憶装
置、601は表示装置、701は入力装置である。図2
は、図1に示す実施例の動作を示す流れ図である。図2
の処理は周期的に実施する。まず、データとり込み記憶
装置201で、プラントデータをとり込み、プラントデ
ータ記憶装置301に記憶する(ステップ8001)。
次いで、ニューラルネット処理装置401で、ニューラ
ルネット関連データ記憶装置501に記憶されたデー
タ、及び、前記記憶されたプラントデータを用いてニュ
ーラルネットでの学習処理を実施する(ステップ800
2)。ここでプラントデータは、過去のN回分、即ち、
異なるN時点のものを用いる。Nはあらかじめ定めた数
値である。学習が終了すると、表示装置601を用い
て、ニューラルネットの構造をグラフィック表示する
(ステップ8003)。以下、各々の処理の詳細につい
て説明する。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of the plant status display device of the present invention. In FIG. 1, 101 is a plant, 201 is a data acquisition storage device, 301 is a plant data storage device, 401 is a neural network processing device, 501 is a neural network related data storage device, 601 is a display device, and 701 is an input device. . FIG.
 3 is a flowchart showing the operation of the embodiment shown in FIG. FIG.
 Is periodically performed. First, the plant data is fetched by the data fetch storage device 201 and stored in the plant data storage device 301 (step 8001).
 Next, in the neural network processing device 401, a learning process in the neural network is performed using the data stored in the neural network related data storage device 501 and the stored plant data (step 800).
 2). Here, plant data for the past N times, ie,
 Use N different time points. N is a predetermined numerical value. When the learning is completed, the structure of the neural network is graphically displayed using the display device 601 (step 8003). Hereinafter, details of each process will be described.
【0007】図3は、データとり込み記憶装置201の
処理を示す流れ図である。この装置では、内蔵されたク
ロックの同期信号を基に、周期的に前回のデータとり込
み時点から、あらかじめ定めたサンプリング時間Tsが
経過したか否かを判断する(ステップ8101)。この
結果、時間Tsが経過していない場合には処理を終了す
る(ステップ8102)。一方、時間Tsが経過した場
合には、プラントから、データP1〜PLの値P1,0〜P
L,0をとり込む(ステップ8103)。次いで、プラン
トデータ記憶装置301から、N回前にとり込んだプラ
ントデータの値P1,N〜PL,Nを削除する(ステップ81
04)。この後、今回とり込んだ値P1,0〜PL,0をプラ
ントデータ記憶装置301に記憶する。つまり、プラン
トデータ記憶装置301には、通常は、N時点分のデー
タが記憶されていることになる。最後に、ニューラルネ
ット処理装置401に処理開始命令を出力して(ステッ
プ8106)、処理を終了する。図4は、プラントデー
タ記憶装置301に記憶されたデータの内容を示す図表
である。図表の如く、プラントデータ記憶装置301に
は、各プラントデータP1〜PL(2002)の時刻0〜
(N−1)(2001)における値2003が記憶され
ている。つまり、L種類のデータのN時点における値が
記憶されている。ここで、とり込み、記憶するデータの
種別はあらかじめ指定しておく。また、指定せずに測定
されているデータを全てとり込むことも同様に可能であ
る。FIG. 3 is a flowchart showing the processing of the data fetch storage device 201. This apparatus periodically determines whether or not a predetermined sampling time Ts has elapsed from the previous data fetching point based on a built-in clock synchronization signal (step 8101). As a result, if the time Ts has not elapsed, the processing ends (step 8102). On the other hand, when the time Ts has elapsed, the values P1,0 to P P of the data P1 to PL are output from the plant.
L, 0 is taken in (step 8103). Next, the values P1, N to PL, N of the plant data taken N times before are deleted from the plant data storage device 301 (step 81).
 04). Thereafter, the values P1,0 to PL, 0 fetched this time are stored in the plant data storage device 301. That is, the plant data storage device 301 normally stores data for N time points. Finally, a process start command is output to the neural network processing device 401 (step 8106), and the process ends. FIG. 4 is a chart showing the contents of data stored in the plant data storage device 301. As shown in the table, the plant data storage device 301 stores time 0 to time 0 of each of the plant data P1 to PL (2002).
 (N-1) The value 2003 in (2001) is stored. That is, the values of the L types of data at the time N are stored. Here, the type of data to be captured and stored is specified in advance. It is also possible to take in all the measured data without specifying.
【0008】次いで、ニューラルネット処理装置401
での処理について説明する。図5は、ニューラルネット
処理装置401で用いる階層型ニューラルネットの例を
示す模式図である。図5において、2101、210
2、2103はそれぞれ入力層、中間層、出力層であ
り、各層ごとにユニット2104を持っている。また、
ユニット間をリンク2105により結ぶ。ここで、ニュ
ーラルネットとしては、通常の階層型のものであれば何
を使用しても良く、中間層の数も自由に選択することが
可能である。また、中間層を持たないニューラルネット
の使用も可能である。このようなニューラルネットの学
習では、入力データ2106と教師データ2107の値
の組を1つ以上与えて、教師データとニューラルネット
の出力2108の誤差(二乗誤差など)が最少となるよ
うにリンクの重み係数を調整する。この学習には、例え
ば誤差逆伝播アルゴリズムなどを使用することが可能で
ある。図6は、ニューラルネット処理装置401の処理
を示す流れ図である。この装置では、データとり込み記
憶装置201から処理開始命令が入力されたか否かを周
期的に判定する(ステップ8201)。この結果、命令
が入力されていなければ、処理を終了する(ステップ8
202)。一方、命令が入力された場合には、プラント
データ記憶装置301から、記憶されているプラントデ
ータの値をとり込む(ステップ8203)。次いで、デ
ータとり込み時刻番号iを0に設定する(ステップ82
04)。この後、ニューラルネットの入力層2101の
各ユニットに、プラントデータの値P2,i〜PL,iを入力
データとして与える(ステップ8205)。さらに、ニ
ューラルネットの出力層2103に、P1,iを教師デー
タとして与えて学習する(ステップ8206)。ここ
で、学習には、誤差逆伝播アルゴリズムなどを使用す
る。学習が終了すると、iが(N−1)よりも小さいか
否かを判定する(ステップ8207)。この結果、iが
(N−1)よりも小さい場合には、Nの時点でのプラン
トデータを用いた学習が全て終了してはいないため、i
の値を1だけ増加させて(ステップ8208)、次の時
点のプラントデータの値を用いた学習を実施する。な
お、各々の時点のプラントデータの値を用いた学習の回
数は、あらかじめ設定しておく。学習の方法について
は、各々の時点のデータを用いた学習を、i=1から
(N−1)まで指定回数ずつ実行することをくり返し、
教師データとニューラルネット出力との二乗誤差があら
かじめ指定した値よりも小さくなった場合に学習を終了
することも同様に可能である。学習が終了すると、その
結果得られたリンクの重み係数の値をニューラルネット
関連データ記憶装置501に記憶する(ステップ820
9)。次いで、表示装置601に表示更新要求を出力す
る(ステップ8210)。図7は、ニューラルネット関
連データ記憶装置501に記憶されたデータの内容を示
す図表である。この装置に記憶されたデータは、ニュー
ラルネットの構造に係るデータ、及び学習の結果得られ
た重み係数の値に係るデータに大別できる。前者は、ニ
ューラルネットの層数、及び各層のユニットの数に係る
データ2601と、入力層及び出力層に与える入力デー
タ、及び教師データの種類と変数名に係るデータ260
2に大別できる。これらのデータは入力装置701を用
いて設定する。一方、後者、即ち重み係数は、学習終了
時に自動的に更新されるデータであり、入力層、中間層
のユニット間のリンクに対応して(2603)、また、
中間層と出力層のユニット間のリンクに対応して(26
04)、図表のように記憶される。ここには、中間層が
1層の場合の例を示したが、中間層がない場合、あるい
は中間層が2層以上の場合についても同様にして記憶す
ることが可能である。Next, the neural network processing device 401
 Will be described. FIG. 5 is a schematic diagram showing an example of a hierarchical neural network used in the neural network processing device 401. In FIG. 5, 2101, 210
 Reference numerals 2 and 2103 denote an input layer, an intermediate layer, and an output layer, and each layer has a unit 2104. Also,
 The units are connected by a link 2105. Here, as the neural network, any ordinary hierarchical type may be used, and the number of intermediate layers can be freely selected. It is also possible to use a neural network without an intermediate layer. In such learning of the neural network, one or more pairs of values of the input data 2106 and the teacher data 2107 are given, and the link between the teacher data and the output 2108 of the neural network (square error, etc.) is minimized. Adjust the weighting factor. For this learning, for example, an error back propagation algorithm or the like can be used. FIG. 6 is a flowchart showing the processing of the neural network processing device 401. This apparatus periodically determines whether or not a processing start command has been input from the data fetch storage device 201 (step 8201). As a result, if the instruction has not been input, the processing is terminated (step 8).
 202). On the other hand, when the command is input, the value of the stored plant data is fetched from the plant data storage device 301 (step 8203). Next, the data acquisition time number i is set to 0 (step 82).
 04). Thereafter, the values P2, i to PL, i of the plant data are given as input data to each unit of the input layer 2101 of the neural network (step 8205). Further, learning is performed by giving P1, i as teacher data to the output layer 2103 of the neural network (step 8206). Here, an error back propagation algorithm or the like is used for learning. When the learning is completed, it is determined whether or not i is smaller than (N-1) (step 8207). As a result, if i is smaller than (N-1), all learning using the plant data at the time of N has not been completed.
 Is increased by 1 (step 8208), and learning using the value of the plant data at the next time is performed. The number of times of learning using the value of the plant data at each time point is set in advance. As for the learning method, the learning using the data at each time point is repeatedly performed a specified number of times from i = 1 to (N−1).
 It is also possible to end the learning when the square error between the teacher data and the neural network output becomes smaller than a value specified in advance. When the learning is completed, the value of the link weight coefficient obtained as a result is stored in the neural network related data storage device 501 (step 820).
 9). Next, a display update request is output to the display device 601 (step 8210). FIG. 7 is a table showing the contents of data stored in the neural network related data storage device 501. The data stored in this device can be broadly classified into data relating to the structure of the neural network and data relating to the value of the weight coefficient obtained as a result of learning. The former includes data 2601 relating to the number of layers of the neural network and the number of units in each layer, input data to be provided to the input layer and the output layer, and data 260 relating to the type and variable name of the teacher data.
 There are two main categories. These data are set using the input device 701. On the other hand, the latter, that is, the weight coefficient is data that is automatically updated at the end of learning, and corresponds to the link between the units in the input layer and the intermediate layer (2603).
 According to the link between the units of the hidden layer and the output layer (26
 04), stored as shown in the figure. Here, an example in which the number of the intermediate layers is one is shown, but it is also possible to store data in the same manner when there is no intermediate layer, or when there are two or more intermediate layers.
【0009】図8は、表示装置601の処理を示す流れ
図である。表示装置では図示の如く、表示更新要求が入
力されたか否かを周期的に判定する(ステップ830
1)。この結果、要求が入っていない場合には、表示を
更新することなく、処理を終了する(ステップ830
2)。一方、要求が入力された場合には、ニューラルネ
ット関連データ記憶装置501に記憶された構造関連デ
ータのうち、構造データ2601を参照し、各層のユニ
ットを表示画面上に表示する(ステップ8303)。次
いで、構造関連データのうち、入出力データ名称につい
てのデータ2602を参照して、表示された各ユニット
の近傍に、ユニットに対応する入出力データの名称を表
示する(ステップ8304)。次いで、各々のユニット
間にニューラルネット関連データ記憶装置501に記憶
された重み係数の値を参照し、重み係数の値に比例した
太さの線分を描画する(ステップ8305)。本実施例
では、重み係数の値に対応した太さの線分(例えば重み
係数1.0の場合1mm)を描画する。重み係数の大き
さに大きな差があるような場合には、最大値を例えば
3.0mmに規格化して示すことも同様に可能である。
また、正、負の符号を実線、破線などにより区別して示
すことも可能である。さらに、重み係数を色によって示
すことも同様に可能である。例えば、最大値を黒、最少
値を白、その間を黒、白の割合を変化させた灰色により
示す。FIG. 8 is a flowchart showing the processing of the display device 601. As shown in the figure, the display device periodically determines whether or not a display update request has been input (step 830).
 1). As a result, if there is no request, the process ends without updating the display (step 830).
 2). On the other hand, when the request is input, the unit of each layer is displayed on the display screen with reference to the structure data 2601 among the structure related data stored in the neural network related data storage device 501 (step 8303). Next, the name of the input / output data corresponding to the unit is displayed in the vicinity of each displayed unit with reference to the data 2602 regarding the input / output data name in the structure-related data (step 8304). Next, a line segment having a thickness proportional to the value of the weight coefficient is drawn with reference to the value of the weight coefficient stored in the neural network related data storage device 501 between the units (step 8305). In this embodiment, a line segment having a thickness corresponding to the value of the weight coefficient (for example, 1 mm in the case of a weight coefficient of 1.0) is drawn. In the case where there is a large difference in the magnitude of the weighting coefficient, it is similarly possible to standardize and indicate the maximum value to, for example, 3.0 mm.
 It is also possible to distinguish positive and negative signs by a solid line, a broken line, and the like. Furthermore, it is equally possible to indicate the weighting factors by color. For example, the maximum value is indicated by black, the minimum value is indicated by white, the interval between them is indicated by black, and the gray ratio is changed by gray.
【0010】図9は、表示画面への表示方法の一例を示
す模式図である。図示の如く、本例では、発電端効率η
に影響を及ぼす大気温度Taの影響は大きく、一方、循
環水温度Twの影響は小さいことが示されている。図1
0は、表示画面への表示方法の他の例を示す模式図であ
る。図示の例は、プラントパラメータP1に及ぼすP2〜
PLの影響の度合の時間変化を示すものである。この表
示は、ニューラルネット関連データ記憶装置501に、
学習を実施した際の重み係数の値を、過去の値も含めて
記憶することにより実現している。本例では、過去2時
間分の重み係数を記憶しており、最大、2時間の変化を
表示することができる。表示すべき時間範囲かつ/また
は表示する時刻の数は、入力装置701からの入力によ
り変更できる。上記の例は、プラントパラメータのP1
とP2〜PLの関係の変化を時系列的に表示したものであ
る。本実施例では、オプション機能として、主要なプラ
ントパラメータの値ごとに、P1とP2〜PLの関係を整
理して出力することも同様に可能である。図11は、表
示画面への表示方法の他の例を示す模式図である。図示
の例は、プラントパラメータP2に係るノードと中間層
ノードH1、中間層ノードH1とプラントパラメータP1
に係る出力層ノードとの間の重み係数の時間変化を示す
ウィンドウと、プリントパラメータP4に係るノードと
中間層ノードH2との間の重み係数の時間変化を示すウ
ィンドウを表示している。同図において、・及び×印は
学習の結果得られた重み係数の値を示しており、実線及
び破線はそれらを結ぶ線分である。このように表示する
ことにより、運転員は重み係数の時間変化を把握するこ
とが容易となる。表示する重み係数の選択は、例えば図
10の対応するリンクをマウスで指定する、あるいはキ
ーボード、音声などにより入力することにより実施す
る。なお、この例では各リンクごとに値の変化を示した
が、例えば、P1とP2の間の重み係数の値の変化を、P
1とH1、H1とP2の間の重み係数についての和や積等の
演算結果を用いるなどの方法により、まとめて表示する
ことも同様に可能である。FIG. 9 is a schematic diagram showing an example of a display method on a display screen. As shown, in this example, the power generation end efficiency η
 It is shown that the influence of the atmospheric temperature Ta on the influence of the circulating water temperature Tw is large, while the influence of the circulating water temperature Tw is small. FIG.
 0 is a schematic diagram showing another example of the display method on the display screen. The illustrated example shows the effect of P2 on the plant parameter P1.
 Shows the time change of the degree of influence of PL. This display is stored in the neural network related data storage device 501.
 This is realized by storing the value of the weighting factor when learning is performed, including the past value. In this example, the weighting coefficients for the past two hours are stored, and a change for a maximum of two hours can be displayed. The time range to be displayed and / or the number of times to be displayed can be changed by input from the input device 701. In the above example, the plant parameter P1
 And it is obtained by time-sequentially displaying a change in the relationship between P2 to PL. In this embodiment, as an optional feature, for each value of the major plant parameters, it is likewise possible to output to organize the relationship between P1 and P2 to PL. FIG. 11 is a schematic diagram illustrating another example of a display method on a display screen. In the illustrated example, the node related to the plant parameter P2 and the middle layer node H1 , and the middle layer node H1 and the plant parameter P1
 A window showing the time variation of the weighting factor between the output layer node according to, displaying a window that shows the time variation of the weighting factor between the node and the intermediate layer node H2 according to printing parameters P4. In the figure, the symbols. And x indicate the values of the weighting coefficients obtained as a result of the learning, and the solid lines and broken lines are line segments connecting them. By displaying in this manner, the operator can easily grasp the time change of the weight coefficient. The selection of the weighting coefficient to be displayed is performed, for example, by specifying the corresponding link in FIG. In this example, the change in the value is shown for each link. For example, the change in the value of the weight coefficient between P1 and P2 is represented by P
 By a method such as using a calculation result such as the sum or product of the weighting factor between1 and H1, H1 and P2, it is likewise possible to collectively display.
【0011】図12は、上記の機能を実現する場合に必
要となるデータとり込み記憶装置201の処理を示す流
れ図である。ここでは、発電機出力の値Pwごとに、プ
ラントパラメータ間の関係を整理して出力する場合を例
にとり説明する。まず、出力の値Pwをとり込む(ステ
ップ8401)。次いで、変数mを1に設定する(ステ
ップ8402)。mは、整理して表示可能な出力の値に
対応する番号を示すもので、最大値はMである。即ち、
M個の出力の値についてP1とP2〜PLの関係を表示す
ることが可能である。まず、出力の値PwとPmの差が
εよりも小さいか否かを判定する(ステップ840
3)。ここで、Pmは出力に対応する値、εは判定のた
めの値であり、あらかじめ設定しておく。ステップ84
03での判定の結果が“no”であれば、ステップ84
08に進む。一方、“yes”であれば、プラントから
データP1〜PLの値P1,0〜PL,0をとり込む(ステップ
8404)。次に、出力の値Pmに対応して用意されて
いるN個の記憶領域のうちの1つに、プラントデータP
1,0〜PL,0の値を記憶する(ステップ8405)。ここ
で、出力の値Pmごとに、N個のセットのプラントデー
タの記憶領域を設定しているため、N個以上のセットの
データは不可能である。このため、Pmに対応して記憶
されているデータのセット数がNを越えているか否かを
判定し(ステップ8406)、越えている場合には、最
も古いデータのセットを消去する(ステップ840
7)。この後、mがM以上か否かを判定し(ステップ8
408)、M以上であれば処理を終了する。一方、Mよ
りも小さい場合には、mを1つ増加させ(ステップ84
09)、次の出力値Pmについて同様の処理を実施す
る。この処理により、プラントデータ記憶装置301に
は、M個の発電機出力の値Pmごとに、N個のセットの
プラントデータが記憶されることになる。プラントデー
タ記憶装置301のデータが更新された場合には、対応
するPmについてのデータを用いて、ニューラルネット
処理装置401で学習の処理を実施する。つまり、ニュ
ーラルネット関連データ記憶装置501には、M個の発
電機出力の値それぞれに対応して実施された学習により
得られたM組の重み係数のセットが記憶されることにな
る。FIG. 12 is a flowchart showing the processing of the data fetch / storage device 201 necessary for realizing the above functions. Here, a case where the relationship between the plant parameters is arranged and output for each value Pw of the generator output will be described as an example. First, the output value Pw is captured (step 8401). Next, the variable m is set to 1 (step 8402). m indicates a number corresponding to an output value that can be arranged and displayed, and the maximum value is M. That is,
 It is possible to display the relationship between P1 and P2 to PL for the M output values. First, it is determined whether or not the difference between the output values Pw and Pm is smaller than ε (step 840).
 3). Here, Pm is a value corresponding to the output, and ε is a value for determination and is set in advance. Step 84
 If the result of the determination in step 03 is “no”, step 84
 Proceed to 08. On the other hand, if “yes”, the values P1,0 to PL, 0 of the data P1 to PL are fetched from the plant (step 8404). Next, the plant data P is stored in one of N storage areas prepared corresponding to the output value Pm.
 The values of1,0 to PL, 0 are stored (step 8405). Here, since a storage area for N sets of plant data is set for each output value Pm, N or more sets of data are not possible. Therefore, it is determined whether or not the number of data sets stored corresponding to Pm exceeds N (step 8406), and if so, the oldest data set is deleted (step 840).
 7). Thereafter, it is determined whether m is equal to or greater than M (step 8).
 408) If M or more, the process ends. On the other hand, if it is smaller than M, m is increased by one (step 84).
 09), the same processing is performed for the next output value Pm. By this processing, N sets of plant data are stored in the plant data storage device 301 for each of the M generator output values Pm. When the data in the plant data storage device 301 is updated, the learning process is performed by the neural network processing device 401 using the data on the corresponding Pm. That is, the neural network-related data storage device 501 stores M sets of weighting coefficients obtained by learning performed for each of the M generator output values.
【0012】図13は、上記の出力ごとの重み係数を用
いた表示の例を示すものである。図示の如く、P1に影
響を及ぼすパラメータP2〜PLの各々の影響の度合が発
電機出力ごとに整理して示される。ここで、表示すべき
図の枚数、その出力値は入力装置701により変更する
ことが可能である。図14は、表示画面への表示方法の
他の例を示す模式図である。図示の例は、プラントパラ
メータP2に係るノードと中間層ノードH1、中間層ノー
ドH1とプラントパラメータP1に係る出力層ノード、及
びプラントパラメータPLに係るノードと中間層ノード
H2との間の重み係数の値を発電機出力の値で整理して
各ウィンドウに表示したものである。同図において、・
印は学習の結果得られた重み係数の値を示しており、実
線はそれらを結ぶ線分である。このように表示すること
により、重み係数の値、すなわち各プラントパラメータ
間の関係の発電機出力に応じた変化を示すことが可能と
なる。なお、表示する重み係数の選択は、例えば図10
や図13等の対応するリンクをマウスで指定する、ある
いはキーボード、音声などにより入力することにより実
施することが可能である。FIG. 13 shows an example of display using the above-described weighting coefficient for each output. As shown, the degree of influence of each of the parameters P2 to PL affecting P1 is shown for each generator output. Here, the number of figures to be displayed and their output values can be changed by the input device 701. FIG. 14 is a schematic diagram showing another example of a display method on the display screen. In the illustrated example, nodes and intermediate layer nodes H1 according to the plant parameters P2, the output layer nodes according to the intermediate layer nodes H1 and plant parameters P1, and the nodes according to the plant parameters PL and the intermediate layer node H2 Are arranged in the values of the generator output values and displayed in each window. In the figure,
 The marks indicate the values of the weighting coefficients obtained as a result of the learning, and the solid lines are line segments connecting them. By displaying in this way, it is possible to show the value of the weighting factor, that is, the change according to the generator output of the relationship between the plant parameters. The selection of the weighting coefficient to be displayed is performed, for example, in FIG.
 13 or the corresponding link shown in FIG. 13 or the like by using a mouse, or by inputting through a keyboard, voice, or the like.
【0013】以上述べた如く、本実施例によれば、プラ
ントの任意のパラメータ間の影響の度合を、ニューラル
ネットにより抽出し、それをニューラルネットの構造と
併せてグラフィック表示することが可能である。また、
各々のプラントパラメータ間の影響の度合を、ニューラ
ルネットのリンクの太さ、色などにより表示する。これ
により、運転員は、プラントパラメータ間の関係を直感
的に理解することができ、運転員のプラント監視での負
担が軽減される。さらに、学習の結果得られた重み係数
の履歴を記憶し、プラントパラメータ間の影響の度合の
時間的な変化を表示する。これにより運転員がプラント
状態の変化を容易に監視することが可能となる。また、
運転員が表示すべき時刻などを指定することも可能であ
り、運転員が要求した時刻のプラントデータ間の影響の
度合を見ることができ、運転員の効率的なプラント状態
理解が可能となる。また、発電機出力などの主要パラメ
ータごとに整理して、プラント状態に係る情報を表示す
ることも可能であり、例えば発電機出力変化に伴うプラ
ントパラメータ間の関係の変化を、運転員が容易に認識
することが可能となる。As described above, according to this embodiment, it is possible to extract the degree of influence between arbitrary parameters of a plant by using a neural network and display the extracted degree together with the structure of the neural network. . Also,
 The degree of influence between each plant parameter is displayed by the thickness and color of the link of the neural network. Thus, the operator can intuitively understand the relationship between the plant parameters, and the burden on the plant monitoring of the operator is reduced. Further, the history of the weighting coefficient obtained as a result of the learning is stored, and a temporal change in the degree of the influence between the plant parameters is displayed. This allows the operator to easily monitor changes in the plant state. Also,
 It is also possible for the operator to specify the time to be displayed, etc., so that the degree of influence between the plant data at the time requested by the operator can be seen and the operator can efficiently understand the plant state. . In addition, it is also possible to display information related to the plant state by organizing each of the main parameters such as the generator output, and for example, the operator can easily change the relationship between the plant parameters due to the change in the generator output. It becomes possible to recognize.
【0014】次に、本発明の第二の実施例について説明
する。図15は、本発明の他の実施例の構成を示すブロ
ック図である。図15において、102はプラント、2
02はプラントデータのとり込み記憶処理をするデータ
とり込み記憶装置、302はプラントデータ記憶装置、
402はニューラルネット処理装置、502はニューラ
ルネット関連データ記憶装置、802は表示制御装置、
602は表示装置、702は入力装置である。本実施例
のデータとり込み記憶装置202の処理は、第一の実施
例と同様であり、時間Tsごとに指定されたプラントデ
ータをとり込み、プラントデータ記憶装置302に記憶
する。記憶すべきデータのセット数はN個であり、これ
はニューラルネット処理装置402で必要となるセット
数に対応している。これについては、後で詳細に説明す
る。Next, a second embodiment of the present invention will be described. FIG. 15 is a block diagram showing the configuration of another embodiment of the present invention. In FIG. 15, reference numeral 102 denotes a plant, 2
 02 is a data acquisition storage device for performing plant data acquisition and storage processing, 302 is a plant data storage device,
 402 is a neural network processing device, 502 is a neural network related data storage device, 802 is a display control device,
 602 is a display device, and 702 is an input device. The processing of the data fetch storage device 202 of this embodiment is the same as that of the first embodiment, and fetches the designated plant data for each time Ts and stores it in the plant data storage device 302. The number of sets of data to be stored is N, which corresponds to the number of sets required by the neural network processor 402. This will be described later in detail.
【0015】図16は、ニューラルネット処理装置40
2の処理を示す流れ図である。この装置では、複数個
(J個)のニューラルネットワークについての処理を実
行する。まず、ニューラルネットワークの番号jを1に
設定する(ステップ8501)。次いで、jについての
学習周期Ts×Sjに対応する時間が、前回の学習の時点
から経過したか否かを判定する(ステップ8502)。
ここで、Sjはニューラルネットワークごとに与えられ
る値、Tsはプラントデータのサンプリング周期であ
る。この判定の結果、時間が経過していない、即ち、j
番目のニューラルネットワークについての学習処理が必
要なければ、ステップ8507を実行する。一方、jに
ついての学習周期に対応している場合には、ニューラル
ネット関連データを参照し、プラントデータ記憶装置3
02から必要なプラントデータをとり込む(ステップ8
503)。次いで、入力層、出力層の各ユニットに、プ
ラントデータを入力して学習を実行する(ステップ85
04)。ここで、使用すべきデータのセット数Njは、ニ
ューラルネット関連データにニューラルネットごとに与
えられている。j番目のニューラルネットの学習には、
Ts×Sj×(Nj−1)の最大値に対応する時間のプラン
トデータが必要となる。また、プラントデータ記憶措置
302で記憶すべきデータのセット数Nは、(Nj−1)
×Sj+1の最大値に対応する。また、このニューラル
ネット処理装置402での学習には、忘却付き学習アル
ゴリズム(石川:忘却を用いたコネクショニストモデル
の構造学習アルゴリズム:人工知能学会誌 Vol.
5,No.5《1990》)を使用している。このアル
ゴリズムによれば、学習の進展に伴い寄与の小さなリン
ク、ユニットを消していくことが可能である。本装置で
は、学習の途中過程での重み係数の値を、逐次ニューラ
ルネットワーク関連データ記憶装置502に書き込む
(ステップ8505)。学習が終了すると(ステップ8
506)、全てのニューラルネット(J個)についての
処理が終了したか否か、即ちj≧Jか否かを判定し(ス
テップ8507)、終了した場合には処理を終える。一
方、j≧Jでなければ、jをj+1に設定し(ステップ
8508)、次のニューラルネットについての同様の処
理を実行する。図17は、ニューラルネット関連データ
記憶装置502の内容の一部を示す図表である。図表の
ように、ニューラルネット(1〜J)ごとに、学習周期
Sjと、学習で使用するデータのセット数Njが与えられ
ている。ここでは、学習周期をサンプリング時間Tsの
整数Sj倍として設定した。これらのデータの他に、ニ
ューラルネット関連データ記憶装置502には、各々の
ニューラルネットワークに対応して、第一の実施例と同
様の構造関連データ、重み係数の値が記憶されている。FIG. 16 shows a neural network processing device 40.
 6 is a flowchart showing the processing of No. 2; In this device, processing is performed for a plurality (J) of neural networks. First, the number j of the neural network is set to 1 (step 8501). Next, it is determined whether or not the time corresponding to the learning cycle Ts × Sj for j has elapsed from the time of the previous learning (step 8502).
 Here, Sj is a value given for each neural network, and Ts is a sampling cycle of plant data. As a result of this determination, time has not elapsed, that is, j
 If the learning process for the neural network is not necessary, step 8507 is executed. On the other hand, if it corresponds to the learning cycle for j, the plant data storage device 3 is referred to by referring to the neural network related data.
 02 required plant data (step 8
 503). Next, learning is executed by inputting plant data to each unit of the input layer and the output layer (step 85).
 04). Here, the number Nj of data sets to be used is given to the neural network related data for each neural network. To learn the j-th neural net,
 Plant data at a time corresponding to the maximum value of Ts × Sj × (Nj−1) is required. The number N of data sets to be stored in the plant data storage unit 302 is (Nj-1)
 It corresponds to the maximum value of × Sj + 1. The learning by the neural network processing device 402 includes a learning algorithm with forgetting (Ishikawa: Structure learning algorithm of a connectionist model using forgetting: Journal of the Japanese Society for Artificial Intelligence Vol.
 5, No. 5 << 1990 >>). According to this algorithm, it is possible to eliminate links and units that have a small contribution as the learning progresses. In the present apparatus, the value of the weight coefficient in the course of the learning is sequentially written into the neural network related data storage device 502 (step 8505). When learning is completed (Step 8
 506), it is determined whether or not the processing has been completed for all the neural nets (J pieces), that is, whether or not j ≧ J (step 8507). When the processing has been completed, the processing is terminated. On the other hand, if j ≧ J, j is set to j + 1 (step 8508), and the same processing is executed for the next neural network. FIG. 17 is a chart showing a part of the contents of the neural network related data storage device 502. As shown in the table, a learning cycle Sj and the number Nj of data sets used for learning are given for each neural network (1 to J). Here, the learning period is set as an integer Sj times the sampling time Ts. In addition to these data, the neural network related data storage device 502 stores the same structure related data and weight coefficient values as in the first embodiment, corresponding to each neural network.
【0016】図18は、学習実行時の表示装置602に
おける表示画面の変化を示す模式図である。前述した如
く、本例では、学習の途中過程での重み係数の値を、ニ
ューラルネット関連データ記憶装置502に逐次記憶す
る。表示制御装置802は、このデータを参照し、変化
があった場合には表示画面を更新する。図示の例では、
P1への影響因子の候補として、P2〜P7を初期設定し
た例を示している。学習開始時には、入力層と中間層、
及び中間層と出力層の各ユニット間に全てリンクが描画
されている(図(i))。学習が進むに従ってP1に影響
を及ぼす因子がまず明確になり(図(ii))、学習終了
時には、入力層のユニットに対応するパラメータP2、
P3、P5、P6とP1との関係の大きさが、リンクの太さ
によって示される(図(iii))。なお、ここでは、中
間層が1層の場合について示したが、複数の中間層を持
つ場合にも同様の処理が可能であり、その場合に、もし
も中間層の一部が不要であれば、層数も変化していくこ
とになる。また、初期の入力パラメータの種類は、ニュ
ーラルネットごとにニューラルネット関連データとして
与えているが、これを、全てのニューラルネットについ
て共通のパラメータをデータとして与えておくことも可
能である。なお、ここでは、学習の途中過程をニューラ
ルネットの構造と併せて表示する例を示した。この他、
学習の途中過程において、学習の回数と重み係数の値と
の関係、もしくは、学習の回数と誤差自乗和の値との関
係をグラフなどにより逐次表示することも可能である。
図19は、表示画面の他の例を示す模式図である。この
例では、画面上に、P1への影響因子の現状を示す画面
2201と、P7への影響因子の履歴を示す画面220
2が示されている。また、画面2203及び画面220
4はメニューであり、これらを入力装置702により指
定することにより、ネットワークの種類、及び現状ある
いは変化履歴という表示方法を選択することが可能であ
る。入力装置としては、マウス、もしくはタッチパネル
をメニュー選択のために使用する。また、キーボードか
らこれらに対応する入力をすることも同様に可能であ
る。また、現状を表示する場合に、学習実行時には、学
習の途中過程を前述の如く表示することもできる。ま
た、例えばP1、P5、P7のうち、通常値からのずれの
最も大きなパラメータについての情報を自動提供するな
ど、プラント状態に応じた自動表示切換も同様に可能で
ある。ここで、P7への影響因子の履歴を示す画面22
02では、ニューラルネットが2層で表示されている。
これは、次に示すような2層表示のための処理を、表示
制御装置802により実行することにより実現してい
る。FIG. 18 is a schematic diagram showing a change in the display screen of the display device 602 when learning is performed. As described above, in this example, the values of the weighting coefficients during the course of learning are sequentially stored in the neural network related data storage device 502. The display control device 802 refers to this data and updates the display screen when there is a change. In the example shown,
 As candidates for factors influencing P1, shows an example of initializing the P2 to P7. At the start of learning, the input and middle layers,
 All links are drawn between the units of the intermediate layer and the output layer (FIG. (I)). As learning progresses, factors affecting P1 are first clarified (FIG. (Ii)), and at the end of learning, parameters P2 ,
 The magnitude of the relationship between P3 , P5 , P6 and P1 is indicated by the thickness of the link (FIG. (Iii)). Here, the case where the intermediate layer is a single layer has been described, but the same processing can be performed when a plurality of intermediate layers are provided. In this case, if a part of the intermediate layer is unnecessary, The number of layers will also change. Although the type of the initial input parameter is given as neural network related data for each neural network, it is also possible to give this parameter a common parameter for all neural nets. Here, an example is shown in which the learning process is displayed together with the structure of the neural network. In addition,
 In the course of the learning, the relationship between the number of times of learning and the value of the weight coefficient or the relationship between the number of times of learning and the value of the sum of squared errors can be sequentially displayed by a graph or the like.
 FIG. 19 is a schematic diagram showing another example of the display screen. In this example, on a screen, a screen 2201 showing the current state of influencing factors of the P1, the screen 220 indicating the history of the influencing factors of the P7
 2 is shown. Screen 2203 and screen 220
 Reference numeral 4 denotes menus. By specifying these menus with the input device 702, it is possible to select a type of network and a display method such as a current state or a change history. As an input device, a mouse or a touch panel is used for menu selection. It is also possible to make an input corresponding to these from the keyboard. Further, when the current state is displayed, during the learning, the process of the learning can be displayed as described above. Automatic display switching according to the plant state is also possible, for example, by automatically providing information on the parameter having the largest deviation from the normal value among P1 , P5 , and P7 . Here, the screen 22 indicating the history of the impact factor of the P7
 In 02, the neural network is displayed in two layers.
 This is realized by the display control device 802 executing the following processing for two-layer display.
【0017】図20は、2層表示のための処理を示す流
れ図である。入力装置702から2層表示要求が入力さ
れると(ステップ8601)、まず、学習済のニューラ
ルネットの重み係数などを読み込む(ステップ860
2)。これを用いてP1=f(P2,P3,…,PL)の計算
を実行可能な状態とする。つまり、入力データとして、
P2,…,PLの値を指定すれば、出力P1を計算して出
力できるようにする。これは、通常のニューラルネット
の認識処理に対応する。次に、lを2に設定して(ステ
ップ8603)、入力Plの値を、現状値Pl,0から±Δ
Pだけ変化させて、出力の変化P1,lを計算する(ステ
ップ8604)。次いで、lがLよりも小さいか否かを
判定し(ステップ8605)、小さい場合にはlをl+
1に設定して(ステップ8606)、ステップ8604
に戻る。即ち、全ての入力データについて、その変化に
対応する出力値の変化を計算する。この処理が終了する
と、P2〜PLに対応する入力層のユニットと、P1に対
応する出力層のユニットを表示する(ステップ860
7)。次に、入力層の各ユニットと出力層のユニットと
の間に、ステップ8604で計算した、P1,lの大きさ
に応じた太さの線分を描画する(ステップ8608)。
ここで、ニューラルネットに中間層がない場合、即ち、
2層のニューラルネットの場合には、この2層表示のた
めの処理は必要ないので実行しない。また、ここでは、
出力層のユニットが1つの場合について示したが、複数
のユニットがある場合についても全く同様の処理が可能
である。なお、影響の度合をリンクの色、線種、ブリン
ク速度などにより示すことも同様に可能である。なお、
このような入力及び出力パラメ−タ間の関係を重回帰分
析などの技術により求めることも可能である。さらに、
ニュ−ラルネットを使用せず、重回帰分析のみを用いて
前述したような処理を実行することも可能である。これ
は、ニュ−ラルネット処理装置の部分に、重回帰分析処
理装置を配置することにより、実現できる。しかしなが
ら、この方法では、本実施例のごとく、学習の進展に伴
い、影響の小さい入力パラメ−タを消去するなどの処理
は実施できず、あらかじめ、適切な入力パラメ−タを選
択しておくことが必要となる。FIG. 20 is a flowchart showing processing for two-layer display. When a two-layer display request is input from the input device 702 (step 8601), first, a weight coefficient of a learned neural network is read (step 860).
 2). Using this, the calculation of P1 = f (P2 , P3 ,..., PL ) is made executable. That is, as input data,
 By specifying the values of P2 ,..., PL , the output P1 can be calculated and output. This corresponds to ordinary neural network recognition processing. Next, 1 is set to 2 (step 8603), and the value of the input Pl is changed from the current value Pl, 0 by ± Δ.
 P only by changing, calculating the change P1, l of the output (step 8604). Next, it is determined whether or not l is smaller than L (step 8605).
 1 (step 8606) and step 8604
 Return to That is, for all the input data, the change of the output value corresponding to the change is calculated. When this process ends, the units of the input layer corresponding to P2 to PL and the units of the output layer corresponding to P1 are displayed (step 860).
 7). Then, between each units of the input layer and the unit of the output layer, calculated in step 8604, to draw a line segment thickness corresponding to the size of the P1, l (step 8608).
 Here, when the neural network has no hidden layer,
 In the case of a two-layered neural network, the processing for the two-layer display is not necessary and is not executed. Also, here
 Although the case where the number of units in the output layer is one is shown, the same processing can be performed when there are a plurality of units. It is also possible to indicate the degree of influence by the link color, line type, blink speed, and the like. In addition,
 The relationship between such input and output parameters can be determined by a technique such as multiple regression analysis. further,
 It is also possible to execute the above-described processing using only multiple regression analysis without using a neural network. This can be realized by arranging a multiple regression analysis processing device in the portion of the neural network processing device. However, in this method, as in the present embodiment, processing such as erasing input parameters having a small effect cannot be performed with the progress of learning, and appropriate input parameters must be selected in advance. Is required.
【0018】以上述べた如く、本実施例によれば、ニュ
ーラルネットの学習の過程で、リンク、ユニットの個数
を含むニューラルネット構造を変化させることが可能で
ある。これにより、影響の小さいプラントパラメータに
対応するユニット、及びそれに係るリンクの表示を抑制
することが可能となる。ニューラルネットのユニット数
が増加した場合、リンクの本数は非常に多くなり、一般
には、各々のパラメータ間の関係を見るための労力が多
くなることがあるが、本実施例によれば、影響の大きな
パラメータに関連するユニット、リンクのみが表示され
るため、運転員の認識の負担をさらに軽減できる。ま
た、入力層に与えたパラメータの中から出力層に与えた
パラメータに影響を及ぼすものが学習により自動的に選
択される。このため、入力層に与えるパラメータを選択
する際の負担を軽減できる。一般に入力層に与えるべき
パラメータは、プラント状態によって異なるため、様々
の状況を考慮して、あらかじめ入力層に与えるパラメー
タを指定する手間は大きい。さらに、入力層及び出力層
のユニットのみを表示し、各々のユニットに対応するプ
ラントパラメータ間の影響を、各々1本のリンクの色、
太さなどにより示すことができる。これによって、各々
のパラメータ間の関係を、より容易に把握することが可
能となる。また、この2層表示のための処理は、学習の
結果得られた重み係数などを有効に用いた簡単な処理で
あり、高速な処理が可能である。さらに、本実施例で
は、複数のプラントパラメータの組について複数のニュ
ーラルネットワークを用意して、運転員要求かつ/また
はプラント状態に応じて切り換えることができる。これ
により、運転員は必要なパラメータについての情報のみ
を画面上で確認することが可能である。また、前記した
複数のニューラルネットワークについて学習の周期を切
り換えることが可能である。パラメータ間の影響の度合
の変化速度などは、パラメータの種類により異なる。こ
の方法により無駄な学習をすることなく効率的な処置が
実現できる。さらに、ニューラルネットの学習の途中過
程を逐次グラフィック表示する。これにより、運転員
は、学習の進展を監視することが可能であるのみなら
ず、自分の予測とニューラルネットの学習過程を対比さ
せることが可能であり、運転員がプラントの特性につい
て学習し、プラント特性についての知識を得ることにも
役立つ。As described above, according to this embodiment, it is possible to change the neural network structure including the number of links and units in the course of learning the neural network. As a result, it is possible to suppress the display of the unit corresponding to the plant parameter having a small influence and the link related thereto. When the number of units of the neural network increases, the number of links becomes very large, and generally, the labor for seeing the relationship between the respective parameters may be increased. Since only the units and links related to the large parameters are displayed, the operator's burden of recognition can be further reduced. Further, from the parameters given to the input layer, those that affect the parameters given to the output layer are automatically selected by learning. For this reason, it is possible to reduce the burden when selecting parameters to be given to the input layer. In general, parameters to be given to the input layer differ depending on the plant state, so that it is time-consuming to specify parameters to be given to the input layer in advance in consideration of various situations. Furthermore, only the units of the input layer and the output layer are displayed, and the influence between the plant parameters corresponding to each unit is indicated by one link color,
 It can be indicated by the thickness or the like. This makes it possible to more easily grasp the relationship between the parameters. Further, the process for the two-layer display is a simple process that effectively uses a weight coefficient or the like obtained as a result of learning, and can be performed at a high speed. Further, in the present embodiment, a plurality of neural networks can be prepared for a plurality of sets of plant parameters, and switching can be performed according to an operator request and / or a plant state. As a result, the operator can check only information on necessary parameters on the screen. Further, it is possible to switch the learning cycle for the plurality of neural networks. The rate of change of the degree of influence between parameters differs depending on the type of parameter. By this method, efficient treatment can be realized without unnecessary learning. Further, the process of learning of the neural network is sequentially graphically displayed. This allows the operator not only to monitor the progress of learning, but also to compare his predictions with the learning process of the neural network, where the operator learns about the characteristics of the plant, It also helps to gain knowledge about plant characteristics.
【0019】次に、本発明の第三の実施例について説明
する。図21は、本発明の第三の実施例の構成を示すブ
ロック図である。図21において、103はプラント、
203はプラントデータをとり込み記憶する処理を実行
するデータとり込み記憶装置、303はプラントデータ
記憶装置、403はニューラルネット処理装置、503
はニューラルネット関連データ記憶装置、603は表示
装置、703は入力装置、903は予測・診断装置、1
003は診断処理で使用する診断用知識ベースである。
本実施例のデータとり込み記憶装置203及びニューラ
ルネット処理装置403における処理は、第一の実施例
と同様である。次に、予測・診断装置903の処理につ
いて説明する。Next, a third embodiment of the present invention will be described. FIG. 21 is a block diagram showing the configuration of the third embodiment of the present invention. In FIG. 21, 103 is a plant,
 Reference numeral 203 denotes a data capture storage device that executes processing for capturing and storing plant data; 303, a plant data storage device; 403, a neural network processing device;
 Is a neural network related data storage device, 603 is a display device, 703 is an input device, 903 is a prediction / diagnosis device, 1
 Reference numeral 003 denotes a diagnostic knowledge base used in diagnostic processing.
 The processing in the data fetch storage device 203 and the neural network processing device 403 of the present embodiment is the same as in the first embodiment. Next, processing of the prediction / diagnosis device 903 will be described.
【0020】図22は、予測・診断装置903の予測処
理を示す流れ図である。まず、予測の要求が入力された
か否かを判定する(ステップ8701)。要求が入って
いない場合には処理を終了する(ステップ8702)。
要求が入った場合には、ニューラルネット関連データ記
憶装置503から、ニューラルネットの重み係数などの
値を読み込み、入力データから出力を決定する関数P1
=f(P2,P3,P4,P5)の係数などを設定する(ス
テップ8703)。次に、運転員に提示した入力要求に
答えて入力された、目標出力値P1,dと調整すべきパラ
メータの種類を読み込む(ステップ8704)。図示の
例では、出力目標値の値P1,d=41.2と、調整すべき
パラメータの種類P3が読み込まれている。次に、調整
パラメータP3以外のパラメータについて、現在値
P2,0,P4,0,P5,0を読み込む(ステップ8705)。
次に、P3を未知数とした方程式f(P2,0,P3,
P4,0,P5,0)−P1,d=0を2分法などを用いて数値的
に解くことにより、P3の値P3,dを求める(ステップ8
706)。その結果を調整パラメータの値として出力す
る(パラメータ8707)。ここで、ニューラルネットワ
ークは、過去を含むN時点のプラントパラメータの値を
用いて学習しているため、f(P2,0,P3,0,P4,0,P
5,0)の値は、必ずしもP1の現在値P1,0と一致しな
い。これについては、例えば、P1,dとP1,0との差を基
に、変化させるべきP3の値を計算して、P3,0に加える
などの補正計算を実施すれば、より良い精度で調整パラ
メータの値を計算することが可能である。図23は、予
測・診断装置903の異常検知処理を示す流れ図であ
る。この処理は、ニューラルネット処理装置403の学
習処理が終了すると開始する(ステップ8801)。ま
ず、重み係数の今回値ωiを全てのリンクについてとり
込む(ステップ8802)。次いで、重み係数の前回値
ωi,pを取り込む(ステップ8803)。これらの値をも
とに各々のリンクについて、それに対応する重み係数の
前回値ωi,pと今回値ωiを比較する(ステップ880
4)。この結果、1つ以上のリンクについて、その差の絶
対値|ωi,p−ωi|が、あらかじめ定めた値をよりも大
きいか否かを判定する(ステップ8805)。大きい場
合には、プラント状態が変化した旨をメッセージ出力す
る(ステップ8806)。さらに、全ユニットの表示色
を、青から赤に変更し、重み係数の値の変化したリンク
の表示色も赤に変更する(ステップ8807)。最後
に、全てのリンクについて、重み係数の現在値を、前回
値として記憶して(ステップ8808)、処理を終了す
る。なお、ステップ8805で重み係数の変化が小さい
と判定された場合には、ステップ8808の処理を実行
して処理を終了する。図24は、予測・診断装置903
の診断処理を示す流れ図である。この処理は、前記した
異常検知処理の結果、状態変化が検知され(ステップ8
901)、さらに、運転員から診断要求が入力された場
合(ステップ8902)に実行される。診断処理では、
まず、診断用知識ベース1003に用意されている診断
に係る知識を基に、プラントからの信号をとり込んで推
論を実行することにより、異常などの状態変化の原因を
求める(ステップ8903)。ここで、知識ベースを用
いた推論については、通常良く使用されているエキスパ
ートシステムによる推論技術により実施する。この結果
が得られると、前回の学習時の重み係数を基にしたネッ
トワーク構造(変化前)と、今回のネットワーク構造を
併せて表示する(ステップ8904)と共に、異常診断
の結果を表示する(ステップ8905)。ここでは、運
転員の入力により診断を開始したが、異常検知により自
動的に診断処理を開始することも同様に可能である。FIG. 22 is a flowchart showing the prediction processing of the prediction / diagnosis device 903. First, it is determined whether a prediction request has been input (step 8701). If no request has been received, the process ends (step 8702).
 When a request is received, a function P1 for reading a value such as a weight coefficient of a neural network from the neural network related data storage device 503 and determining an output from input data.
 = F (P2 , P3 , P4 , P5 ) and the like are set (step 8703). Next, the target output value P1, d and the type of parameter to be adjusted, which are input in response to the input request presented to the operator, are read (step 8704). In the illustrated example, the value P1, d = 41.2 the output target value, the type P3 of parameter to be adjusted is loaded. Next, the current values P2,0 , P4,0 , P5,0 are read for parameters other than the adjustment parameter P3 (step 8705).
 Then, the equation was the unknownsP 3 f (P 2,0, P 3,
P 4,0, P 5,0) -P 1 , ad = 0 by solving numerically by using a bisection method to determine the value P3, d of P3 (Step 8
 706). The result is output as the value of the adjustment parameter (parameter 8707). Here, since the neural network is learning using the values of the plant parameters at N times including the past, f (P2,0 , P3,0 , P4,0 , P
 Value of5,0) does not necessarily match the current value P1,0 of P1. For this, for example, if a value of P3 to be changed is calculated based on the difference between P1, d and P1,0 and a correction calculation such as adding the value to P3,0 is performed, more correction is performed. It is possible to calculate the value of the adjustment parameter with good accuracy. FIG. 23 is a flowchart showing the abnormality detection processing of the prediction / diagnosis device 903. This process starts when the learning process of the neural network processing device 403 ends (step 8801). First, the current value ωi of the weight coefficient is taken in for all links (step 8802). Next, the previous value ωi, p of the weight coefficient is fetched (step 8803). For each link these values on the basis of comparing the previous value omegai, p and the current value omegai of the weighting factor corresponding thereto (step 880
 4). As a result, for one or more links, it is determined whether or not the absolute value | ωi, p −ωi | of the difference is larger than a predetermined value (step 8805). If it is larger, a message indicating that the plant state has changed is output (step 8806). Further, the display color of all units is changed from blue to red, and the display color of the link whose weight coefficient value has changed is also changed to red (step 8807). Finally, the current value of the weight coefficient is stored as the previous value for all links (step 8808), and the process ends. If it is determined in step 8805 that the change in the weight coefficient is small, the process in step 8808 is executed and the process ends. FIG. 24 shows a prediction / diagnosis device 903.
 9 is a flowchart showing a diagnosis process of FIG. In this processing, as a result of the abnormality detection processing described above, a state change is detected (step 8).
 901), and further executed when a diagnosis request is input from the operator (step 8902). In the diagnostic process,
 First, the cause of a state change such as an abnormality is determined by taking in signals from the plant and executing inference based on the knowledge about diagnosis prepared in the diagnostic knowledge base 1003 (step 8903). Here, the inference using the knowledge base is performed by an inference technique using an expert system that is often used. When this result is obtained, the network structure (before change) based on the weight coefficient at the previous learning and the current network structure are displayed together (step 8904), and the result of the abnormality diagnosis is displayed (step 8904). 8905). Here, the diagnosis is started by the input of the operator, but it is also possible to automatically start the diagnosis processing by the abnormality detection.
【0021】図25は、本実施例の表示画面の例を示す
模式図である、この例は、P1への影響因子について、
予測を実行した結果を示す画面2301、及び異常が検
知された結果を示す画面2401がマルチウィンドウに
より示された例である。また、画面2501は、予測及
び診断処理を実行するためのメニューである。画面23
01の部分には、現在のニューラルネット構造2302
に加えて、運転員からの入力2303、及び予測の結果
2304が表示されている。また、画面2401の部分
には、現在のニューラルネット構造2402が表示され
る。ここで、状態変化が検知されたことを示すために全
てのユニット2403の色は、通常の青色から赤色に変
えて示されている。また、重み係数の値の変化が検知さ
れたリンク2404についても他のリンク2405と区
別するために、赤色で表示されている。ここでは、ユニ
ット及びリンクの色を変化させたが、これらをブリンク
させることも可能である。また、背景色を変化させる、
もしくは、背景色とリンクの色を変化させるなど、様々
の状態変化の表示が可能である。これに加えて、メッセ
ージ2406として、P2とP1の関係が変化した旨、及
び重み係数の値(変化前と変化後)が示される。さら
に、診断メニュー2501のタッチなどにより、診断処
理が実行された後には、診断の結果が領域2407に示
されると共に、変化前のネットワ−ク構造も併せて表示
される。なお、異常検知と同時に、変化前・後のネット
ワ−ク構造を併せて表示することも同様に可能である。FIG. 25 is a schematic diagram showing an example of a display screen of the present embodiment, this example, the effect factor to P1,
 This is an example in which a screen 2301 showing the result of executing the prediction and a screen 2401 showing the result of detecting the abnormality are shown by a multi-window. The screen 2501 is a menu for executing the prediction and diagnosis processing. Screen 23
 01 is the current neural network structure 2302
 In addition, an input 2303 from the operator and a prediction result 2304 are displayed. Further, a current neural network structure 2402 is displayed on a screen 2401. Here, in order to indicate that a state change has been detected, the colors of all the units 2403 are changed from normal blue to red. Also, the link 2404 for which a change in the value of the weight coefficient has been detected is displayed in red to distinguish it from the other links 2405. Here, the colors of the unit and the link are changed, but these may be blinked. Also, change the background color,
 Alternatively, various state changes can be displayed, such as changing the background color and the link color. In addition, as a message 2406, indicating that the relationship of P2 and P1 is changed, and the value of the weighting factor (after the change before the change) is shown. Further, after the diagnosis process is executed by touching the diagnosis menu 2501 or the like, the result of the diagnosis is displayed in the area 2407, and the network structure before the change is also displayed. It is also possible to display the network structure before and after the change together with the abnormality detection.
【0022】以上述べた如く、本実施例によれば、学習
済みのネットワークを用いて、出力パラメータの値が入
力で指定された値となる入力パラメータの値を運転員に
示すことが可能となる。これにより、運転員がパラメー
タ間の関係を基に、自分で考察して求めていた上記の入
力パラメータの調整値を自動的に得ることが可能とな
る。これにより、運転員の操作のための負担を軽減する
ことが可能となる。さらに、学習により得られた重み係
数の値を記憶し、重み係数の値の変化を基に異常などの
プラント状態の変化を検知する。これにより、運転員の
早期のプラント状態変化の認識を支援することが可能で
ある。また、状態変化を検知した場合に、ユニットやリ
ンク、あるいはニューラルネット構造を表示した画面の
背景色を変化させる。これにより、運転員が画面から直
感的に状態変化を知ることができる。また、変化前と変
化後のニューラルネット構造を併せて表示することによ
り、どのパラメータに関連した変化が発生したかを示す
ことが可能である。さらに、知識処理による診断処理を
用いれば、異常などの状態変化の検知のみならず、その
変化の原因についての情報も併せて運転員に提供し、異
常時などの運転員の対応操作を支援することができる。As described above, according to the present embodiment, it is possible to indicate to the operator the input parameter values at which the output parameter values become the values specified by the input, using the learned network. . This makes it possible for the operator to automatically obtain the adjustment value of the above-mentioned input parameter, which has been considered and obtained by himself, based on the relationship between the parameters. This makes it possible to reduce the burden on the operator for operation. Further, the value of the weight coefficient obtained by learning is stored, and a change in the plant state such as an abnormality is detected based on the change in the value of the weight coefficient. As a result, it is possible to assist the operator in recognizing an early change in the plant state. When a state change is detected, the background color of the screen displaying the unit, link, or neural network structure is changed. Thereby, the operator can intuitively know the state change from the screen. In addition, by displaying the neural network structures before and after the change together, it is possible to indicate which parameter related to the change has occurred. Furthermore, the use of diagnostic processing based on knowledge processing not only detects state changes such as abnormalities, but also provides information about the cause of the changes to the operator, and assists the operator in responding to abnormal situations. be able to.
【0023】[0023]
【発明の効果】以上説明した如く、本発明によれば、任
意の指定したプラントパラメータに影響を与えるプラン
トパラメータの種類及びその影響の度合をプラントの履
歴データから自動的に学習して、運転員に表示すること
が可能となる。さらに、これらの情報をニューラルネッ
ト構造と併せてグラフィック表示することにより、運転
員に理解しやすい形態で示すことができる。さらに、プ
ラントパラメータ間の関係についての学習結果をもと
に、予測、状態変化検知、診断などを実施し、それらの
情報を併せて運転員に提供することが可能となる。これ
らにより、運転員は、多数のプラントパラメータ間の関
係を容易に知ることができ、また、プラント状態の変化
の検知、将来状態の予測についての情報を容易かつ迅速
に得ることが可能となる。以上述べたように、本発明に
よれば、プラント運転員の状態把握を支援し、プラント
監視操作における運転員の負担を軽減することが可能と
なる。したがって、本発明のようなプラント状態表示装
置を使用することによって、プラント監視操作上の効率
及び迅速性が著しく向上する。As described above, according to the present invention, the type of plant parameter affecting an arbitrary designated plant parameter and the degree of the effect are automatically learned from plant history data, and Can be displayed. Further, by graphically displaying such information together with the neural network structure, the information can be shown in a form that is easy for the operator to understand. Furthermore, prediction, state change detection, diagnosis, and the like are performed based on the learning result of the relationship between the plant parameters, and the information can be provided to the operator together. As a result, the operator can easily know the relationship between a large number of plant parameters, and can easily and quickly obtain information on detection of a change in plant state and prediction of a future state. As described above, according to the present invention, it is possible to support the grasp of the state of the plant operator and reduce the burden on the operator in the plant monitoring operation. Therefore, a plant status displaydevice as in the present invention is provided.
The use of a device significantly improves the efficiency and speed of plant monitoring operations.
【図1】本発明の第一の実施例の構成を示すブロック図FIG. 1 is a block diagram showing the configuration of a first embodiment of the present invention.
【図2】本発明の第一の実施例の動作を示す流れ図FIG. 2 is a flowchart showing the operation of the first embodiment of the present invention.
【図3】データとり込み記憶装置の処理を示す流れ図FIG. 3 is a flowchart showing processing of a data acquisition storage device.
【図4】プラントデータ記憶装置に記憶されたデータの
内容を示す図表FIG. 4 is a table showing the contents of data stored in a plant data storage device.
【図5】ニューラルネット処理装置に用いる階層型ニュ
ーラルネットの例を示す模式図FIG. 5 is a schematic diagram showing an example of a hierarchical neural network used in the neural network processing device.
【図6】ニューラルネット処理装置の処理を示す流れ図FIG. 6 is a flowchart showing processing of the neural network processing device.
【図7】ニューラルネット関連データ記憶装置に記憶さ
れたデータ内容を示す図表FIG. 7 is a table showing data contents stored in a neural network related data storage device.
【図8】表示装置の処理を示す流れ図FIG. 8 is a flowchart showing processing of the display device.
【図9】表示画面への表示方法の一例を示す模式図FIG. 9 is a schematic diagram showing an example of a display method on a display screen.
【図10】表示画面への表示方法の他の例を示す模式図FIG. 10 is a schematic diagram showing another example of a display method on a display screen.
【図11】表示画面への表示方法の他の例を示す模式図FIG. 11 is a schematic diagram showing another example of a display method on a display screen.
【図12】データとり込み記憶装置の処理を示す流れ図FIG. 12 is a flowchart showing processing of a data acquisition storage device.
【図13】出力ごとに整理した表示の一例を示す模式図FIG. 13 is a schematic diagram showing an example of a display arranged for each output.
【図14】出力ごとに整理した表示の他の例を示す模式
図FIG. 14 is a schematic diagram showing another example of display arranged for each output.
【図15】本発明の第二の実施例の構成を示すブロック
図FIG. 15 is a block diagram showing the configuration of a second embodiment of the present invention.
【図16】ニューラルネット処理装置の処理を示す流れ
図FIG. 16 is a flowchart showing processing of the neural network processing device.
【図17】ニューラルネット関連データ記憶装置の内容
の一部を示す図表FIG. 17 is a table showing a part of the content of a neural network related data storage device;
【図18】学習実行時の表示画面の変化を示す模式図FIG. 18 is a schematic diagram showing a change in a display screen when learning is performed.
【図19】表示画面の例を示す模式図FIG. 19 is a schematic diagram showing an example of a display screen.
【図20】2層表示のための処理を示す流れ図FIG. 20 is a flowchart showing processing for two-layer display.
【図21】本発明の第三の実施例の構成を示すブロック
図FIG. 21 is a block diagram showing the configuration of a third embodiment of the present invention.
【図22】予測・診断装置の予測処理を示す流れ図FIG. 22 is a flowchart showing a prediction process of the prediction / diagnosis device.
【図23】予測・診断装置の異常検知処理を示す流れ図FIG. 23 is a flowchart showing abnormality detection processing of the prediction / diagnosis device.
【図24】予測・診断装置の診断処理を示す流れ図FIG. 24 is a flowchart showing a diagnosis process of the prediction / diagnosis device.
【図25】表示画面の例を示す模式図FIG. 25 is a schematic view showing an example of a display screen.
 101,102,103 プラント 201,202,203 データとり込み記憶装置 301,302,303 プラントデータ記憶装置 401,402,403 ニューラルネット処理装置 501,502,503 ニューラルネット関連データ
記憶装置 601,602,603 表示装置 701,702,703 入力装置 802 表示制御装置 903 予測・診断装置 1003 診断用知識ベース101, 102, 103 Plants 201, 202, 203 Data acquisition storage devices 301, 302, 303 Plant data storage devices 401, 402, 403 Neural network processing devices 501, 502, 503 Neural network related data storage devices 601, 602, 603 Display device 701, 702, 703 Input device 802 Display control device 903 Prediction / diagnosis device 1003 Diagnostic knowledge base
───────────────────────────────────────────────────── フロントページの続き (72)発明者 関 洋 茨城県日立市大みか町七丁目2番1号 株式会社日立製作所 エネルギー研究所 内 (72)発明者 鍛治 明 茨城県日立市大みか町五丁目2番1号 株式会社日立製作所 大みか工場内 (72)発明者 丸山 武一 茨城県日立市大みか町五丁目2番1号 株式会社日立製作所 大みか工場内 (72)発明者 深井 雅之 茨城県日立市幸町三丁目1番1号 株式 会社日立製作所日立工場内 (56)参考文献 特開 昭63−12093(JP,A) 特開 平5−216857(JP,A) 特開 平2−155006(JP,A) 特開 平6−137908(JP,A) 特開 平7−84636(JP,A) (58)調査した分野(Int.Cl.7,DB名) G05B 23/02 G05B 13/02──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Hiroshi Seki 7-2-1, Omika-cho, Hitachi City, Ibaraki Prefecture Inside Energy Research Laboratory, Hitachi, Ltd. (72) Inventor Akira Kaji 5-chome, Omika-cho, Hitachi City, Ibaraki Prefecture No. 1 Inside the Hitachi, Ltd. Omika Plant (72) Inventor Takeichi Maruyama 5-2-1 Omika-machi, Hitachi City, Ibaraki Prefecture Inside the Hitachi Ltd. Omika Plant (72) Inventor Masayuki Fukai Yukicho, Hitachi City, Ibaraki Prefecture JP-A-63-12093 (JP, A) JP-A-5-216857 (JP, A) JP-A-2-155006 (JP, A) JP-A-6-137908 (JP, A) JP-A-7-84636 (JP, A) (58) Fields investigated (Int. Cl.7 , DB name) G05B 23/02 G05B 13/02
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP25375093AJP3259152B2 (en) | 1993-09-16 | 1993-09-16 | Plant status display | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP25375093AJP3259152B2 (en) | 1993-09-16 | 1993-09-16 | Plant status display | 
| Publication Number | Publication Date | 
|---|---|
| JPH0784633A JPH0784633A (en) | 1995-03-31 | 
| JP3259152B2true JP3259152B2 (en) | 2002-02-25 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| JP25375093AExpired - LifetimeJP3259152B2 (en) | 1993-09-16 | 1993-09-16 | Plant status display | 
| Country | Link | 
|---|---|
| JP (1) | JP3259152B2 (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP6917805B2 (en)* | 2017-06-30 | 2021-08-11 | 日立Geニュークリア・エナジー株式会社 | Data filtering device and method | 
| JP7242804B1 (en)* | 2021-10-22 | 2023-03-20 | 東芝プラントシステム株式会社 | OPERATION ASSISTANCE DEVICE AND OPERATION ASSISTANCE METHOD FOR THERMAL POWER PLANT | 
| Publication number | Publication date | 
|---|---|
| JPH0784633A (en) | 1995-03-31 | 
| Publication | Publication Date | Title | 
|---|---|---|
| CN101981522B (en) | Graphical user interface apparatus | |
| JP3637412B2 (en) | Time-series data learning / prediction device | |
| JPH1074188A (en) | Data learning device and plant control device | |
| WO2019234810A1 (en) | Learning device, inference device, method, and program | |
| JPH09237103A (en) | Maintenance support system | |
| JPH06309584A (en) | Plant operation support device | |
| JP2019012473A (en) | Data filtering apparatus and method | |
| JPH09288512A (en) | Plant status visualization system | |
| JP2020204841A (en) | Information processing apparatus, information processing method, and computer program | |
| JP3259152B2 (en) | Plant status display | |
| JP2011159103A (en) | Plant operation support apparatus | |
| JP2020173683A (en) | Plant monitoring control system and plant monitoring control method | |
| JPH08202431A (en) | Driving procedure guide device | |
| CN117455666B (en) | A method, device and equipment for predicting trading technical indicators based on neural network | |
| CN119759703A (en) | Intelligent health management system for introducing attention mechanism and display console | |
| JP3124644B2 (en) | Method and apparatus for displaying process data | |
| JP3040852B2 (en) | Process operation support system | |
| JP2621913B2 (en) | Plant operation control device | |
| JPH06137909A (en) | Plant monitoring equipment | |
| JPH1020924A (en) | Plant monitoring equipment | |
| CN119779613B (en) | A control method and system for a vibration test system based on data drive | |
| JP3396559B2 (en) | Plant monitoring equipment | |
| KR19980022715A (en) | Fault diagnosis method by real time alarm processing of power plant | |
| CN119779613A (en) | A control method and system for a vibration test system based on data drive | |
| JPH09280910A (en) | Plant monitoring equipment | 
| Date | Code | Title | Description | 
|---|---|---|---|
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20071214 Year of fee payment:6 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20081214 Year of fee payment:7 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20081214 Year of fee payment:7 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20091214 Year of fee payment:8 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20101214 Year of fee payment:9 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20101214 Year of fee payment:9 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20111214 Year of fee payment:10 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20111214 Year of fee payment:10 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20121214 Year of fee payment:11 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20131214 Year of fee payment:12 |