【発明の詳細な説明】 本発明は、複数の発光素子と複数の処理装置からなる物
体の画像作成装置等の信号処理装置に関する。The present invention relates to a signal processing device such as an object image forming device including a plurality of light emitting elements and a plurality of processing devices.
従来、物体の像を作成する方法として、1台または並列
した複数の計算機で作像し、1台の計算機の制御の下
に、発光素子が、表示画面上をスキヤンし、明暗を作り
出す方法がある。また、表示画面上に発光素子を配置
し、やはり、1台の計算機の制御の下に、画面全体の像
に対応して明暗度合を指示するデータを、個々の発光素
子に送る方法がある。Conventionally, as a method of forming an image of an object, there is a method of forming an image by one computer or a plurality of computers arranged in parallel, and the light emitting element scans the display screen under the control of one computer to create light and dark. is there. Further, there is a method in which light-emitting elements are arranged on the display screen and, under the control of one computer, data for instructing the degree of brightness corresponding to the image of the entire screen is sent to each light-emitting element.
前者の方法では、発光素子が画面をスキヤンするため、
像の同時表示が不可能であり、また、像の部分的変更も
不可であつた。In the former method, since the light emitting element scans the screen,
 The images could not be displayed simultaneously, and the images could not be partially modified.
後者の方法では、表示すべき物体の個々の部分に対応す
る明暗度合をそのまま、それぞれ該当する発光素子に指
示しているため、1部でも、指示データが届かないと、
それを補間する作像ができなかつた。In the latter method, the brightness levels corresponding to the individual parts of the object to be displayed are instructed to the corresponding light emitting elements as they are, so that even one copy does not receive the instruction data,
 I couldn't create an image to interpolate it.
また、前者,後者とも,像全体の明暗度合を指示するデ
ータを送るため、処理するデータ量が膨大になり、よつ
て、処理速度が低下してしまう。さらに、作像,表示と
も中央の処理装置の下で制御されているため、この故障
により、作像,表示が全く不可能となつてしまう。Further, both the former and the latter send data instructing the degree of brightness of the entire image, so that the amount of data to be processed becomes enormous, and thus the processing speed decreases. Furthermore, since both the image formation and the display are controlled under the central processing unit, this failure makes the image formation and the display completely impossible.
本発明の主な目的は、所定形式のデータを入力し、所望
する任意の出力情報を得るとともに、その一部分に故障
等が生じた場合であってもその状況に応じた処理を行な
うことのできる信号処理装置を提供することにある。A main object of the present invention is to input data in a predetermined format, obtain desired output information, and perform processing according to the situation even when a failure occurs in a part of the output information. It is to provide a signal processing device.
本発明の他の目的は上述した従来技術の欠点に鑑み、複
数の発光素子にそれぞれ処理装置を接続し、単純なアル
ゴリズムにより、輪郭情報のみをもとに、各処理装置が
並列、同時に物体像を生成,表示するもので、一部の処
理装置の故障や、輪郭情報の部分的欠如に対しても、シ
ステムをダウンさせることなく、またそれらを補正する
物体画像作成装置を提供することにある。Another object of the present invention is, in view of the above-mentioned drawbacks of the prior art, connecting a processing device to each of a plurality of light emitting elements, and by a simple algorithm, based on only contour information, the processing devices are parallel, and at the same time, an object image. The object of the present invention is to provide an object image creating apparatus that corrects the failure of some processing devices and the partial lack of contour information without bringing down the system. .
このような目的を達成するため、本発明の第1の特徴
は、複数のマイクロコンピュータ等の処理装置を使用
し、各処理装置に所定の形式の情報の少なくとも一部を
入力し、各処理装置では、変更可能な処理方法に従って
それらの情報を処理し、出力情報の一部分に対応する情
報を生成して複数の出力装置に出力するようにしたこと
にある。In order to achieve such an object, the first feature of the present invention is to use a plurality of processing devices such as microcomputers, input at least a part of information of a predetermined format to each processing device, Then, the information is processed according to a changeable processing method, and information corresponding to a part of the output information is generated and output to a plurality of output devices.
また、本発明の第2の特徴は、物体の各部分の輪郭情報
をもとに、各出力装置が隣接処理装置間で互いに連携を
とりながら、物体像を生成し、発光素子へ信号を送るこ
とにより、作像し、その像を表示することに特徴があ
る。また、各処理装置は、網目状に接続されており、隣
接処理装置間のみの情報交換で像を生成し、さらに、こ
れらは、互いに他の故障を補う働きをも持つている。A second feature of the present invention is that, based on the contour information of each part of the object, each output device cooperates between adjacent processing devices to generate an object image and send a signal to the light emitting element. It is characterized by forming an image and displaying the image. Further, the respective processing devices are connected in a mesh shape and generate images by exchanging information only between the adjacent processing devices, and these also have a function of compensating for other failures.
第1図は、本発明に係るシステムの全体構成図で、第2
図は、その具体的内部構成図である。FIG. 1 is an overall configuration diagram of the system according to the present invention.
 The figure is a specific internal configuration diagram thereof.
物体4の像の表示に当つては、まず、解像装置1により
生成された輪郭情報を、結像装置2により、物体の像を
生成し、像生成情報をもとに発光体を制御することによ
り、表示盤3上に像を表示する。In displaying an image of the object 4, first, the contour information generated by the resolution device 1 is used by the imaging device 2 to generate an image of the object, and the light emitter is controlled based on the image generation information. As a result, an image is displayed on the display board 3.
解像装置1は、物体の像を結像装置2で作成するための
入力データを生成するもので、輪郭を強調した情報のみ
でよい。The resolving apparatus 1 generates input data for forming an image of an object by the image forming apparatus 2, and requires only the information with the contour emphasized.
以下、結像装置2への、輪郭を強調した入力データ作成
法を説明する。Hereinafter, a method of creating the input data to the image forming apparatus 2 in which the contour is emphasized will be described.
被認識体4から出た光は、受光センサー10〜16で検
知され、それぞれの明暗の認識値(濃度)が、第4図
(c)にように v10=0,v11=0,v12=1,v13=1,v14=1,v15=
0,v16=0 であるとする。受光センサー10〜16の出力をそれぞ
れインターフェース20〜26を介して対応する認識処
理装置30〜36および隣接する認識処理装置に送る。
各認識処理装置jは、自受光センサーiおよび、隣接受
光センサーi−1,i+1の認識値より、物体の識別度
P1を次のように計算する。The light emitted from the recognition object 4 is detected by the light receiving sensors 10 to 16, and the recognition value (density) of each light and dark is shown in FIG.
 As in (c), v10 = 0, v11 = 0, v12 = 1 and v13 = 1 and v14 = 1 and v15 =
 It is assumed that 0, v16 = 0. The outputs of the light receiving sensors 10 to 16 are sent to the corresponding recognition processing devices 30 to 36 and the adjacent recognition processing devices via the interfaces 20 to 26, respectively.
 Each recognition processing device j calculates the object identification degree P1 from the recognition values of its own light receiving sensor i and the adjacent light receiving sensors i−1, i +1 as follows.
P1=k1v1-1+k2v1+k3v1+1……(1) 特に、k1=−0.5,k2=1,k3=−0.5とすると、
識別度P1は、 P30=0,P31=−0.5,P32=0.5,P33=0……(2) P34=0.5,P35=−0.5,P36=0 となる。この識別度は、第4図(b)に示される通りで、
物体の輪郭部分のみが強調されている。P1 = k1 v1-1 + k2 v1 + k3 v1 + 1 (1) Especially, if k1 = −0.5, k2 = 1 and k3 = −0.5,
 Identification ofP 1 becomesP 30 = 0, P 31 = -0.5, P 32 = 0.5, P 33 = 0 ...... (2) P 34 = 0.5, P 35 = -0.5, P 36 = 0. This discrimination degree is as shown in FIG. 4 (b),
 Only the outline of the object is emphasized.
これら、認識処理装置30〜36の出力P30〜P36は、解
像処理装置1のバスインターフェイス40を介して、結
像装置2へ伝えられる。The outputs P30 to P36 of the recognition processing devices 30 to36 are transmitted to the imaging device 2 via the bus interface 40 of the resolution processing device 1.
解像装置1より送られてきた識別度P30〜P36は、バスイ
ンターフェイス100を介して、それぞれ別個に、結像
処理装置110〜116へ送られる。The identification degrees P30 to P36 sent from the resolution device 1 are individually sent to the imaging processing devices 110 to 116 via the bus interface 100.
結像処理装置jは、識別度Pjをもとに、認識値v
1を、(1)式をもとに導く。ただし、 0Pj1,0v11……(3) の条件をPj,v1は満さねばならない。ただし、(1)
式を逆向きに、Pjからv1を決定するに当り、初期条
件として v−1=0,v−2=0 とする。The imaging processing device j determines the recognition value v based on the identification degree Pj.
1 is derived based on the equation (1). However, Pj , v1 must satisfy the condition of 0Pj1, 0v1 1 (3). However, (1)
 When deciding v1 from Pj by reversing the equation, v−1 = 0 and v−2 = 0 are set as initial conditions.
(1)式より、v1の値を、iが小さいものより順次解く
方法を次の(4)式に示す。The following equation (4) shows a method of sequentially solving the value of v1 from the equation (1) starting from theone with smaller i.
よつて、v1+1を導くためには、第5図に示すように、位
置的には1つずれた所のPjの値、および、v1、ま
た、2つずれた所のv1-1を必要とする。つまり、求める
べきv1はの関数V内の、3つの値により求まる。 Therefore, in order to derive v1 + 1, as shown in FIG. 5, the value of Pj at a position shifted by one position, and v1 and v at a position shifted by two. Need1-1 . In other words, v1 to be obtained is It is obtained by three values in the function V of.
そこで、前と同様にして、 k1=−0.5,k2=1,k3=−0.5……(6) とし、(2)式の識別度を、(4)〜(5)式に代入すればよ
い。Therefore, in the same manner as before, k1 = −0.5, k2 = 1, k3 = −0.5 (6), and the discrimination degree of equation (2) is substituted into equations (4) to (5). do it.
ただし、 P30-1=0……(7) とし、Pjの値は、各認識処理装置30〜36の位置に
1つずらし、結像処理装置111〜116へ与える。つ
まり、結像処理装置111〜116への入力は、v30
〜v35で、結像処理装置110への入力は、P30-1と
する。よつて、結像処理装置の入力データは、となる。(4)式および、(3),(6)式よりが求まる(第4図(a))。However, P30-1 = 0 ... (7), the value of Pj is shifted by 1 to the position of each recognition processing device 30 to 36, and given to the imaging processing devices 111 to 116. That is, the input to the imaging processing devices 111 to 116 is v30
 The input to the image processing device 110 is set to P30-1 at v35 . Therefore, the input data of the imaging processor is Becomes From equation (4) and equations (3) and (6) Is obtained (Fig. 4 (a)).
なお、各結像処理装置iは、認識値を求めるため、第2
図のように、結像処理装置i−1,i−2とも接続され
ている。It should be noted that each of the image formation processing devices i calculates the recognition value,
 As shown in the figure, the image processing units i-1 and i-2 are also connected.
各結像処理装置110〜116の出力結果である認識値
v0〜v6は、インターフェイス120〜126へ伝え
られる。インターフェイス120〜126では、この認
識値v0〜v6の大きさに応じて電気信号に変換し、発
光体130〜136を加圧し、発光させる。この発光体
130〜136からの光の強弱に応じ、表示盤3上に、
像が表示される。なお、結像装置2の入力データは、輪
郭を強調するのみの情報だつたが、表示盤上には、輪郭
部以外も全て、明暗で表示される。The recognition values v0 to v6 , which are the output results of the respective imaging processing apparatuses 110 to 116, are transmitted to the interfaces 120 to 126. The interfaces 120 to 126 convert the recognition values v0 to v6 into electric signals and pressurize the light emitters 130 to 136 to emit light. Depending on the intensity of light from the light emitters 130 to 136, on the display panel 3,
 The image is displayed. The input data of the image forming apparatus 2 is information only for emphasizing the contour, but all the portions other than the contour portion are displayed in bright and dark on the display board.
上記(4)式を用いた方法では、認識値v1を、iの小さ
い方から求めた。逆に、iを大きい方から次式により求
めることもできる。In the method using the above equation (4), the recognition value v1 is obtained from the smaller i. On the contrary, i can also be calculated from the larger one by the following equation.
次に、結像処理装置の故障による影響を考える。 Next, consider the influence of the failure of the imaging processing apparatus.
今、第6図(c)で示されるような像を対象とする。この
時、輪郭を強調した識別度は、第6図(b)のようにな
る。この時、各結像処理装置への入力データは、次のよ
うになる。Now, the image as shown in FIG. 6 (c) is targeted. At this time, the identification degree with the contour emphasized is as shown in FIG. 6 (b). At this time, the input data to each image forming processing device is as follows.
P110=P30-1=0 ……(17) P111=P30=0 ……(18) P112=P31=0 ……(19) P113=P32=−0.5 ……(20) P114=P33=1 ……(21) P115=P34=−0.5 ……(22) P116=P35=0 ……(23) ここで、第2図の結像処理装置113が故障したとす
る。つまり v3≡0 ……(24) とする。この時、(9)〜(15)式と同様にして、ただし、(3)式より0v41のため(29)式は矛盾す
る。よつて、結像処理装置114は、(4)式による結像
方式の採用をやめ、かつ、結像処理装置115,116
へ認識値v4を伝送しない。P110 = P30-1 = 0 (17) P111 = P30 = 0 (18) P112 = P31 = 0 (19) P113 = P32 = -0.5 (20) ) P114 = P33 = 1 (21) P115 = P34 = -0.5 (22) P116 = P35 = 0 (23) Here, the image forming processing device 113 in FIG. Suppose that something went wrong. In other words, v3 ≡ 0 (24). At this time, in the same manner as the expressions (9) to (15), However, since Eq. (3) is 0v4 1, Eq. (29) is inconsistent. Therefore, the image forming processing device 114 stops using the image forming method according to the formula (4), and the image forming processing devices 115 and 116.
 The recognition value v4 is not transmitted to
一方、各結像処理装置は、識別度を入力してから、(4)
式のみの方式によるのでなく、(16)式による結像方式を
採用してもよい。以下に、(16)式による結像方式を示
す。On the other hand, each image processing device inputs (4)
 The image forming method based on the equation (16) may be adopted instead of the method based on only the equation. The image forming method based on the equation (16) is shown below.
バスインターフェイス100は、解像装置1より得た入
力データを、(16)式用として、各結像処理装置に分配す
る。この時、各結像処理装置116〜110の入力デー
タは、次のようになる。The bus interface 100 distributes the input data obtained from the resolving apparatus 1 to each image forming processing apparatus for the equation (16). At this time, the input data of each of the image forming processing devices 116 to 110 is as follows.
P116=P36+1=0 ……(30) P115=P36=0 ……(31) P114=P35=0 ……(32) P113=P34=−0.5…… (33) P112=P33=1 ……(34) P111=P32=−0.5…… (35) P110=P31=0 ……(36) ここで、結像処理装置は、(16)式より認識値を次のよう
に求める。ただし、初期値は、 v7=0,v8=0 ……(37) で、結像処理装置113が故障しているため v3≡ ……(38) とする。P116 = P36 + 1 = 0 (30) P115 = P36 = 0 (31) P114 = P35 = 0 (32) P113 = P34 = -0.5 ...... (33 ) P112 = P33 = 1 (34) P111 = P32 = -0.5 (35) P110 = P31 = 0 (36) Here, the imaging processor is (16). The recognition value is obtained from the formula as follows. However, the initial values are v7 = 0, v8 = 0 (37), and since the imaging processing device 113 is out of order, v3 ≡ (38).
ただし、(3)式より、0v21のため(43)式は矛盾
する。上記と同様にして、結像処理装置112は異常を
検知し、(16)式による結像方式の採用をやめ、かつ、結
像処理装置111,110へ、認識値v2を伝送しな
い。 However, from equation (3), equation (43) is inconsistent because it is 0v2 1. In the same manner as described above, the image forming processing device 112 detects an abnormality, stops using the image forming method according to the equation (16), and does not transmit the recognition value v2 to the image forming processing devices 111 and 110.
以上(25)〜(29)式、(39)〜(43)式の結果より、結像処理
装置110〜112は、(25)〜(27)式を、一方、結像処
理装置116〜114、(39)〜(41)式の値を採用し、発
光体130〜136を制御する。From the results of the equations (25) to (29) and the equations (39) to (43), the imaging processing apparatuses 110 to 112 use the equations (25) to (27) while the imaging processing apparatuses 116 to 114. , (39) to (41) are used to control the light emitters 130 to 136.
次に、結像処理装置114が故障した場合を、第7図に
示す。前記と全く同様の方法による結像方式によると、
結果として、表示盤上の像は、正率時と全く同一とな
る。Next, FIG. 7 shows a case where the imaging processing device 114 fails. According to the imaging method by the same method as above,
 As a result, the image on the display board will be exactly the same as at right rate.
このようにして、結像処理装置の故障に対しても、他結
像処理装置は、処理を停止することなく続行できる。In this way, even if the imaging processing device fails, the other imaging processing device can continue without stopping the processing.
なお、処理速度を早めるため、各結像処理装置は、必要
データがそろいしだい、(4)式または(16)式の結像方式
を採用してよい。In order to increase the processing speed, each imaging processing apparatus may adopt the imaging method of the formula (4) or the formula (16) depending on the necessary data.
以上の結像処理装置内の動きを、第3図を用いて説明す
る。なお、全ての結像処理装置の内部構造は同一なた
め、以下では、装置112を対象して説明する。The above-mentioned movement in the image forming processing apparatus will be described with reference to FIG. Since the internal structures of all the imaging processing devices are the same, the device 112 will be described below.
結像処理装置112へは、インターフェイス1101を介
し、(4)、(16)式の結像方式に必要な識別度P31,P33
が入力として取込まれ識別度入力バツフア1102へ格納さ
れる。この時、タイマ1111がセットされ、これをT0と
する。結像装置2の両端の結像処理装置110と116
は、ただちに、それぞれアルゴリズム(4)と(16)を用い
て処理を開始する。その他の結像処理装置は、接続され
た結像処理装置から所定の認識値を受信した後、結像の
処理を開始する。出力装置1100は、隣接結像処理装置1
10,111または、113,114より、認識値を受
信すると、それぞれ第1〜第4入力バツフア1104,110
6,1108,1110へ格納し、タイマ1111をセットする。こ
のタイマのセット値は、各バツフアに対応し、T1,T
2,T3,T4とする。いま、第1,第2入力バツフア
1103,1105に、共に認識値が格納されると、処理装置11
00は、(4)式を用い、認識値を計算し、計算結果を結像
出力バツフア1112へ格納する。また、この結果を、イン
ターフェイス1107,1109を介し、結像処理装置113,
114へ伝送する。さらに、インターフェイス1113を介
し、認識値を発光体へ伝送する。そして、タイマT0,
T1,T2をリセットする。逆に、隣接結像装置11
3,114より、認識値が送られてくると、(16)式に従
い認識値を計算し、上記と全く逆方向の隣接結像装置1
10,111へ伝送し、タイマT3,T4をリセット
し、かつ識別度入力バツフア1102をクリアする。計算結
果は、結像出力バツフア1112内に既に格納されている認
識値と比較する。もし、異なつていれば、異常として、
以後の処理を中止し、発光体の制御も中止する。Through the interface 1101, the image forming processing device 112 is provided with the identification degrees P31 and P33 required for the image forming methods of the formulas (4) and (16).
 Is input as an input and stored in the identification input buffer 1102. At this time, the timer 1111 is set and is set to T0 . Imaging processing devices 110 and 116 at both ends of the imaging device 2
 Immediately starts processing using algorithms (4) and (16), respectively. The other image forming processing devices start the image forming processing after receiving the predetermined recognition value from the connected image forming processing device. The output device 1100 is the adjacent imaging processing device 1.
 When the recognition value is received from 10, 111 or 113, 114, the first to fourth input buffers 1104, 110 are received.
 Store in 6, 1108, 1110 and set timer 1111. The set value of this timer corresponds to each buffer, and T1 , T
 Let2 , T3 , T4 . Now, the first and second input buffers
 When the recognition values are stored in both 1103 and 1105, the processing device 11
 In 00, the recognition value is calculated using the equation (4), and the calculation result is stored in the imaging output buffer 1112. In addition, this result is transferred via the interfaces 1107 and 1109 to the imaging processing device 113,
 To 114. Further, the recognition value is transmitted to the light emitter through the interface 1113. And timer T0 ,
 Reset T1 and T2 . On the contrary, the adjacent imaging device 11
 When the recognition value is sent from 3,114, the recognition value is calculated according to the equation (16), and the adjacent imaging device 1 in the opposite direction to the above is calculated.
 10 and 111, reset the timers T3 and T4 , and clear the discrimination input buffer 1102. The calculation result is compared with the recognition value already stored in the imaging output buffer 1112. If they are different, as an abnormality,
 The subsequent processing is stopped and the control of the light emitter is also stopped.
処理装置1100は、タイマ1111の値T1〜T4が一定値を
越えれば、そのタイマに対応した結像処理装置110,
111または113,114が故障したとしタイマの値
(T1,T2),(T3,T4)をそれぞれペアーとし
て、リセットし、識別度入力バツフア1102もクリアす
る。また、タイマT0が一定値を越えても、認識値を出
力しないでいる時、異常として、タイマの値T1,識別
度入力バツフア1102の内容をリセット、クリアする。If the values T1 to T4 of the timer 1111 exceed a certain value, the processing device 1100 will generate an image processing device 110 corresponding to the timer.
 The timer values (T1 , T2 ) and (T3 , T4 ) are regarded as a pair and reset, and the discrimination input buffer 1102 is cleared. Further, when the recognition value is not output even when the timer T0 exceeds a certain value, it is judged as an abnormality that the contents of the timer value T1 and the identification input buffer 1102 are reset and cleared.
なお、解像装置1より、異なつた入力データが送られて
くれば、出力装置1100は上記と同様の処理を行う。なお
この時、新たな認識値を結像出力バツフア1112に書込む
にあたり、前に格納されているデータは消去する。If different input data is sent from the resolution device 1, the output device 1100 performs the same processing as above. At this time, when writing a new recognition value into the imaging output buffer 1112, the previously stored data is erased.
上記した実施例においては、発光体を一次元上に配置し
たが、これを2次元上に配置したのが、第8図である。
この時、バスインターフェイス100a〜100m,1
00a〜100n、結像処理装置110a〜100m,
110a〜11na、インターフェイス120a〜12
0m,120a〜12na、発光体130a〜130
m,130a〜13naも2次元面上に配置される。各
結像処理装置は、1次元配置の時と異なり、隣接する8
結像処理装置と接続されている。しかし、各軸方向の結
像方式は、1次元配置の時と同一で、各軸方向に2つの
(4),(16)に対応するアルゴリズムがある。In the embodiment described above, the light emitters are arranged one-dimensionally, but FIG. 8 shows the light-emitters arranged two-dimensionally.
 At this time, the bus interfaces 100a to 100m, 1
 00a to 100n, imaging processing devices 110a to 100m,
 110a to 11na, interfaces 120a to 12
 0 m, 120 a to 12 na, luminous bodies 130 a to 130
 m, 130a to 13na are also arranged on the two-dimensional surface. Unlike the one-dimensional arrangement, each imaging processing device
 It is connected to the image processing device. However, the imaging method in each axial direction is the same as in the one-dimensional arrangement, and there are two imaging methods in each axial direction.
 There are algorithms corresponding to (4) and (16).
なお、データ伝送量を減少させるため、解像装置は、識
別度“0”を結像装置に送らなくてもよい。この時、処
理装置1100は、第1〜第4入力バツフア1104,1106,11
08,1110に所定のデータがあれば、識別度入力バツフア
1102にデータが格納されていなくても、識別度を“0”
として処理する。In addition, in order to reduce the amount of data transmission, the resolution device does not need to send the identification degree “0” to the imaging device. At this time, the processing device 1100 has the first to fourth input buffers 1104, 1106, 11
 If there is predetermined data in 08 and 1110, the identification level input buffer
 Even if no data is stored in 1102, the degree of identification is "0".
 Process as.
また、像を、各発光体で同時に表示したい時、処理装置
1100は、認識値の導出時に発光体を制御するのでなく、
解像装置の指示があつた時に、発光体を制御して表示す
ればよい。In addition, when you want to display images on each light emitter simultaneously,
 The 1100 does not control the light emitter when deriving the recognition value,
 The light emitting body may be controlled and displayed when an instruction from the resolution device is given.
結像装置への入力データは、像そのものでなく、輪郭を
強調したものであり、一部入力データの欠如によつて
も、作像が不可能となることはない。The input data to the image forming apparatus is not the image itself but the contour is emphasized, and the image formation is not impossible even if the input data is partially lacking.
以上述べたように、本発明によれば、全く同一の複数マ
イクロコンピユータ等の処理装置を使用し、各処理装置
では、入力される、対象の部分情報の組合わせを処理し
て、対象の部分に対応する信号をそれぞれ生成して、複
数の出力装置に出力することにより、入力情報の種々の
変化に対処でき、また、入力情報の部分的欠如に充分に
対処できる。As described above, according to the present invention, the same processing device such as a plurality of microcomputers is used, and each processing device processes the combination of the input partial information of the target, and the target part is processed. It is possible to cope with various changes in the input information and sufficiently cope with a partial lack of the input information by respectively generating the signals corresponding to and outputting them to a plurality of output devices.
また、本発明によれば、これら処理装置を網目状に配置
し、それらを発光体と接続することにより、1または2
次元物体を容易に高速に、かつ、処理装置を使うことに
より低価格で画像の表示装置を実現できる。また、本発
明の実現に当つては、画像の輪郭データのみを入力デー
タとすればよく、データ量の縮約ができる。さらに、一
部処理装置の故障によつても、システム全体をダウンさ
せることなく画像表示を実現できる。Further, according to the present invention, by arranging these processing devices in a mesh shape and connecting them with a light emitting body, 1 or 2
 An image display device can be realized easily at high speed and at low cost by using a processing device. Further, in implementing the present invention, only the contour data of the image is used as the input data, and the data amount can be reduced. Further, even if a part of the processing device fails, image display can be realized without bringing down the entire system.
 第1図は本発明に係る装置の概略構成図、第2図は第1
図の装置の具体的構成の一例を示す図、第3図は第2図
の結像処理装置の一実施例の構成図、第4図〜第7図は
本発明の動作を説明する図、第8図は本発明の装置の他
の実施例を示す図である。 1……解像装置、2……結像装置、3……表示盤。FIG. 1 is a schematic configuration diagram of an apparatus according to the present invention, and FIG.
 The figure which shows an example of the concrete structure of the apparatus of a figure, FIG. 3 is a block diagram of one Example of the imaging processing apparatus of FIG. 2, FIGS. 4-7 is a figure explaining operation | movement of this invention, FIG. 8 is a diagram showing another embodiment of the apparatus of the present invention. 1 ... Resolving device, 2 ... Imaging device, 3 ... Display panel.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 宮本 捷二 神奈川県川崎市多摩区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 新谷 定則 神奈川県川崎市多摩区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 井原 廣一 神奈川県川崎市多摩区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (56)参考文献 特開 昭57−54490(JP,A) 特開 昭56−57160(JP,A) 特開 昭54−99541(JP,A) 特開 昭53−41144(JP,A) 特開 昭56−82967(JP,A) 特開 昭54−122923(JP,A) ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Koji Miyamoto 1099, Ozenji, Tama-ku, Kawasaki-shi, Kanagawa Ltd. System Development Laboratory, Hitachi, Ltd. Hitachi Ltd. System Development Laboratory (72) Inventor Hirokazu Ihara 1099 Ozenji, Tama-ku, Kawasaki City, Kanagawa Stock Company Hitachi Systems Development Laboratory (56) Reference JP-A-57-54490 (JP, A) JP-A-56-57160 (JP, A) JP-A-54-99541 (JP, A) JP-A-53-41144 (JP, A) JP-A-56-82967 (JP, A) JP-A-54-122923 (JP, A)
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP57084792AJPH0658665B2 (en) | 1982-05-21 | 1982-05-21 | Image signal processor | 
| US07/785,221US5297222A (en) | 1982-05-04 | 1991-10-28 | Image processing apparatus | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP57084792AJPH0658665B2 (en) | 1982-05-21 | 1982-05-21 | Image signal processor | 
| Publication Number | Publication Date | 
|---|---|
| JPS58203571A JPS58203571A (en) | 1983-11-28 | 
| JPH0658665B2true JPH0658665B2 (en) | 1994-08-03 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| JP57084792AExpired - LifetimeJPH0658665B2 (en) | 1982-05-04 | 1982-05-21 | Image signal processor | 
| Country | Link | 
|---|---|
| JP (1) | JPH0658665B2 (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JPS5334986B2 (en)* | 1974-05-31 | 1978-09-25 | ||
| US3950733A (en)* | 1974-06-06 | 1976-04-13 | Nestor Associates | Information processing system | 
| JPS603926B2 (en)* | 1974-07-22 | 1985-01-31 | 三菱電機株式会社 | Electric discharge machining control method | 
| JPS5138526A (en)* | 1974-09-25 | 1976-03-31 | Kogyo Gijutsuin | Hannoseitansoseni tosono seizohoho | 
| JPS54122923A (en)* | 1978-03-17 | 1979-09-22 | Tdk Corp | Compensation method for signal | 
| JPS5559571A (en)* | 1978-10-27 | 1980-05-06 | Toshiba Corp | Parallel process system | 
| JPS5853790B2 (en)* | 1979-03-19 | 1983-12-01 | 日本放送協会 | Pattern recognition method | 
| JPS6042516B2 (en)* | 1980-03-04 | 1985-09-24 | 日本電信電話株式会社 | data processing equipment | 
| JPS5764860A (en)* | 1980-10-09 | 1982-04-20 | Nec Corp | Parallel processing system | 
| JPS5775644A (en)* | 1980-10-31 | 1982-05-12 | Tokyo Shibaura Electric Co | Incision probe for surgery | 
| JPS57155672A (en)* | 1981-03-23 | 1982-09-25 | Tokyo Keiki Co Ltd | Feature extracting circuit system of 2-dimensional pattern | 
| Publication number | Publication date | 
|---|---|
| JPS58203571A (en) | 1983-11-28 | 
| Publication | Publication Date | Title | 
|---|---|---|
| EP0294954B1 (en) | Image processing method | |
| US6950559B2 (en) | Image processing apparatus, image processing circuit, and image processing method | |
| US5297222A (en) | Image processing apparatus | |
| US5202671A (en) | Pick function implementation in a parallel processing system | |
| JPH0658665B2 (en) | Image signal processor | |
| KR102276863B1 (en) | Image processing apparatus and image processing method | |
| JP5115457B2 (en) | Cursor movement control method, apparatus, and program | |
| JPS5957390A (en) | Pattern inputting device | |
| KR880011690A (en) | Image Contour Detection Device | |
| JP2552710B2 (en) | Image processing device | |
| SU1005099A1 (en) | Device for selecting object pictures | |
| JP2783917B2 (en) | Image address generating apparatus and image address generating method | |
| JP2601261B2 (en) | Multi electron beam imaging device | |
| SU849196A1 (en) | Device for taking up coordinates from crt screen | |
| EP0425171B1 (en) | Object identification in a display system | |
| SU997056A2 (en) | Device for correction of images at noise effect | |
| JPH0214387A (en) | Plural peak points detecting system | |
| JP2001202351A (en) | SIMD type processor | |
| SU955185A2 (en) | Device for displaying graphic data on cathode-ray tube screen | |
| JPH06274648A (en) | Image generator | |
| SU951377A2 (en) | Device for displaying data on cathode-ray tube screen | |
| SU1372350A1 (en) | Device for dvisplaying information on cathode-ray tube screen | |
| SU1101858A1 (en) | Device for reading information from crt screen | |
| JPS6347889A (en) | Image recognition system | |
| JPH07115501B2 (en) | Image processing device |