Movatterモバイル変換


[0]ホーム

URL:


JP2010063001A - Person-tracking device and person-tracking program - Google Patents

Person-tracking device and person-tracking program
Download PDF

Info

Publication number
JP2010063001A
JP2010063001AJP2008228582AJP2008228582AJP2010063001AJP 2010063001 AJP2010063001 AJP 2010063001AJP 2008228582 AJP2008228582 AJP 2008228582AJP 2008228582 AJP2008228582 AJP 2008228582AJP 2010063001 AJP2010063001 AJP 2010063001A
Authority
JP
Japan
Prior art keywords
person
dimensional movement
movement trajectory
calculated
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008228582A
Other languages
Japanese (ja)
Inventor
Shinya Taguchi
進也 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric CorpfiledCriticalMitsubishi Electric Corp
Priority to JP2008228582ApriorityCriticalpatent/JP2010063001A/en
Publication of JP2010063001ApublicationCriticalpatent/JP2010063001A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To accurately track each person even under a congested situation, in an area to be monitored by a camera. <P>SOLUTION: Persons photographed in frame images of each of video images shot by a plurality of cameras are detected, a corresponding two-dimensional moving locus is determined by tracing each of the detected persons on the images; a three-dimensional moving locus of each of moving persons is determined by stereo-viewing of a plurality of corresponding two-dimensional moving loci over an overlapping time; and a complete moving locus of each person is calculated by link fragments of the determined three-dimensional moving locus. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

Translated fromJapanese

この発明は、例えばカメラにより撮影された映像に写っている個々の人物を検出して、各人物を追跡する人物追跡装置および人物追跡プログラムに関するものである。  The present invention relates to a person tracking device and a person tracking program for detecting individual persons in an image taken by a camera, for example, and tracking each person.

高層ビルには非常に多数のエレベータが設置されているが、朝の通勤ラッシュ時や昼休みの混雑時などには、乗客を効率的に輸送するためにこれら多数のエレベータを連携させて運転する群管理が必要となる。このような多数のエレベータの群管理を効率的に行うためには、“誰がどの階で乗って、どの階で降りたか”という乗客の移動履歴を計測して、その移動履歴を群管理システムに提供することが必要となる。従来、乗客の人数カウントや人物移動の計測を、カメラを用いて行う人物追跡技術についてはいろいろな提案がなされてきた。その一つとして、予め記憶している背景画像と、カメラから随時取り込む入力画像との差分の画像(背景差分画像)を求めることにより、エレベータ内の乗客を検出して、エレベータ内における乗客数を検知する方法がある(例えば特許文献1参照)。しかし、非常に混み合っているエレベータでは、約25cm四方に一人の乗客が存在し、乗客が重なり合う状況が発生するので、背景差分画像が一塊のシルエットになる。このため、背景差分画像から個々の人物を分離することは極めて困難である。  There are a large number of elevators installed in high-rise buildings, but in the morning commuting rush hour or during the busy hour of lunch breaks, a group that operates these multiple elevators together to efficiently transport passengers Management is required. In order to efficiently manage a large number of such elevators, we measure the movement history of the passengers “who got on which floor, and on which floor”, and use that movement history in the group management system. It is necessary to provide. Conventionally, various proposals have been made for a person tracking technique that uses a camera to count the number of passengers and measure the movement of a person. As one of them, by obtaining a difference image (background difference image) between a background image stored in advance and an input image captured from the camera as needed, the number of passengers in the elevator is detected by detecting passengers in the elevator. There is a detection method (for example, see Patent Document 1). However, in a very crowded elevator, there is one passenger in a square of about 25 cm, and a situation occurs in which passengers overlap, so the background differential image becomes a lump of silhouette. For this reason, it is very difficult to separate individual persons from the background difference image.

また、別の技術として、エレベータのかご内上部にカメラを設置し、予め記憶している頭部画像参照パターンとカメラの撮影画像とを対比することにより、エレベータ内の乗客を検出して、エレベータ内で乗客数を検知する方法がある(例えば特許文献2参照)。しかし、このような単純なパターンマッチングによる人物検出方法によると、例えばカメラから見て、ある人物が他の人物に隠れてしまっているなど、遮蔽が生じている場合には、誤って人数をカウントしてしまうことがある。また、エレベータのかご内に鏡が設置されている場合には、鏡に映っている人物を誤検出してしまうということがある。  As another technique, a camera is installed in the upper part of the elevator car, and a passenger image in the elevator is detected by comparing a head image reference pattern stored in advance with a captured image of the camera. There is a method for detecting the number of passengers (see, for example, Patent Document 2). However, according to the person detection method based on such simple pattern matching, for example, when a person is hidden behind another person as seen from the camera, the number of persons is counted by mistake. May end up. In addition, when a mirror is installed in the elevator car, a person reflected in the mirror may be erroneously detected.

また、エレベータのかご内の上部にステレオカメラを設置し、画像から検出した人物をステレオ視して人物の3次元位置を求める手法がある(例えば特許文献2参照)。しかし、この方法によると実際の人数よりも多く人物が検出されてしまうという問題がある。すなわち、この方法によると、例えば図15に示すように、人物Xの3次元位置を知りたい場合、カメラから検出人物までのベクトルVA1とベクトルVB1が交差する点を人物の位置として算出する。しかし、ベクトルVA1とVB2が交わる点にも人物が存在すると推定されてしまうことがあり、実際の人物が二人しか存在しない場合でも誤って3人存在すると計算されてしまうことがある。  In addition, there is a technique in which a stereo camera is installed in an upper part of an elevator car and a person detected from an image is viewed in stereo to obtain a three-dimensional position of the person (see, for example, Patent Document 2). However, this method has a problem that more people are detected than the actual number of people. That is, according to this method, for example, as shown in FIG. 15, when it is desired to know the three-dimensional position of the person X, the point where the vector VA1 and the vector VB1 from the camera to the detected person intersect is calculated as the position of the person. However, it may be estimated that there is a person at the point where the vectors VA1 and VB2 cross each other, and even if there are only two actual persons, it may be calculated that there are three persons by mistake.

さらに、多視点カメラを利用した複数人物の検出手法として、背景差分で得た人物のシルエットを基に、動的計画法を用いて人物の移動軌跡を求める手法(非特許文献1)やParticle Filterを用いて人物の移動軌跡を求める手法(非特許文献2)がある。これらの手法は、ある視点において人物が遮蔽されている状況でも、他の視点のシルエット情報や時系列情報を用いて人数と人物の移動軌跡を求めることが可能である。しかしながら、混雑しているエレベータ内や電車では、どの視点から撮影しても常にシルエットが重なり合うため、これらの手法を適用することができない。  Furthermore, as a technique for detecting a plurality of persons using a multi-viewpoint camera, a technique for obtaining a person's movement trajectory using dynamic programming based on a person's silhouette obtained by background difference (Non-patent Document 1) or a particle filter. There is a technique (Non-patent Document 2) for obtaining a movement trajectory of a person using. With these methods, even when a person is shielded from a certain viewpoint, it is possible to obtain the number of people and the movement trajectory of the person using silhouette information and time-series information from other viewpoints. However, in crowded elevators and trains, these techniques cannot be applied because silhouettes always overlap from any viewpoint.

特開平8−26611号公報(段落[0016]、図1)JP-A-8-26611 (paragraph [0016], FIG. 1)特開2006−168930号公報(段落[0027]、図1)JP 2006-168930 A (paragraph [0027], FIG. 1)特開平11−66319号公報JP-A-11-66319Berclaz, J. , Fleuret, F. , Fua, P. , “Robust People Tracking with Global Trajectory Optimization,” Proc. CVPR, Vol1, pp 744-750, Jun. 2006.Berclaz, J., Fleuret, F., Fua, P., “Robust People Tracking with Global Trajectory Optimization,” Proc. CVPR, Vol1, pp 744-750, Jun. 2006.Otsuka, K. ,Mukawa, N. , “A particle filter for tracking densely populated objects based on explicit multiview occlusion analysis,” Proc. of the 17th International Conf. on Pattern Recognition, Vol.4, pp. 745 −750, Aug. 2004.Otsuka, K., Mukawa, N., “A particle filter for tracking densely populated objects based on explicit multiview occlusion analysis,” Proc. Of the 17th International Conf. On Pattern Recognition, Vol.4, pp. 745 −750, Aug . 2004.

人物追跡装置に用いる従来の複数人物の検出技術は、以上説明したように、エレベータが非常に混雑している状況などでは、エレベータ内の乗客を正確に検出することができないという問題があった。  As described above, the conventional technique for detecting a plurality of persons used in the person tracking apparatus has a problem that the passengers in the elevator cannot be accurately detected in a situation where the elevator is very crowded.

この発明は、上記のような課題を解決するためになされたもので、カメラの監視対象領域の混雑状況下においても個々の人物を正確に追跡することを可能にする人物追跡装置および人物追跡プログラムを得ることを目的とする。  The present invention has been made to solve the above-described problems, and a person tracking device and a person tracking program that can accurately track individual persons even in a crowded situation of a camera monitoring target area. The purpose is to obtain.

この発明に係る人物追跡装置は、異なる位置に設置され監視対象領域をそれぞれ撮影して映像を取り出す複数の映像撮影手段と、複数の映像撮影手段により取り出された映像毎の各フレーム画像に写っている人体の特徴箇所を人物として検出し、この検出した人物の画像座標を算出する人物検出手段と、人物検出手段により時々刻々到来するフレーム画像から算出された人物の画像座標に対して画像テンプレートマッチングを行って個々の人物の画像座標の点列を求め、当該点列を移動する個々の人物の2次元移動軌跡として算出する2次元移動軌跡算出手段と、2次元移動軌跡算出手段で複数の映像撮影手段の各映像から算出された対応する個々の人物の2次元移動軌跡に対して、監視対象領域内の基準点に対する前記複数の映像撮影手段のそれぞれの設置位置および設置角度に基づいてステレオマッチングを行うことにより個々の人物の3次元移動軌跡を算出する軌跡ステレオ手段と、軌跡ステレオ手段で算出された個々の人物の3次元移動軌跡の断片の前後を対応付けて連結することにより各人物の全3次元移動軌跡を生成する3次元移動軌跡算出手段とを備えたものである。  The person tracking device according to the present invention is shown in a plurality of video photographing means that are installed at different positions and each captures a monitoring target area and extracts a video, and each frame image for each video extracted by the plurality of video photographing means. A person detecting means for detecting a characteristic part of a human body as a person, and calculating image coordinates of the detected person, and image template matching with respect to the image coordinates of the person calculated from the frame image that comes from time to time by the person detecting means To obtain a point sequence of the image coordinates of each person, and to calculate a plurality of images by the two-dimensional movement locus calculation means for calculating the two-dimensional movement locus of each person moving the point sequence and the two-dimensional movement locus calculation means. The plurality of image photographing means with respect to a reference point in the monitoring target area with respect to the corresponding two-dimensional movement trajectory of each individual person calculated from each image of the photographing means Trajectory stereo means for calculating the three-dimensional movement trajectory of each person by performing stereo matching based on the respective installation positions and angles, and fragments of the individual person's three-dimensional movement trajectory calculated by the trajectory stereo means The apparatus includes a three-dimensional movement trajectory calculation unit that generates a total three-dimensional movement trajectory of each person by connecting the front and rear in association with each other.

この発明によれば、複数のカメラにより撮影されたそれぞれの映像の各フレーム画像に写っている人物を検出し、検出された個々の人物を画像上で追跡して対応する2次元移動軌跡を求め、対応する複数の2次元移動軌跡同士をオーバーラップする時間にわたってステレオ視することで移動する個々の人物の3次元移動軌跡を求め、求めた3次元移動軌跡の断片を連結して個々の人物の完全な移動軌跡を算出するようにしているので、ステレオ視の曖昧さをなくし、かつ遮蔽がある場合でも的確に個々の人物の3次元移動軌跡を求めることができる。その結果、監視対象領域が非常に混雑している状況であっても、監視対象領域内の個々の人物を正確に検出することができるとともに、個々の人物を正確に追跡することができる。  According to the present invention, a person appearing in each frame image of each video taken by a plurality of cameras is detected, and the detected individual person is traced on the image to obtain a corresponding two-dimensional movement locus. The three-dimensional movement trajectory of each moving person is obtained by viewing the corresponding two-dimensional movement trajectories in stereo over a period of time overlapping, and fragments of the obtained three-dimensional movement trajectories are connected to each other. Since the complete movement trajectory is calculated, it is possible to eliminate the ambiguity of stereo vision and accurately obtain the three-dimensional movement trajectory of each individual person even when there is shielding. As a result, even in a situation where the monitoring target area is very crowded, it is possible to accurately detect individual persons in the monitoring target area and to accurately track individual persons.

実施の形態1.
図1は、この発明の実施の形態1による人物追跡装置の機能構成を示すブロック図である。
図において、複数のカメラ1は、エレベータのかご内の上部の異なる位置に設置され、かご内を監視対象領域として同時に異なる角度からその領域を撮影する映像撮影手段である。なお、ここで使用されるカメラ1の種類については特に問わない。一般的な監視カメラは勿論のこと、可視カメラ、近赤外線領域まで撮影可能な高感度カメラ、熱源を撮影することが可能な遠赤外線カメラなどでもよい。また、距離計測が可能な赤外線距離センサや、レーザーレンジファインダなどで代用してもよい。映像取得部2は、各カメラ1から出力される映像を取得する映像入力インタフェースである。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a functional configuration of a person tracking apparatus according toEmbodiment 1 of the present invention.
In the figure, a plurality ofcameras 1 are video photographing means that are installed at different positions in the upper part of an elevator car and photograph the areas from different angles at the same time with the car as a monitoring target area. The type ofcamera 1 used here is not particularly limited. Of course, a general monitoring camera, a visible camera, a high-sensitivity camera capable of photographing up to the near-infrared region, a far-infrared camera capable of photographing a heat source, and the like may be used. Further, an infrared distance sensor capable of measuring a distance or a laser range finder may be substituted. Thevideo acquisition unit 2 is a video input interface that acquires video output from eachcamera 1.

カメラキャリブレーション部3は、人物追跡処理が開始される前に、予め複数のカメラ1により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、複数のカメラ1それぞれのカメラパラメータ、すなわちレンズの歪み、焦点距離、光軸、画像中心(principal point)に関するパラメータを算出する手段である。また、カメラキャリブレーション部3は、複数のカメラ1により撮影されたキャリブレーションパターンの映像から、エレベータのかご内の基準点に対する複数のカメラ1の設置位置および設置角度の算出を行う手段でもある。  Thecamera calibration unit 3 analyzes the distortion of the images of the calibration patterns previously captured by the plurality ofcameras 1 before the person tracking process is started, and each camera parameter of each of the plurality ofcameras 1, that is, the lens Is a means for calculating parameters relating to distortion, focal length, optical axis, and image center (principal point). Thecamera calibration unit 3 is also means for calculating the installation positions and the installation angles of the plurality ofcameras 1 with respect to the reference point in the elevator car from the images of the calibration patterns photographed by the plurality ofcameras 1.

映像解析部4は、人物の検出処理や移動軌跡の解析処理などを実施する手段で、映像補正部5、人物検出部6、2次元移動軌跡算出部7、軌跡ステレオ部8および3次元移動軌跡算出部9から構成されている。これらの部分5〜9の機能の要点は次のようになる。
映像補正部5は、カメラキャリブレーション部3により算出されたカメラパラメータを用いて、映像取得部2により取得された複数のカメラ1からの映像の歪みを補正する手段である。人物検出部6は、映像取得部2により取得された各映像に写っている人物を検出する手段である。2次元移動軌跡算出部7は、人物検出部6で検出された人物を画像上で追跡し、個々の人物の2次元移動軌跡を算出する手段である。軌跡ステレオ部8は、複数のカメラ1の各映像から算出された2次元移動軌跡に対してステレオマッチングを行い、個々の人物の3次元移動軌跡を算出する手段である。3次元移動軌跡算出部9は、3次元移動軌跡の個片を連結して個々の人物の完全な移動軌跡を算出する手段である。
Thevideo analysis unit 4 is a means for performing human detection processing, movement trajectory analysis processing, and the like. Thevideo correction unit 5, thehuman detection unit 6, the two-dimensional movementtrajectory calculation unit 7, thetrajectory stereo unit 8, and the three-dimensional movement trajectory. Thecalculation unit 9 is configured. The main points of the functions of theseportions 5 to 9 are as follows.
Thevideo correction unit 5 is a unit that corrects the distortion of the video from the plurality ofcameras 1 acquired by thevideo acquisition unit 2 using the camera parameters calculated by thecamera calibration unit 3. Theperson detection unit 6 is means for detecting a person shown in each video acquired by thevideo acquisition unit 2. The two-dimensional movementtrajectory calculation unit 7 is a means for tracking the person detected by theperson detection unit 6 on an image and calculating the two-dimensional movement trajectory of each person. Thetrajectory stereo unit 8 is means for performing stereo matching on the two-dimensional movement trajectory calculated from each image of the plurality ofcameras 1 and calculating the three-dimensional movement trajectory of each person. The three-dimensional movementtrajectory calculation unit 9 is a means for calculating individual movement trajectories of individual persons by connecting pieces of the three-dimensional movement trajectory.

図1に示された構成において、映像取得部2、カメラキャリブレーション部3、映像補正部5、人物検出部6、2次元移動軌跡算出部7、軌跡ステレオ部8および3次元移動軌跡算出部9は、それぞれ専用のハードウェア(例えば、MPUを実装している半導体集積回路基板)による構成とすることができるが、人物追跡装置をコンピュータで構成する場合には、各部の処理内容を記述している人物追跡プログラムをコンピュータのメモリに格納し、コンピュータのCPUにより当該格納されている人物追跡プログラムが実行される構成としてもよい。  In the configuration shown in FIG. 1, avideo acquisition unit 2, acamera calibration unit 3, avideo correction unit 5, aperson detection unit 6, a two-dimensional movementtrajectory calculation unit 7, atrajectory stereo unit 8, and a three-dimensional movementtrajectory calculation unit 9 Can be configured by dedicated hardware (for example, a semiconductor integrated circuit board on which an MPU is mounted), but when the person tracking device is configured by a computer, the processing contents of each unit are described. The person tracking program may be stored in the memory of a computer, and the stored person tracking program may be executed by the CPU of the computer.

次に、動作について説明する。
最初に、人物追跡動作の前処理の手順について図2のフローチャートに従って説明する。
カメラキャリブレーション部3がカメラパラメータを算出するに先立ち、個々のカメラ1によりキャリブレーションパターンを撮影する(ステップST1)。映像取得部2では、個々のカメラ1により撮影されたキャリブレーションパターンの映像を取得して、そのキャリブレーションパターンの映像をカメラキャリブレーション部3に出力する。ここで使用するキャリブレーションパターンとしては、例えば、大きさが既知の白黒のチェッカーフラグパターン(図4を参照)などが該当する。なお、キャリブレーションパターンは、10〜20通りの異なる位置や角度からカメラ1により撮影される。カメラキャリブレーション部3では、映像取得部2からキャリブレーションパターンの映像を受けると、そのキャリブレーションパターンの映像の歪み具合を解析して、各カメラ1のカメラパラメータを算出する(ステップST2)。なお、カメラパラメータの算出方法は周知の技術であるので、ここでは詳細説明を省略する。
Next, the operation will be described.
First, the procedure of the preprocessing of the person tracking operation will be described with reference to the flowchart of FIG.
Prior to thecamera calibration unit 3 calculating camera parameters, a calibration pattern is captured by each camera 1 (step ST1). Thevideo acquisition unit 2 acquires a calibration pattern video captured by eachcamera 1 and outputs the calibration pattern video to thecamera calibration unit 3. The calibration pattern used here corresponds to, for example, a black and white checker flag pattern (see FIG. 4) having a known size. The calibration pattern is taken by thecamera 1 from 10 to 20 different positions and angles. When thecamera calibration unit 3 receives the image of the calibration pattern from theimage acquisition unit 2, it analyzes the degree of distortion of the image of the calibration pattern and calculates the camera parameters of each camera 1 (step ST2). Since the camera parameter calculation method is a well-known technique, detailed description thereof is omitted here.

次に、カメラキャリブレーション部3が複数のカメラ1の設置位置および設置角度を算出するに際して、複数のカメラ1がエレベータのかご内の上部に設置されたのち、複数のカメラ1により、既知の大きさのカメラキャリブレーションパターンを同時に撮影する(ステップST3)。例えば、図4に示すように、キャリブレーションパターンとしてチェッカーフラグパターンをかご内の床に敷き、そのチェッカーフラグパターンが複数のカメラ1で同時に写るようにして撮影する。このとき、かご内の床に敷かれたキャリブレーションパターンに対して、かご内の基準点(例えば、かごの入口)からの位置と角度をオフセットとして計測し、また、かごの内寸を計測しておくようにする。なお、図4の例では、キャリブレーションパターンは、かご内の床に敷かれたチェッカーフラグパターンとしているが、これに限るものではなく、例えば、かご内の床に直接描かれた模様であってもよい。その場合、床に描かれた模様の大きさを予め計測しておくようにする。
また、図5に示すように、キャリブレーションパターンとして、無人のかご内を撮影し、かご内の床と天井の四隅(角部)を選択したものでもよい。この場合、かごの内寸を計測しておくようにする。
Next, when thecamera calibration unit 3 calculates the installation positions and the installation angles of the plurality ofcameras 1, after the plurality ofcameras 1 are installed in the upper part of the elevator car, the plurality ofcameras 1 are known by the plurality ofcameras 1. The camera calibration pattern is simultaneously photographed (step ST3). For example, as shown in FIG. 4, a checker flag pattern is laid on a floor in a car as a calibration pattern, and the checker flag pattern is photographed so that a plurality ofcameras 1 can simultaneously photograph. At this time, the position and angle from the reference point (for example, the entrance of the car) in the car is measured as an offset to the calibration pattern laid on the floor in the car, and the inner dimensions of the car are measured. To keep. In the example of FIG. 4, the calibration pattern is a checker flag pattern laid on the floor in the car, but is not limited to this, for example, a pattern drawn directly on the floor in the car. Also good. In that case, the size of the pattern drawn on the floor is measured in advance.
Further, as shown in FIG. 5, the calibration pattern may be obtained by photographing an unmanned car and selecting the four corners (corner portions) of the floor and ceiling in the car. In this case, measure the internal dimensions of the car.

次に、カメラキャリブレーション部3は、複数のカメラ1により撮影されたキャリブレーションパターンの映像と、ステップST2で算出されたカメラパラメータを用いて、エレベータのかご内の基準点に対する複数のカメラ1の設置位置および設置角度を算出する(ステップST4)。具体的には、キャリブレーションパターンとして、例えば、白黒のチェッカーフラグパターンが用いられた場合、まず、複数のカメラ1により撮影されたチェッカーパターンに対するカメラ1の相対位置と相対角度を算出する。そして、予め計測しているチェッカーパターンのオフセット(かご内の基準点であるかごの入口からの位置と角度)を複数のカメラ1の相対位置と相対角度に足し合わせることで、かご内の基準点に対する複数のカメラ1の設置位置と設置角度を求める。
一方、キャリブレーションパターンとして、図5に示すように、例えばかご内の床の四隅と天井の三隅が用いられる場合、予め計測しているかごの内寸から、かご内の基準点に対する複数のカメラ1の設置位置と設置角度を算出してもよい。この場合、かご内にカメラ1を設置するだけで、カメラ1の設置位置と設置角度を自動的に求めることが可能である。
Next, thecamera calibration unit 3 uses the images of the calibration patterns captured by the plurality ofcameras 1 and the camera parameters calculated in step ST2, and the plurality ofcameras 1 with respect to the reference point in the elevator car. An installation position and an installation angle are calculated (step ST4). Specifically, for example, when a black and white checker flag pattern is used as the calibration pattern, first, the relative position and the relative angle of thecamera 1 with respect to the checker pattern photographed by the plurality ofcameras 1 are calculated. Then, by adding the offset of the checker pattern measured in advance (the position and angle from the entrance of the car, which is the reference point in the car) to the relative position and the relative angle of the plurality ofcameras 1, the reference point in the car is added. The installation positions and installation angles of the plurality ofcameras 1 are obtained.
On the other hand, as shown in FIG. 5, for example, when the four corners of the floor and the three corners of the ceiling are used as the calibration pattern, a plurality of cameras with respect to the reference point in the car are measured from the inner dimensions of the car that are measured in advance. One installation position and installation angle may be calculated. In this case, it is possible to automatically obtain the installation position and installation angle of thecamera 1 simply by installing thecamera 1 in the car.

次に、人物追跡動作の後処理の手順について図3のフローチャートに従って説明する。
映像解析部4で人物の検出処理や移動軌跡の解析処理などを実施するに際して、複数のカメラ1により、実際に運行中のエレベータのかご内の領域を繰り返し撮影する。映像取得部2は、複数のカメラ1により撮影されたかご内の映像を時々刻々と取得する(ステップST11)。映像補正部5では、映像取得部2が複数のカメラ1により撮影された映像を取得する毎に、カメラキャリブレーション部3により算出されたカメラパラメータを用いて、複数の映像の歪みを補正し、歪みの無い映像である正規化画像を生成する(ステップST12)。なお、映像の歪みを補正する方法は周知の技術であるため、ここでは説明を省略する。
Next, the post-processing procedure of the person tracking operation will be described with reference to the flowchart of FIG.
When theimage analysis unit 4 performs a person detection process, a movement trajectory analysis process, and the like, a plurality ofcameras 1 repeatedly shoot an area in an elevator car that is actually in operation. Thevideo acquisition unit 2 acquires videos in the car photographed by the plurality ofcameras 1 from time to time (step ST11). In thevideo correction unit 5, each time thevideo acquisition unit 2 acquires videos captured by the plurality ofcameras 1, the camera parameters calculated by thecamera calibration unit 3 are used to correct distortion of the plurality of videos. A normalized image that is a video without distortion is generated (step ST12). Note that a method for correcting image distortion is a well-known technique, and thus description thereof is omitted here.

人物検出部6は、映像補正部5が複数のカメラ1により撮影された映像の正規化画像をそれぞれ生成すると、各正規化画像に存在している人体の特徴箇所を人物として検出し、この検出した人物(人体の特徴箇所)の画像座標と確信度を算出する(ステップST13)。ここで、人物の画像座標とは、例えば人物検出部6が人体の特徴箇所として頭部を検出する場合、その検出した頭部の領域を囲む矩形の中心座標のことである。また、確信度とは、人物検出部6の検出物がどの程度人間(ここでは、頭部であること)に近いかを表現する指標であり、確信度が高いほど人間である確率が高く、確信度が低いほど人間である確率が低いことを表す。
人物検出部6における人物の頭部の検出処理の状況について図6により説明する。図6(a)は、かご内の天井の対角位置に設置された2台のカメラ11 ,12 によりかご内の3人の乗客(人物)を撮影している状況を表している。図6(b)は、カメラ11 で顔方向を撮影した画像から頭部が検出され、検出結果である頭部の領域に確信度を添付した状態を表わしている。一方、図6(c)は、カメラ12 で後頭部方向を撮影した画像から頭部が検出され、検出結果である頭部の領域に確信度を添付した状態を表わしている。しかし、図6(c)の場合、脚部601が誤検出されており、そのため誤検出部分の確信度は低く算出されている。
When thevideo correction unit 5 generates the normalized images of the images captured by the plurality ofcameras 1, theperson detection unit 6 detects a human body characteristic portion existing in each normalized image as a person, and this detection The image coordinates and the certainty factor of the person (characteristic part of the human body) are calculated (step ST13). Here, for example, when theperson detection unit 6 detects the head as a characteristic part of the human body, the image coordinates of the person are rectangular center coordinates surrounding the detected head region. The certainty factor is an index that expresses how close the detected object of theperson detection unit 6 is to a human (here, the head), and the higher the certainty factor, the higher the probability of being a human. The lower the certainty level, the lower the probability of being a human.
The situation of the human head detection process in thehuman detection unit 6 will be described with reference to FIG. FIG. 6A shows a situation in which three passengers (persons) in the car are photographed by thetwocameras 11 and 12 installed at diagonal positions on the ceiling in the car. 6 (b) is detected the head from an image obtained by photographing the face direction by thecamera 11, it represents a state in which attach the confidence in the region of the head is detected result. On the other hand, FIG. 6 (c), the head from an image obtained by photographing the back of the head direction is detected by thecamera 12 represents a state with attached confidence in the region of the head is detected result. However, in the case of FIG. 6C, the leg 601 is erroneously detected, and therefore the certainty of the erroneously detected part is calculated to be low.

ここで、頭部の検出方法としては、例えば、Viola, P. , Jones, M. , “Rapid Object Detection Using a Boosted Cascade of Simple Features”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), ISSN: 1063-6919, Vol. 1, pp. 511-518, December 2001(参考文献1)に開示されている顔検出手法を使用すればよい。すなわち、“Rectangle Feature”と呼ばれるハール基底状のパターンをAdaboostにより選択して多数の弱判別機を取得し、これら弱判別機の出力と適当な閾値をすべて加算した値を確信度として利用することができる。また、人間の頭部検出方法として、田口進也、神田準史郎、島嘉宏、瀧口純一、“特徴量ベクトルの相関係数行列を用いた少ないサンプルでの高精度画像認識 道路標識認識への適用”電子情報通信学会技術研究報告 IE、 画像工学、Vol.106,No.537(20070216),pp.55−60,IE2006−270(参考文献2)に開示されている道路標識検出方法を応用して、その画像座標と確信度を算出するようにしてもよい。
なお、図6では、人物検出部6が人物を検出するにあたって人体の特徴箇所である頭部を検出対象とした場合を示しているが、この検出対象は、例えば肩や胴体などとしてもよい。
Here, as a head detection method, for example, Viola, P., Jones, M., “Rapid Object Detection Using a Boosted Cascade of Simple Features”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), ISSN: 1063-6919, Vol. 1, pp. 511-518, December 2001 (reference document 1) may be used. That is, a Haar basis pattern called “Rectangle Feature” is selected by Adaboost to obtain a large number of weak classifiers, and a value obtained by adding all of these weak classifier outputs and appropriate thresholds is used as a certainty factor. Can do. In addition, as a human head detection method, Shinya Taguchi, Junshiro Kanda, Yoshihiro Shima, Junichi Higuchi, “Highly accurate image recognition with small samples using feature vector correlation coefficient matrix, application to road sign recognition” IEICE Technical Report IE, Image Engineering, Vol. 106, no. 537 (20070216), pp. 55-60, IE2006-270 (reference 2) may be applied to calculate the image coordinates and the certainty factor.
6 shows a case where the head that is a characteristic part of the human body is a detection target when theperson detection unit 6 detects a person, the detection target may be, for example, a shoulder or a torso.

次に、2次元移動軌跡算出部7は、人物検出部6により時々刻々到来するフレーム画像から検出された人物の画像座標に対して画像テンプレートマッチングを行って個々の人物の画像座標の点列を求め、当該点列を移動する個々の人物の2次元移動軌跡として算出する(ステップST14)。2次元移動軌跡算出部7の詳細動作を図7のフローチャートに従って説明する。
まず、2次元移動軌跡算出部7は、人物検出部6で算出された人物検出結果(人物の画像座標)を取得し、それぞれの人物検出結果にカウンタを割り当てる(ステップST141)。例えば、図8(a)に示すように、人物の追跡を時刻tから始める場合、時刻tの画像フレームにおける人物検出結果を取得する。ここで、人物検出結果にはそれぞれカウンタが割り当てられており、カウンタは追跡を開始するときに0として初期化される。
Next, the two-dimensional movementtrajectory calculation unit 7 performs image template matching on the image coordinates of the person detected from the frame image that comes from time to time by theperson detection unit 6 to obtain a point sequence of the image coordinates of each person. It is calculated and calculated as a two-dimensional movement trajectory of each person moving the point sequence (step ST14). The detailed operation of the two-dimensional movementtrajectory calculation unit 7 will be described with reference to the flowchart of FIG.
First, the two-dimensional movementtrajectory calculation unit 7 acquires the person detection result (person's image coordinates) calculated by theperson detection unit 6, and assigns a counter to each person detection result (step ST141). For example, as shown in FIG. 8A, when tracking a person is started from time t, the person detection result in the image frame at time t is acquired. Here, a counter is assigned to each person detection result, and the counter is initialized to 0 when tracking is started.

次に、2次元移動軌跡算出部7は、ステップST141で取得した人物検出結果を用いて次の時刻における画像フレーム上の人物の画像座標を求めて探索結果として出力する(ステップST142)。例えば、図8(a)に示す時刻tにおける人物検出結果(人物の画像座標)をテンプレート画像として、図8(b)に示す次の時刻(t+1)における画像フレーム上の人物を探索する。
ここで、人物の画像座標を求める方法としては、例えば既知の技術である正規化相互相関法などを用いてもよい。その場合、時刻tにおける人物領域の画像をテンプレートとして、時刻(t+1)において最も相関値の高い矩形領域の画像座標を正規化相互相関法で求めて出力する。また、人物の画像座標を求める他の方法として、例えば、上記参考文献2に記載されている特徴量の相関係数を用いてもよい。その場合、時刻tの人物領域の内側に含まれる複数の部分領域において特徴量の相関係数を計算し、それらを成分とするベクトルを該当人物のテンプレートベクトルとする。そして、次に時刻(t+1)においてテンプレートベクトルとの距離が最小となるような領域を探索して、その領域の画像座標を人物探索結果として出力する。さらに、人物の画像座標を求める他の方法として、例えば、Porikli, F. Tuzel, O. Meer, P. ,“Covariance Tracking using Model Update Based on Lie Algebra”,Computer Vision and Pattern Recognition 2006, Volume 1, 17-22, June 2006, pp. 728-735(参考文献3)に記載されている特徴量の分散共分散行列を利用した方法により人物追跡を行い、時々刻々と人物の画像座標を求めてもよい。
Next, the two-dimensional movementtrajectory calculation unit 7 obtains the image coordinates of the person on the image frame at the next time using the person detection result acquired in step ST141, and outputs it as a search result (step ST142). For example, using the person detection result (person's image coordinates) at time t shown in FIG. 8A as a template image, a person on the image frame at the next time (t + 1) shown in FIG. 8B is searched.
Here, as a method for obtaining the image coordinates of a person, for example, a normalized cross-correlation method that is a known technique may be used. In that case, using the image of the person area at time t as a template, the image coordinates of the rectangular area with the highest correlation value at time (t + 1) are obtained by the normalized cross-correlation method and output. As another method for obtaining the image coordinates of a person, for example, the correlation coefficient of the feature amount described inReference Document 2 may be used. In that case, correlation coefficients of feature quantities are calculated in a plurality of partial areas included inside the person area at time t, and a vector having these as components is used as a template vector of the person. Next, an area where the distance from the template vector is minimized at time (t + 1) is searched, and the image coordinates of that area are output as a person search result. Furthermore, as another method for obtaining the image coordinates of a person, for example, Porikli, F. Tuzel, O. Meer, P., “Covariance Tracking using Model Update Based on Lie Algebra”, Computer Vision and Pattern Recognition 2006,Volume 1, 17-22, June 2006, pp. 728-735 (Ref. 3) The person tracking is performed by the method using the variance-covariance matrix of the feature value, and the image coordinates of the person are obtained every moment. Good.

次に、2次元移動軌跡算出部7は、次の時刻において人物検出部6が算出した人物検出結果を取得する(ステップST143)。例えば、図8(c)に示すような、時刻(t+1)の画像フレーム上で人物検出部6が算出した人物検出結果人物の画像座標)を取得する。この人物検出結果である図8(c)の画像では、人物Aは検出されているが、人物Bは検出されていない状態を表しているものとする。  Next, the two-dimensional movementtrajectory calculation unit 7 acquires the person detection result calculated by theperson detection unit 6 at the next time (step ST143). For example, the person detection result person image coordinates calculated by theperson detection unit 6 on the image frame at time (t + 1) as shown in FIG. In the image of FIG. 8C, which is the person detection result, it is assumed that the person A is detected but the person B is not detected.

次に、2次元移動軌跡算出部7は、ステップST142で算出した人物探索結果(人物の画像座標)と、ステップST143で取得した人物検出結果(人物の画像座標)を用いて、追跡している人物の情報をアップデートする(ステップST144)。例えば、図8(b)に示すように時刻(t+1)における人物Aの探索結果の周辺には、図8(c)に示すような人物Aの人物検出結果が存在する。このため、図8(d)に示すように人物Aのカウンタを1から2に上げる。一方、図8(c)に示すように時刻(t+1)における人物Bの人物検出が失敗している場合、図8(b)に示すように人物Bの探索結果の周辺には人物Bの人物検出結果は存在しない。そこで、図8(d)に示すように人物Bのカウンタを0から−1に下げる。このように、2次元移動軌跡算出部7は、探索結果の周辺に検出結果が存在する場合にはカウンタを一つ上げ、探索結果の周辺に検出結果が存在しない場合にはカウンタを一つ下げる。この結果、人物が検出される回数が多い場合には、そのカウンタは大きくなり、一方で人物が検出される回数が低い場合はカウンタの値は小さくなる。
また、上記ステップST144において、人物検出の確信度を累積するようにしてもよい。例えば、2次元移動軌跡算出部7は、探索結果の周辺に検出結果が存在する場合には、該当の検出結果の確信度を累積加算し、探索結果の周辺に検出結果が存在しない場合には確信度は加算しない。この結果、人物検出される回数が多い2次元移動軌跡の場合には、その累積確信度は大きくなる。
Next, the two-dimensional movementtrajectory calculation unit 7 uses the person search result (person image coordinates) calculated in step ST142 and the person detection result (person image coordinates) acquired in step ST143 for tracking. The person information is updated (step ST144). For example, as shown in FIG. 8B, the person detection result of the person A as shown in FIG. 8C exists around the search result of the person A at time (t + 1). For this reason, the counter of the person A is increased from 1 to 2 as shown in FIG. On the other hand, when the person detection of the person B at the time (t + 1) has failed as shown in FIG. 8C, the person B is located around the search result of the person B as shown in FIG. There is no detection result. Therefore, as shown in FIG. 8D, the counter of the person B is decreased from 0 to -1. As described above, the two-dimensional movementtrajectory calculation unit 7 increments the counter by one when the detection result exists around the search result, and decrements the counter by one when the detection result does not exist around the search result. . As a result, when the number of times a person is detected is large, the counter becomes large. On the other hand, when the number of times a person is detected is low, the counter value becomes small.
In step ST144, the certainty of person detection may be accumulated. For example, when the detection result exists around the search result, the two-dimensional movementtrajectory calculation unit 7 cumulatively adds the certainty factor of the corresponding detection result, and when the detection result does not exist around the search result. Do not add confidence. As a result, in the case of a two-dimensional movement trajectory where the number of times that a person is detected is large, the cumulative certainty factor increases.

次に、2次元移動軌跡算出部7は、追跡の終了判定を実施する(ステップST145)。この場合の終了判定の基準としては、ステップST144で述べたカウンタを利用すればよい。例えば、ステップST144で求めたカウンタが一定の閾値よりも低いものは人物ではないとして追跡を終了する。また、終了判定の基準として、ステップST144で述べた確信度の累積値を閾値処理することで追跡終了判定を実施してもよい。このように追跡の終了判定を行うことで、人物でないものを誤って追跡してしまう現象を避けることが可能である。  Next, the two-dimensional movementtrajectory calculation unit 7 performs tracking end determination (step ST145). In this case, the counter described in step ST144 may be used as a criterion for the end determination. For example, the tracking is ended because it is not a person whose counter obtained in step ST144 is lower than a certain threshold. Further, as a criterion for the end determination, the tracking end determination may be performed by performing threshold processing on the cumulative value of the certainty factor described in step ST144. By performing the tracking end determination in this way, it is possible to avoid a phenomenon in which a non-person is tracked by mistake.

2次元移動軌跡算出部7は、以上のようにステップST141からST145の画像テンプレートマッチング処理を時々刻々到来する人物を検出したフレーム画像に対して繰り返すことで、移動する個々の人物はその画像座標の連なり、すなわち点列として表わされる。得られたこの点列を移動する個々の人物の2次元移動軌跡として算出する。なお、ここで遮蔽などにより追跡が途中で終了してしまう場合には、遮蔽が無くなった時刻から人物の追跡を再開すればよい。
また、2次元移動軌跡算出部7では、人物検出部6で算出された人物の画像座標に対して時間的に前方(現在から未来)に向って追跡を行う処理を行っているが、この処理に加え、時間的に後方(現在から過去)に向って追跡を実施し、時間的に前後にわたる人物の2次元移動軌跡を算出してもよい。このように時間的に前後に追跡を行うことで、可能な限り漏れなく人物の追跡を実行し、2次元移動軌跡を算出することができる。例えば、ある人物の追跡において時間的に前方の追跡が失敗しても、時間的に後方の追跡が成功することがあれば、追跡の漏れを無くすことができる。
As described above, the two-dimensional movementtrajectory calculation unit 7 repeats the image template matching process of steps ST141 to ST145 with respect to the frame image in which the person who arrives from moment to moment is detected, so that each moving person has its image coordinates. It is expressed as a series, that is, as a sequence of points. The obtained point sequence is calculated as a two-dimensional movement locus of each moving person. If tracking is terminated halfway due to shielding or the like, tracking of the person may be resumed from the time when the shielding disappears.
Further, the two-dimensional movementtrajectory calculation unit 7 performs processing for tracking the image coordinates of the person calculated by theperson detection unit 6 forward in time (from the present to the future). In addition, tracking may be performed backward in time (from the present to the past) to calculate a two-dimensional movement trajectory of the person over time. Thus, by tracking back and forth in time, it is possible to perform tracking of a person as much as possible and calculate a two-dimensional movement trajectory. For example, even if tracking in front of a person fails in time tracking, if tracking back in time may succeed, omission of tracking can be eliminated.

図3のフローチャートに戻り、軌跡ステレオ部8は、複数のカメラ1の各映像から2次元移動軌跡算出部7で算出された個々の人物の2次元移動軌跡に対して、先にカメラキャリブレーション部3により算出された複数のカメラ1の設置位置および設置角度に基づいてステレオマッチングを行い(ステップST15)、個々の人物の3次元移動軌跡を算出する処理を実施する(ステップST16)。軌跡ステレオ部8の詳細動作を図9のフローチャートに従って説明する。
まず、軌跡ステレオ部8は、2次元移動軌跡算出部7で異なるカメラ映像から求めた対応する各々一つの2次元移動軌跡を取得する(ステップST151)。この動作例を図10で説明すると、図10(b)に示すようにエレベータの内部の異なる位置に設置された2台のカメラ1α とカメラ1β によりかご内部を撮影している。図10(a)は、人物Aと人物Bに対する2次元移動軌跡が計算された状況を仮想的に表しており、α1はカメラ1α の映像における人物Aの2次元移動軌跡であり、α2はカメラ1α の映像における人物Bの2次元移動軌跡である。また、β1はカメラ1β の映像における人物Aの2次元移動軌跡であり、β2はカメラ1β の映像における人物Bの2次元移動軌跡である。
Returning to the flowchart of FIG. 3, thetrajectory stereo unit 8 first performs a camera calibration unit on the two-dimensional movement trajectory of each person calculated by the two-dimensional movementtrajectory calculation unit 7 from each image of the plurality ofcameras 1. Stereo matching is performed based on the installation positions and installation angles of the plurality ofcameras 1 calculated in step 3 (step ST15), and a process of calculating the three-dimensional movement trajectory of each person is performed (step ST16). The detailed operation of thetrajectory stereo unit 8 will be described with reference to the flowchart of FIG.
First, thetrajectory stereo unit 8 acquires one corresponding two-dimensional movement trajectory obtained from different camera images by the two-dimensional movement trajectory calculation unit 7 (step ST151). To explain the operation example in FIG. 10, have taken the car interior by 10 (b) as shown in installed at different locations inside the elevator the twocameras 1alpha and thecamera 1beta. FIG. 10 (a) virtually represents the situation where the two-dimensional movement trajectories for the person A and the person B are calculated, where α1 is the two-dimensional movement trajectory of the person A in the video of thecamera 1α , and α2 is It is a two-dimensional movement trajectory of the person B in the image of thecamera 1α . Β1 is a two-dimensional movement locus of the person A in the video of thecamera 1β , and β2 is a two-dimensional movement locus of the person B in the video of thecamera 1β .

例えば、図10における2次元移動軌跡α1と2次元移動軌跡β1は次式のように定義される。
2次元移動軌跡α1≡
{Xa1(t)}t=T1,...,T2={Xa1(T1),Xa1(T1+1),...,Xa1(T2)}
2次元移動軌跡β1≡
{Xb1(t)}t=T3,...,T4={Xb1(T3),Xb1(T3+1),...,Xb1(T4)}
ここで、Xa1(t)、Xb1(t)は時刻tにおける人物Aの2次元画像座標である。2次元移動軌跡α1は画像座標が時刻T1からT2まで記録されており、2次元移動軌跡β1は画像座標が時刻T3からT4まで記録されていることを表している。
For example, the two-dimensional movement locus α1 and the two-dimensional movement locus β1 in FIG. 10 are defined as follows:
Two-dimensional trajectory α1≡
{Xa1 (t)} t = T1,. . . , T2 = {Xa1 (T1), Xa1 (T1 + 1),. . . , Xa1 (T2)}
Two-dimensional trajectory β1≡
{Xb1 (t)} t = T3,. . . , T4 = {Xb1 (T3), Xb1 (T3 + 1),. . . , Xb1 (T4)}
Here, Xa1 (t) and Xb1 (t) are the two-dimensional image coordinates of the person A at time t. The two-dimensional movement locus α1 indicates that image coordinates are recorded from time T1 to T2, and the two-dimensional movement locus β1 indicates that image coordinates are recorded from time T3 to T4.

次に、軌跡ステレオ部8は、選択した対応する2次元移動軌跡α1とβ1同士でオーバーラップする時間を求める(ステップST152)。図11はこの二つの2次元移動軌跡α1とβ1の記録時間を示したものであるが、2次元移動軌跡α1は画像座標が時刻T1からT2まで記録されており、一方、2次元移動軌跡β1は画像座標が時刻T3からT4まで記録されている。この場合、この二つの2次元移動軌跡α1とβ1がオーバーラップするのは時刻T2からT3までの間であるので、この時間を軌跡ステレオ部8で算出する。  Next, thetrajectory stereo unit 8 obtains an overlapping time between the selected corresponding two-dimensional movement trajectories α1 and β1 (step ST152). FIG. 11 shows the recording times of the two two-dimensional movement trajectories α1 and β1. The image coordinates of the two-dimensional movement trajectory α1 are recorded from time T1 to T2, while the two-dimensional movement trajectory β1. The image coordinates are recorded from time T3 to T4. In this case, since the two two-dimensional movement trajectories α1 and β1 overlap from time T2 to T3, thetrajectory stereo unit 8 calculates this time.

次に、軌跡ステレオ部8では、カメラキャリブレーション部3により算出しておいた複数のカメラ1のそれぞれの設置位置および設置角度を用いて、オーバーラップする各時刻において対応する2次元移動軌跡を形成している点列同士のステレオマッチングを行い、点列同士の距離を算出する(ステップST153)。ここで、点列同士のステレオマッチング処理について図10(b)で説明する。軌跡ステレオ部8では、オーバーラップするすべての時間tにおいて、カメラキャリブレーション部3により算出された複数のカメラ1α ,1β のそれぞれの設置位置および設置角度を用いて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)を求める。同様にカメラ1β の中心と画像座標Xb1(t)を通る直線Vb1(t)を求める。そして、直線Va1(t)と直線Vb1(t)との交点を人物の3次元位置Z(t)として算出する。同時に、直線Va1(t)と直線Vb1(t)同士の距離d(t)を算出する。
例えば、軌跡ステレオ部8は、{Xa1(t)}t=T1,...,T2と{Xb1(t)}t=T3,...,T4とから、オーバーラップする時間t=T3,...,T2における3次元位置ベクトルZ(t)と直線の距離d(t)の集合{Z(t),d(t)}t=T3,...,T2を得る。
Next, thetrajectory stereo unit 8 forms a corresponding two-dimensional movement trajectory at each overlapping time by using the installation positions and installation angles of the plurality ofcameras 1 calculated by thecamera calibration unit 3. Stereo matching is performed between the sequence of points, and the distance between the sequence of points is calculated (step ST153). Here, a stereo matching process between point sequences will be described with reference to FIG. Thelocus stereo unit 8, at all times t overlapping, a plurality ofcameras 1alpha was calculated by thecamera calibration unit 3, using the respective installation position and installation angle of the 1beta, and the center of the camera 1alpha A straight line Va1 (t) passing through the image coordinates Xa1 (t) is obtained. Similarly the center of thecamera 1beta and the image coordinates Xb1 through (t) obtaining a linear Vb1 (t). Then, the intersection of the straight line Va1 (t) and the straight line Vb1 (t) is calculated as the three-dimensional position Z (t) of the person. At the same time, a distance d (t) between the straight line Va1 (t) and the straight line Vb1 (t) is calculated.
For example, thetrajectory stereo unit 8 has {Xa1 (t)} t = T1,. . . , T2 and {Xb1 (t)} t = T3,. . . , T4 and overlap time t = T3,. . . , T2 is a set {Z (t), d (t)} t = T3,. . . , T2 is obtained.

図10(b)では、直線Va1(t)と直線Vb1(t)が交わる場合を示しているが、実際には、頭部の検出誤差やキャリブレーション誤差が原因で、直線Va1(t)と直線Vb1(t)が近づいているだけで、交わらないことが多い。そのような場合には、二つの直線Va1(t)と直線Vb1(t)を最短距離で結ぶ線分の距離d(t)を求め、その中点を交点Z(t)として求めるようにしてもよい。あるいは、K. Kanatani, “Statistical Optimization for Geometric Computation: Theory and Practice, Elsevier Science”, Amsterdam, The Netherlands, April 1996.(参考文献4)に記載の「最適補正」の方法により、二つの直線の距離d(t)と交点Z(t)を算出してもよい。  FIG. 10B shows a case where the straight line Va1 (t) and the straight line Vb1 (t) intersect, but in reality, the straight line Va1 (t) and the straight line Va1 (t) are caused by the head detection error and the calibration error. In many cases, the straight lines Vb1 (t) are just approaching and do not intersect. In such a case, the distance d (t) of the line segment connecting the two straight lines Va1 (t) and Vb1 (t) with the shortest distance is obtained, and the midpoint thereof is obtained as the intersection Z (t). Also good. Alternatively, the distance between two straight lines can be determined by the “optimal correction” method described in K. Kanatani, “Statistical Optimization for Geometric Computation: Theory and Practice, Elsevier Science”, Amsterdam, The Netherlands, April 1996. (reference 4). d (t) and the intersection Z (t) may be calculated.

次に、軌跡ステレオ部8は、点列同士のステレオマッチングの際に求めた点列同士の距離を用いて、2次元移動軌跡のマッチング率を算出する(ステップST154)。なお、オーバーラップ時間が0である場合には、マッチング率は0として算出する。ここでは、例えば、オーバーラップ時間内に直線が交わった回数をマッチング率として算出する。つまり、前述の図10および図11の例では、時刻t=T3,...,T2において距離d(t)が一定の閾値(たとえば15cm)以下となる回数をマッチング率として算出する。  Next, thetrajectory stereo unit 8 calculates the matching rate of the two-dimensional movement trajectory by using the distance between the point sequences obtained in the stereo matching between the point sequences (step ST154). If the overlap time is 0, the matching rate is calculated as 0. Here, for example, the number of times the straight lines intersect within the overlap time is calculated as the matching rate. That is, in the example of FIGS. 10 and 11 described above, time t = T3,. . . , T2, the number of times that the distance d (t) falls below a certain threshold (for example, 15 cm) is calculated as the matching rate.

また、例えば、オーバーラップ時間内に二つの直線が交わった割合をマッチング率として算出してもよい。すなわち、図10および図11の例では、時刻t=T3,...,T2において距離d(t)が一定の閾値(たとえば15cm)以下となる回数を算出し、これをオーバーラップ時間|T3−T2|で割った値をマッチング率として算出する。
また、例えば、オーバーラップ時間内の二つの直線の距離の平均をマッチング率として算出してもよい。すなわち、図10(b)の例では、時刻t=T3,...,T2における距離d(t)の平均の逆数をマッチング率として算出する。
また、例えば、オーバーラップ時間内の二つの直線の距離の合計をマッチング率として算出してもよい。すなわち、図10(b)の例では、時刻t=T3,...,T2における距離d(t)の合計の逆数をマッチング率として算出する。
さらにまた、上記の算出方法を組み合わせることで、マッチング率を算出してもよい。
Further, for example, the ratio of two intersecting lines within the overlap time may be calculated as the matching rate. That is, in the example of FIGS. 10 and 11, the time t = T3,. . . , T2, the number of times the distance d (t) is equal to or less than a certain threshold value (for example, 15 cm) is calculated, and a value obtained by dividing this by the overlap time | T3-T2 |
Further, for example, the average of the distances between two straight lines within the overlap time may be calculated as the matching rate. That is, in the example of FIG. 10B, time t = T3,. . . , The average reciprocal of the distance d (t) at T2 is calculated as the matching rate.
Further, for example, the total distance between two straight lines within the overlap time may be calculated as the matching rate. That is, in the example of FIG. 10B, time t = T3,. . . , T2 to calculate the reciprocal of the total distance d (t) as a matching rate.
Furthermore, the matching rate may be calculated by combining the above calculation methods.

ここで、この発明による2次元移動軌跡のステレオマッチングの効果について述べる。
例えば、図10における2次元移動軌跡α2とβ2は同一人物Bの2次元移動軌跡であるため、各時刻における距離d(t)は小さい値をとる。このため、距離d(t)の平均の逆数は大きな値をとり、2次元移動軌跡α2とβ2のマッチング率は高いと算出される。一方、2次元移動軌跡α1とβ2をステレオマッチングした場合、これらは異なる人物AとBの2次元移動軌跡であるため、ある時刻では偶然に直線が交わることもあるが、ほとんどの時刻において直線は交わらず、結果として距離d(t)の平均の逆数は小さな値をとる。このため、軌跡α1と軌跡β2のマッチング率は低いと判断できる。
従来は、図15に示すように、ある瞬間の人物検出結果をステレオマッチングして人物の3次元位置を推定していたため、ステレオ視の曖昧さを回避できずに人物の位置を誤って推定してしまうことがあった。しかし、この発明によれば一定の時間にわたる2次元の移動軌跡同士をステレオマッチングすることで、ステレオ視の曖昧さを解消し、正確に人物の3次元移動軌跡を求めることが可能となる
Here, the effect of stereo matching of the two-dimensional movement locus according to the present invention will be described.
For example, since the two-dimensional movement trajectories α2 and β2 in FIG. 10 are two-dimensional movement trajectories of the same person B, the distance d (t) at each time takes a small value. For this reason, the average reciprocal of the distance d (t) takes a large value, and it is calculated that the matching rate between the two-dimensional movement trajectories α2 and β2 is high. On the other hand, when the two-dimensional movement trajectories α1 and β2 are stereo-matched, since these are two-dimensional movement trajectories of different persons A and B, a straight line may accidentally intersect at a certain time. Instead, as a result, the average reciprocal of the distance d (t) takes a small value. For this reason, it can be determined that the matching rate between the locus α1 and the locus β2 is low.
Conventionally, as shown in FIG. 15, since the person detection result at a certain moment is stereo-matched to estimate the three-dimensional position of the person, the ambiguity of stereo vision cannot be avoided and the position of the person is erroneously estimated. There was a case. However, according to the present invention, two-dimensional movement trajectories over a certain period of time are stereo-matched, thereby eliminating the ambiguity of stereo vision and accurately obtaining a three-dimensional movement trajectory of a person.

次に、軌跡ステレオ部8は、2次元移動軌跡のマッチング率が一定の閾値を超えた場合には、算出した3次元移動軌跡に対して適切なフィルタリングをかけ(ステップST156)、誤って推定した3次元移動軌跡を取り除く。軌跡ステレオ部8では、人物検出部6が人物を誤検出することが原因で、人物の3次元移動軌跡を誤って算出することがある。そのため、例えば、人物の3次元位置Z(t)が以下の条件(ア)〜(ウ)に合致しない場合に、その3次元移動軌跡を本来の人物の軌跡でないものとして破棄する。
条件(ア): 人物の身長が一定長(例えば、50cm)以上である
条件(イ): 人物が特定の領域内(例えば、エレベータかご内)に存在する
条件(ウ): 人物の3次元移動履歴が滑らかである
したがって、条件(ア)により、極端に低い位置にあるものを誤検出されたものとして破棄する。また、条件(イ)により、例えば、かご内に設置された鏡に映っている人物像については誤検出された人物の3次元移動軌跡として破棄する。また、条件(ウ)により、3次元移動軌跡が例えば上下左右に急激に変化するような不自然なものは人物でないとして破棄する。
Next, when the matching rate of the two-dimensional movement trajectory exceeds a certain threshold, thetrajectory stereo unit 8 applies an appropriate filtering to the calculated three-dimensional movement trajectory (step ST156) and estimates it erroneously. Remove 3D trajectory. Thetrajectory stereo unit 8 may erroneously calculate the three-dimensional movement trajectory of the person because theperson detection unit 6 erroneously detects the person. Therefore, for example, when the three-dimensional position Z (t) of a person does not meet the following conditions (a) to (c), the three-dimensional movement trajectory is discarded as not being the original human trajectory.
Condition (A): A person's height is a certain length (for example, 50 cm) or more (A): A person is present in a specific area (for example, an elevator car) (C): Three-dimensional movement of the person The history is smooth. Therefore, according to the condition (a), an extremely low position is discarded as being erroneously detected. Further, according to the condition (A), for example, a person image reflected in a mirror installed in the car is discarded as a three-dimensional movement trajectory of the person who is erroneously detected. In addition, an unnatural thing in which the three-dimensional movement trajectory changes rapidly, for example, up, down, left, and right according to the condition (c) is discarded as not a person.

次に、軌跡ステレオ部8は、ステップST153のステレオマッチングの際にオーバーラップしている時間において推定した人物の3次元位置情報を用いて、オーバーラップしていない時刻における対応する二つの個々の人物の2次元移動軌跡を形成している点列の3次元位置を算出することにより個々の人物の3次元移動軌跡を推定する(ステップST157)。図11の場合、2次元移動軌跡α1とβ1は時刻t=T3,...,T2ではオーバーラップしているものの、その他の時刻ではオーバーラップいない。このため、通常のステレオマッチングでは、オーバーラップしていない時間帯での人物の3次元移動軌跡を算出することができない。このような場合には、まずオーバーラップする時間内における人物の高さの平均を算出し、この高さ平均を用いてオーバーラップしていない時間帯における人物の3次元移動軌跡を推定すればよい。  Next, thetrajectory stereo unit 8 uses the three-dimensional position information of the person estimated in the overlapping time at the time of stereo matching in step ST153, and uses the corresponding two individual persons at the non-overlapping time. The three-dimensional movement trajectory of each person is estimated by calculating the three-dimensional position of the point sequence forming the two-dimensional movement trajectory (step ST157). In the case of FIG. 11, the two-dimensional movement trajectories α1 and β1 are at times t = T3,. . . , T2 overlap, but not at other times. For this reason, in normal stereo matching, it is impossible to calculate a three-dimensional movement trajectory of a person in a non-overlapping time zone. In such a case, first, the average of the person's height within the overlapping time is calculated, and the three-dimensional movement trajectory of the person in the non-overlapping time zone may be estimated using this height average. .

図11の例では、まず、{Z(t),d(t)}t=T3,...,T2における3次元位置ベクトルZ(t)の高さ成分に関する平均値aveHを求める。次に、各時刻tにおいて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)上の点のうち、床からの高さがaveHである点を求め、この点を人物の3次元位置Z(t)として推定するようにする。同様に各時刻tにおける画像座標Xb1(t)から人物の3次元位置Z(t)を推定する。これにより、2次元移動軌跡α1とβ1が記録されたすべての時刻T1からT4にわたる3次元移動軌跡{Z(t)}t=T1,...,T4を得ることができる。
このことで、遮蔽などが理由で片方のカメラに一定期間人物が写らない場合があっても、もう一つのカメラで人物の2次元移動軌跡を算出し、かつ遮蔽の前後で2次元移動軌跡がオーバーラップしていれば、軌跡ステレオ部8は人物の3次元移動軌跡を算出することができる。次に、全ての軌跡のペアについてマッチング率が算出できていれば、3次元移動軌跡算出部9の処理に移る(ステップST158)。
In the example of FIG. 11, first, {Z (t), d (t)} t = T3,. . . , T2, the average value aveH for the height component of the three-dimensional position vector Z (t) is obtained. Then, at each time t, of the point on the line Va1 (t) passing through the center of thecamera 1alpha and the image coordinates Xa1 a (t), determine the point heights from the floor is AveH, People this point Is estimated as a three-dimensional position Z (t). Similarly, the three-dimensional position Z (t) of the person is estimated from the image coordinates Xb1 (t) at each time t. As a result, the three-dimensional movement trajectories {Z (t)} t = T1,... From all times T1 to T4 when the two-dimensional movement trajectories α1 and β1 are recorded. . . , T4 can be obtained.
As a result, even if there is a case where a person is not captured for a certain period of time due to occlusion or the like, the other camera calculates the two-dimensional movement locus of the person, and the two-dimensional movement locus before and after the occlusion If they overlap, thetrajectory stereo unit 8 can calculate the three-dimensional movement trajectory of the person. Next, if the matching rate has been calculated for all the pairs of trajectories, the process proceeds to the processing of the three-dimensional movement trajectory calculation unit 9 (step ST158).

再び図3のフローチャートに戻り、3次元移動軌跡算出部9は、軌跡ステレオ部8で求めた個々の人物の3次元移動軌跡の断片の前後を対応付けて連結することにより各人物の全3次元移動軌跡を生成する(ステップST16)。軌跡ステレオ部8で求めた個々の人物の3次元移動軌跡は複数の断片からなる場合が多い。そのためこれらの断片から個々の人物の完全な3次元移動軌跡を求める必要がある。3次元移動軌跡算出部9の詳細動作について図12のフローチャートに従って説明する。
まず、3次元移動軌跡算出部9は、監視対象領域となる場所において、人物の入退場エリアを設定し(ステップST161)、軌跡ステレオ部8で求めた3次元移動軌跡の中から、設定した入退場エリアに始点を持つ3次元移動軌跡の断片を取得する(ステップST162)。ここでは、例えば図13(a)に示すように、エレベータ内部の入口付近に人物の入退場エリアを仮想的に設定する。例えば頭部の移動軌跡がエレベータの入口付近に設定した入退場エリアから開始していれば、該当階から乗っていると判断し、また、移動軌跡が上記入退場エリアで終了していれば、該当階で降りていると判断することができる。そこで、3次元移動軌跡算出部9は、始点SP1が入退場エリアにある3次元移動軌跡の断片L1を取得する。
Returning to the flowchart of FIG. 3 again, the three-dimensional movementtrajectory calculation unit 9 associates and links the three-dimensional movement trajectory fragments of the individual persons obtained by thetrajectory stereo unit 8 in association with each other, and thereby adds all three-dimensional movements of each person. A movement trajectory is generated (step ST16). In many cases, the three-dimensional movement trajectory of each person obtained by thetrajectory stereo unit 8 is composed of a plurality of fragments. Therefore, it is necessary to obtain a complete three-dimensional movement trajectory of each person from these fragments. The detailed operation of the three-dimensional movementlocus calculation unit 9 will be described with reference to the flowchart of FIG.
First, the three-dimensional movementtrajectory calculation unit 9 sets an entry / exit area of a person in a place to be a monitoring target area (step ST161), and sets the input / exit from the three-dimensional movement trajectory obtained by thetrajectory stereo unit 8. A fragment of a three-dimensional movement locus having a start point in the exit area is acquired (step ST162). Here, for example, as shown in FIG. 13A, a person entrance / exit area is virtually set near the entrance inside the elevator. For example, if the movement trajectory of the head starts from the entrance / exit area set near the entrance of the elevator, it is determined that the ride is from the corresponding floor, and if the movement trajectory ends in the entrance / exit area, It can be judged that it is getting off at the corresponding floor. Therefore, the three-dimensional movementtrajectory calculation unit 9 acquires a fragment L1 of the three-dimensional movement trajectory in which the start point SP1 is in the entrance / exit area.

次に、3次元移動軌跡算出部9は、取得した3次元移動軌跡の終点の近傍に存在する次の3次元移動軌跡を求めて連結する(ステップST163)。この状況を図13(b)に示すが、取得した3次元移動軌跡の断片L1の終点TP1の近傍に始点SP2を持つ3次元移動軌跡の断片L2を取得し、L1とL2を連結する。同様に、図13(c)に示すように、3次元移動軌跡の断片L2の終点TP2の近傍に始点SP3を持つ3次元移動軌跡の断片L3を取得し、L1と連結しているL2とL3を連結する。
次に、3次元移動軌跡算出部9は、連結した軌跡の終点が入退場エリアにあるか判定し、終点が入退場エリアに存在すれば連結処理を終了し、また終点が入退場エリアに存在しなければ連結処理を継続する(ステップST164)。
Next, the three-dimensional movementtrajectory calculation unit 9 obtains and connects the next three-dimensional movement trajectory that exists in the vicinity of the end point of the acquired three-dimensional movement trajectory (step ST163). FIG. 13B shows this situation. A three-dimensional movement trajectory segment L2 having a start point SP2 in the vicinity of the end point TP1 of the acquired three-dimensional movement trajectory segment L1 is acquired, and L1 and L2 are connected. Similarly, as shown in FIG. 13C, a three-dimensional movement locus fragment L3 having a start point SP3 in the vicinity of the end point TP2 of the three-dimensional movement locus fragment L2 is acquired, and L2 and L3 connected to L1 are obtained. Are connected.
Next, the three-dimensional movementtrajectory calculation unit 9 determines whether the end point of the connected trajectory is in the entrance / exit area. If the end point exists in the entrance / exit area, the connection process is terminated, and the end point exists in the entrance / exit area. Otherwise, the connection process is continued (step ST164).

次に、3次元移動軌跡算出部9は、ステップST164で同じ時刻に同じ始点を持つ複数の3次元移動軌跡の候補が算出された場合には、所定の条件に基づいて各3次元移動軌跡のコストを算出し、算出されたコストが最小となる候補を3次元移動軌跡として選出する(ステップST165)。これを図14で説明すると、ステップST164の処理では、同じ時刻に同じ始点SP1から開始しても異なる終点TP3とTPXで終わる3次元移動軌跡の候補Aと候補Bが得られることがある。この場合、例えば下記の条件に基づいて各3次元移動軌跡のコストを計算し、そのコストが最小となる候補を3次元移動軌跡を選出する。
条件(a): 人物の3次元移動軌跡が滑らかであり、突然変化しない
条件(b): 3次元移動軌跡の総時間が短い
例えば、図14の例では、候補Bに比べて候補Aの方が移動軌跡が滑らかであり、また移動軌跡の総時間も短い。したがって、同じ時刻に始点SP1から開始する3次元移動軌跡は候補Aとなるため、これを選出する。このように、連結した3次元移動軌跡に対して適切なフィルタリグをかけることで、不自然な動きの3次元移動軌跡を除去して、正確な人物の全3次元移動軌跡を求めることができる。
Next, when a plurality of three-dimensional movement trajectory candidates having the same starting point at the same time are calculated in step ST164, the three-dimensional movementtrajectory calculation unit 9 calculates each three-dimensional movement trajectory based on a predetermined condition. A cost is calculated, and a candidate that minimizes the calculated cost is selected as a three-dimensional movement trajectory (step ST165). This will be described with reference to FIG. 14. In the process of step ST164, there may be obtained a three-dimensional movement trajectory candidate A and a candidate B that start from the same start point SP1 at the same time but end at different end points TP3 and TPX. In this case, for example, the cost of each three-dimensional movement trajectory is calculated based on the following conditions, and a candidate that minimizes the cost is selected.
Condition (a): The three-dimensional movement trajectory of the person is smooth and does not change suddenly. Condition (b): The total time of the three-dimensional movement trajectory is short. For example, in the example of FIG. However, the movement track is smooth and the total time of the movement track is short. Therefore, since the three-dimensional movement trajectory starting from the start point SP1 at the same time is the candidate A, it is selected. In this way, by applying appropriate filtering to the connected three-dimensional movement trajectory, it is possible to remove the unnatural movement of the three-dimensional movement trajectory and obtain an accurate all three-dimensional movement trajectory of the person. .

上記のようにして、入退場エリアから始まり、入退場エリアで終わる人物の3次元移動軌跡を求めた後、3次元移動軌跡算出部9は、エレベータの停止階を示す停止階情報を個々の人物の3次元移動軌跡に対応付ける(ステップST166)。ここでは、“どの人物がどの階で乗って、どの階で降りたか”を示す個々の人物の移動履歴を求めることになる。なお、停止階情報は、エレベータの制御機器から取得するようにしてもよいし、カメラ1により撮影された映像に写っているエレベータのコントローラの文字盤を認識して、画像処理によって停止階の情報を取得するようにしてもよい。
映像解析部4は、上述の処理を行って個々の人物の移動履歴を求めると、その移動履歴を複数台のエレベータの運行を管理する群管理システム(図示せず)に与える。これにより、群管理システムでは、各エレベータから得られる移動履歴に基づいて常に最適なエレベータの群管理を実施することが可能になる。
After obtaining the three-dimensional movement trajectory of the person starting from the entrance / exit area and ending in the entrance / exit area as described above, the three-dimensional movementtrajectory calculation unit 9 obtains the stop floor information indicating the stop floor of the elevator for each person. Are associated with the three-dimensional movement trajectory (step ST166). Here, the movement history of each person indicating “which person got on which floor and on which floor” is obtained. The stop floor information may be obtained from the elevator control device, or the stop floor information is recognized by image processing by recognizing the dial of the elevator controller in the video taken by thecamera 1. May be obtained.
When thevideo analysis unit 4 performs the above-described processing to obtain the movement history of each person, thevideo analysis unit 4 gives the movement history to a group management system (not shown) that manages the operation of a plurality of elevators. As a result, the group management system can always perform optimum elevator group management based on the movement history obtained from each elevator.

以上のように、この実施の形態1によれば、複数のカメラにより撮影されたそれぞれの映像の各フレーム画像に写っている人物を検出し、検出された個々の人物を画像上で追跡して対応する2次元移動軌跡を求め、対応する複数の2次元移動軌跡同士をオーバーラップする時間にわたってステレオ視することで移動する個々の人物の3次元移動軌跡を求め、求めた3次元移動軌跡の断片を連結して個々の人物の完全な移動軌跡を算出するようにしているので、ステレオ視の曖昧さをなくし、かつ遮蔽がある場合でも的確に個々の人物の3次元移動軌跡を求めることができる。その結果、監視対象領域が非常に混雑している状況であっても、監視対象領域内の個々の人物を正確に検出することができるとともに、個々の人物を正確に追跡することができる。  As described above, according to the first embodiment, a person shown in each frame image of each video shot by a plurality of cameras is detected, and each detected person is tracked on the image. A corresponding two-dimensional movement trajectory is obtained, a three-dimensional movement trajectory of an individual person moving is obtained by viewing in stereo over a plurality of corresponding two-dimensional movement trajectories, and a fragment of the obtained three-dimensional movement trajectory Are connected to calculate the complete movement trajectory of each person, so that it is possible to eliminate the ambiguity of stereo vision and accurately obtain the three-dimensional movement trajectory of each individual person even when there is shielding. . As a result, even in a situation where the monitoring target area is very crowded, it is possible to accurately detect individual persons in the monitoring target area and to accurately track individual persons.

この実施の形態1によれば、軌跡ステレオ部8は、2次元移動軌跡のマッチング率が一定の閾値を超えた場合に、推定された3次元移動軌跡に対して適切なフィルタリングをかけて、誤って推定した3次元移動軌跡を取り除くことで、人物の誤検出を削減することができる。また軌跡ステレオ部8は、オーバーラップしている時間に推定した人物の高さ情報を用いて、二つの2次元移動軌跡がオーバーラップしていない時刻においても人物の3次元移動軌跡を推定することで、遮蔽などが理由で片方のカメラに一定期間人物が写らない場合でも、もう一方のカメラから人物の3次元移動軌跡を推定することができる。
さらに、この実施の形態1によれば、3次元移動軌跡算出部9は、複数の3次元移動軌跡の候補が算出された場合には、各3次元移動軌跡のコストを算出し、それらのコストが最小となる3次元移動軌跡を選出することで、人物のものではない不自然な動きの3次元移動軌跡を除去して、正確な人物の3次元移動軌跡を求めることができる。
According to the first embodiment, when the matching rate of the two-dimensional movement locus exceeds a certain threshold, thelocus stereo unit 8 applies an appropriate filtering to the estimated three-dimensional movement locus, causing an error. By removing the three-dimensional movement trajectory estimated in this way, it is possible to reduce erroneous human detection. Further, thetrajectory stereo unit 8 estimates the three-dimensional movement trajectory of the person even at a time when the two two-dimensional movement trajectories do not overlap, using the height information of the person estimated at the overlapping time. Thus, even if a person is not captured for a certain period of time due to shielding or the like, the three-dimensional movement trajectory of the person can be estimated from the other camera.
Furthermore, according to the first embodiment, when a plurality of three-dimensional movement trajectory candidates are calculated, the three-dimensional movementtrajectory calculation unit 9 calculates the cost of each three-dimensional movement trajectory, and those costs are calculated. By selecting a three-dimensional movement trajectory that minimizes the three-dimensional movement trajectory of an unnatural motion that is not that of a person, an accurate three-dimensional movement trajectory of the person can be obtained.

なお、この実施の形態1では、監視対象領域がエレベータのかご内である場合について説明したが、この発明の適用はこれに限るものではない。例えば、電車の中を監視対象領域として適用し、電車の混雑度などを計測する場合にも利用できる。また、この発明を、セキュリティニーズの高い場所を監視対象領域として、人物の移動履歴を求めることに適用し、不審な人物の行動を監視することも可能である。また、この発明を、駅や店舗などに適用して人物の移動軌跡を解析することで、マーケティングなどに利用することも可能である。さらに、この発明を、エスカレータの踊り場を監視対象領域として適用し、踊り場に存在する人物の数をカウントして踊り場が混雑してきた場合に、例えば、エスカレータの徐行や停止など適切な制御を行うことで、エスカレータ上で人物が将棋倒しになるなどの事故を未然に回避することに利用することもできる。  In addition, in thisEmbodiment 1, although the case where the monitoring object area | region was in the elevator car was demonstrated, application of this invention is not restricted to this. For example, the present invention can also be used when the inside of a train is applied as a monitoring target area and the degree of congestion of the train is measured. Further, the present invention can be applied to obtaining a movement history of a person using a place with high security needs as a monitoring target area, and the behavior of a suspicious person can be monitored. In addition, the present invention can be used for marketing or the like by analyzing a person's movement trajectory by applying it to a station or a store. Furthermore, when the present invention is applied to the escalator landing as a monitoring target area and the number of persons present on the landing is counted and the landing is crowded, for example, appropriate control such as slowing or stopping of the escalator is performed. Thus, it can be used to avoid accidents such as a person becoming a shogi on a escalator.

この発明の実施の形態1による人物追跡装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the person tracking device byEmbodiment 1 of this invention.同実施の形態1に係る人物追跡動作の前処理の手順を示すフローチャートである。7 is a flowchart showing a procedure of preprocessing of a person tracking operation according to the first embodiment.同実施の形態1に係る人物追跡動作の後処理の手順を示すフローチャートである。7 is a flowchart illustrating a post-processing procedure of a person tracking operation according to the first embodiment.同実施の形態1に係るチェッカーフラグパターンの撮影状況を示す説明図である。It is explanatory drawing which shows the imaging | photography condition of the checker flag pattern which concerns on thesame Embodiment 1. FIG.同実施の形態1に係るエレベータのかご内の隅をキャリブレーションパターンとして撮影する状況を示す説明図である。It is explanatory drawing which shows the condition which image | photographs the corner in the elevator car which concerns on thesame Embodiment 1 as a calibration pattern.同実施の形態1に係る人物検出部の人物の頭部の検出処理の状況例を示す説明図である。It is explanatory drawing which shows the example of a condition of the detection process of the person's head of the person detection part which concerns on thesame Embodiment 1. FIG.同実施の形態1に係る2次元移動軌跡算出部の動作手順を示すフローチャートである。6 is a flowchart showing an operation procedure of a two-dimensional movement trajectory calculation unit according to the first embodiment.同実施の形態1に係る2次元移動軌跡算出部の動作状況例を示す説明図である。It is explanatory drawing which shows the example of an operating condition of the two-dimensional movement locus | trajectory calculation part which concerns on thesame Embodiment 1. FIG.同実施の形態1に係る軌跡ステレオ部の動作手順を示すフローチャートである。7 is a flowchart illustrating an operation procedure of a trajectory stereo unit according to the first embodiment.同実施の形態1に係る軌跡ステレオ部による2次元移動軌跡のマッチング率算出方法を示す説明図である。It is explanatory drawing which shows the matching rate calculation method of the two-dimensional movement locus | trajectory by the locus | trajectory stereo part which concerns on thesame Embodiment 1. FIG.同実施の形態1に係る軌跡ステレオ部で算出する2次元移動軌跡同士のオーバーラップ時間について示す説明図である。It is explanatory drawing shown about the overlap time of the two-dimensional movement locus | trajectory calculated in the locus | trajectory stereo part which concerns on thesame Embodiment 1. FIG.同実施の形態1に係る3次元移動軌跡算出部の動作手順を示すフローチャートである。7 is a flowchart showing an operation procedure of a three-dimensional movement trajectory calculation unit according to the first embodiment.同実施の形態1に係る3次元移動軌跡算出部による3次元移動軌跡の連結処理の例を示す説明図である。It is explanatory drawing which shows the example of the connection process of the three-dimensional movement locus | trajectory by the three-dimensional movement locus | trajectory calculation part which concerns on thesame Embodiment 1. FIG.同実施の形態1に係る連結処理で複数の3次元移動軌跡が存在する例について示す説明図である。It is explanatory drawing shown about the example in which the some three-dimensional movement locus | trajectory exists by the connection process which concerns on thesame Embodiment 1. FIG.従来の人物検出手法に係る説明図である。It is explanatory drawing which concerns on the conventional person detection method.

符号の説明Explanation of symbols

1 カメラ、2 映像取得部、3 カメラキャリブレーション部、4 映像解析部、5 映像補正部、6 人物検出部、7 2次元移動軌跡算出部、8 軌跡ステレオ部、9 3次元移動軌跡算出部。  1 camera, 2 video acquisition unit, 3 camera calibration unit, 4 video analysis unit, 5 video correction unit, 6 person detection unit, 7 2D movement trajectory calculation unit, 8 trajectory stereo unit, and 9 3D movement trajectory calculation unit.

Claims (21)

Translated fromJapanese
異なる位置に設置され監視対象領域をそれぞれ撮影して映像を取り出す複数の映像撮影手段と、
前記複数の映像撮影手段により取り出された映像毎の各フレーム画像に写っている人体の特徴箇所を人物として検出し、この検出した人物の画像座標を算出する人物検出手段と、
前記人物検出手段により時々刻々到来するフレーム画像から算出された人物の画像座標に対して画像テンプレートマッチングを行って個々の人物の画像座標の点列を求め、当該点列を移動する個々の人物の2次元移動軌跡として算出する2次元移動軌跡算出手段と、
前記2次元移動軌跡算出手段で前記複数の映像撮影手段の各映像から算出された対応する個々の人物の2次元移動軌跡に対して、監視対象領域内の基準点に対する前記複数の映像撮影手段のそれぞれの設置位置および設置角度に基づいてステレオマッチングを行うことにより個々の人物の3次元移動軌跡を算出する軌跡ステレオ手段と、
前記軌跡ステレオ手段で算出された個々の人物の3次元移動軌跡の断片の前後を対応付けて連結することにより各人物の全3次元移動軌跡を生成する3次元移動軌跡算出手段とを備えたことを特徴とする人物追跡装置。
A plurality of video shooting means installed at different positions to take a picture of each of the monitored areas;
A person detecting means for detecting a characteristic part of a human body reflected in each frame image for each video taken out by the plurality of video photographing means as a person, and calculating image coordinates of the detected person;
Image template matching is performed on the image coordinates of the person calculated from the frame image that comes from time to time by the person detection means to obtain a point sequence of the image coordinates of the individual person, and the individual person moving the point sequence Two-dimensional movement trajectory calculating means for calculating as a two-dimensional movement trajectory;
With respect to the two-dimensional movement trajectory of the corresponding individual calculated by the two-dimensional movement trajectory calculating means from each video of the plurality of video photographing means, the plurality of video photographing means relative to the reference point in the monitoring target area Trajectory stereo means for calculating a three-dimensional movement trajectory of each person by performing stereo matching based on each installation position and installation angle;
3D movement trajectory calculation means for generating a total 3D movement trajectory of each person by associating and connecting the fragments of the 3D movement trajectory of each person calculated by the trajectory stereo means in association with each other. A person tracking device characterized by the above.
複数の映像撮影手段により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、前記複数の映像撮影手段それぞれのカメラパラメータを算出するカメラキャリブレーション手段と、
前記算出されたカメラパラメータに基づいて、前記複数の映像撮影手段により撮影された各映像の歪みをそれぞれ補正して人物検出手段に与える正規化画像を生成する映像補正手段とを備えたことを特徴とする請求項1記載の人物追跡装置。
A camera calibration unit that analyzes the degree of distortion of the image of the calibration pattern captured by the plurality of image capturing units and calculates camera parameters of each of the plurality of image capturing units;
Video correction means for generating a normalized image to be provided to the person detection means by correcting distortion of each video shot by the plurality of video shooting means based on the calculated camera parameters; The person tracking device according to claim 1.
カメラキャリブレーション手段は、複数の映像撮影手段により撮影されたキャリブレーションパターンの映像に基づいて、ステレオマッチングで用いる前記複数の映像撮影手段のそれぞれの設置位置および設置角度を算出することを特徴とする請求項2記載の人物追跡装置。  The camera calibration unit calculates an installation position and an installation angle of each of the plurality of video imaging units used for stereo matching based on the images of the calibration pattern captured by the plurality of video imaging units. The person tracking device according to claim 2. 2次元移動軌跡算出手段は、人物検出手段で算出された人物の画像座標に対して、時間的に前後に人物を追跡して画像上での2次元移動軌跡を算出することを特徴とする請求項1から請求項3のうちのいずれか1項記載の人物追跡装置。  The two-dimensional movement trajectory calculating means calculates the two-dimensional movement trajectory on the image by tracking the person before and after the image coordinates of the person calculated by the person detecting means. The person tracking device according to any one of claims 1 to 3. 人物検出手段は、検出した人物の画像座標を算出する際に人物の確信度を算出し、
2次元移動軌跡算出手段は、2次元移動軌跡の算出中に、前記人物検出手段で求めた確信度の累積値を閾値処理することを特徴とする請求項1から請求項3のうちのいずれか1項記載の人物追跡装置。
The person detection means calculates the certainty factor of the person when calculating the image coordinates of the detected person,
The two-dimensional movement trajectory calculation means performs threshold processing on the cumulative value of the certainty factor obtained by the person detection means during the calculation of the two-dimensional movement trajectory. The person tracking device according to item 1.
2次元移動軌跡算出手段は、2次元移動軌跡の算出中に、画像テンプレートマッチングにおける人物探索領域のアップデートの回数を閾値処理することを特徴とする請求項1から請求項3のうちのいずれか1項記載の人物追跡装置。  The two-dimensional movement trajectory calculating means performs threshold processing on the number of updates of the person search area in the image template matching during the calculation of the two-dimensional movement trajectory. The person tracking device according to the item. 軌跡ステレオ手段は、2次元移動軌跡算出手段で算出された対応する個々の人物の2次元移動軌跡のオーバーラップする各時刻において、複数の映像撮影手段のそれぞれの設置位置および設置角度に基づいて当該2次元移動軌跡を形成している点列同士のステレオマッチングを行い、オーバーラップ時間に存在する個々の人物の3次元移動軌跡を求めることを特徴とする請求項1から請求項3のうちのいずれか1項記載の人物追跡装置。  The trajectory stereo means is based on the installation positions and the installation angles of the plurality of video photographing means at each time when the two-dimensional movement trajectory of the corresponding individual calculated by the two-dimensional movement trajectory calculation means overlaps. The stereo matching between the point sequences forming the two-dimensional movement locus is performed to obtain the three-dimensional movement locus of each person existing in the overlap time. The person tracking device according to claim 1. 軌跡ステレオ手段は、ステレオマッチングによりオーバーラップ時間の個々の人物の3次元移動軌跡を求める際に、対応する2次元移動軌跡を形成している点列同士の距離を算出して当該距離に基づいて2次元移動軌跡のマッチング率を算出し、当該マッチング率が一定の閾値を超えた場合に、算出された3次元移動軌跡に対して所定の条件のフィルタリングをかけることを特徴とする請求項7記載の人物追跡装置。  The trajectory stereo means calculates the distance between the point sequences forming the corresponding two-dimensional movement trajectory when obtaining the three-dimensional movement trajectory of the individual person having the overlap time by stereo matching, and based on the distance. 8. The matching rate of a two-dimensional movement trajectory is calculated, and when the matching rate exceeds a certain threshold, filtering of a predetermined condition is applied to the calculated three-dimensional movement trajectory. Person tracking device. 軌跡ステレオ手段は、ステレオマッチングの際にオーバーラップ時間において推定した人物の3次元位置情報に基づいて、オーバーラップしていない時刻における個々の人物の2次元移動軌跡を形成している点列の3次元位置を算出することにより個々の人物の3次元移動軌跡を推定することを特徴とする請求項7記載の人物追跡装置。  The trajectory stereo means 3 of the point sequence forming the two-dimensional movement trajectory of each person at the time of non-overlap based on the three-dimensional position information of the person estimated in the overlap time at the time of stereo matching. The person tracking apparatus according to claim 7, wherein a three-dimensional movement trajectory of each person is estimated by calculating a three-dimensional position. 3次元移動軌跡推定手段は、複数の3次元移動軌跡の候補が算出された場合には、所定の条件に基づいて各3次元移動軌跡のコストを算出し、算出されたコストが最小となる候補を3次元移動軌跡として選出することを特徴とする請求項1から請求項3のうちのいずれか1項記載の人物追跡装置。  When a plurality of three-dimensional movement trajectory candidates are calculated, the three-dimensional movement trajectory estimation means calculates the cost of each three-dimensional movement trajectory based on a predetermined condition, and the candidate for which the calculated cost is the smallest The person tracking device according to claim 1, wherein the person tracking device is selected as a three-dimensional movement trajectory. 3次元移動軌跡算出手段は、複数の映像撮影手段の監視対象領域がエレベータのかご内である場合、前記エレベータの停止階情報と個々の人物の3次元移動軌跡を対応付けた移動履歴を求めること特徴とする請求項1から請求項10のうちのいずれか1項記載の人物追跡装置。  The three-dimensional movement trajectory calculating means obtains a movement history that associates the stop floor information of the elevator with the three-dimensional movement trajectory of each person when the monitoring target areas of the plurality of video photographing means are in the elevator car. The person tracking apparatus according to claim 1, wherein the person tracking apparatus is characterized. 複数の映像撮影手段により異なる位置から監視対象領域を撮影して取り出されるそれぞれの映像の各フレーム画像から人体の特徴箇所を人物として検出し、当該検出した人物の画像座標を算出する人物検出処理と、
時々刻々到来するフレーム画像から算出された人物の画像座標に対して画像テンプレートマッチングを行って個々の人物の画像座標の点列を求め、当該点列を移動する個々の人物の2次元移動軌跡として算出する2次元移動軌跡算出処理と、
前記複数の映像撮影手段の各映像から算出された対応する個々の人物の2次元移動軌跡に対して、監視対象領域内の基準点に対する前記複数の映像撮影手段のそれぞれの設置位置および設置角度に基づいてステレオマッチングを行って個々の人物の3次元移動軌跡を算出する軌跡ステレオ処理と、
前記算出された個々の人物の3次元移動軌跡の断片の前後を対応付けて連結して各人物の全3次元移動軌跡を生成する3次元移動軌跡算出処理とをコンピュータ上で実行する人物追跡プログラム。
A person detection process for detecting a human body characteristic part as a person from each frame image of each video imaged and taken out from different positions by a plurality of video imaging means, and calculating image coordinates of the detected person; ,
Image template matching is performed on the image coordinates of the person calculated from the frame image that comes from time to time to obtain a point sequence of the image coordinates of the individual person, and as a two-dimensional movement trajectory of the individual person that moves the point sequence Two-dimensional movement trajectory calculation processing to be calculated;
With respect to the two-dimensional movement trajectory of the corresponding individual person calculated from each video of the plurality of video imaging means, the installation position and the installation angle of each of the video imaging means with respect to the reference point in the monitored area A trajectory stereo process for performing stereo matching based on the three-dimensional movement trajectory of each person,
A person tracking program for executing, on a computer, a three-dimensional movement trajectory calculation process for generating a total three-dimensional movement trajectory of each person by associating and connecting the calculated fragments of the three-dimensional movement trajectory of each individual in association with each other. .
複数の映像撮影手段により撮影されたキャリブレーションパターンの映像から算出された前記複数の映像撮影手段のカメラパラメータに基づいて、前記複数の映像撮影手段により撮影された映像の歪みをそれぞれ補正して人物の検出処理に用いる正規化画像を生成する処理を実行する映像補正処理を実行することを特徴とする請求項12記載の人物追跡プログラム。  Based on the camera parameters of the plurality of video photographing means calculated from the images of the calibration patterns photographed by the plurality of video photographing means, the distortion of the video photographed by the plurality of video photographing means is corrected, respectively. 13. The person tracking program according to claim 12, wherein a video correction process for executing a process for generating a normalized image used in the detection process is executed. 2次元移動軌跡算出処理は、人物検出処理で算出された人物の画像座標に対して、時間的に前後に人物を追跡して画像上での2次元移動軌跡を算出することを特徴とする請求項12または請求項13記載の人物追跡プログラム。  The two-dimensional movement trajectory calculation process is characterized by calculating a two-dimensional movement trajectory on an image by tracking the person before and after the image coordinates of the person calculated by the person detection process. The person tracking program according to claim 12 or claim 13. 人物検出処理では、検出した人物の画像座標を算出する際に人物の確信度を算出し、
2次元移動軌跡算出処理では、2次元移動軌跡の算出中に、前記確信度の累積値を閾値処理することを特徴とする請求項12または請求項13記載の人物追跡プログラム。
In the person detection process, the degree of certainty of the person is calculated when calculating the image coordinates of the detected person,
14. The person tracking program according to claim 12, wherein in the two-dimensional movement trajectory calculation process, the cumulative value of the certainty factor is subjected to threshold processing during calculation of the two-dimensional movement trajectory.
2次元移動軌跡算出処理では、2次元移動軌跡の算出中に、画像テンプレートマッチングにおける人物探索領域のアップデートの回数を閾値処理することを特徴とする請求項12または請求項13記載の人物追跡プログラム。  14. The person tracking program according to claim 12, wherein in the two-dimensional movement trajectory calculation process, the number of updates of the person search area in the image template matching is thresholded during calculation of the two-dimensional movement trajectory. 軌跡ステレオ処理では、2次元移動軌跡算出処理で算出された対応する個々の人物の2次元移動軌跡のオーバーラップする各時刻において、複数の映像撮影手段のそれぞれの設置位置および設置角度に基づいて当該2次元移動軌跡を形成している点列同士のステレオマッチングを行い、オーバーラップ時間に存在する個々の人物の3次元移動軌跡を求めることを特徴とする請求項12または請求項13記載の人物追跡プログラム。  In the trajectory stereo process, at each time when the two-dimensional movement trajectory of the corresponding individual calculated by the two-dimensional movement trajectory calculation process overlaps, the trajectory stereo processing is performed based on the installation positions and the installation angles of the plurality of video photographing means. The person tracking according to claim 12 or 13, wherein stereo matching is performed between point sequences forming a two-dimensional movement trajectory to obtain a three-dimensional movement trajectory of each person existing during the overlap time. program. 軌跡ステレオ処理では、ステレオマッチングによりオーバーラップ時間の個々の人物の3次元移動軌跡を求める際に、対応する2次元移動軌跡を形成している点列同士の距離を算出して当該距離に基づいて2次元移動軌跡のマッチング率を算出し、当該マッチング率が一定の閾値を超えた場合に、算出された3次元移動軌跡に対して所定の条件のフィルタリングをかけることを特徴とする請求項17記載の人物追跡プログラム。  In the trajectory stereo process, when obtaining the three-dimensional movement trajectory of each individual person in the overlap time by stereo matching, the distance between the point sequences forming the corresponding two-dimensional movement trajectory is calculated and based on the distance. 18. The matching rate of a two-dimensional movement trajectory is calculated, and when the matching rate exceeds a certain threshold, filtering of a predetermined condition is applied to the calculated three-dimensional movement trajectory. Person tracking program. 軌跡ステレオ処理では、ステレオマッチングの際にオーバーラップ時間において推定した人物の3次元位置情報に基づいて、オーバーラップしていない時刻における個々の人物の2次元移動軌跡を形成している点列の3次元位置を算出することにより個々の人物の3次元移動軌跡を推定することを特徴とする請求項17記載の人物追跡プログラム。  In the trajectory stereo processing, 3 of the point sequence forming the two-dimensional movement trajectory of each person at the time of non-overlap based on the three-dimensional position information of the person estimated in the overlap time at the time of stereo matching. 18. The person tracking program according to claim 17, wherein a three-dimensional movement trajectory of each person is estimated by calculating a three-dimensional position. 3次元移動軌跡推定処理では、複数の3次元移動軌跡の候補が算出された場合には、所定の条件に基づいて各3次元移動軌跡のコストを算出し、算出されたコストが最小となる候補を3次元移動軌跡として選出することを特徴とする請求項12または請求項13記載の人物追跡プログラム。  In the three-dimensional movement trajectory estimation processing, when a plurality of three-dimensional movement trajectory candidates are calculated, the cost of each three-dimensional movement trajectory is calculated based on a predetermined condition, and the calculated cost is minimized. 14. The person tracking program according to claim 12 or 13, wherein the person tracking program is selected as a three-dimensional movement trajectory. 3次元移動軌跡算出処理では、複数の映像撮影手段の監視対象領域がエレベータのかご内である場合、前記エレベータの停止階情報と個々の人物の3次元移動軌跡を対応付けた移動履歴を求めること特徴とする請求項12から請求項20のうちのいずれか1項記載の人物追跡プログラム。  In the three-dimensional movement trajectory calculation process, when the monitoring target areas of the plurality of video photographing means are in the elevator car, a movement history in which the stop floor information of the elevator is associated with the three-dimensional movement trajectory of each person is obtained. 21. The person tracking program according to any one of claims 12 to 20, wherein the person tracking program is one of the following.
JP2008228582A2008-09-052008-09-05Person-tracking device and person-tracking programPendingJP2010063001A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2008228582AJP2010063001A (en)2008-09-052008-09-05Person-tracking device and person-tracking program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2008228582AJP2010063001A (en)2008-09-052008-09-05Person-tracking device and person-tracking program

Publications (1)

Publication NumberPublication Date
JP2010063001Atrue JP2010063001A (en)2010-03-18

Family

ID=42189287

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2008228582APendingJP2010063001A (en)2008-09-052008-09-05Person-tracking device and person-tracking program

Country Status (1)

CountryLink
JP (1)JP2010063001A (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR101331877B1 (en)2009-04-202013-11-21오티스 엘리베이터 컴파니Conveyor safety control
JP2014511538A (en)*2011-03-042014-05-15クゥアルコム・インコーポレイテッド Dynamic template tracking
JP2014237521A (en)*2013-06-102014-12-18株式会社日立製作所Group management elevator system
JP2015120573A (en)*2013-12-242015-07-02株式会社日立製作所 Elevator with image recognition function
CN104828664A (en)*2015-04-032015-08-12奥的斯电梯公司Automatic debugging system and method
CN105480807A (en)*2016-01-222016-04-13浙江蒂尔森电梯有限公司Elevator with passenger state recording and display functions
US9489565B2 (en)2011-09-282016-11-08Oki Electric Industry Co., Ltd.Image processing apparatus, image processing method, program, and image processing system
JP2016194847A (en)*2015-04-012016-11-17キヤノン株式会社 Image detection apparatus, image detection method, and program
JP2017016356A (en)*2015-06-302017-01-19キヤノン株式会社 Image processing apparatus, image processing method, and program
CN107285148A (en)*2017-08-072017-10-24浙江新再灵科技股份有限公司Interest region decision system and method based on elevator scene
US9877012B2 (en)2015-04-012018-01-23Canon Kabushiki KaishaImage processing apparatus for estimating three-dimensional position of object and method therefor
WO2018061928A1 (en)*2016-09-302018-04-05日本電気株式会社Information processing device, counter system, counting method, and program storage medium
WO2018061926A1 (en)*2016-09-302018-04-05日本電気株式会社Counter system and counting method
US10212324B2 (en)2015-12-012019-02-19Canon Kabushiki KaishaPosition detection device, position detection method, and storage medium
WO2019044038A1 (en)*2017-08-302019-03-07三菱電機株式会社Imaging object tracking device and imaging object tracking method
US10241486B2 (en)2015-04-032019-03-26Otis Elevator CompanySystem and method for passenger conveyance control and security via recognized user operations
JP2019087925A (en)*2017-11-082019-06-06株式会社東芝 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
CN110059611A (en)*2019-04-122019-07-26中国石油大学(华东)A kind of intelligence vacant seat recognition methods in classroom
US10479647B2 (en)2015-04-032019-11-19Otis Elevator CompanyDepth sensor based sensing for special passenger conveyance loading conditions
WO2019225547A1 (en)*2018-05-232019-11-28日本電信電話株式会社Object tracking device, object tracking method, and object tracking program
US10513416B2 (en)2015-04-032019-12-24Otis Elevator CompanyDepth sensor based passenger sensing for passenger conveyance door control
US10513415B2 (en)2015-04-032019-12-24Otis Elevator CompanyDepth sensor based passenger sensing for passenger conveyance control
US10572736B2 (en)2015-03-162020-02-25Canon Kabushiki KaishaImage processing apparatus, image processing system, method for image processing, and computer program
CN112665592A (en)*2020-12-162021-04-16郑州大学Space-time path planning method based on multiple intelligent agents
CN113610890A (en)*2021-07-022021-11-05河南橡树智能科技有限公司Real-time personnel track two-dimensional plane display method based on multiple cameras
US11232312B2 (en)2015-04-032022-01-25Otis Elevator CompanyTraffic list generation for passenger conveyance
JP2022020223A (en)*2020-07-202022-02-01キヤノン株式会社Information processing device, information processing method and program
CN115411935A (en)*2022-07-122022-11-29电子科技大学Phase plane secant trajectory control method of Boost converter
CN115631464A (en)*2022-11-172023-01-20北京航空航天大学Pedestrian three-dimensional representation method oriented to large space-time target association
CN116034579A (en)*2020-08-042023-04-28三菱电机株式会社Moving object tracking system, moving object tracking device, program, and moving object tracking method
US11803972B2 (en)2018-01-122023-10-31Nec CorporationInformation processing apparatus, control method, and program for accurately linking fragmented trajectories of an object
JP2023179121A (en)*2022-06-072023-12-19東芝エレベータ株式会社elevator system

Citations (8)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH09269262A (en)*1996-04-021997-10-14Toshiba Corp Number of people confirmation device and air conditioning control device using the same
JPH10208059A (en)*1997-01-221998-08-07Matsushita Electric Ind Co Ltd Moving object extraction device
JPH1166319A (en)*1997-08-211999-03-09Omron CorpMethod and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP2002157599A (en)*2000-11-172002-05-31Nippon Telegr & Teleph Corp <Ntt> Object detection / recognition method, recording medium storing object detection / recognition program, and object monitoring / tracking apparatus
JP2003111063A (en)*2001-10-022003-04-11Hitachi Kokusai Electric Inc Intruding object tracking method and intruding object monitoring device
JP2005353016A (en)*2004-06-092005-12-22Cci:KkEvaluation and method for action pattern identification of moving image
JP2008085874A (en)*2006-09-282008-04-10Toshiba Corp Person monitoring system and person monitoring method
JP2008177742A (en)*2007-01-172008-07-31Alpine Electronics IncCamera parameter acquisition device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH09269262A (en)*1996-04-021997-10-14Toshiba Corp Number of people confirmation device and air conditioning control device using the same
JPH10208059A (en)*1997-01-221998-08-07Matsushita Electric Ind Co Ltd Moving object extraction device
JPH1166319A (en)*1997-08-211999-03-09Omron CorpMethod and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP2002157599A (en)*2000-11-172002-05-31Nippon Telegr & Teleph Corp <Ntt> Object detection / recognition method, recording medium storing object detection / recognition program, and object monitoring / tracking apparatus
JP2003111063A (en)*2001-10-022003-04-11Hitachi Kokusai Electric Inc Intruding object tracking method and intruding object monitoring device
JP2005353016A (en)*2004-06-092005-12-22Cci:KkEvaluation and method for action pattern identification of moving image
JP2008085874A (en)*2006-09-282008-04-10Toshiba Corp Person monitoring system and person monitoring method
JP2008177742A (en)*2007-01-172008-07-31Alpine Electronics IncCamera parameter acquisition device

Cited By (45)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR101331877B1 (en)2009-04-202013-11-21오티스 엘리베이터 컴파니Conveyor safety control
JP2014511538A (en)*2011-03-042014-05-15クゥアルコム・インコーポレイテッド Dynamic template tracking
US9489565B2 (en)2011-09-282016-11-08Oki Electric Industry Co., Ltd.Image processing apparatus, image processing method, program, and image processing system
JP2014237521A (en)*2013-06-102014-12-18株式会社日立製作所Group management elevator system
JP2015120573A (en)*2013-12-242015-07-02株式会社日立製作所 Elevator with image recognition function
US10572736B2 (en)2015-03-162020-02-25Canon Kabushiki KaishaImage processing apparatus, image processing system, method for image processing, and computer program
JP2016194847A (en)*2015-04-012016-11-17キヤノン株式会社 Image detection apparatus, image detection method, and program
US9877012B2 (en)2015-04-012018-01-23Canon Kabushiki KaishaImage processing apparatus for estimating three-dimensional position of object and method therefor
US10479647B2 (en)2015-04-032019-11-19Otis Elevator CompanyDepth sensor based sensing for special passenger conveyance loading conditions
US11836995B2 (en)2015-04-032023-12-05Otis Elevator CompanyTraffic list generation for passenger conveyance
CN104828664A (en)*2015-04-032015-08-12奥的斯电梯公司Automatic debugging system and method
EP3075695A1 (en)*2015-04-032016-10-05Otis Elevator CompanyAuto commissioning system and method
US10513415B2 (en)2015-04-032019-12-24Otis Elevator CompanyDepth sensor based passenger sensing for passenger conveyance control
US10513416B2 (en)2015-04-032019-12-24Otis Elevator CompanyDepth sensor based passenger sensing for passenger conveyance door control
US11232312B2 (en)2015-04-032022-01-25Otis Elevator CompanyTraffic list generation for passenger conveyance
US10241486B2 (en)2015-04-032019-03-26Otis Elevator CompanySystem and method for passenger conveyance control and security via recognized user operations
JP2017016356A (en)*2015-06-302017-01-19キヤノン株式会社 Image processing apparatus, image processing method, and program
US10212324B2 (en)2015-12-012019-02-19Canon Kabushiki KaishaPosition detection device, position detection method, and storage medium
CN105480807B (en)*2016-01-222018-05-22浙江蒂尔森电梯有限公司A kind of elevator that display function is recorded with passenger carrying status
CN105480807A (en)*2016-01-222016-04-13浙江蒂尔森电梯有限公司Elevator with passenger state recording and display functions
JPWO2018061926A1 (en)*2016-09-302019-06-27日本電気株式会社 Counting system and counting method
JPWO2018061928A1 (en)*2016-09-302019-07-25日本電気株式会社 INFORMATION PROCESSING APPARATUS, COUNTING SYSTEM, COUNTING METHOD, AND COMPUTER PROGRAM
JP7007280B2 (en)2016-09-302022-01-24日本電気株式会社 Information processing equipment, counting system, counting method and computer program
WO2018061926A1 (en)*2016-09-302018-04-05日本電気株式会社Counter system and counting method
WO2018061928A1 (en)*2016-09-302018-04-05日本電気株式会社Information processing device, counter system, counting method, and program storage medium
CN107285148A (en)*2017-08-072017-10-24浙江新再灵科技股份有限公司Interest region decision system and method based on elevator scene
JPWO2019044038A1 (en)*2017-08-302020-05-28三菱電機株式会社 Imaging target tracking device and imaging target tracking method
WO2019044038A1 (en)*2017-08-302019-03-07三菱電機株式会社Imaging object tracking device and imaging object tracking method
CN111034189A (en)*2017-08-302020-04-17三菱电机株式会社Imaging object tracking device and imaging object tracking method
JP2019087925A (en)*2017-11-082019-06-06株式会社東芝 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
US11145068B2 (en)2017-11-082021-10-12Kabushiki Kaisha ToshibaImage-processing apparatus, image-processing system, image-processing method, and storage medium
US11803972B2 (en)2018-01-122023-10-31Nec CorporationInformation processing apparatus, control method, and program for accurately linking fragmented trajectories of an object
JP2019205060A (en)*2018-05-232019-11-28日本電信電話株式会社Object tracking device, object tracking method, and object tracking program
WO2019225547A1 (en)*2018-05-232019-11-28日本電信電話株式会社Object tracking device, object tracking method, and object tracking program
CN110059611B (en)*2019-04-122023-05-05中国石油大学(华东)Intelligent classroom vacant seat identification method
CN110059611A (en)*2019-04-122019-07-26中国石油大学(华东)A kind of intelligence vacant seat recognition methods in classroom
JP7665299B2 (en)2020-07-202025-04-21キヤノン株式会社 Information processing device, information processing method, and program
JP2022020223A (en)*2020-07-202022-02-01キヤノン株式会社Information processing device, information processing method and program
CN116034579A (en)*2020-08-042023-04-28三菱电机株式会社Moving object tracking system, moving object tracking device, program, and moving object tracking method
CN112665592A (en)*2020-12-162021-04-16郑州大学Space-time path planning method based on multiple intelligent agents
CN113610890A (en)*2021-07-022021-11-05河南橡树智能科技有限公司Real-time personnel track two-dimensional plane display method based on multiple cameras
JP2023179121A (en)*2022-06-072023-12-19東芝エレベータ株式会社elevator system
CN115411935A (en)*2022-07-122022-11-29电子科技大学Phase plane secant trajectory control method of Boost converter
CN115631464B (en)*2022-11-172023-04-04北京航空航天大学 Pedestrian Stereo Representation Method Oriented to Large Spatiotemporal Object Association
CN115631464A (en)*2022-11-172023-01-20北京航空航天大学Pedestrian three-dimensional representation method oriented to large space-time target association

Similar Documents

PublicationPublication DateTitle
JP2010063001A (en)Person-tracking device and person-tracking program
JP2009143722A (en) Person tracking device, person tracking method, and person tracking program
US10417503B2 (en)Image processing apparatus and image processing method
KR102213328B1 (en)Video processing apparatus, video processing method, and program
CN111937036B (en) Method, device and computer-readable storage medium having instructions for processing sensor data
Cohen et al.Detecting and tracking moving objects for video surveillance
US7729512B2 (en)Stereo image processing to detect moving objects
JP5688456B2 (en) Security camera tracking and monitoring system and method using thermal image coordinates
CN101542549B (en)Suspicious behavior detection system and method
JP6555906B2 (en) Information processing apparatus, information processing method, and program
US20180101732A1 (en)Image processing apparatus, image processing system, method for image processing, and computer program
WO2016129403A1 (en)Object detection device
JP6453490B2 (en) Method and apparatus for recognizing and evaluating road surface reflections
US20130215270A1 (en)Object detection apparatus
KR20160062880A (en)road traffic information management system for g using camera and radar
US20110069155A1 (en)Apparatus and method for detecting motion
JP2018516799A5 (en)
JP2019121019A (en)Information processing device, three-dimensional position estimation method, computer program, and storage medium
JP2018156408A (en) Image recognition imaging device
JP2015210823A (en)Method and system for partial occlusion handling in vehicle tracking using deformable parts model
JPWO2008035411A1 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
KR20220114819A (en)Real-time object tracking system and method in moving camera video
JP2021149687A (en)Device, method and program for object recognition
Ibisch et al.Towards highly automated driving in a parking garage: General object localization and tracking using an environment-embedded camera system
JP7540974B2 (en) Multiple object tracking device, method and program

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20110124

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20120528

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20120619

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20121016


[8]ページ先頭

©2009-2025 Movatter.jp