Movatterモバイル変換


[0]ホーム

URL:


JP2011159097A - Method and device for detecting object - Google Patents

Method and device for detecting object
Download PDF

Info

Publication number
JP2011159097A
JP2011159097AJP2010020087AJP2010020087AJP2011159097AJP 2011159097 AJP2011159097 AJP 2011159097AJP 2010020087 AJP2010020087 AJP 2010020087AJP 2010020087 AJP2010020087 AJP 2010020087AJP 2011159097 AJP2011159097 AJP 2011159097A
Authority
JP
Japan
Prior art keywords
detection
reduction process
detection reduction
false
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010020087A
Other languages
Japanese (ja)
Inventor
Shigeki Nagaya
茂喜 長屋
Takehiro Fujita
武洋 藤田
Tomoaki Yoshinaga
智明 吉永
Kiyoshi Nakada
清 中田
Mamoru Sakamoto
守 坂本
Junichi Sugio
淳一 杉尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics CorpfiledCriticalRenesas Electronics Corp
Priority to JP2010020087ApriorityCriticalpatent/JP2011159097A/en
Publication of JP2011159097ApublicationCriticalpatent/JP2011159097A/en
Withdrawnlegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

Translated fromJapanese

【課題】オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減するための技術を提供する。
【解決手段】入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく第1処理と、上記入力画像における上記小領域毎の特徴量を算出する第2処理と、上記特徴量の算出結果に基づいて上記小領域毎にオブジェクトか非オブジェクトかを判別する第3処理とを含んでオブジェクト検出を行う。上記第3処理におけるオブジェクト判定の誤りを低減するための第1誤検出低減処理と、上記第1誤検出低減処理とは異なる方式により、上記第3処理におけるオブジェクト判定の誤りを低減するための第2誤検出低減処理とを、誤検出低減方式切り替え部(105)により、上記小領域を切り出す際のずらし幅に応じて選択的に実行させることでオブジェクト誤検出の低減を図る。
【選択図】図1
A technique for reducing false detection of an object without rapidly increasing the rate of object detection omission.
A first process of cutting out a small area to be subjected to object determination from an input image while shifting the image by a predetermined shift width; a second process of calculating a feature amount for each of the small areas in the input image; Object detection is performed including a third process for determining whether each small region is an object or a non-object based on the calculation result of the feature amount. A first error detection reduction process for reducing object determination errors in the third process and a first error detection error reduction process for reducing object determination errors in the third process are different from the first error detection reduction process. 2 The erroneous detection reduction process is selectively executed by the erroneous detection reduction method switching unit (105) according to the shift width when the small area is cut out, thereby reducing the erroneous detection of the object.
[Selection] Figure 1

Description

Translated fromJapanese

本発明は、入力された画像から顔などの特定のオブジェクトを検出するための技術に関する。  The present invention relates to a technique for detecting a specific object such as a face from an input image.

入力された画像から顔などの特定オブジェクトを検出する方法として、例えば非特許文献1が知られている。非特許文献1には、顔の解析に効率的かつ効果的なハールと呼ばれる画像の特徴の組、アダブースト(AdaBoost)に基づく特徴選択プロセス、学習及び検出用のカスケード式アーキテクチャの3つの新しい方式による高精度なオブジェクト検出手法が記載されている。  For example, Non-PatentDocument 1 is known as a method for detecting a specific object such as a face from an input image. Non-PatentDocument 1 is based on three new methods: a set of image features called Haar, which is efficient and effective for facial analysis, a feature selection process based on AdaBoost, and a cascaded architecture for learning and detection A highly accurate object detection technique is described.

非特許文献1におけるオブジェクト検出では、複数のステージで構成されたオブジェクト判別器を用いる。1回の判別処理では、入力画像から切り出された1つの小領域に対し、このオブジェクト判別器によりその領域が検出対象とするオブジェクトであるかないかを判別する。  In object detection inNon-Patent Document 1, an object discriminator composed of a plurality of stages is used. In one discrimination process, it is discriminate | determined by this object discriminator whether the area | region is an object made into a detection object with respect to one small area cut out from the input image.

各ステージで、ハール特徴に応じた特徴量の総和をステージ毎の出力値として求め、閾値と比較して、オブジェクトであるかどうかの判別を行う。ある閾値以下であればオブジェクトではないと判別して判別処理を打ち切る。一方、閾値以上であればステージクリアと判定して、次のステージによる判別処理へと移行する。オブジェクト判別器内の全てのステージの判別処理をクリアした場合、オブジェクトがあると判定する。  At each stage, the sum of the feature values corresponding to the Haar features is obtained as an output value for each stage, and compared with a threshold value to determine whether the object is an object. If it is below a certain threshold value, it is determined that the object is not an object, and the determination process is terminated. On the other hand, if it is equal to or greater than the threshold value, it is determined that the stage is cleared, and the process proceeds to determination processing by the next stage. When the discrimination processing for all stages in the object discriminator is cleared, it is determined that there is an object.

以上の処理を、入力画像から切り出される全ての小領域に対して繰り返すことで、高精度にオブジェクトが検出できる。  By repeating the above processing for all the small regions cut out from the input image, the object can be detected with high accuracy.

さらに非特許文献2には、上記処理結果によりオブジェクトがあると判定した領域に対して、各ステージでの出力値の総和を「オブジェクトらしさ」として求めて閾値と比較することで、誤ってオブジェクトとして判定したケースを誤検出として削減する方式での処理(この処理を、『オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理』という)が記載されている。  Furthermore, inNon-Patent Document 2, by calculating the sum of the output values at each stage as “object-likeness” and comparing it with a threshold value for an area determined to have an object based on the above processing results, A process in a method of reducing the determined cases as false detections (this process is referred to as “false detection reduction process using“ object-likeness ”summation only of object detection positions”) is described.

また、非特許文献3には、非特許文献2のアイディアを拡張し、検出位置周辺での顔らしさも含めて加重平均を求めて閾値と比較して誤検出を低減する方式での処理(この処理を『検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理』という)が記載されている。また非特許文献3には、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理は、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理に比べて高い性能を示すことが記載されている。  Further, Non-Patent Document 3 expands the idea ofNon-Patent Document 2 and obtains a weighted average including face-likeness around the detection position and compares it with a threshold value to reduce false detection (this method) The processing is referred to as “error detection reduction processing using the“ object-likeness ”summation in the vicinity of the detection position”). Non-Patent Document 3 discloses that the false detection reduction process using the “object-likeness” summation in the vicinity of the detection position is higher than the false detection reduction process using the “object-likeness” summation only at the object detection position. Is described.

P. Viola, M. Jones, ”Rapid Object Detection using a Boosted Cascade of Simple Features,” Proceedings IEEE Conf. on Computer Vision and Pattern Recognition (2001).P. Viola, M. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features,” Proceedings IEEE Conf. On Computer Vision and Pattern Recognition (2001).P. Viola他:「Robust Real-Time Face Detection」, IJCV2004.P. Viola et al: “Robust Real-Time Face Detection”, IJCV2004.東工大・高塚他:「顔らしさ分布を利用した顔検出手法」、情処CVIM研究会(2006/9).Tokyo Institute of Technology, Takatsuka et al .: “Face Detection Method Using Facialness Distribution”, AJI CVIM Study Group (2006/9).

本願発明者は、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理や、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理の製品への採用について検討したところ、以下の課題が見いだされた。  The inventor of the present application examined the adoption of a false detection reduction process using the “object-likeness” sum of only the object detection positions and a false detection reduction process using the “object-likeness” summation around the detection position in the product. However, the following issues were found.

オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理や、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理においては、顔等のオブジェクト検出における誤検出を削減することができるものの、実際にはオブジェクトが存在するにもかかわらずそれを検出できないケース(「オブジェクト検出漏れ」という)の割合が急増することがある。これについて本願発明者が検討したところ、上記オブジェクト検出漏れの割合が急増するのは、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく際の「位置ずらし幅」の割合に起因することが見いだされた。本願発明者の実験によれば、例えばオブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理では、ずらし幅が大きい場合のオブジェクト検出漏れの割合が急激に増加し、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理においては、ずらし幅が小さい場合のオブジェクト検出漏れの割合が急激に増加することが確認されている。  Reduces false detection in detection of objects such as faces in the false detection reduction process using the “object-likeness” sum of only the object detection positions and the false detection reduction process using the “object-likeness” summation around the detection position. The percentage of cases where an object exists but cannot be detected even though the object actually exists (referred to as “object detection omission”) may increase rapidly. The inventor of the present application examined this, and the ratio of the object detection omission increases rapidly because the “position shift width” is obtained when a small area to be subjected to object determination is cut out from the input image with a predetermined shift width. ”Was found to be due to the percentage of According to the experiment of the present inventor, for example, in the false detection reduction process using the “object-likeness” summation of only the object detection position, the ratio of the object detection omission when the shift width is large increases rapidly, In the false detection reduction process using the “object-likeness” sum in FIG. 5, it has been confirmed that the ratio of the object detection omission when the shift width is small increases rapidly.

本発明の目的は、オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減するための技術を提供することにある。  An object of the present invention is to provide a technique for reducing erroneous detection of an object without rapidly increasing the rate of object detection omission.

本発明の前記並びにその他の目的と新規な特徴は本明細書の記述及び添付図面から明らかになるであろう。  The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち代表的なものの概要を簡単に説明すれば下記の通りである。  The following is a brief description of an outline of typical inventions disclosed in the present application.

すなわち、本発明にかかるオブジェクト検出方法は、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく第1処理と、上記入力画像における上記小領域毎の特徴量を算出する第2処理と、上記特徴量の算出結果に基づいて上記小領域毎にオブジェクトか非オブジェクトかを判別する第3処理とを含む。さらに、上記第3処理におけるオブジェクト判定の誤りを低減するための第1誤検出低減処理と、上記第1誤検出低減処理とは異なる方式により、上記第3処理におけるオブジェクト判定の誤りを低減するための第2誤検出低減処理とを、誤検出低減方式切り替え部により、上記小領域を切り出す際のずらし幅に応じて選択的に実行させる。  That is, in the object detection method according to the present invention, a first process of cutting out a small area that is a target of object determination from an input image while shifting it with a predetermined shift width, and a feature amount for each small area in the input image A second process for calculating, and a third process for determining whether each of the small areas is an object or a non-object based on the calculation result of the feature amount. Further, in order to reduce the error in the object determination in the third process by a method different from the first erroneous detection reduction process for reducing the error in the object determination in the third process and the first erroneous detection reduction process. The second erroneous detection reduction process is selectively executed by the erroneous detection reduction method switching unit according to the shift width when the small area is cut out.

本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば下記のとおりである。  The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.

すなわち、オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減するための技術を提供することができる。  That is, it is possible to provide a technique for reducing the erroneous detection of an object without rapidly increasing the object detection omission ratio.

本発明にかかるオブジェクト検出装置における主要部の構成例ブロック図である。It is a block diagram of a configuration example of the main part in the object detection device according to the present invention.上記オブジェクト検出装置における主要処理の例を示す説明図である。It is explanatory drawing which shows the example of the main processes in the said object detection apparatus.上記オブジェクト検出装置における主要処理の例を示す説明図である。It is explanatory drawing which shows the example of the main processes in the said object detection apparatus.上記オブジェクト検出装置でのオブジェクト判別で用いる特徴パターンの一例を示す説明図である。It is explanatory drawing which shows an example of the characteristic pattern used by the object discrimination in the said object detection apparatus.上記オブジェクト検出装置での処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process in the said object detection apparatus.上記オブジェクト検出装置全体の構成例を示すブロック図である。It is a block diagram which shows the structural example of the said whole object detection apparatus.上記オブジェクト検出装置の別の構成例を示すブロック図である。It is a block diagram which shows another structural example of the said object detection apparatus.図7に示されるオブジェクト検出装置にけるパラメータ設定画面の例を示す説明図である。It is explanatory drawing which shows the example of the parameter setting screen in the object detection apparatus shown by FIG.

1.実施の形態の概要
先ず、本願において開示される発明の代表的な実施の形態について概要を説明する。代表的な実施の形態についての概要説明で括弧を付して参照する図面中の参照符号はそれが付された構成要素の概念に含まれるものを例示するに過ぎない。
1. First, an outline of a typical embodiment of the invention disclosed in the present application will be described. Reference numerals in the drawings referred to in parentheses in the outline description of the representative embodiments merely exemplify what are included in the concept of the components to which the reference numerals are attached.

〔1〕本発明の代表的な実施の形態に係るオブジェクト検出方法は、オブジェクト検出装置(900)で実施される。そして本発明の代表的な実施の形態に係るオブジェクト検出方法は、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく第1処理と、上記入力画像における上記小領域毎の特徴量を算出する第2処理と、上記特徴量の算出結果に基づいて上記小領域毎にオブジェクトか非オブジェクトかを判別する第3処理とを含む。さらに、上記第3処理におけるオブジェクト判定の誤りを低減するための第1誤検出低減処理と、上記第1誤検出低減処理とは異なる方式により、上記第3処理におけるオブジェクト判定の誤りを低減するための第2誤検出低減処理とを、誤検出低減方式切り替え部(105)により、上記小領域を切り出す際のずらし幅に応じて選択的に実行させる。  [1] An object detection method according to a representative embodiment of the present invention is implemented by an object detection apparatus (900). The object detection method according to the representative embodiment of the present invention includes a first process of cutting out a small area that is an object determination target from an input image while shifting the image by a predetermined shift width, and the small image in the input image. A second process for calculating a feature amount for each region; and a third process for determining whether the small region is an object or a non-object based on the calculation result of the feature amount. Further, in order to reduce the error in the object determination in the third process by a method different from the first erroneous detection reduction process for reducing the error in the object determination in the third process and the first erroneous detection reduction process. The second false detection reduction process is selectively executed by the false detection reduction method switching unit (105) according to the shift width when the small area is cut out.

上記のように、オブジェクト検出漏れの割合が急増するのは、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく際の「位置ずらし幅」の割合に起因している。例えばオブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理では、上記小領域を切り出す際のずらし幅が大きい場合のオブジェクト検出漏れの割合が急激に増加し、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理においては、上記小領域を切り出す際のずらし幅が小さい場合のオブジェクト検出漏れの割合が急激に増加することが確認されている。  As described above, the ratio of the object detection omission increases rapidly because of the ratio of the “position shift width” when the small area that is the object determination target is cut out from the input image with a predetermined shift width. ing. For example, in the false detection reduction process using the “object-likeness” summation of only the object detection positions, the ratio of object detection omissions when the shift width when cutting out the small area is large increases rapidly, In the false detection reduction process using the “object-likeness” sum, it has been confirmed that the rate of object detection omission increases rapidly when the shift width when cutting out the small area is small.

そこで、発明の代表的な実施の形態に係るオブジェクト検出方法では、上記第3処理におけるオブジェクト判定の誤りを低減するための第1誤検出低減処理と、上記第1誤検出低減処理とは異なる方式により、上記第3処理におけるオブジェクト判定の誤りを低減するための第2誤検出低減処理とを、誤検出低減方式切り替え部(105)により、上記小領域を切り出す際のずらし幅に応じて選択的に実行させる。このように第1誤検出低減処理と第2誤検出低減処理とを上記小領域を切り出す際のずらし幅に応じて選択的に実行させることによって、オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減することができる。  Therefore, in the object detection method according to the representative embodiment of the invention, the first false detection reduction process for reducing the object determination error in the third process is different from the first false detection reduction process. Thus, the second erroneous detection reduction process for reducing the object determination error in the third process is selectively performed according to the shift width when the small area is cut out by the erroneous detection reduction method switching unit (105). To run. As described above, the first erroneous detection reduction process and the second erroneous detection reduction process are selectively executed according to the shift width when the small area is cut out, so that the object detection omission ratio is not increased rapidly. False detection can be reduced.

〔2〕上記〔1〕において、上記第1誤検出低減処理には、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理が含まれる。上記第2誤検出低減処理には、オブジェクト検出位置周辺での「オブジェクトらしさ」総和を使った誤検出低減処理が含まれる。このとき上記入力画像から小領域を切り出す際の位置ずらし幅の割合が所定の閾値より大きい場合には、上記誤検出低減方式切り替え部により上記第1誤検出低減処理が選択され、入力画像から小領域を切り出す際の位置ずらし幅の割合が上記閾値より大きくない場合には、誤検出低減方式切り替え部により上記第2誤検出低減処理が選択される。  [2] In the above [1], the first false detection reduction process includes a false detection reduction process using the “object-likeness” sum of only the object detection positions. The second erroneous detection reduction process includes an erroneous detection reduction process using the “object-likeness” summation around the object detection position. At this time, if the ratio of the position shift width when the small area is cut out from the input image is larger than a predetermined threshold value, the first erroneous detection reduction process is selected by the erroneous detection reduction method switching unit, and a small amount is selected from the input image. When the ratio of the position shift width at the time of cutting out the area is not larger than the threshold value, the second erroneous detection reduction process is selected by the erroneous detection reduction method switching unit.

上記のようにオブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理では、上記小領域を切り出す際のずらし幅が大きい場合のオブジェクト検出漏れの割合が急激に増加し、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理においては、上記小領域を切り出す際のずらし幅が小さい場合のオブジェクト検出漏れの割合が急激に増加することが確認されている。  As described above, in the false detection reduction process using the “object-likeness” summation of only the object detection positions, the ratio of object detection omissions increases sharply when the shift width when extracting the small area is large, and adjacent detection positions In the false detection reduction process using the “object-likeness” summation in the vicinity, it has been confirmed that the rate of object detection omission increases rapidly when the shift width when cutting out the small area is small.

そこで、入力画像から小領域を切り出す際のずらし幅が大きい場合には、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理を選択的に実行し、入力画像から小領域を切り出す際のずらし幅が小さい場合には、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理を選択的に実行する。このようにすることで、オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減することができる。  Therefore, if the shift width when extracting a small area from the input image is large, the false detection reduction process using the “object-likeness” summation around the detection position is selectively performed, and the small area is extracted from the input image. When the shift width at the time of cutting is small, the false detection reduction process using the “object-likeness” sum of only the object detection positions is selectively executed. By doing so, it is possible to reduce erroneous detection of an object without rapidly increasing the rate of object detection omission.

〔3〕本発明の代表的な実施の形態に係るオブジェクト検出装置(900)は、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく第1処理と、上記入力画像における上記小領域毎の特徴量を算出する第2処理と、上記特徴量の算出結果に基づいて上記小領域毎にオブジェクトか非オブジェクトかを判別する第3処理とを実行する。このようなオブジェクト検出装置において、上記第3処理におけるオブジェクト判定の誤りを低減するための第1誤検出低減処理と、上記第1誤検出低減処理とは異なる方式により、上記第3処理におけるオブジェクト判定の誤りを低減するための第2誤検出低減処理とを選択的に実行可能な誤差検出低減部(106)を設ける。さらに上記ブジェクト検出装置において、上記小領域を切り出す際のずらし幅に応じて、上記誤差検出低減部における上記第1誤検出低減処理と第2誤検出低減処理とを切り替え可能な誤検出低減方式切り替え部(105)を設ける。  [3] An object detection apparatus (900) according to a representative embodiment of the present invention includes a first process of cutting out a small area that is a target of object determination from an input image while shifting it with a predetermined shift width; A second process for calculating the feature quantity for each small area in the input image and a third process for determining whether the small area is an object or a non-object based on the calculation result of the feature quantity are executed. In such an object detection device, the object determination in the third process is performed by a method different from the first error detection reduction process for reducing the error in the object determination in the third process and the first error detection reduction process. An error detection reduction unit (106) capable of selectively executing the second erroneous detection reduction process for reducing the error is provided. Further, in the object detection device, switching of an erroneous detection reduction method capable of switching between the first erroneous detection reduction process and the second erroneous detection reduction process in the error detection reduction unit according to a shift width when the small region is cut out. Part (105) is provided.

上記のように、オブジェクト検出漏れの割合が急増するのは、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく際の「位置ずらし幅」の割合に起因している。このことから、上記誤検出低減方式切り替え部により、上記ブジェクト検出装置において、上記小領域を切り出す際のずらし幅に応じて、上記誤差検出低減部における上記第1誤検出低減処理と第2誤検出低減処理とを切り替えることによって、オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減することができるようになる。  As described above, the ratio of the object detection omission increases rapidly because of the ratio of the “position shift width” when the small area that is the object determination target is cut out from the input image with a predetermined shift width. ing. From this, the first detection error reduction processing and the second detection error in the error detection reduction unit according to the shift width when the small area is cut out in the object detection device by the error detection reduction method switching unit. By switching to the reduction process, it is possible to reduce the erroneous detection of the object without rapidly increasing the ratio of the object detection omission.

〔4〕上記第1誤検出低減処理は、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理を含み、上記第2誤検出低減処理は、オブジェクト検出位置周辺での「オブジェクトらしさ」総和を使った誤検出低減処理を含む。このとき、上記誤検出低減方式切り替え部は、上記入力画像から小領域を切り出す際の位置ずらし幅の割合が所定の閾値より大きい場合には、上記第1誤検出低減処理を選択し、入力画像から小領域を切り出す際の位置ずらし幅の割合が上記閾値より大きくない場合には、上記第2誤検出低減処理を選択するように構成することができる。  [4] The first false detection reduction process includes a false detection reduction process using the sum of the “object-likeness” only at the object detection position, and the second false detection reduction process includes the “object-likeness around the object detection position. Including false detection reduction processing using the sum. At this time, the error detection reduction method switching unit selects the first error detection reduction process when the ratio of the position shift width when the small area is cut out from the input image is larger than a predetermined threshold, and the input image When the ratio of the position shift width when cutting out the small area from the image is not larger than the threshold value, the second erroneous detection reduction process can be selected.

上記のようにオブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理では、上記小領域を切り出す際のずらし幅が大きい場合のオブジェクト検出漏れの割合が急激に増加し、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理においては、上記小領域を切り出す際のずらし幅が小さい場合のオブジェクト検出漏れの割合が急激に増加することが確認されている。
このため、上記誤検出低減方式切り替え部により、上記入力画像から小領域を切り出す際の位置ずらし幅の割合が所定の閾値より大きい場合には、上記第1誤検出低減処理を選択し、入力画像から小領域を切り出す際の位置ずらし幅の割合が上記閾値より大きくない場合には、上記第2誤検出低減処理を選択することによって、オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減することができるようになる。
As described above, in the false detection reduction process using the “object-likeness” summation of only the object detection positions, the ratio of object detection omissions increases sharply when the shift width when extracting the small area is large, and adjacent detection positions In the false detection reduction process using the “object-likeness” summation in the vicinity, it has been confirmed that the rate of object detection omission increases rapidly when the shift width when cutting out the small area is small.
For this reason, when the ratio of the position shift width when the small area is cut out from the input image is larger than a predetermined threshold by the erroneous detection reduction method switching unit, the first erroneous detection reduction process is selected and the input image is selected. If the ratio of the position shift width when the small area is cut out from the image is not larger than the threshold value, by selecting the second erroneous detection reduction process, the erroneous detection of the object is prevented without increasing the ratio of the object detection omission. Can be reduced.

〔5〕上記〔4〕において、外部から与えられた情報に従って、上記誤検出低減方式切り替え部における処理のパラメータ制御を行う設定制御部(1020)を設けることができる。  [5] In the above [4], a setting control unit (1020) for performing parameter control of processing in the erroneous detection reduction method switching unit can be provided according to information given from the outside.

上記設定制御部によって、上記誤検出低減方式切り替え部における処理のパラメータ制御を行うことができるので、オブジェクト検出装置において、安定に誤検出を低減しつつ、誤検出低減の程度とオブジェクト検出漏れの程度を制御することが可能となる。  Since the parameter control of the process in the erroneous detection reduction method switching unit can be performed by the setting control unit, the degree of false detection reduction and the degree of object detection omission while stably reducing false detection in the object detection device. Can be controlled.

2.実施の形態の詳細
実施の形態について更に詳述する。
2. Details of Embodiments Embodiments will be further described in detail.

<実施の形態1>
図6には、本発明にかかるオブジェクト検出装置の構成例が示される。
<Embodiment 1>
FIG. 6 shows a configuration example of the object detection apparatus according to the present invention.

図6に示されるオブジェクト検出装置900は、特に制限されないが、例えば監視カメラやデジタルカメラなどの撮像装置901によって得られた画像から対象となるオブジェクトを検出する機能を有する。オブジェクト検出装置900の検出結果(オブジェクト)は、出力装置908に出力される。この出力装置908としては、例えばディスプレイや、プリンタ、パーソナルコンピュータなどを挙げることができる。ディスプレイによれば、オブジェクト検出装置900の検出結果を表示することができる。プリンタによれば、オブジェクト検出装置900の検出結果を印刷することができる。パーソナルコンピュータによれば、オブジェクト検出装置900の検出結果を処理したり、適宜の記憶媒体に記録することができる。  Theobject detection device 900 shown in FIG. 6 is not particularly limited, but has a function of detecting a target object from an image obtained by animaging device 901 such as a surveillance camera or a digital camera. The detection result (object) of theobject detection device 900 is output to theoutput device 908. Examples of theoutput device 908 include a display, a printer, and a personal computer. According to the display, the detection result of theobject detection device 900 can be displayed. According to the printer, the detection result of theobject detection device 900 can be printed. According to the personal computer, the detection result of theobject detection apparatus 900 can be processed or recorded in an appropriate storage medium.

上記オブジェクト検出装置900は、特に制限されないが、画像入力部909、画像メモリ902、CPU(Central Processing Unit)903、RAM(Random Access Memory)904、ROM(Read Only Memory)905、検出結果記録部906、及びインタフェース(I/F)907を含む。そしてオブジェクト検出装置900は、公知の半導体集積回路製造技術により、例えば単結晶シリコン基板などの一つの半導体基板に形成される。  Theobject detection apparatus 900 is not particularly limited, but includes animage input unit 909, animage memory 902, a CPU (Central Processing Unit) 903, a RAM (Random Access Memory) 904, a ROM (Read Only Memory) 905, and a detectionresult recording unit 906. , And an interface (I / F) 907. Theobject detection device 900 is formed on a single semiconductor substrate such as a single crystal silicon substrate by a known semiconductor integrated circuit manufacturing technique.

画像入力部909、画像メモリ902、CPU903、RAM904、ROM905、検出結果記録部906、及びインタフェース(I/F)907は、バス910によって、互いに信号のやり取りが可能に結合されている。画像入力部909は、上記撮影部901によって得られた画像をオブジェクト検出装置900の内部に取り込む。画像メモリ902は、上記画像入力部909を介して取り込まれた画像を記憶する。CPU903は、所定のプログラムを実行することにより、上記画像メモリ902内の画像を取り込んでオブジェクト検出処理を実行したり、オブジェクト検出装置900における各部の動作を制御する。RAM904は、上記CPU903でのオブジェクト検出処理の作業領域などに利用される。ROM905には、上記CPU903で実行されるプログラムや、上記CPU903でのオブジェクト検出処理で参照される各種データが格納される。検出結果記録部906には、上記CPU903でのオブジェクト検出処理結果が記録される。インタフェース907は、上記検出結果記録部906内のオブジェクト検出処理結を所定のデータ形式に変換してから上記出力装置908へ出力する。  Theimage input unit 909, theimage memory 902, theCPU 903, theRAM 904, theROM 905, the detectionresult recording unit 906, and the interface (I / F) 907 are coupled to each other via abus 910 so that signals can be exchanged. Theimage input unit 909 takes in the image obtained by the photographingunit 901 into theobject detection device 900. Animage memory 902 stores an image captured via theimage input unit 909. TheCPU 903 executes a predetermined program to capture an image in theimage memory 902 and execute an object detection process, and control operations of each unit in theobject detection apparatus 900. TheRAM 904 is used as a work area for object detection processing by theCPU 903. TheROM 905 stores programs executed by theCPU 903 and various data referred to in object detection processing by theCPU 903. In the detectionresult recording unit 906, the object detection processing result in theCPU 903 is recorded. Theinterface 907 converts the object detection processing result in the detectionresult recording unit 906 into a predetermined data format, and then outputs it to theoutput device 908.

図1には、上記CPU903が所定のプログラムを実行することにより機能的に実現されるオブジェクト検出部の構成例が示される。  FIG. 1 shows a configuration example of an object detection unit that is functionally realized by theCPU 903 executing a predetermined program.

上記CPU903によって機能的に実現されるオブジェクト検出部は、図1に示されるように、特徴評価部102、オブジェクト判定部104、誤検出低減方式切り替え部105、及び誤検出低減部106を含む。  The object detection unit functionally realized by theCPU 903 includes afeature evaluation unit 102, anobject determination unit 104, a false detection reductionmethod switching unit 105, and a falsedetection reduction unit 106, as shown in FIG.

次に、オブジェクト検出処理を詳細に説明する。  Next, the object detection process will be described in detail.

オブジェクト検出部にて検出するオブジェクトとしては、人、車、標識等、その他のオブジェクトを対象とすることができるが、ここでは、説明の便宜上、人物の正面顔を検出対象とする。  The object detected by the object detection unit may be another object such as a person, a car, or a sign, but here, for convenience of explanation, a person's front face is a detection target.

画像入力部909は、カメラなどの撮像モジュールや、あらかじめ記録された画像の再生画像等を入力画像200として受信し、顔か非顔かの判別処理を行う画像領域203を特徴評価部102に出力する。特徴パターンデータベース110には顔か非顔かを判別するための特徴パターンが格納されている。特徴パターンデータベース110は、特に制限されないが、図6におけるROM905内に形成することができる。特徴評価部102は、入力された画像領域203に対して特徴パターンデータベース110に定義された複数の特徴パターンに対する特徴量を算出する。特徴量格納部103では、特徴評価部102から得られた特徴量を格納する。特徴量格納部103は、特に制限されないが、図6におけるRAM904に形成することができる。オブジェクト判別部104では、特徴評価部102で得られた複数の特徴量の値を元に、顔か非顔かの判別処理を行う。その結果、顔と判別したら誤検出低減部106に結果を出力する。誤検出低減部106は、上記オブジェクト判別部104での判別結果を取り込んで、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理と、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理とを選択的に実行することができる。誤検出低減方式切り替え部105では画像入力部909から得られた入力画像から小領域を切り出す際の「位置ずらし幅」の割合に基づいて、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理と、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理とのいずれを使用するかを誤検出低減部106に指示する。誤検出低減部106は、誤検出低減方式切り替え部105からの指示に応じた誤検出低減処理を行う。  Theimage input unit 909 receives an imaging module such as a camera, a reproduction image of a pre-recorded image, or the like as theinput image 200, and outputs animage region 203 for performing face / non-face discrimination processing to thefeature evaluation unit 102. To do. Thefeature pattern database 110 stores feature patterns for discriminating between faces and non-faces. Thefeature pattern database 110 is not particularly limited, but can be formed in theROM 905 in FIG. Thefeature evaluation unit 102 calculates feature amounts for a plurality of feature patterns defined in thefeature pattern database 110 for theinput image region 203. The featureamount storage unit 103 stores the feature amount obtained from thefeature evaluation unit 102. The featureamount storage unit 103 is not particularly limited, but can be formed in theRAM 904 in FIG. Theobject discriminating unit 104 performs discrimination processing of a face or a non-face based on a plurality of feature value values obtained by thefeature evaluation unit 102. As a result, if the face is determined, the result is output to the falsedetection reduction unit 106. The falsedetection reduction unit 106 takes in the discrimination result in theobject discrimination unit 104, and performs false detection reduction processing using the “object-likeness” sum of only the object detection positions, and the “object-likeness” summation around the detection positions. It is possible to selectively execute a false detection reduction process using. The erroneous detection reductionmethod switching unit 105 uses the total “object-likeness” summation of only the object detection positions based on the ratio of “position shift width” when a small area is cut out from the input image obtained from theimage input unit 909. It instructs the falsedetection reduction unit 106 to use either the detection reduction process or the false detection reduction process using the “object-likeness” summation around the detection position. The falsedetection reduction unit 106 performs false detection reduction processing in accordance with an instruction from the false detection reductionmethod switching unit 105.

次に、図1に示される画像入力部909の動作の詳細について図2を参照しながら説明する。  Next, details of the operation of theimage input unit 909 shown in FIG. 1 will be described with reference to FIG.

画像入力部909を介して取り込まれた入力画像200に対して、検出すべき顔201、202は任意の位置に任意の大きさで存在する。これに対応するため画像入力部909では、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく。例えば入力画像200上の複数位置で複数の大きさの画像領域(オブジェクト判定の対象となる小領域)203を例えばラスタスキャン状に切り出していく。切り出された画像領域は、特徴評価部102に伝達される。この特徴評価部102以降では、ある1枚の入力画像200中の複数の画像領域に対して顔か非顔かの判別処理が行われることになる。これによって、入力画像200中の任意の場所に存在する任意の大きさの顔を検出することができる。  With respect to theinput image 200 captured via theimage input unit 909, thefaces 201 and 202 to be detected exist at arbitrary positions and in arbitrary sizes. In order to cope with this, theimage input unit 909 cuts out a small area to be subjected to object determination from the input image while shifting it with a predetermined shift width. For example, a plurality of image areas (small areas subject to object determination) 203 at a plurality of positions on theinput image 200 are cut out in a raster scan form, for example. The cut out image area is transmitted to thefeature evaluation unit 102. In thefeature evaluation unit 102 and later, a process for determining whether the face is a face or a non-face is performed on a plurality of image areas in oneinput image 200. As a result, it is possible to detect a face of an arbitrary size present at an arbitrary location in theinput image 200.

図1の特徴パターンデータベース110について説明する。  Thefeature pattern database 110 in FIG. 1 will be described.

特徴パターンデータベース110には顔判別に用いる複数の画像特徴パラメータが定義される。図3には、定義される画像特徴パターンの一例が示される。図3に示される特徴パターンは、黒矩形301と白矩形302から構成されており、この矩形内の画素値の総和の差分によって特徴量をもとめる。図4には、この特徴パラメータを定義した顔判別パラメータテーブル400の一例が示される。顔と非顔を判別するためN(Nは、正の整数)個の画像特徴h(i∈N)が定義されており、各特徴に対して顔判定を行う際の重みα、右斜め横顔判定を行う際の重みβ、左斜め横顔判定を行う際の重みγがそれぞれ定義されている。Thefeature pattern database 110 defines a plurality of image feature parameters used for face discrimination. FIG. 3 shows an example of the defined image feature pattern. The feature pattern shown in FIG. 3 is composed of ablack rectangle 301 and awhite rectangle 302, and the feature amount is obtained by the difference in the sum of the pixel values in the rectangle. FIG. 4 shows an example of a face discrimination parameter table 400 that defines the feature parameters. N (N is a positive integer) number of image features hi (i∈N) are defined to discriminate between faces and non-faces. A weight β for side profile determination and a weight γ for left side profile determination are defined.

図1の特徴評価部102の動作の詳細について説明する。  Details of the operation of thefeature evaluation unit 102 in FIG. 1 will be described.

特徴評価部102では、入力された画像領域203に対する複数の特徴量を算出する。特徴パターンデータベース110内に定義された画像特徴パターンhに対して入力された画像領域203をベクトルIとすると、得られる特徴量h(I)は、次式(数1)で求めることができる。Thefeature evaluation unit 102 calculates a plurality of feature amounts for theinput image region 203. When theimage area 203 input to the image feature pattern hi defined in thefeature pattern database 110 is a vector I, the obtained feature quantity hi (I) can be obtained by the following equation (Equation 1). it can.

Figure 2011159097
Figure 2011159097

RectやThreは、特徴パラメータとされる。特徴評価部102では、上記の演算によってN個の特徴量を求める。求められた特徴量は、特徴量格納部103に格納される。  Rect and Thre are feature parameters. Thefeature evaluation unit 102 obtains N feature amounts by the above calculation. The obtained feature quantity is stored in the featurequantity storage unit 103.

尚、特徴評価部102で評価する特徴量として矩形特徴を用いた例を示したが、検出対象とするオブジェクトに応じて、EOH(Edge of Orientation Histograms)やHOG(Histogram of Orientation Gradients)などの異なる特徴量を用いても良い。  In addition, although the example using the rectangular feature as the feature amount evaluated by thefeature evaluation unit 102 has been shown, different values such as EOH (Edge of Orientation Histograms) and HOG (Histogram of Orientation Gradients) differ depending on the object to be detected. A feature amount may be used.

図1のオブジェクト判別部104の動作の詳細について説明する。  Details of the operation of theobject determination unit 104 in FIG. 1 will be described.

オブジェクト判別部104では、各ステージで特徴評価部102にて得られた各特徴量h(I)を元に顔尤度を算出して画像領域203が顔か非顔かの判別を行う。顔判別の例として、「AdaBoostアルゴリズムによる識別方式を挙げることができる。この判別方式では、図4の顔判別パラメータテーブル400に記述された各特徴hに対する顔判別の重みαを用いた線形和から、そのステージsでの顔尤度Fs(I)を次式(数2)により算出する。Theobject discriminating unit 104 calculates face likelihood based on each feature amount hi (I) obtained by thefeature evaluation unit 102 at each stage, and discriminates whether theimage region 203 is a face or a non-face. As an example of face discrimination, “a discrimination method based on the AdaBoost algorithm can be cited. In this discrimination method, linear using a face discrimination weight αi for each feature hi described in the face discrimination parameter table 400 of FIG. From the sum, the face likelihood Fs (I) at the stage s is calculated by the following equation (Equation 2).

Figure 2011159097
Figure 2011159097

これより、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理による顔尤度F(A)(I)は、次式(数3)により算出される。From this, the face likelihood F(A) (I) by the false detection reduction process using the “object-likeness” summation of only the object detection positions is calculated by the following equation (Equation 3).

Figure 2011159097
Figure 2011159097

また、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理による顔尤度F(B)(I)は、次式(数4)により算出される。Further, the face likelihood F(B) (I) by the false detection reduction process using the “object-likeness” summation around the detection position adjacent area is calculated by the following equation (Equation 4).

Figure 2011159097
Figure 2011159097

ただしCは検出位置隣接周辺を示す。顔尤度F(A)(I),F(B)(I)が大きいほど顔らしいことを示しており、顔尤度Fが閾値Th以上であれば顔、未満であれば非顔と判別する。オブジェクト判別部104では、判別結果が顔であれば、その結果を誤検出低減部106に出力する。誤検出低減方式切り替え部105では画像入力部909から得られた入力画像から小領域を切り出す際の「位置ずらし幅」の割合に基づいて、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理と、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理とのいずれを使用するかを誤検出低減部106に指示する。誤検出低減部106では誤検出低減方式切り替え部105からの指示に応じて、誤検出低減処理として顔尤度F(A)(I)又はF(B)(I)を算出し、閾値処理を行って最終的なオブジェクト(ここでは顔)の有無を判別する。Here, C indicates the vicinity of the detection position. KaoyudoF (A) (I), F (B) (I) indicates that seems the larger faces, a non-face is less than the face, if Kaoyudo F threshold ThF or higher Determine. If the discrimination result is a face, theobject discrimination unit 104 outputs the result to the falsedetection reduction unit 106. The erroneous detection reductionmethod switching unit 105 uses the total “object-likeness” summation of only the object detection positions based on the ratio of “position shift width” when a small area is cut out from the input image obtained from theimage input unit 909. It instructs the falsedetection reduction unit 106 to use either the detection reduction process or the false detection reduction process using the “object-likeness” summation around the detection position. In response to an instruction from the false detection reductionmethod switching unit 105, the falsedetection reduction unit 106 calculates the face likelihood F(A) (I) or F(B) (I) as false detection reduction processing, and performs threshold processing. Go to determine if there is a final object (face here).

次に、図1の誤検出低減方式切り替え部105の動作の詳細について図5を参照しながら説明する。  Next, details of the operation of the erroneous detection reductionmethod switching unit 105 of FIG. 1 will be described with reference to FIG.

図5には、誤検出低減方式切り替え部105において行われる処理のフローチャートが示される。  FIG. 5 shows a flowchart of processing performed in the erroneous detection reductionmethod switching unit 105.

ステップ501では、画像入力部909より、小領域切り出し「位置ずらし幅」Wと小領域サイズKを取得する。  Instep 501, a small area cutout “position shift width” W and a small area size K are acquired from theimage input unit 909.

ステップ502では、次式(数5)が成立するか否かの判別が行われる。Tswは、この判別のために設定された閾値である。上記ステップ502の判別において、成立する(Yes)と判断された場合には、ステップ503に遷移し、成立しない(No)と判断された場合には、ステップ504に遷移する。ステップ503に遷移したならば、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理の実行を誤検出低減部106に指示する。ステップ504に遷移したならば、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理の実行を誤検出低減部106に指示する。Instep 502, it is determined whether or not the following equation (Equation 5) holds. Tsw is a threshold set for this determination. If it is determined instep 502 that the condition is satisfied (Yes), the process proceeds to step 503. If it is determined that the condition is not satisfied (No), the process proceeds to step 504. When the process proceeds to step 503, the erroneousdetection reduction unit 106 is instructed to execute the false detection reduction process using the “object-likeness” summation of only the object detection position. If the process proceeds to step 504, the erroneousdetection reduction unit 106 is instructed to execute the false detection reduction process using the “object-likeness” summation around the detection position adjacent.

Figure 2011159097
Figure 2011159097

誤検出低減部106では、上記誤検出低減方式切り替え部105からの指示に対応する処理が実行される。このような処理が行われることで、ジェクト検出における、オブジェクト検出漏れの割合を急増させることなく、オブジェクトの誤検出を低減することができる。また、特許文献1に開示されているようなオブジェクト検出高速化方式で使用されるテクニックである「位置ずらし幅」の割合を適応的に変化させるケースでも、誤検出低減を安定に行うことができる。  In the falsedetection reduction unit 106, processing corresponding to the instruction from the false detection reductionmethod switching unit 105 is executed. By performing such processing, it is possible to reduce erroneous detection of an object without rapidly increasing the rate of object detection omission in the detection of the object. Further, even when the ratio of “position shift width”, which is a technique used in the object detection speed-up method disclosed inPatent Document 1, is adaptively changed, false detection reduction can be performed stably. .

<実施の形態2>
図7には、上記オブジェクト検出装置900の別の構成例が示される。図7に示されるオブジェクト検出装置900が、図5に示されるのと大きく相違するのは、設定制御部1020が設けられている点である。また、オブジェクト検出装置900の外部には入力装置1010が設けられている。入力装置1010を介して、利用用途や環境に応じたパラメータをオブジェクト検出装置900に入力することができ、この入力情報は、インタフェース907を介して設定制御部1020に伝達される。
<Embodiment 2>
FIG. 7 shows another configuration example of theobject detection apparatus 900. Theobject detection apparatus 900 shown in FIG. 7 is greatly different from that shown in FIG. 5 in that asetting control unit 1020 is provided. Aninput device 1010 is provided outside theobject detection device 900. Parameters according to the usage and environment can be input to theobject detection device 900 via theinput device 1010, and this input information is transmitted to thesetting control unit 1020 via theinterface 907.

上記の構成において、入力装置1010を介して、誤検出低減方式切り替え部105における誤検出低減方式切り替え処理におけるパラメータ調整の命令を入力することができる。本命令を受け取った設定制御部1020は、誤検出低減方式切り替え部105における誤検出低減方式の切り替え処理のオン/オフ制御や感度の調整などのパラメータ制御を行う。これによりオブジェクト検出装置900において、安定に誤検出を低減しつつ、誤検出低減の程度とオブジェクト検出漏れの程度を制御することが可能となる。  In the above configuration, a parameter adjustment command in the erroneous detection reduction method switching process in the erroneous detection reductionmethod switching unit 105 can be input via theinput device 1010. Receiving this command, the settingcontrol unit 1020 performs parameter control such as on / off control of erroneous detection reduction method switching processing and sensitivity adjustment in the erroneous detection reductionmethod switching unit 105. As a result, theobject detection apparatus 900 can control the degree of false detection reduction and the degree of object detection omission while stably reducing false detection.

図8には、上記入力装置1010で誤検出低減処理と誤検出低減方式切り替えにおけるパラメータ設定を行うためのパラメータ設定画面が示される。  FIG. 8 shows a parameter setting screen for performing parameter setting in the erroneous detection reduction process and the erroneous detection reduction method switching by theinput device 1010.

図8に示されるパラメータ設定画面1100は、誤検出低減パラメータ1101と、誤検出低減方式切り替えパラメータ1102によって構成される。誤検出低減パラメータ1101で誤検出低減部106における誤検出低減の感度を制御する。誤検出低減の感度を例えば「レベル:高」に設定すると、前記顔尤度F(A)(I),F(B)(I)に対する閾値Tを厳しくすることで、誤検出判定を厳しくする。Aparameter setting screen 1100 shown in FIG. 8 includes an erroneous detection reduction parameter 1101 and an erroneous detection reductionmethod switching parameter 1102. The false detection reduction sensitivity in the falsedetection reduction unit 106 is controlled by the false detection reduction parameter 1101. If the sensitivity of false detection reduction is set to “level: high”, for example, the thresholdTF for the face likelihoods F(A) (I) and F(B) (I) is tightened, thereby making the false detection determination severe. To do.

誤検出低減方式切り替えパラメータ1102では誤検出低減方式切り替えレベル(検出サイズに対する切り出し位置のずらし幅の比率に対する閾値Tsw)をパラメータとして設定する。こうして設定した各項目のパラメータ情報は、設定制御部1020に送られ、設定制御部1020においてCPU903でのオブジェクト検出処理に用いられる。In the erroneous detection reductionmethod switching parameter 1102, the erroneous detection reduction method switching level (threshold value Tsw for the ratio of the shift width of the cutout position to the detection size) is set as a parameter. The parameter information of each item set in this way is sent to thesetting control unit 1020, and is used for object detection processing in theCPU 903 in thesetting control unit 1020.

以上本発明者によってなされた発明を実施形態に基づいて具体的に説明したが、本発明はそれに限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。  Although the invention made by the present inventor has been specifically described based on the embodiments, it is needless to say that the present invention is not limited thereto and can be variously modified without departing from the gist thereof.

例えば、上記の実施形態では、CPU903が所定のプログラムを実行することによりオブジェクト検出部を機能的に実現したが、このオブジェクト検出部をハードウェアによって形成しても良いし、ソフトウェアとハードウェアの双方で構成しも良い。  For example, in the above embodiment, the object detection unit is functionally realized by theCPU 903 executing a predetermined program. However, the object detection unit may be formed by hardware, or both software and hardware may be used. It may be configured with.

上記では誤検出低減方式として非特許文献1および2に記載されている処理方式、すなわち、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理や、検出位置隣接周辺での「オブジェクトらしさ」総和を使った誤検出低減処理を選択的に実行する場合について説明したが、これに限定されない。すなわち、他の誤検出低減方式であっても、入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出す際のずらし幅の割合でオブジェクト検出漏れの性質が変化するならば、誤検出低減部106に実装して切り替え対象とすることができる。  In the above, the processing methods described inNon-Patent Documents 1 and 2 as false detection reduction methods, that is, false detection reduction processing using the sum of “object-likeness” only at object detection positions, and “objects in the vicinity of detection positions” Although the case where the false detection reduction process using the “likeness” sum is selectively executed has been described, the present invention is not limited to this. In other words, even if other false detection reduction methods are used, if the nature of the object detection omission changes with the ratio of the shift width when the small area that is the object determination target is extracted from the input image while shifting with a predetermined shift width, It can be mounted on the falsedetection reduction unit 106 to be a switching target.

100 オブジェクト検出部
102 特徴評価部
103 特徴量格納部
104 オブジェクト判別部
105 変化オブジェクト判別部
106 判別結果出力部
110 特徴パターンデータベース
200 入力画像
201、202 顔
203 画像領域
301、302 矩形特徴
400 顔判別パラメータテーブル
501 ステップ
901 撮像部
902 画像メモリ
903 CPU
904 RAM
905 ROM
906 計測結果記録部
907 インタフェース
908 出力装置
909 画像入力部
910 バス
1010 入力装置
1020 設定制御部
1100 パラメータ設定画面
1101 誤検出低減レベルパラメータ
1102 誤検出低減方式切り替えレベルパラメータ
DESCRIPTION OF SYMBOLS 100Object detection part 102Feature evaluation part 103 Feature-value storage part 104 Object discrimination |determination part 105 Changed object discrimination |determination part 106 Discriminationresult output part 110Feature pattern database 200Input image 201, 202Face 203Image area 301, 302Rectangular feature 400 Face discrimination parameter Table 501Step 901Imaging unit 902Image memory 903 CPU
904 RAM
905 ROM
906 Measurementresult recording unit 907interface 908output device 909image input unit 910bus 1010input device 1020setting control unit 1100 parameter setting screen 1101 false detectionreduction level parameter 1102 false detection reduction method switching level parameter

Claims (5)

Translated fromJapanese
入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく第1処理と、上記入力画像における上記小領域毎の特徴量を算出する第2処理と、上記特徴量の算出結果に基づいて上記小領域毎にオブジェクトか非オブジェクトかを判別する第3処理とを、オブジェクト検出装置で実行するオブジェクト検出方法であって、
上記第3処理におけるオブジェクト判定の誤りを低減するための第1誤検出低減処理と、上記第1誤検出低減処理とは異なる方式により、上記第3処理におけるオブジェクト判定の誤りを低減するための第2誤検出低減処理とを、誤検出低減方式切り替え部により、上記小領域を切り出す際のずらし幅に応じて選択的に実行させることを特徴とするオブジェクト検出方法。
A first process for cutting out a small area as an object determination target from the input image while shifting the object by a predetermined shift width; a second process for calculating a feature quantity for each of the small areas in the input image; and An object detection method in which an object detection device executes a third process for determining whether an object or a non-object for each small region based on a calculation result,
A first error detection reduction process for reducing object determination errors in the third process and a first error detection error reduction process for reducing object determination errors in the third process are different from the first error detection reduction process. (2) An object detection method, wherein the erroneous detection reduction process is selectively executed by an erroneous detection reduction method switching unit according to a shift width when the small area is cut out.
上記第1誤検出低減処理には、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理が含まれ、
上記第2誤検出低減処理には、オブジェクト検出位置周辺での「オブジェクトらしさ」総和を使った誤検出低減処理が含まれ、
上記入力画像から小領域を切り出す際の位置ずらし幅の割合が所定の閾値より大きい場合には、上記誤検出低減方式切り替え部により上記第1誤検出低減処理が選択され、入力画像から小領域を切り出す際の位置ずらし幅の割合が上記閾値より大きくない場合には、誤検出低減方式切り替え部により上記第2誤検出低減処理が選択される請求項1記載のオブジェクト検出方法。
The first false detection reduction process includes a false detection reduction process using the “object-likeness” sum of only the object detection positions,
The second false detection reduction processing includes false detection reduction processing using the “object-likeness” summation around the object detection position.
When the ratio of the position shift width when the small area is cut out from the input image is larger than a predetermined threshold, the first erroneous detection reduction process is selected by the erroneous detection reduction method switching unit, and the small area is selected from the input image. The object detection method according to claim 1, wherein when the ratio of the position shift width at the time of cutting is not larger than the threshold value, the second erroneous detection reduction process is selected by the erroneous detection reduction method switching unit.
入力画像からオブジェクト判定の対象となる小領域を所定のずらし幅でずらしながら切り出していく第1処理と、上記入力画像における上記小領域毎の特徴量を算出する第2処理と、上記特徴量の算出結果に基づいて上記小領域毎にオブジェクトか非オブジェクトかを判別する第3処理とを実行するオブジェクト検出装置であって、
上記第3処理におけるオブジェクト判定の誤りを低減するための第1誤検出低減処理と、上記第1誤検出低減処理とは異なる方式により、上記第3処理におけるオブジェクト判定の誤りを低減するための第2誤検出低減処理とを選択的に実行可能な誤差検出低減部と、
上記小領域を切り出す際のずらし幅に応じて、上記誤差検出低減部における上記第1誤検出低減処理と第2誤検出低減処理とを切り替え可能な誤検出低減方式切り替え部と、を含むことを特徴とするオブジェクト検出装置。
A first process for cutting out a small area as an object determination target from the input image while shifting the object by a predetermined shift width; a second process for calculating a feature quantity for each of the small areas in the input image; and An object detection device that executes a third process for determining whether each small region is an object or a non-object based on a calculation result,
A first error detection reduction process for reducing object determination errors in the third process and a first error detection error reduction process for reducing object determination errors in the third process are different from the first error detection reduction process. An error detection reduction unit capable of selectively executing two erroneous detection reduction processes;
An error detection reduction method switching unit capable of switching between the first error detection reduction process and the second error detection reduction process in the error detection reduction unit according to a shift width when cutting out the small region. A featured object detection device.
上記第1誤検出低減処理は、オブジェクト検出位置のみの「オブジェクトらしさ」総和を使った誤検出低減処理を含み、
上記第2誤検出低減処理は、オブジェクト検出位置周辺での「オブジェクトらしさ」総和を使った誤検出低減処理を含み、
上記誤検出低減方式切り替え部は、上記入力画像から小領域を切り出す際の位置ずらし幅の割合が所定の閾値より大きい場合には、上記第1誤検出低減処理を選択し、入力画像から小領域を切り出す際の位置ずらし幅の割合が上記閾値より大きくない場合には、上記第2誤検出低減処理を選択する請求項3記載のオブジェクト検出装置。
The first false detection reduction process includes a false detection reduction process using the “object-likeness” sum of only the object detection positions,
The second false detection reduction process includes a false detection reduction process using the “object-likeness” summation around the object detection position,
The false detection reduction method switching unit selects the first false detection reduction process and selects the small region from the input image when the ratio of the position shift width when the small region is cut out from the input image is larger than a predetermined threshold. The object detection device according to claim 3, wherein the second erroneous detection reduction process is selected when the ratio of the position shift width when cutting out is not larger than the threshold.
外部から与えられた情報に従って、上記誤検出低減方式切り替え部における処理のパラメータ制御を行う設定制御部を含む請求項4記載のオブジェクト検出装置。  The object detection apparatus according to claim 4, further comprising a setting control unit that performs parameter control of processing in the erroneous detection reduction method switching unit in accordance with information given from outside.
JP2010020087A2010-02-012010-02-01Method and device for detecting objectWithdrawnJP2011159097A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2010020087AJP2011159097A (en)2010-02-012010-02-01Method and device for detecting object

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2010020087AJP2011159097A (en)2010-02-012010-02-01Method and device for detecting object

Publications (1)

Publication NumberPublication Date
JP2011159097Atrue JP2011159097A (en)2011-08-18

Family

ID=44590993

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2010020087AWithdrawnJP2011159097A (en)2010-02-012010-02-01Method and device for detecting object

Country Status (1)

CountryLink
JP (1)JP2011159097A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2014013469A (en)*2012-07-042014-01-23Mitsubishi Electric CorpImage processor
JP2021022056A (en)*2019-07-252021-02-18キオクシア株式会社Semiconductor image processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2014013469A (en)*2012-07-042014-01-23Mitsubishi Electric CorpImage processor
JP2021022056A (en)*2019-07-252021-02-18キオクシア株式会社Semiconductor image processing device
JP7316867B2 (en)2019-07-252023-07-28キオクシア株式会社 Semiconductor image processing device
US11715189B2 (en)2019-07-252023-08-01Kioxia CorporationSemiconductor image processing apparatus

Similar Documents

PublicationPublication DateTitle
US8649604B2 (en)Face searching and detection in a digital image acquisition device
KR100745981B1 (en) Expanded Face Recognition Method and Apparatus Based on Compensatory Features
US10438059B2 (en)Image recognition method, image recognition apparatus, and recording medium
JP5675233B2 (en) Information processing apparatus, recognition method thereof, and program
KR101615254B1 (en)Detecting facial expressions in digital images
KR100608595B1 (en) Facial recognition method and device
US8144943B2 (en)Apparatus and method for detecting specific subject in image
MccullaghFace detection by using haar cascade classifier
JP4410732B2 (en) Face image detection device, face image detection method, and face image detection program
JP4724638B2 (en) Object detection method
Amjad et al.Multiple face detection algorithm using colour skin modelling
JP2008102611A (en) Image processing device
KR20170087817A (en)Face detecting method and apparatus
CN104281851B (en)The extracting method and device of logo information
JP5258506B2 (en) Information processing device
JP2014010633A (en)Image recognition device, image recognition method, and image recognition program
JP5335554B2 (en) Image processing apparatus and image processing method
KR101521136B1 (en)Method of recognizing face and face recognition apparatus
JP2011159097A (en)Method and device for detecting object
JP2006323779A (en) Image processing method and image processing apparatus
Laia et al.Performance Improvement Of Viola-Jones Using Slicing Aided Hyper Inference (SAHI) For Multi-Face Detection
JP2005071125A (en) Subject detection apparatus, subject detection method, subject data selection program, and subject position detection program
CN109993186A (en) A head and shoulders detection method, electronic device and device with storage function
WO2011092848A1 (en)Object detection device and face detection device
Sandhu et al.Analyzing the image processing methods in order to do face detection

Legal Events

DateCodeTitleDescription
A300Application deemed to be withdrawn because no request for examination was validly filed

Free format text:JAPANESE INTERMEDIATE CODE: A300

Effective date:20130402


[8]ページ先頭

©2009-2025 Movatter.jp