Movatterモバイル変換


[0]ホーム

URL:


JP2024176038A - Signal processing device and signal processing method - Google Patents

Signal processing device and signal processing method
Download PDF

Info

Publication number
JP2024176038A
JP2024176038AJP2023094237AJP2023094237AJP2024176038AJP 2024176038 AJP2024176038 AJP 2024176038AJP 2023094237 AJP2023094237 AJP 2023094237AJP 2023094237 AJP2023094237 AJP 2023094237AJP 2024176038 AJP2024176038 AJP 2024176038A
Authority
JP
Japan
Prior art keywords
image
unit
demosaic
processing
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023094237A
Other languages
Japanese (ja)
Inventor
凌平 川崎
Ryohei Kawasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions CorpfiledCriticalSony Semiconductor Solutions Corp
Priority to JP2023094237ApriorityCriticalpatent/JP2024176038A/en
Priority to PCT/JP2024/019482prioritypatent/WO2024252977A1/en
Publication of JP2024176038ApublicationCriticalpatent/JP2024176038A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

To improve processing accuracy of image analysis processing using an AI model.SOLUTION: A signal processing device according to the present technique includes an AI processing unit that performs image analysis processing using an AI model with a non-demosaic image being a photographed image in a state of not being subjected to demosaic processing as input data for the photographed image obtained by a pixel array unit that is constructed by two-dimensionally arranging multiple pixel units in which multiple pixels that receive light of different wavelength bands are two-dimensionally arranged in a prescribed pattern.SELECTED DRAWING: Figure 2

Description

Translated fromJapanese

本技術は、AIモデルを用いた画像解析処理を行う信号処理装置とその方法とに関するものである。This technology relates to a signal processing device and method for performing image analysis processing using an AI model.

例えば、CNN(Convolutional Neural Network)等のニューラルネットワークを有するAI(Artificial Intelligence:人工知能)モデルを用いて、撮像画像を対象とした物体検出処理や物体認識処理等の画像解析処理を行う技術が普及している。
かかる画像解析処理では、AIモデルの入力データとして、R(赤色)、G(緑色)、B(青色)の3chの画像を用いることが一般的とされる(例えば、下記特許文献1を参照)。
For example, technology is becoming widespread that performs image analysis processing such as object detection processing and object recognition processing on captured images using an AI (Artificial Intelligence) model having a neural network such as a CNN (Convolutional Neural Network).
In such image analysis processing, it is common to use images with three channels, R (red), G (green), and B (blue), as input data for the AI model (see, for example,Patent Document 1 below).

特開2011-170890号公報JP 2011-170890 A

ここで、人が画像を鑑賞する用途では、R、G、Bの3chの画像を用いることでフルカラー表現が可能となり望ましいが、AIモデルの性能面で考えると、R、G、Bの3chの画像を入力データとして用いることが最善であるとは限らない。For purposes where images are viewed by humans, it is desirable to use 3ch images (R, G, B) to enable full-color representation, but when considering the performance of an AI model, it is not necessarily best to use 3ch images (R, G, B) as input data.

本技術は上記事情に鑑み為されたものであり、AIモデルを用いた画像解析処理についての処理精度向上を図ることを目的とする。This technology was developed in light of the above circumstances, and aims to improve the processing accuracy of image analysis processing using AI models.

本技術に係る信号処理装置は、異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットが二次元に複数配列されて構成された画素アレイ部により得られる撮像画像について、デモザイク処理されていない状態の前記撮像画像である非デモザイク画像を入力データとして、AIモデルを用いた画像解析処理を行うAI処理部を備えたものである。
デモザイク処理は空間的な補間処理を伴うものであるため、本来の画素値からの乖離が生じる傾向となり、AIモデルによる画像解析処理の入力データとしてデモザイク後の画像を用いた場合には、上記の画素値の乖離に起因して処理精度が低下する場合がある。上記のように非デモザイク画像を画像解析処理の入力データとすることで、そのようなデモザイク処理に起因した処理精度低下の防止を図ることが可能となる。
The signal processing device according to the present technology includes an AI processing unit that performs image analysis processing using an AI model on an captured image obtained by a pixel array unit configured with a plurality of pixel units arranged two-dimensionally in a predetermined pattern, each pixel unit being made up of a plurality of pixels that receive light in different wavelength bands and that uses as input data a non-demosaic image, which is the captured image in a state that has not been demosaiced.
Since demosaic processing involves spatial interpolation processing, deviation from the original pixel values tends to occur, and when a demosaic image is used as input data for image analysis processing using an AI model, the processing accuracy may decrease due to the deviation of the pixel values. By using a non-demosaic image as input data for image analysis processing as described above, it is possible to prevent such a decrease in processing accuracy caused by demosaic processing.

第一実施形態としての信号処理装置を備えたカメラ装置の概略構成例を示したブロック図である。1 is a block diagram showing an example of a schematic configuration of a camera device including a signal processing device according to a first embodiment.第一実施形態としての信号処理装置が備える画像信号処理部の内部構成例を説明するための図である。2 is a diagram for explaining an example of the internal configuration of an image signal processing unit included in the signal processing device according to the first embodiment; FIG.AI処理部の入力データの種類を変化させた場合の画像解析処理精度の変化特性について実験を行った結果を示した図である。This figure shows the results of an experiment conducted on the change in image analysis processing accuracy when the type of input data to the AI processing unit is changed.実施形態における色分離画像の説明図である。4A and 4B are explanatory diagrams of color separation images in the embodiment.デモザイク後画像を用いた場合に生じる解析処理精度低下の要因について考察するための図である。FIG. 13 is a diagram for considering the cause of the decrease in analysis processing accuracy that occurs when a demosaiced image is used.第一実施形態としての解析処理手法を実現するための具体的な処理手順例を示したフローチャートである。1 is a flowchart showing an example of a specific processing procedure for implementing an analysis processing method according to a first embodiment.第二実施形態としてのカメラ装置の構成例を説明するためのブロック図である。FIG. 11 is a block diagram for explaining an example of the configuration of a camera device according to a second embodiment.変形例としての解析処理手法を実現するための具体的な処理手順例を示したフローチャートである。13 is a flowchart showing an example of a specific processing procedure for implementing an analysis processing method as a modified example.AI処理部がセンサ装置外に設けられた構成例についての説明図である。FIG. 11 is an explanatory diagram of a configuration example in which an AI processing unit is provided outside a sensor device.

以下、添付図面を参照し、本技術に係る信号処理装置の実施形態を次の順序で説明する。
<1.第一実施形態>
[1-1.カメラ装置の構成例]
[1-2.第一実施形態としての解析処理手法]
[1-3.処理手順]
<2.第二実施形態>
<3.変形例>
<4.実施形態のまとめ>
<5.本技術>
Hereinafter, with reference to the accompanying drawings, an embodiment of a signal processing device according to the present technology will be described in the following order.
1. First embodiment
[1-1. Example of camera device configuration]
[1-2. Analysis processing method as the first embodiment]
[1-3. Processing procedure]
<2. Second embodiment>
3. Modifications
4. Summary of the embodiment
<5. This Technology>

<1.第一実施形態>
[1-1.カメラ装置の構成例]
図1は、本技術に係る第一実施形態としての信号処理装置を備えたカメラ装置10の概略構成例を示したブロック図である。
図示のようにカメラ装置10は、センサ部1と共に、光学系11、通信I/F(インタフェース)12、カメラ制御部13、センサ外メモリ部14、及び通信部15を備えている。
1. First embodiment
[1-1. Example of camera device configuration]
FIG. 1 is a block diagram showing an example of a schematic configuration of acamera device 10 including a signal processing device according to a first embodiment of the present technology.
As shown in the figure, thecamera device 10 includes, in addition to thesensor unit 1 , anoptical system 11 , a communication I/F (interface) 12 , acamera control unit 13 , an externalsensor memory unit 14 , and acommunication unit 15 .

カメラ装置10において、第一実施形態としての信号処理装置は、センサ部1が該当する。
センサ部1は、例えばCCD(Charge Coupled Device)型イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等のイメージセンサとして構成される。
センサ部1は、撮像機能のみでなく、撮像画像についての画像解析処理として、AI(Artificial Intelligence:人工知能)モデルを用いた画像解析処理を行うことが可能に構成されている。
また、センサ部1は、受光素子を有する画素として、異なる波長帯の光を受光する複数の画素が形成されており、カラー画像としての撮像画像を得ることが可能に構成されている。
In thecamera device 10, thesensor unit 1 corresponds to the signal processing device of the first embodiment.
Thesensor unit 1 is configured as an image sensor such as a charge coupled device (CCD) type image sensor or a complementary metal oxide semiconductor (CMOS) type image sensor.
Thesensor unit 1 is configured to be capable of performing not only an imaging function but also image analysis processing of the captured image using an AI (Artificial Intelligence) model.
Thesensor unit 1 is formed with a plurality of pixels each having a light receiving element, which receive light in different wavelength bands, and is configured to be able to obtain a captured image as a color image.

カメラ装置10において、光学系11は、カバーレンズ、フォーカスレンズ等のレンズや絞り(アイリス)機構を備える。この光学系11により、被写体からの光(入射光)が導かれ、センサ部1の受光面に集光される。In thecamera device 10, theoptical system 11 includes lenses such as a cover lens and a focus lens, and an aperture (iris) mechanism. Theoptical system 11 guides light (incident light) from the subject and focuses it on the light receiving surface of thesensor unit 1.

通信インタフェース(I/F)12は、センサ部1とカメラ制御部13との間でデータ通信を行うための通信インタフェースである。The communication interface (I/F) 12 is a communication interface for data communication between thesensor unit 1 and thecamera control unit 13.

カメラ制御部13は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM( Random Access Memory)を有するマイクロコンピュータを備えて構成され、CPUがROMに記憶されているプログラム、又はRAMにロードされたプログラムに従って各種の処理を実行することで、カメラ装置10の全体制御を行う。
カメラ制御部13は、通信インタフェース12を介して、センサ部1からの各種のデータの受信、及びセンサ部1に対する各種データの送信を行うことができる。
Thecamera control unit 13 is configured with a microcomputer having, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and performs overall control of thecamera device 10 by the CPU executing various processes in accordance with programs stored in the ROM or programs loaded into the RAM.
Thecamera control unit 13 can receive various types of data from thesensor unit 1 and transmit various types of data to thesensor unit 1 via thecommunication interface 12 .

カメラ制御部13には、センサ外メモリ部14が接続されている。センサ外メモリ部14は、例えばSSD(Solid State Drive)やフラッシュメモリ装置等の不揮発性の記憶デバイスで構成され、カメラ制御部13が各種制御に用いる情報の記憶に用いられる。また、センサ外メモリ部14は、センサ部1による撮像画像データ等、センサ部1において得られた各種データの記憶に用いることもできる。
本実施形態のカメラ装置10では、センサ外メモリ部14には第一AIモデル設定データP1、及び第二AIモデル設定データP2が記憶されるが、これらについては後に改めて説明する。
The sensorexternal memory unit 14 is connected to thecamera control unit 13. The sensorexternal memory unit 14 is configured with a non-volatile storage device such as an SSD (Solid State Drive) or a flash memory device, and is used to store information used by thecamera control unit 13 for various controls. The sensorexternal memory unit 14 can also be used to store various data obtained by thesensor unit 1, such as image data captured by thesensor unit 1.
In thecamera device 10 of this embodiment, the sensorexternal memory unit 14 stores first AI model setting data P1 and second AI model setting data P2, which will be explained again later.

また、カメラ制御部13には、通信部15が接続されている。
通信部15は、外部装置との間で有線又は無線によるデータ通信を行うことが可能に構成されている。通信部15としては、ネットワーク通信機能を有するように構成することもでき、その場合、カメラ制御部13は、通信部15を介して、例えばインターネット等の所定のネットワーク上における所定装置(例えば、サーバ装置)との間でデータのやりとりを行うことが可能とされる。
In addition, acommunication unit 15 is connected to thecamera control unit 13 .
Thecommunication unit 15 is configured to be capable of performing wired or wireless data communication with an external device. Thecommunication unit 15 may also be configured to have a network communication function, in which case thecamera control unit 13 is capable of exchanging data with a predetermined device (e.g., a server device) on a predetermined network such as the Internet via thecommunication unit 15.

センサ部1は、図示のように画素アレイ部2、画像信号処理部3、前処理部4、AI処理部5、センサ内制御部6、センサ内メモリ部7、出力データ生成部8、及び通信インタフェース(I/F)9を有している。As shown in the figure, thesensor unit 1 has apixel array unit 2, an imagesignal processing unit 3, apre-processing unit 4, anAI processing unit 5, an in-sensor control unit 6, an in-sensor memory unit 7, an output data generation unit 8, and a communication interface (I/F) 9.

画素アレイ部2は、例えばフォトダイオード等の受光素子(光電変換素子)を有する画素が、水平方向及び垂直方向の二次元に複数配列されている。
具体的に、画素アレイ部2は、異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットPu(後述する図4Aを参照)を有し、この画素ユニットPuが二次元に複数配列されて構成されている。
In thepixel array section 2, a plurality of pixels, each having a light receiving element (photoelectric conversion element) such as a photodiode, are arranged two-dimensionally in the horizontal and vertical directions.
Specifically, thepixel array section 2 has a pixel unit Pu (see Figure 4A described later) consisting of a plurality of pixels that receive light of different wavelength bands arranged two-dimensionally in a predetermined pattern, and is configured by arranging multiple pixel units Pu in a two-dimensional manner.

本実施形態において、画素ユニットPuは、R(赤色)光を受光するR画素、G(緑色)光を受光するG画素、及びB(青色)光を受光するB画素の三種の画素が所定の配列パターンにより配列されて成る。具体的に、本例における画素ユニットPuは、R画素、G画素、及びB画素がベイヤー(bayer)配列されて成る。In this embodiment, the pixel unit Pu is composed of three types of pixels, an R pixel that receives R (red) light, a G pixel that receives G (green) light, and a B pixel that receives B (blue) light, arranged in a predetermined arrangement pattern. Specifically, the pixel unit Pu in this example is composed of R pixels, G pixels, and B pixels arranged in a Bayer pattern.

画素アレイ部2には、各画素の値(受光値)を読み出す読み出し回路や、アナログ信号としての画素値をデジタルサンプリングするためのADC(Analog to Digital Converter)等、デジタルデータとしての画像データを得るための構成も含まれる。Thepixel array section 2 also includes components for obtaining image data as digital data, such as a readout circuit that reads out the value of each pixel (received light value) and an ADC (Analog to Digital Converter) for digitally sampling pixel values as analog signals.

画像信号処理部(ISP:Imaging Signal Processor)3は、画素アレイ部2により得られた画像データ(撮像画像データ)を入力し、各種の画像信号処理を施す。
なお、画像信号処理部3の内部構成については後に改めて説明する。
An imaging signal processor (ISP) 3 receives image data (captured image data) obtained by thepixel array unit 2 and performs various types of image signal processing.
The internal configuration of the imagesignal processing unit 3 will be explained later.

前処理部4は、画像信号処理部3による画像信号処理後の画像データを入力し、AI処理部5による画像解析処理にとっての前処理としての画像信号処理を施す。具体的に、本例における前処理部4は、少なくとも画像のリサイズ処理を行うことが可能に構成されている。Thepre-processing unit 4 inputs image data after image signal processing by the imagesignal processing unit 3, and performs image signal processing as pre-processing for image analysis processing by theAI processing unit 5. Specifically, thepre-processing unit 4 in this example is configured to be able to perform at least image resizing processing.

AI処理部5は、前処理部4より出力される画像データを入力データとして、AIモデルを用いた画像解析処理を行う。
AI処理部5は、例えばDSP(Digital Signal Processor)により構成され、処理パラメータの切り替えによって、画像解析処理に用いるAIモデルの切り替えが可能とされている。
本例のAI処理部5は、例えばCNN(Convolutional Neural Network)等のニューラルネットワークを有するAIモデルを用いた画像解析処理を行うことが可能に構成されている。
TheAI processing unit 5 performs image analysis processing using an AI model, using the image data output from thepre-processing unit 4 as input data.
TheAI processing unit 5 is composed of, for example, a DSP (Digital Signal Processor), and is capable of switching the AI model used for image analysis processing by switching processing parameters.
TheAI processing unit 5 of this example is configured to be capable of performing image analysis processing using an AI model having a neural network such as a Convolutional Neural Network (CNN).

ここで、一例として、本例におけるカメラ装置10は、スーパーマーケットやデパート等の商業施設に配置されて、顧客としての人を対象被写体とした画像解析処理を行うものとする。具体的には、人を対象被写体とした物体検出処理を行うものであるとする。
この場合において、AI処理部5におけるAIモデルとしては、人を対象被写体とした物体検出処理を行うように機械学習されたAIモデルを用いる。ここで、物体検出処理は、いわゆるバウンディングボックスとしての、対象被写体が存在する領域を特定する処理を含むものである。
Here, as an example, thecamera device 10 in this example is placed in a commercial facility such as a supermarket or a department store, and performs image analysis processing with people as target subjects. Specifically, it is assumed that thecamera device 10 performs object detection processing with people as target subjects.
In this case, an AI model that has been machine-learned to perform object detection processing with a person as a target subject is used as the AI model in theAI processing unit 5. Here, the object detection processing includes processing to specify an area in which the target subject exists, as a so-called bounding box.

センサ内制御部6は、例えばCPU、ROM、及びRAM等を有して構成されたマイクロコンピュータを備えて構成され、センサ部1の動作を統括的に制御する。
例えば、センサ内制御部6は、画素アレイ部2の動作制御を行う。具体的には、動作の開始/停止の制御等を行う。
また、センサ内制御部6は、画像信号処理部3、前処理部4、及びAI処理部5の動作制御も行う。画像信号処理部3、前処理部4の動作制御については、センサ内制御部6は、各種処理の処理パラメータの制御を行うことが可能とされる。
また、AI処理部5の制御として、センサ内制御部6は、AIモデルの切り替え制御を行うことが可能とされる。
The sensorinternal control unit 6 is configured with a microcomputer having, for example, a CPU, a ROM, a RAM, etc., and controls the overall operation of thesensor unit 1.
For example, theintra-sensor control unit 6 controls the operation of thepixel array unit 2. Specifically, it controls the start/stop of the operation.
Theintra-sensor control unit 6 also controls the operation of the imagesignal processing unit 3, thepre-processing unit 4, and theAI processing unit 5. Regarding the operation control of the imagesignal processing unit 3 and thepre-processing unit 4, theintra-sensor control unit 6 is capable of controlling processing parameters of various processes.
In addition, as part of the control of theAI processing unit 5, thesensor control unit 6 is capable of controlling the switching of AI models.

センサ内制御部6には、センサ内メモリ部7が接続されている。センサ内メモリ部7は、例えばフラッシュメモリ装置等の不揮発性の記憶デバイスで構成され、センサ内制御部6が各種制御に用いる情報の記憶に用いられる。The sensorinternal control unit 6 is connected to the sensorinternal memory unit 7. The sensorinternal memory unit 7 is composed of a non-volatile storage device such as a flash memory device, and is used to store information used by the sensorinternal control unit 6 for various controls.

出力データ生成部8は、AI処理部5による解析処理結果と、画像信号処理部3より出力される画像データとを入力し、センサ部1の外部に出力する出力データを生成する。出力データ生成部8は、センサ内制御部6の指示に基づき出力データを生成する。例えば、AI処理部5による解析処理結果と画像データの双方を出力データとするか、或いは、AI処理部5による解析処理結果のみを出力データとするかの切り替えをセンサ内制御部6の指示に基づき行うことが考えられる。The output data generation unit 8 inputs the analysis processing results by theAI processing unit 5 and the image data output by the imagesignal processing unit 3, and generates output data to be output outside thesensor unit 1. The output data generation unit 8 generates output data based on instructions from thesensor control unit 6. For example, it is possible to switch between outputting both the analysis processing results by theAI processing unit 5 and the image data, or outputting only the analysis processing results by theAI processing unit 5, based on instructions from thesensor control unit 6.

通信インタフェース9は、センサ部1内からセンサ部1外へのデータ出力、及びセンサ部1外からセンサ部1内へのデータ入力を可能とするための通信インタフェースであり、前述した通信インタフェース12との間で、所定の通信データフォーマットに従ったデータ通信を行う。
この通信インタフェース9を介して、上述した出力データをセンサ部1の外部(本例ではカメラ制御部13)に対して出力することができる。
また、センサ内制御部6は、通信インタフェース9を介して、カメラ制御部13との間でデータ通信を行うことが可能とされている。
Thecommunication interface 9 is a communication interface that enables data output from within thesensor unit 1 to outside thesensor unit 1, and data input from outside thesensor unit 1 to thesensor unit 1, and performs data communication with theaforementioned communication interface 12 in accordance with a specified communication data format.
Through thiscommunication interface 9, the above-mentioned output data can be output to the outside of the sensor unit 1 (to thecamera control unit 13 in this example).
In addition, the internalsensor control unit 6 is capable of performing data communication with thecamera control unit 13 via thecommunication interface 9 .

図2は、画像信号処理部3の内部構成例を説明するための図である。
なお、図2では、画像信号処理部3の内部構成例と共に、図1に示した前処理部4、AI処理部5、及びセンサ内制御部6を併せて示している。
FIG. 2 is a diagram for explaining an example of the internal configuration of the imagesignal processing unit 3. As shown in FIG.
2 shows an example of the internal configuration of the imagesignal processing unit 3, as well as thepre-processing unit 4, theAI processing unit 5, and thesensor control unit 6 shown in FIG.

画像信号処理部3には、図1に示した画素アレイ部2より、RAWデータとしての画像データが入力される。ここで言うRAWデータとは、各画素の値をラスタ順で読み出して得られる画像データ、つまり本例ではベイヤー配列による画素配列を維持した状態の画像データを意味するものである。Image data as RAW data is input to the imagesignal processing unit 3 from thepixel array unit 2 shown in FIG. 1. The RAW data referred to here means image data obtained by reading out the values of each pixel in raster order, that is, in this example, image data in a state in which the pixel arrangement according to the Bayer array is maintained.

図示のように画像信号処理部3は、黒レベル補正部31、ゲイン調整部33、デモザイク処理部34、色補正部35、ガンマ補正部36、及びデワープ処理部37を有しており、画素アレイ部2より入力されるRAWデータとしての画像データに対し、シェーディング補正処理、ゲイン調整処理、デモザイク処理、色補正処理、ガンマ補正処理、及びデワープ処理を順に施すことが可能とされている。As shown in the figure, the imagesignal processing unit 3 has a blacklevel correction unit 31, again adjustment unit 33, ademosaic processing unit 34, acolor correction unit 35, agamma correction unit 36, and adewarp processing unit 37, and is capable of sequentially performing shading correction processing, gain adjustment processing, demosaic processing, color correction processing, gamma correction processing, and dewarp processing on image data as RAW data input from thepixel array unit 2.

ここで、ゲイン調整部33によるゲイン調整処理としては、画素の色を問わずに画像全体の輝度分布を調整するための全体ゲイン調整と、色ごとのゲイン調整処理であるAWB(Auto White Balance)処理とを含む。Here, the gain adjustment process performed by thegain adjustment unit 33 includes an overall gain adjustment for adjusting the luminance distribution of the entire image regardless of the color of the pixels, and an AWB (Auto White Balance) process, which is a gain adjustment process for each color.

また、デモザイク処理部34によるデモザイク処理は、ベイヤー配列状態の入力画像データからR、G、Bの色ごとに空間的な補間処理を行うことによって入力画像データと同画素数によるR画像、G画像、B画像としての各画像データを生成する処理である。In addition, the demosaic processing by thedemosaic processing unit 34 is a process that generates image data as an R image, a G image, and a B image with the same number of pixels as the input image data by performing spatial interpolation processing for each of the R, G, and B colors from the input image data in a Bayer array state.

色補正部35においては、デモザイク処理後の画像データについてリニアマトリクス処理による色補正処理を行う。
また、デワープ処理部37においては、デワープ処理として、少なくともレンズ歪み補正処理を行う。
Thecolor correction unit 35 performs color correction processing by linear matrix processing on the image data after the demosaic processing.
Furthermore, thedewarp processor 37 performs at least lens distortion correction processing as the dewarp processing.

ここで、本実施形態における画像信号処理部3は、画像編成部38、及びセレクタ39も備えているが、これらについては後に改めて説明する。
Here, the imagesignal processing section 3 in this embodiment also includes animage editing section 38 and aselector 39, which will be described later.

[1-2.第一実施形態としての解析処理手法]
前述もしたように、人が画像を鑑賞する用途では、R、G、Bの3chの画像を用いることはフルカラー表現が可能となり望ましいものとなるが、AIモデルを用いた画像解析処理にとって、入力データとしてR、G、Bの3chの画像を用いることは、解析処理精度の面で必ずしも最善であるとは言えない。
[1-2. Analysis processing method as the first embodiment]
As mentioned above, for applications in which people view images, using 3-channel images (R, G, and B) is desirable because it enables full-color expression; however, for image analysis processing using an AI model, using 3-channel images (R, G, and B) as input data is not necessarily optimal in terms of analysis processing accuracy.

この点に鑑み、本実施形態では、AI処理部5の入力データとして、デモザイク処理されていない状態の撮像画像である非デモザイク画像を用いるという手法を提案する。
デモザイク処理は空間的な補間処理を伴うものであるため、本来の画素値からの乖離が生じる傾向となり、AIモデルによる画像解析処理の入力データとしてデモザイク後の画像を用いた場合には、上記の画素値の乖離に起因して、画像解析処理の精度が低下する場合がある。
これに対し、上記のように非デモザイク画像をAI処理部5の入力データとすることで、そのようなデモザイク処理に起因した処理精度低下の防止を図ることが可能となり、AIモデルを用いた画像解析処理についての処理精度向上を図ることができる。
In view of this, in this embodiment, a method is proposed in which a non-demosaic image, which is a captured image that has not been subjected to demosaic processing, is used as input data for theAI processing unit 5.
Because demosaic processing involves spatial interpolation processing, there is a tendency for deviations from the original pixel values to occur, and when a demosaic image is used as input data for image analysis processing using an AI model, the accuracy of the image analysis processing may decrease due to the above-mentioned deviations in pixel values.
In contrast, by using the non-demosaic image as input data for theAI processing unit 5 as described above, it is possible to prevent a decrease in processing accuracy caused by such demosaic processing, and to improve the processing accuracy of image analysis processing using an AI model.

また、本実施形態では、撮像対象シーンについてのシーン判定結果に基づき、AI処理部5の入力データが、デモザイク処理部34によるデモザイク処理後の画像であるデモザイク後画像と非デモザイク画像との間で切り替えられるようにする。In addition, in this embodiment, the input data of theAI processing unit 5 is switched between a demosaic image, which is an image after demosaic processing by thedemosaic processing unit 34, and a non-demosaic image, based on the scene determination result for the scene to be imaged.

ここで、本実施形態のようにセンサ装置内でAIモデルを用いた画像解析処理を行う場合は、画像解析処理に割くことのできるリソース(メモリ量や演算能力)が不足する傾向となる。
例えば、物体検出処理等、AIモデルを用いた画像解析処理は、実用上、カメラで捉えられるシーンに或る程度の変化が生じても精度維持が図られるようにすることが要請される。例えば、昼夜等の明/暗シーンや、人等の解析対象の被写体が比較的遠くに存在しているシーンや近くに存在しているシーン等、カメラで捉えられるシーンは経時的に変化し得るものであるが、そのようなシーンの変化に対しても解析処理精度が一定以上に維持されることが望ましい。
Here, when performing image analysis processing using an AI model within a sensor device as in this embodiment, there is a tendency for resources (memory amount and computing power) that can be allocated to image analysis processing to become insufficient.
For example, in practical use, image analysis processing using an AI model, such as object detection processing, is required to maintain accuracy even if a certain degree of change occurs in the scene captured by the camera. For example, the scene captured by the camera may change over time, such as light/dark scenes such as day and night, or scenes in which a subject to be analyzed, such as a person, is relatively far away or nearby, but it is desirable to maintain the analysis processing accuracy at a certain level even against such scene changes.

シーン変化に対する精度維持を図るためには、AIモデルの学習として、対応したい各シーンの撮像画像を学習用入力データに用いた機械学習を行って、シーンの差を吸収可能なAIモデルを作成することが考えられる。In order to maintain accuracy in the face of scene changes, one possible approach would be to train the AI model using machine learning techniques that use images of each scene to be handled as learning input data, thereby creating an AI model that can absorb differences in scenes.

しかしながら、このようにシーンの差を吸収可能とするためには、AIモデルとして比較的多くのフィルタ係数、ネットワーク階層数を要するものとなり、AIモデル実現に要するリソースが増大してしまう。
このため、シーンの変化をAIモデルにおいて吸収するという手法は、画像解析処理の実行主体が比較的リソースの豊富なコンピュータ装置、具体的には、カメラ装置10外部のコンピュータ装置で行う場合には適用可能であるが、画像解析処理をリソースが限られるカメラ装置10内で行う場合、特には、センサ装置(センサ部1)内で行う場合には適用が困難となる。
However, in order to absorb such scene differences, the AI model requires a relatively large number of filter coefficients and a relatively large number of network hierarchies, which increases the resources required to realize the AI model.
For this reason, the technique of absorbing scene changes in an AI model is applicable when the image analysis processing is performed by a computer device with relatively abundant resources, specifically, a computer device external to thecamera device 10; however, it is difficult to apply when the image analysis processing is performed within thecamera device 10, which has limited resources, in particular when it is performed within the sensor device (sensor unit 1).

このため、本実施形態では、上記のようにシーン判定結果に基づいてAI処理部5の入力データをデモザイク後画像と非デモザイク画像との間で切り替えるという手法を採る。For this reason, in this embodiment, a method is adopted in which the input data to theAI processing unit 5 is switched between a demosaiced image and a non-demosaic image based on the scene determination result as described above.

図3は、AI処理部5の入力データの種類を変化させた場合の画像解析処理精度の変化特性について実験を行った結果を示している。
具体的に、図3の実験結果は、AIモデルを用いた画像解析処理として人の体を対象被写体とした物体検出処理を行った場合の結果を示すものであり、暗シーンと明シーンの各シーンごとに、図2の<1>から<6>で示す各取り出し位置の画像データを入力データとして用いた場合の画像解析処理精度の評価値の測定結果を示している。
ここでの評価値は、人の体を対象被写体とした物体検出処理を複数回行った場合における、90%以上の人を正確に検出できた割合を求めたものである。
FIG. 3 shows the results of an experiment conducted on the change characteristics of the image analysis processing accuracy when the type of input data to theAI processing unit 5 is changed.
Specifically, the experimental results in Figure 3 show the results of object detection processing using a human body as a target subject as image analysis processing using an AI model, and show the measurement results of the evaluation value of the image analysis processing accuracy when image data from each extraction position shown in <1> to <6> in Figure 2 is used as input data for each dark scene and bright scene.
The evaluation value here is the percentage of people that are accurately detected at 90% or more when object detection processing is performed multiple times with a human body as the target subject.

ここで、暗シーンとは、対象被写体が暗く写るシーンを意味するものであり、例えば、対象被写体の輝度値が一定値以下となるシーンと定義することができるものである。明シーンは、逆に対象被写体が明るく写るシーンを意味するものであり、例えば、対象被写体の輝度値が上記の一定値を超えるシーンと定義することができる。Here, a dark scene refers to a scene in which the target subject appears dark, and can be defined, for example, as a scene in which the luminance value of the target subject is below a certain value. Conversely, a bright scene refers to a scene in which the target subject appears bright, and can be defined, for example, as a scene in which the luminance value of the target subject exceeds the above-mentioned certain value.

図2を参照して分かるように、<1>の取り出し位置は、画像信号処理部3への入力直前の位置であり、<2>の取り出し位置は、シェーディング補正部32とゲイン調整部33との間の位置である。また、<3>の取り出し位置は、ゲイン調整部33とデモザイク処理部34との間の位置である。
これら<1>から<3>の取り出し位置は、共にデモザイク前の位置となるが、実験では、これら<1>から<3>の取り出し位置の画像データとしては、AIモデルとしてCNNを有するAIモデルを用いることに対応して、以下で説明する色分離画像としての画像データを用いるものとしている。
2, the extraction position of <1> is a position immediately before input to the imagesignal processing unit 3, and the extraction position of <2> is a position between theshading correction unit 32 and thegain adjustment unit 33. Moreover, the extraction position of <3> is a position between thegain adjustment unit 33 and thedemosaic processing unit 34.
The extraction positions of these <1> to <3> are all positions before demosaicing, but in the experiment, as the image data for the extraction positions of these <1> to <3>, image data as color separated images described below are used in correspondence with the use of an AI model having CNN as the AI model.

図4は、実施形態における色分離画像の説明図である。
図4Aは、画素アレイ部2における画素配列(本例ではベイヤー配列)を示している。図示のように本例では、画素ユニットPuは、R、G、G、Bの四つの画素がベイヤーフォーマットに従った所定の配列パターンで配列されて成る。
FIG. 4 is an explanatory diagram of a color separation image in the embodiment.
4A shows a pixel arrangement (Bayer arrangement in this example) in thepixel array section 2. As shown in the figure, in this example, the pixel unit Pu is configured by four pixels of R, G, G, and B being arranged in a predetermined arrangement pattern according to the Bayer format.

ここで言う色分離画像とは、各画素ユニットPuから、画素ユニット内位置が同じ画素ごとに画素値を収集して同一画像平面上のそれぞれ異なる領域に並べて形成される画像を意味する。
図4Bは、ベイヤー配列の場合に生成される色分離画像を例示している。図示のようにベイヤー配列の場合には、各画素ユニットPuにおけるR画素、G画素、G画素、B画素について、画素ユニット内位置が同じ画素の画素値同士を収集して同一画像平面上のそれぞれ異なる領域に並べることで、各画素ユニットPuにおけるR画素の画素値が配列された画像領域と、各画素ユニットPuにおける一方のG画素の画素値が配列された画像領域と、各画素ユニットPuにおける他方のG画素の画素値が配列された画像領域と、各画素ユニットPuにおけるB画素の画素値が配列された画像領域とを有する色分離画像を生成する。
The color separation image referred to here means an image formed by collecting pixel values for pixels at the same position within each pixel unit Pu and arranging them in different regions on the same image plane.
4B illustrates a color-separated image generated in the case of the Bayer array. As shown in the figure, in the case of the Bayer array, pixel values of R pixels, G pixels, G pixels, and B pixels in each pixel unit Pu that are located at the same position in the pixel unit are collected and arranged in different regions on the same image plane, thereby generating a color-separated image having an image region in which the pixel values of the R pixels in each pixel unit Pu are arranged, an image region in which the pixel values of one G pixel in each pixel unit Pu are arranged, an image region in which the pixel values of the other G pixel in each pixel unit Pu are arranged, and an image region in which the pixel values of the B pixels in each pixel unit Pu are arranged.

上記のような色分離画像をAI処理部5の入力データとして用いることで、AI処理部に対する入力データの形式が、CNNの構成に適した入力データ形式となり、画像解析処理の精度向上を図ることができる。By using color separation images such as those described above as input data for theAI processing unit 5, the format of the input data to the AI processing unit becomes an input data format suitable for the CNN configuration, thereby improving the accuracy of image analysis processing.

説明を図3に戻す。
<4>から<6>の取り出し位置は、デモザイク後の取り出し位置であり、<4>はデモザイク処理部34と色補正部35との間の位置、<5>は色補正部35とガンマ補正部36との間の位置、<6>はガンマ補正部36とデワープ処理部37との間の位置である。
Returning to FIG.
The extraction positions <4> to <6> are the extraction positions after demosaic, with <4> being a position between thedemosaic processing unit 34 and thecolor correction unit 35, <5> being a position between thecolor correction unit 35 and thegamma correction unit 36, and <6> being a position between thegamma correction unit 36 and thedewarp processing unit 37.

図3の結果によると、明シーンにおいては、入力データを<1>から<6>の何れのデータ種類とした場合であっても評価値は90%以上となっている。この点より、明シーンの場合には、物体検出処理の精度がデータ種類の違いに依存しない傾向となることが分かる。According to the results in Figure 3, in bright scenes, the evaluation value is 90% or more regardless of the data type of the input data, from <1> to <6>. This shows that in bright scenes, the accuracy of the object detection process tends not to depend on the difference in data type.

一方、暗シーンの場合には、<4>の取り出し位置以降において、評価値の顕著な低下が確認できる。すなわち、デモザイク後画像を入力データとした場合に、処理精度の顕著な低下が生じるものである。
実験によると、<1>から<3>のデモザイク前のデータ種類とした場合、評価値は60%以上を維持しているのに対し、デモザイク後の<4><5>のデータ種類では評価値が60%を大きく下回るものとなっている。<6>のデータ種類、すなわちガンマ補正後のデモザイク後画像を用いる場合には、評価値の若干の上昇は確認できるが、60%には満たないものとなっている。
暗シーンでは、<2>のデータ種類、すなわちシェーディング補正後且つゲイン調整前の画像を用いる場合が最も評価値が高く、評価値=75%程度となる結果が得られている。
On the other hand, in the case of a dark scene, a significant drop in the evaluation value can be confirmed after the extraction position of <4>. In other words, when the demosaiced image is used as input data, a significant drop in processing accuracy occurs.
According to experiments, when the pre-demosaic data types <1> to <3> are used, the evaluation value remains at 60% or more, whereas the evaluation value falls far below 60% for the post-demosaic data types <4> and <5>. When the data type <6>, i.e., the demosaic image after gamma correction, is used, a slight increase in the evaluation value can be confirmed, but it does not reach 60%.
In dark scenes, the data type <2>, that is, the image after shading correction and before gain adjustment, gives the highest evaluation value, with an evaluation value of about 75%.

上記の実験結果のように、デモザイク後画像を用いた場合に画像解析処理の精度低下が生じるのは、デモザイク処理としての空間的な補間処理を行うことに伴う本来画素値との乖離が暗シーンにおいて顕著化することに依るものと考えられる。As shown by the experimental results above, the accuracy of image analysis processing decreases when demosaiced images are used. This is thought to be due to the fact that the deviation from the original pixel values caused by the spatial interpolation process used in the demosaicing process becomes more noticeable in dark scenes.

また、リソースが限られた下では、AI処理部5への入力データ量が削減されるように、AI処理部5への入力データを前処理部4において所定サイズにリサイズ(例えば間引き)するようにされるが、この点に起因しても、デモザイク後画像を用いた場合の処理精度低下が生じると考えられる。In addition, when resources are limited, the input data to theAI processing unit 5 is resized (e.g., thinned) to a predetermined size in thepre-processing unit 4 so as to reduce the amount of input data to theAI processing unit 5. However, this is also thought to result in a decrease in processing accuracy when using a demosaiced image.

具体例として、例えば、AI処理部5の入力データ量を1280×960画素のデータ量に制限する前提において、図5に示すように非デモザイク画像を用いる場合は1280×960画素の解像度(情報密度)による画像を入力データとすることができるが、デモザイク後画像を用いる場合は、AI処理部5の入力データとなるR画像、B画像、G画像それぞれの解像度は739×554画素に縮小化されてしまう。
このように解像度が低下する点も、入力データにデモザイク後画像を用いた場合における処理精度低下の一因となると考えられる。
As a specific example, assuming that the amount of input data to theAI processing unit 5 is limited to a data amount of 1280 x 960 pixels, when a non-demosaic image is used as shown in Figure 5, an image with a resolution (information density) of 1280 x 960 pixels can be used as input data, but when a demosaiced image is used, the resolution of each of the R image, B image, and G image that serve as input data to theAI processing unit 5 is reduced to 739 x 554 pixels.
Such a decrease in resolution is also thought to be one of the factors that leads to a decrease in processing accuracy when a demosaiced image is used as input data.

上記の点を踏まえ、本実施形態では、撮像対象シーンの判定として、暗シーンであるか否かの判定を行い、暗シーンと判定された場合にAI処理部5の入力データとして非デモザイク画像を入力させるという手法を採る。
これにより、リソースの問題からシーンの差を吸収可能なAIモデルを用いることができない場合において、暗シーンにおける画像解析処理精度の低下抑制を図ることができ、シーンに依存した画像解析処理精度低下の抑制を図ることができる。
Taking the above points into consideration, in this embodiment, the scene to be imaged is determined by determining whether it is a dark scene or not, and if it is determined to be a dark scene, a non-demosaic image is input as input data for theAI processing unit 5.
This makes it possible to suppress deterioration in image analysis processing accuracy in dark scenes when it is not possible to use an AI model that can absorb scene differences due to resource issues, thereby suppressing deterioration in image analysis processing accuracy that is scene-dependent.

本例において、暗シーンにおける入力データとしては、<2>と示したシェーディング補正後の非デモザイク画像を用いる。具体的には、シェーディング補正部32とゲイン調整部33との間で得られる非デモザイク画像についての色分離画像を暗シーンにおける入力データとする。In this example, the non-demosaic image after shading correction indicated by <2> is used as input data for a dark scene. Specifically, the color separation image of the non-demosaic image obtained between theshading correction unit 32 and thegain adjustment unit 33 is used as input data for a dark scene.

このために、本実施形態のカメラ装置10においては、画像信号処理部3において、画像編成部38を設けるものとしている。
図2に示すように画像編成部38は、シェーディング補正部32より出力されるシェーディング補正後の非デモザイク画像を入力し、先の図3で説明した手法により画素値の並べ替えを行うことで、シェーディング補正後の非デモザイク画像についての色分離画像を生成する。
For this reason, in thecamera device 10 of this embodiment, animage editing section 38 is provided in the imagesignal processing section 3 .
As shown in Figure 2, animage editing unit 38 inputs the non-demosaic image after shading correction output from theshading correction unit 32, and rearranges the pixel values using the method described above in Figure 3, thereby generating a color separation image of the non-demosaic image after shading correction.

また、本実施形態では、暗シーンか否かの判定の結果、暗シーンではないと判定された場合は、AI処理部5の入力データとしてデモザイク後画像が入力されるようにする。
具体的に本例において、暗シーンではないと判定された場合は、デワープ処理部37より出力されるデモザイク後画像がAI処理部5の入力データとして与えられるようにする。
In addition, in this embodiment, if the result of judging whether or not the scene is a dark scene indicates that the scene is not a dark scene, the demosaiced image is input as input data to theAI processing unit 5.
Specifically, in this example, if it is determined that the scene is not a dark scene, the demosaiced image output from thedewarping processing unit 37 is provided as input data to theAI processing unit 5 .

このような暗シーン/明シーンに応じた入力データ切り替えを可能とするべく、画像信号処理部3にはセレクタ39が設けられる。
セレクタ39は、画像編成部38において色分離画像とされた非デモザイク画像と、デワープ処理部37より出力されるデモザイク後画像とを入力し、センサ内制御部6により指示された方の画像を前処理部4に対して出力する。
In order to enable switching of input data according to such a dark scene/bright scene, the imagesignal processing section 3 is provided with aselector 39 .
Theselector 39 inputs the non-demosaic image that has been converted into a color-separated image in theimage organization unit 38 and the demosaic image output from thedewarping processing unit 37, and outputs the image specified by thesensor control unit 6 to thepre-processing unit 4.

本例において、暗シーンか否かの判定は、センサ内制御部6がデモザイク後画像に基づいて行う。具体的に、本例におけるセンサ内制御部6は、デワープ処理部37が出力するデモザイク後画像に基づいて暗シーンか否かの判定を行う。
そして、センサ内制御部6は、暗シーンか否かの判定を行った結果、暗シーンでないと判定した場合にはセレクタ39にデモザイク後画像を出力させ(選択させ)、暗シーンであると判定した場合にはセレクタ39に非デモザイク画像を出力させる(選択させる)。
In this example, the determination of whether or not the scene is a dark scene is performed by theintra-sensor control unit 6 based on the demosaiced image. Specifically, in this example, theintra-sensor control unit 6 determines whether or not the scene is a dark scene based on the demosaiced image output by thedewarp processing unit 37.
Then, thesensor control unit 6 determines whether or not the scene is a dark scene, and if it determines that the scene is not a dark scene, it causes theselector 39 to output (select) the demosaiced image, and if it determines that the scene is a dark scene, it causes theselector 39 to output (select) the non-demosaic image.

また、本実施形態において、センサ内制御部6は、デモザイク後画像がAI処理部5の入力データとされる場合にはAIモデルとしてデモザイク後画像を学習用入力データとして学習されたAIモデルが用いられ、非デモザイク画像がAI処理部5の入力データとされる場合にはAIモデルとして非デモザイク画像を学習用入力データとして学習されたAIモデルが用いられるように制御する。In addition, in this embodiment, thesensor control unit 6 controls so that when the demosaiced image is used as input data for theAI processing unit 5, an AI model trained using the demosaiced image as learning input data is used as the AI model, and when a non-demosaic image is used as input data for theAI processing unit 5, an AI model trained using the non-demosaic image as learning input data is used as the AI model.

本例では、前者のAIモデル、すなわちデモザイク後画像を学習用入力データとして学習されたAIモデルを実現するためのAI処理部5の設定データが、図1に示したセンサ外メモリ部14において、第一AIモデル設定データP1として記憶され、また、後者のAIモデル、すなわち非デモザイク画像を学習用入力データとして学習されたAIモデルを実現するためのAI処理部5の設定データが、センサ外メモリ部14において第二AIモデル設定データP2として記憶されている。
ここで、第一AIモデル設定データP1、第二AIモデル設定データP2には、CNNにおける畳み込み処理等のフィルタ処理で用いるフィルタ係数としてのパラメータや、ニューラルネットワークの構造に係る各種パラメータを含むデータとされる。
In this example, the setting data of theAI processing unit 5 for realizing the former AI model, i.e., an AI model trained using demosaiced images as learning input data, is stored as first AI model setting data P1 in the sensor-external memory unit 14 shown in Figure 1, and the setting data of theAI processing unit 5 for realizing the latter AI model, i.e., an AI model trained using non-demosaic images as learning input data, is stored as second AI model setting data P2 in the sensor-external memory unit 14.
Here, the first AI model setting data P1 and the second AI model setting data P2 are data including parameters as filter coefficients used in filter processing such as convolution processing in CNN, and various parameters related to the structure of the neural network.

センサ内制御部6は、暗シーンではないと判定した場合には、通信インタフェース9を介してカメラ制御部13に対する指示を行って、センサ外メモリ部14から第一AIモデル設定データP1を読み出させ、自身に対して転送させる。そして、転送された第一AIモデル設定データP1に従ってAI処理部5のパラメータ設定を行うことで、AI処理部5がデモザイク後画像を学習用入力データとして学習されたAIモデルによる画像解析処理を実行可能な状態とする。
また、センサ内制御部6は、暗シーンであると判定した場合には、通信インタフェース9を介してカメラ制御部13に対する指示を行ってセンサ外メモリ部14から第二AIモデル設定データP2を読み出させ、自身に対して転送させると共に、転送された第二AIモデル設定データP2に従ってAI処理部5のパラメータ設定を行うことで、AI処理部5が非デモザイク画像を学習用入力データとして学習されたAIモデルによる画像解析処理を実行可能な状態とする。
When theintra-sensor control unit 6 determines that the scene is not a dark scene, it instructs thecamera control unit 13 via thecommunication interface 9 to read the first AI model setting data P1 from theextra-sensor memory unit 14 and transfer it to itself. Then, the parameters of theAI processing unit 5 are set according to the transferred first AI model setting data P1, thereby making theAI processing unit 5 capable of executing image analysis processing by an AI model trained using the demosaiced image as learning input data.
In addition, when the sensorinternal control unit 6 determines that it is a dark scene, it issues an instruction to thecamera control unit 13 via thecommunication interface 9 to read the second AI model setting data P2 from the sensorexternal memory unit 14 and transfer it to itself, and sets parameters of theAI processing unit 5 according to the transferred second AI model setting data P2, thereby enabling theAI processing unit 5 to perform image analysis processing using an AI model trained using the non-demosaic image as learning input data.

[1-3.処理手順]
図6のフローチャートを参照し、上記により説明した第一実施形態としての解析処理手法を実現するためにセンサ内制御部6が実行すべき具体的な処理手順例について説明する。
なお、図6に示す処理は、センサ内制御部6におけるCPUが、センサ内制御部6のROM等の所定の記憶装置に記憶されたプログラムに基づき実行する。ただし、以下では説明上、処理の実行主体はセンサ内制御部6であると表現する。
本例において、センサ内制御部6は、図6に示す処理を起動に応じて開始する。
[1-3. Processing procedure]
With reference to the flowchart in FIG. 6, a specific example of a processing procedure to be executed by the internalsensor control unit 6 in order to realize the analysis processing method as the first embodiment described above will be described.
6 is executed by the CPU in the internalsensor control unit 6 based on a program stored in a predetermined storage device such as a ROM in the internalsensor control unit 6. However, for the sake of explanation, the internalsensor control unit 6 will be referred to as the entity that executes the process below.
In this example, the internalsensor control unit 6 starts the process shown in FIG. 6 in response to activation.

先ず、センサ内制御部6はステップS101で、シーン判定実行条件が成立したか否かを判定する。すなわち、後述するステップS103のシーン判定処理(本例では暗シーンか否かの判定処理)を実行すべきとして予め定められた所定条件が成立したか否かを判定する。
ステップS103のシーン判定処理は、例えば、所定の時間間隔で周期的に行うことが考えられる。その場合、シーン判定条件としては、一定時間の経過を条件とすればよい。
なお、シーン判定実行条件は、外部からの指示が行われたことや、照度センサ等を用いた簡易的な明るさ検出の結果、明るさに所定量以上の変化があったこと等とすることも考えられ、特定の条件に限定されるものではない。
First, in step S101, thesensor control unit 6 determines whether a scene determination execution condition is satisfied. That is, thesensor control unit 6 determines whether a predetermined condition is satisfied that indicates that a scene determination process (in this example, a process of determining whether a scene is a dark scene) in step S103 described later should be executed.
The scene determination process in step S103 may be performed periodically at a predetermined time interval, for example. In this case, the scene determination condition may be the passage of a certain period of time.
In addition, the conditions for executing scene determination may include an external instruction being given, or a simple brightness detection using an illuminance sensor or the like resulting in a change in brightness of a predetermined amount or more, and are not limited to specific conditions.

ステップS101において、シーン判定実行条件が成立していないと判定した場合、センサ内制御部6はステップS102に進み、処理終了であるか否か、すなわち、例えば電源断等、図6に示す一連の処理を終了すべきとして予め定められた所定条件が成立したか否かを判定する。
ステップS102において、処理終了でないと判定した場合、センサ内制御部6はステップS101に戻る。
すなわち、ステップS101及びS102の処理によっては、シーン判定実行条件の成立、処理終了条件の成立の何れかを待機するループ処理が形成される。
If it is determined in step S101 that the scene determination execution conditions are not met, thesensor control unit 6 proceeds to step S102 and determines whether the processing has ended, that is, whether a predetermined condition has been met that indicates that the series of processing steps shown in Figure 6 should be ended, such as a power outage.
If it is determined in step S102 that the processing has not ended, the internalsensor control unit 6 returns to step S101.
That is, depending on the processing in steps S101 and S102, a loop process is formed in which the process waits for either the satisfaction of a scene determination execution condition or the satisfaction of a processing end condition.

ステップS101において、シーン判定実行条件が成立したと判定した場合、センサ内制御部6はステップS103に進み、シーン判定処理を実行する。すなわち、本例では、デワープ処理部37より出力されるデモザイク後画像に基づいて暗シーンか否かの判定を行う。具体的には、対象被写体の領域の平均輝度値が所定輝度値以下であるか否かの判定を行う。このとき、対象被写体の領域は、例えば、AI処理部5による物体検出処理の結果として得られる対象被写体の領域情報に基づき特定することが考えられる。なお、AI処理部5による物体検出処理が開始されていない状態では、例えばフレーム間の差分検出処理等による動体検出処理によって検出された動体の領域を対象被写体の領域として特定すること等が考えられる。If it is determined in step S101 that the scene determination execution condition is met, thesensor control unit 6 proceeds to step S103 and executes the scene determination process. That is, in this example, a determination is made as to whether or not the scene is a dark scene based on the demosaiced image output from thedewarp processing unit 37. Specifically, a determination is made as to whether or not the average luminance value of the region of the target subject is equal to or lower than a predetermined luminance value. At this time, the region of the target subject may be identified, for example, based on the region information of the target subject obtained as a result of the object detection process by theAI processing unit 5. Note that, when the object detection process by theAI processing unit 5 has not started, for example, the region of a moving object detected by a moving object detection process using a difference detection process between frames or the like may be identified as the region of the target subject.

ステップS103に続くステップS104でセンサ内制御部6は、暗シーンであるか否かの判定を行う。すなわち、ステップS103の判定処理の結果、暗シーンであるとの判定結果が得られたか否かを判定する。In step S104 following step S103, thesensor control unit 6 determines whether or not the scene is a dark scene. That is, it determines whether or not the determination process in step S103 has determined that the scene is a dark scene.

ステップS104において、暗シーンではないと判定した場合、センサ内制御部6はステップS105に進み、デモザイク後画像の選択指示を行う。すなわち、セレクタ39に対し、デワープ処理部37より入力されるデモザイク後画像を選択出力する指示を行う。If it is determined in step S104 that the scene is not a dark scene, thesensor control unit 6 proceeds to step S105 and issues an instruction to select a demosaiced image. That is, thesensor control unit 6 issues an instruction to theselector 39 to select and output the demosaiced image input from thedewarp processing unit 37.

そして、ステップS105に続くステップS106でセンサ内制御部6は、第一AIモデルの設定処理を行う。すなわち、通信インタフェース9を介してカメラ制御部13に対する指示を行ってセンサ外メモリ部14から第一AIモデル設定データP1を読み出させ、自身に対して転送させると共に、転送された第一AIモデル設定データP1に従ってAI処理部5のパラメータ設定を行う。
これにより、暗シーンではないと判定された場合は、AI処理部5において、デモザイク後画像を入力データとし、デモザイク後画像を学習用入力データとして学習が行われたAIモデルを用いた画像解析処理が行われる。
Then, in step S106 following step S105, thesensor control unit 6 performs a setting process for the first AI model. That is, thesensor control unit 6 instructs thecamera control unit 13 via thecommunication interface 9 to read the first AI model setting data P1 from the sensorexternal memory unit 14 and transfer it to itself, and sets parameters for theAI processing unit 5 according to the transferred first AI model setting data P1.
As a result, if it is determined that the scene is not a dark scene, theAI processing unit 5 uses the demosaiced image as input data and performs image analysis processing using an AI model that has been trained using the demosaiced image as learning input data.

センサ内制御部6は、ステップS106の設定処理を実行したことに応じてステップS101に戻る。Thesensor control unit 6 returns to step S101 upon execution of the setting process of step S106.

また、先のステップS104において、暗シーンであると判定した場合、センサ内制御部6はステップS107に進み、非デモザイク画像の選択指示、すなわち、セレクタ39に対し画像編成部38より入力される色分離画像による非デモザイク画像を選択出力する指示を行う。Also, if it is determined in the previous step S104 that it is a dark scene, thesensor control unit 6 proceeds to step S107 and issues an instruction to select a non-demosaic image, i.e., an instruction to theselector 39 to select and output a non-demosaic image based on the color separation image input from theimage organization unit 38.

さらに、ステップS107に続くステップS108でセンサ内制御部6は、第二AIモデルの設定処理を行う。すなわち、通信インタフェース9を介してカメラ制御部13に対する指示を行ってセンサ外メモリ部14から第二AIモデル設定データP2を読み出させ、自身に対して転送させると共に、転送された第二AIモデル設定データP2に従ってAI処理部5のパラメータ設定を行う。
これにより、暗シーンであると判定された場合は、AI処理部5において、色分離画像による非デモザイク画像を入力データとし、色分離画像による非デモザイク画像を学習用入力データとして学習が行われたAIモデルを用いた画像解析処理が行われる。
Furthermore, in step S108 following step S107, thesensor control unit 6 performs a setting process for the second AI model. That is, thesensor control unit 6 instructs thecamera control unit 13 via thecommunication interface 9 to read the second AI model setting data P2 from the sensorexternal memory unit 14 and transfer it to itself, and sets parameters for theAI processing unit 5 according to the transferred second AI model setting data P2.
As a result, if it is determined that the scene is dark, theAI processing unit 5 performs image analysis processing using an AI model that has been trained using the non-demosaic image made from color separation image as input data and the non-demosaic image made from color separation image as learning input data.

センサ内制御部6は、ステップS108の設定処理を実行したことに応じてステップS101に戻る。Thesensor control unit 6 returns to step S101 upon execution of the setting process of step S108.

また、センサ内制御部6は、先のステップS102で処理終了であると判定した場合は、図6に示す一連の処理を終える。If thesensor control unit 6 determines in the previous step S102 that the processing has ended, it ends the series of processing steps shown in FIG. 6.

なお、シーン判定処理について、暗シーンであるか否かの判定は、AI処理部5におけるAIモデルの一部機能として暗シーンであるか否かの判定機能を持たせることにより、AI処理部5において実行させることも考えられる。その場合、センサ内制御部6は、このようにAI処理部5で行われる暗シーンか否かの判定処理の結果に基づき、セレクタ39の制御(及びAIモデルの切り替え制御)を行う。
Regarding the scene determination process, the determination of whether or not the scene is a dark scene may be executed by theAI processing unit 5 by providing a function of determining whether or not the scene is a dark scene as a part of the function of the AI model in theAI processing unit 5. In this case, theintra-sensor control unit 6 controls the selector 39 (and controls switching of the AI model) based on the result of the process of determining whether or not the scene is a dark scene executed by theAI processing unit 5 in this manner.

<2.第二実施形態>
続いて、第二実施形態について説明する。
第二実施形態は、AI処理部5で用いるAIモデルを再学習することを想定して、非デモザイク画像を蓄積するものである。
<2. Second embodiment>
Next, a second embodiment will be described.
The second embodiment stores non-demosaic images assuming that the AI model used in theAI processing unit 5 will be re-learned.

図7は、非デモザイク画像の蓄積機能を有する第二実施形態としてのカメラ装置10Aの構成例を説明するためのブロック図である。
なお、図7では図示の都合から、光学系11の図示と、画素アレイ部2、センサ内メモリ部7及び出力データ生成部8の図示を省略しているが、第二実施形態のカメラ装置10Aとしてもこれら光学系11、画素アレイ部2、センサ内メモリ部7及び出力データ生成部8をカメラ装置10の場合と同様に備えるものである。また、センサ外メモリ部14において第一AIモデル設定データP1と第二AIモデル設定データP2の図示を省略しているが、カメラ装置10Aにおいてもこれら第一AIモデル設定データP1と第二AIモデル設定データP2はカメラ装置10の場合と同様にセンサ外メモリ部14に記憶されている。
FIG. 7 is a block diagram for explaining an example of the configuration of acamera device 10A according to a second embodiment having a function of storing non-demosaic images.
7, for convenience of illustration, theoptical system 11, thepixel array unit 2, the in-sensor memory unit 7, and the output data generation unit 8 are omitted, but thecamera device 10A of the second embodiment also has theseoptical system 11,pixel array unit 2, in-sensor memory unit 7, and output data generation unit 8, similar to thecamera device 10. Also, while the first AI model setting data P1 and the second AI model setting data P2 are omitted from the sensor off-memory unit 14, the first AI model setting data P1 and the second AI model setting data P2 are stored in the sensor off-memory unit 14 in thecamera device 10A as in thecamera device 10.

以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号を付して説明を省略する。In the following explanation, parts that are similar to parts that have already been explained will be given the same reference numerals and explanations will be omitted.

カメラ装置10Aにおいて、図1に示したカメラ装置10との相違点は、センサ部1に代えてセンサ部1Aが設けられた点である。
センサ部1Aは、センサ部1と比較して、センサ内制御部6に代えてセンサ内制御部6Aが設けられた点が異なる。
Camera device 10A differs fromcamera device 10 shown in FIG. 1 in thatsensor unit 1A is provided instead ofsensor unit 1.
Sensor unit 1A differs fromsensor unit 1 in that an internalsensor control unit 6A is provided instead of internalsensor control unit 6.

センサ内制御部6Aは、非デモザイク画像をカメラ装置10A内のメモリ、具体的に本例ではセンサ外メモリ部14に蓄積させるための処理を行う点がセンサ内制御部6と異なる。
図示のようにセンサ部1Aにおいては、画像編成部38により生成される色分離画像による非デモザイク画像が、セレクタ39のみでなく通信インタフェース9に入力可能とされている。
センサ内制御部6Aは、通信インタフェース9を介して色分離画像による非デモザイク画像をカメラ制御部13に送信させると共に、通信インタフェース9を介して、カメラ制御部13に対して該非デモザイク画像をセンサ外メモリ部14に記憶させる指示を行う。
これにより、センサ外メモリ部14に対して、カメラ装置10Aの実使用環境下で得られ得る非デモザイク画像による撮像画像を蓄積させることができる。
Theintra-sensor control unit 6A differs from theintra-sensor control unit 6 in that it performs processing for storing non-demosaic images in a memory within thecamera device 10A, specifically in theextra-sensor memory unit 14 in this example.
As shown in the figure, in thesensor unit 1 A, a non-demosaic image based on a color-separated image generated by animage editing unit 38 can be input to not only aselector 39 but also acommunication interface 9 .
The sensorinternal control unit 6A transmits a non-demosaic image based on a color separation image to thecamera control unit 13 via thecommunication interface 9, and also instructs thecamera control unit 13 via thecommunication interface 9 to store the non-demosaic image in the sensorexternal memory unit 14.
This makes it possible to store in the sensor off-memory unit 14 captured images that are non-demosaic images that can be obtained in the actual usage environment of thecamera device 10A.

また、センサ内制御部6Aは、センサ外メモリ部14に蓄積された非デモザイク画像を、カメラ装置10A外部に送信する処理を行う。具体的に、センサ内制御部6Aは、カメラ装置10Aの外部装置(例えば、サーバ装置等)から行われた指示に基づき、センサ外メモリ部14に蓄積された非デモザイク画像を該外部装置に送信する処理の実行をカメラ制御部13に指示する。
これにより、AI処理部5で用いるAIモデルの再学習を外部装置で行う場合に対応して、再学習に用いるべき非デモザイク画像を外部装置に対して送信することが可能となる。
Furthermore, theintra-sensor control unit 6A performs a process of transmitting the non-demosaic images stored in thesensor extra-memory unit 14 to an external device of thecamera device 10A. Specifically, based on an instruction given from an external device (e.g., a server device, etc.) of thecamera device 10A, theintra-sensor control unit 6A instructs thecamera control unit 13 to perform a process of transmitting the non-demosaic images stored in thesensor extra-memory unit 14 to the external device.
This makes it possible to transmit non-demosaic images to be used for re-learning to an external device in response to the case where the AI model used by theAI processing unit 5 is re-learned by the external device.

なお、上記では蓄積された非デモザイク画像についての送信処理の実行をセンサ内制御部6Aがカメラ制御部13に指示する構成を例示したが、蓄積された非デモザイク画像の送信処理は、カメラ制御部13が外部からの指示に基づいて行うことも考えられる。In the above example, thesensor control unit 6A instructs thecamera control unit 13 to execute the transmission process for the accumulated non-demosaic images, but it is also possible that thecamera control unit 13 performs the transmission process for the accumulated non-demosaic images based on an external instruction.

また、上記では、非デモザイク画像を蓄積する蓄積部がセンサ外メモリ部14とされた例を挙げたが、該蓄積部は、センサ内メモリ部7等、センサ部1A内のメモリとすることも考えられる。
ここで、センサ部1Aがカメラ装置10Aの外部装置と直接的に通信可能な通信部を有する場合には、蓄積された非デモザイク画像の送信処理の実行主体がセンサ内制御部6Aとなることも有り得る。
In addition, in the above example, the storage unit that stores non-demosaic images is the sensorexternal memory unit 14, but it is also possible that the storage unit is a memory within thesensor unit 1A, such as the sensorinternal memory unit 7.
Here, if thesensor unit 1A has a communication unit capable of directly communicating with an external device of thecamera device 10A, the internalsensor control unit 6A may be the entity that executes the transmission process of the accumulated non-demosaic images.

<3.変形例>
なお、実施形態としては上記した具体例に限定されるものでなく、多様な変形例としての構成を採り得る。
例えば、シーン判定結果に基づき、画像信号処理部3の信号処理パラメータを変化させる構成とすることも考えられる。一例として、暗シーンか否かの判定結果に基づき、ゲイン調整部33による前述した全体ゲイン調整としてのゲイン調整処理のパラメータや、ガンマ補正部36によるガンマ補正処理のパラメータを変化させることが考えられる。具体的には、暗シーンとしての、対象被写体が暗いシーンのときは、黒つぶれ防止傾向とするパラメータによりガンマ補正や全体ゲイン調整を行い、明シーン(暗シーンでない場合)としての、対象被写体が明るいシーンのときは白飛び防止傾向とするパラメータによりガンマ補正や全体ゲイン調整を行うことが考えられる。
3. Modifications
The embodiment is not limited to the specific example described above, and various modified configurations may be adopted.
For example, it is also possible to change the signal processing parameters of the imagesignal processing unit 3 based on the scene determination result. As an example, it is possible to change the parameters of the gain adjustment process as the above-mentioned overall gain adjustment by thegain adjustment unit 33 and the parameters of the gamma correction process by thegamma correction unit 36 based on the determination result of whether or not the scene is dark. Specifically, when the target subject is a dark scene as a dark scene, gamma correction and overall gain adjustment are performed using parameters that tend to prevent blackout, and when the target subject is a bright scene (when not a dark scene), gamma correction and overall gain adjustment are performed using parameters that tend to prevent whiteout.

ここで、上記のような暗シーン/明シーンに応じたパラメータ調整は、AIモデルを用いた画像解析処理として、物体検出処理を行う場合に有効な手法となる。
AIモデルを用いた画像解析処理としてセマンティックセグメンテーション等のセグメンテーション処理を行う場合には、該セグメンテーション処理では、画素ごと等のブロックごとにクラス識別を行うことになるので、ガンマ補正や全体ゲイン調整を行うと、明るい部分や暗い部分のブロックでの処理精度の悪化を招く虞がある。
そのため、AIモデルを用いた画像解析処理としてセグメンテーション処理を行う場合には、ガンマ補正や全体ゲイン調整を未実施の状態の撮像画像を入力データとすることが考えられる。
Here, the parameter adjustment according to the dark scene/bright scene as described above is an effective method when performing object detection processing as image analysis processing using an AI model.
When performing segmentation processing such as semantic segmentation as image analysis processing using an AI model, the segmentation processing involves class identification for each block, such as for each pixel, so performing gamma correction or overall gain adjustment may result in a deterioration of processing accuracy in bright and dark blocks.
Therefore, when performing segmentation processing as image analysis processing using an AI model, it is possible to use captured images that have not yet undergone gamma correction or overall gain adjustment as input data.

図8は、上記のようにシーン判定結果に基づき画像信号処理部3の信号処理パラメータを変化させる変形例としての解析処理手法を実現するための具体的な処理手順例を示したフローチャートである。
ここで、図8に示す処理は、センサ内制御部6、センサ内制御部6Aの何れが行ってもよいが、ここでは、センサ内制御部6が実行するものとして説明する。
FIG. 8 is a flow chart showing a specific example of a processing procedure for implementing a modified analysis processing method in which the signal processing parameters of the imagesignal processing unit 3 are changed based on the scene determination result as described above.
Here, the process shown in FIG. 8 may be performed by either the internalsensor control unit 6 or the internalsensor control unit 6A, but here it will be described as being executed by the internalsensor control unit 6.

図8に示す処理について、先の図6に示した処理との相違点は、図中のステップS110及びS111の処理が追加された点である。
具体的に、この場合のセンサ内制御部6は、ステップS106で第一AIモデルの設定処理を実行したことに応じ、ステップS110の信号処理パラメータ調整処理を行う。本例において、このステップS110の信号処理パラメータ調整処理としては、暗シーンではないと判定された場合に対応して、上記した白飛び防止傾向とするパラメータがゲイン調整部33やガンマ補正部36に設定されるように制御する処理を行う。
また、この場合のセンサ内制御部6は、ステップS108で第二AIモデルの設定処理を実行したことに応じ、ステップS111の信号処理パラメータ調整処理を行う。具体的に、本例におけるステップS111の信号処理パラメータ調整処理としては、暗シーンであると判定された場合に対応して、上記した黒つぶれ防止傾向とするパラメータがゲイン調整部33やガンマ補正部36に設定されるように制御する処理を行う。
The process shown in FIG. 8 differs from the process shown in FIG. 6 in that steps S110 and S111 are added.
Specifically, in this case, thesensor control unit 6 performs a signal processing parameter adjustment process in step S110 in response to the execution of the first AI model setting process in step S106. In this example, the signal processing parameter adjustment process in step S110 performs a control process such that the above-mentioned parameters that tend to prevent whiteout are set in thegain adjustment unit 33 and thegamma correction unit 36 in response to the determination that the scene is not a dark scene.
In this case, theintra-sensor control unit 6 performs a signal processing parameter adjustment process in step S111 in response to the execution of the second AI model setting process in step S108. Specifically, the signal processing parameter adjustment process in step S111 in this example performs a control process such that the above-mentioned parameters that tend to prevent blackout are set in thegain adjustment unit 33 and thegamma correction unit 36 in response to the determination that the scene is a dark scene.

この場合のセンサ内制御部6は、ステップS110、S111の何れの信号処理パラメータ調整処理を行った場合も処理をステップS101に戻す。In this case, thesensor control unit 6 returns the process to step S101 regardless of whether the signal processing parameter adjustment process is performed in step S110 or S111.

なお、上記ではシーン判定結果に基づき全体ゲイン調整やガンマ補正に係るパラメータを変化させる例を挙げたが、シーン判定結果に基づき変化させるパラメータとしては、例えばAWBのパラメータ等、他パラメータとすることも考えられる。Note that, although the above provides an example of changing parameters related to overall gain adjustment and gamma correction based on the scene determination results, other parameters, such as AWB parameters, may also be used as parameters that are changed based on the scene determination results.

また、上記では、AI処理部5がセンサ装置内に設けられた構成を例示したが、図9に示すカメラ装置10Bのように、AI処理部5がセンサ装置外に設けられた構成とすることも考えられる。
具体的に、カメラ装置10Bにおいては、センサ部1(又はセンサ部1A)に代えて、画素アレイ部2と通信インタフェース9のみを有するセンサ部1Bが設けられる。この場合、画像信号処理部3、前処理部4、及びAI処理部5はセンサ部1B外部に設けられる。また、カメラ装置10Bにおいては、カメラ制御部13に代えてカメラ制御部13Bが設けられる。
In addition, although the above example illustrates a configuration in which theAI processing unit 5 is provided within the sensor device, it is also possible to consider a configuration in which theAI processing unit 5 is provided outside the sensor device, as in thecamera device 10B shown in Figure 9.
Specifically, in thecamera device 10B, instead of the sensor unit 1 (or thesensor unit 1A), asensor unit 1B having only apixel array unit 2 and acommunication interface 9 is provided. In this case, the imagesignal processing unit 3, thepre-processing unit 4, and theAI processing unit 5 are provided outside thesensor unit 1B. Also, in thecamera device 10B, instead of thecamera control unit 13, acamera control unit 13B is provided.

図示のようにカメラ装置10Bにおいては、画素アレイ部2により得られるRAWデータとしての撮像画像が通信インタフェース9及び通信インタフェース12を介して、画像信号処理部3に入力される。そして、画像信号処理部3のセレクタ39により選択された画像データが、前処理部4を介してAI処理部5に入力される。As shown in the figure, in thecamera device 10B, a captured image as RAW data obtained by thepixel array unit 2 is input to the imagesignal processing unit 3 via thecommunication interface 9 and thecommunication interface 12. Then, image data selected by theselector 39 of the imagesignal processing unit 3 is input to theAI processing unit 5 via thepre-processing unit 4.

カメラ制御部13Bは、センサ内制御部6と同様に、シーン判定結果に基づくセレクタ39の制御を行う。また、カメラ制御部13Bは、センサ外メモリ部14に記憶された第一AIモデル設定データP1、第二AIモデル設定データP2に基づき、センサ内制御部6と同様にAI処理部5のAIモデル設定処理を行う。
また、第二実施形態で説明した非デモザイク画像の蓄積を実現する場合には、カメラ制御部13Bは、画像信号処理部3で得られる非デモザイク画像をセンサ外メモリ部14等のカメラ装置10B内のメモリに記憶させる処理を行う。またこの場合、カメラ制御部13Bは、蓄積された非デモザイク画像を外部装置に送信する処理を行うこともできる。
Thecamera control unit 13B controls theselector 39 based on the scene determination result, similar to theintra-sensor control unit 6. Thecamera control unit 13B also performs the AI model setting process of theAI processing unit 5, similar to theintra-sensor control unit 6, based on the first AI model setting data P1 and the second AI model setting data P2 stored in theextra-sensor memory unit 14.
Furthermore, when realizing the accumulation of non-demosaic images described in the second embodiment, thecamera control unit 13B performs processing to store the non-demosaic images obtained by the imagesignal processing unit 3 in a memory within thecamera device 10B, such as theextra-sensor memory unit 14. In this case, thecamera control unit 13B can also perform processing to transmit the accumulated non-demosaic images to an external device.

また、上記では、AI処理部5に入力する非デモザイク画像として色分離画像を用いる例を挙げたが、色分離画像以外のデータ形式による非デモザイク画像をAI処理部5の入力データとして与えることもできる。In addition, in the above, an example was given in which a color-separated image was used as the non-demosaic image to be input to theAI processing unit 5, but a non-demosaic image in a data format other than a color-separated image can also be provided as input data to theAI processing unit 5.

また、上記では、AI処理部5の入力データ切り替えについて、暗シーンか否かの判定結果に基づいてデモザイク後画像/非デモザイク画像の切り替えを行う例としたが、暗シーンか否かの判定結果以外の他の基準に基づいてデモザイク後画像/非デモザイク画像の切り替えを行うことも考えられる。
例えば、対象被写体が小さく写っていて解像度が要求される場合には入力データを非デモザイク画像に切り替え、対象被写体が大きく写っているシーンでは入力データをデモザイク後画像に切り替えること等が考えられる。
In addition, in the above example, the input data switching of theAI processing unit 5 is performed by switching between a demosaiced image and a non-demosaic image based on the result of determining whether or not the scene is dark. However, it is also possible to switch between a demosaiced image and a non-demosaic image based on criteria other than the result of determining whether or not the scene is dark.
For example, when the target subject is small and high resolution is required, the input data may be switched to a non-demosaic image, and in a scene where the target subject is large, the input data may be switched to a demosaiced image.

また、シーン判定として、3以上のシーンを判定するものとし、シーンごとに、AI処理部5の入力データの取り出し位置を変化させるという構成を採ることも考えられる。例えば、第一のシーンでは入力データをシェーディング補正後の非デモザイク画像とし、第二のシーンでは入力データをAWB処理後の非デモザイク画像とし、第三のシーンでは入力データをデモザイク後画像とする等が考えられる。It is also possible to adopt a configuration in which three or more scenes are judged as scene judgment, and the position from which theAI processing unit 5 extracts the input data is changed for each scene. For example, the input data for the first scene may be a non-demosaic image after shading correction, the input data for the second scene may be a non-demosaic image after AWB processing, and the input data for the third scene may be a demosaiced image.

また、上記では、画素アレイ部2がR、G、Bの3波長のみを受光し分ける構成とされる場合を例示したが、本技術は、例えばマルチスペクトラムカメラにおける画素アレイ部のように、4以上の波長帯の光を受光し分けることが可能に構成された画素アレイ部が用いられる場合にも好適に適用することができる。In addition, the above describes an example in which thepixel array unit 2 is configured to receive and separate only three wavelengths of R, G, and B, but the present technology can also be suitably applied to cases in which a pixel array unit configured to receive and separate light of four or more wavelength bands is used, such as a pixel array unit in a multispectral camera.

また、AI処理部5において、解析タスクが異なる複数のAIモデルを切り替えて使用することが前提とされる場合には、AI処理部5が使用するAIモデルの種類(つまり解析タスクの種類)によって、AI処理部5の入力データを非デモザイク画像とするか否かの決定を行うことも考えられる。
In addition, when it is assumed that theAI processing unit 5 will switch between multiple AI models with different analysis tasks, it is also possible to determine whether or not to convert the input data to theAI processing unit 5 into a non-demosaic image depending on the type of AI model (i.e., the type of analysis task) used by theAI processing unit 5.

<5.実施形態のまとめ>
以上で説明したように実施形態としての信号処理装置(センサ部1,1A,カメラ装置10B)は、異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットが二次元に複数配列されて構成された画素アレイ部(同2)により得られる撮像画像について、デモザイク処理されていない状態の撮像画像である非デモザイク画像を入力データとして、AIモデルを用いた画像解析処理を行うAI処理部(同5)を備えたものである。
デモザイク処理は空間的な補間処理を伴うものであるため、本来の画素値からの乖離が生じる傾向となり、AIモデルによる画像解析処理の入力データとしてデモザイク後の画像を用いた場合には、上記の画素値の乖離に起因して処理精度が低下する場合がある。上記のように非デモザイク画像を画像解析処理の入力データとすることで、そのようなデモザイク処理に起因した処理精度低下の防止を図ることが可能となる。
従って、AIモデルを用いた画像解析処理についての処理精度向上を図ることができる。
5. Summary of the embodiment
As described above, the signal processing device (sensor unit 1, 1A,camera device 10B) as an embodiment is equipped with an AI processing unit (ibid. 5) that performs image analysis processing using an AI model on an image obtained from a pixel array unit (ibid. 2) configured with a plurality of pixel units arranged two-dimensionally in a predetermined pattern, each of which is made up of a plurality of pixels that receive light of different wavelength bands. The image obtained from the pixel array unit (ibid. 2) is configured with a plurality of pixel units arranged two-dimensionally in a predetermined pattern, each of which is made up of a plurality of pixels that receive light of different wavelength bands. The AI processing unit (ibid. 5) performs image analysis processing using an AI model on an image obtained from a pixel array unit (ibid. 2) configured with a plurality of pixel units arranged two-dimensionally in a predetermined pattern, each of which is made up of a plurality of pixels that receive light of different wavelength bands.
Since demosaic processing involves spatial interpolation processing, deviation from the original pixel values tends to occur, and when a demosaic image is used as input data for image analysis processing using an AI model, the processing accuracy may decrease due to the deviation of the pixel values. By using a non-demosaic image as input data for image analysis processing as described above, it is possible to prevent such a decrease in processing accuracy caused by demosaic processing.
Therefore, it is possible to improve the processing accuracy of image analysis processing using an AI model.

また、実施形態としての信号処理装置においては、画素アレイ部により得られる撮像画像についてデモザイク処理を行うデモザイク処理部(同34)と、撮像対象シーンについてのシーン判定結果に基づき、AI処理部の入力データが、デモザイク処理部によるデモザイク処理後の画像であるデモザイク後画像と非デモザイク画像との間で切り替えられるように制御する制御部(センサ内制御部6,6A,カメラ制御部13B)を備えている。
図3を参照して説明したように、シーンによっては、デモザイク後画像ではなく、非デモザイク画像を用いた方が画像解析処理の精度向上が図られる場合があることが実験により確認されている。すなわち、AIモデルとしてシーンの差を吸収する機能を有さないモデルを用いても、或るシーンにおいては、デモザイク後画像ではなく非デモザイク画像を用いるという手法を採ることで、画像解析処理の精度向上が図られる場合がある。
上記のようにシーン判定結果に基づきAI処理部の入力データをデモザイク後画像と非デモザイク画像との間で切り替えるようにすることで、非デモザイク画像を入力データとした場合に画像解析処理精度の向上が図られる特定のシーンにおいて、非デモザイク画像を入力データとすることが可能となる。
従って、リソースの問題からシーンの差を吸収可能なAIモデルを用いることができない場合であっても、シーンに依存した画像解析処理精度低下の抑制を図ることができる。
In addition, the signal processing device as an embodiment is equipped with a demosaic processing unit (34) that performs demosaic processing on the captured image obtained by the pixel array unit, and a control unit (intra-sensor control unit 6, 6A,camera control unit 13B) that controls the input data of the AI processing unit to be switched between a demosaic image, which is an image after demosaic processing by the demosaic processing unit, and a non-demosaic image, based on the scene determination result for the scene to be captured.
As described with reference to Fig. 3, it has been confirmed by experiments that, depending on the scene, the accuracy of the image analysis process may be improved by using a non-demosaic image rather than a demosaiced image. That is, even if an AI model that does not have the function of absorbing scene differences is used, the accuracy of the image analysis process may be improved by adopting a technique of using a non-demosaic image rather than a demosaiced image in a certain scene.
By switching the input data of the AI processing unit between a demosaiced image and a non-demosaic image based on the scene determination result as described above, it is possible to use a non-demosaic image as input data in specific scenes where the accuracy of image analysis processing is improved when a non-demosaic image is used as input data.
Therefore, even if it is not possible to use an AI model that can absorb scene differences due to resource issues, it is possible to suppress a decrease in the accuracy of image analysis processing that is dependent on the scene.

さらに、実施形態としての信号処理装置においては、制御部は、デモザイク後画像が入力データとされる場合にはAIモデルとしてデモザイク後画像を学習用入力データとして学習されたAIモデルが用いられ、非デモザイク画像が入力データとされる場合にはAIモデルとして非デモザイク画像を学習用入力データとして学習されたAIモデルが用いられるように制御している。
これにより、AIモデルを用いた画像解析処理として、シーンに応じた適切な画像解析処理を実行することができる。
Furthermore, in a signal processing device as an embodiment, the control unit controls so that when a demosaiced image is used as input data, an AI model trained using the demosaiced image as learning input data is used as the AI model, and when a non-demosaic image is used as input data, an AI model trained using the non-demosaic image as learning input data is used as the AI model.
This makes it possible to execute appropriate image analysis processing according to the scene as image analysis processing using an AI model.

さらにまた、実施形態としての信号処理装置においては、撮像対象シーンの判定は、暗シーンであるか否かの判定であり、制御部は、暗シーンと判定された場合に入力データとして非デモザイク画像を入力させている。
図3を参照して説明したように、暗シーンにおいては、デモザイク後画像ではなく、非デモザイク画像を用いた方が画像解析処理の精度向上が図られる場合があることが確認されている。
従って、上記構成によれば、リソースの問題からシーンの差を吸収可能なAIモデルを用いることができない場合であっても、シーンに依存した画像解析処理精度低下の抑制を図ることができる。
Furthermore, in the signal processing device of the embodiment, the determination of the scene to be imaged is a determination of whether or not it is a dark scene, and the control unit inputs a non-demosaic image as input data when it is determined to be a dark scene.
As described with reference to FIG. 3, it has been confirmed that in dark scenes, the accuracy of image analysis processing can be improved by using a non-demosaic image rather than a demosaiced image.
Therefore, with the above configuration, even if it is not possible to use an AI model that can absorb scene differences due to resource issues, it is possible to suppress a decrease in the accuracy of scene-dependent image analysis processing.

また、実施形態としての信号処理装置においては、デモザイク処理部を含み、撮像画像を対象とした画像信号処理を行う画像信号処理部(同3)を備え、制御部は、シーン判定結果に基づき、画像信号処理部の信号処理パラメータを変化させている(図8参照)。
これにより、特定のシーンであると判定されて非デモザイク画像を入力データとした画像解析処理が行われる場合には、非デモザイク画像に適した画像信号処理が行われるようにし、特定のシーンではないと判定されてデモザイク後画像を入力データとした画像解析処理が行われる場合には、デモザイク後画像に適した画像信号処理が行われるようにすることが可能となる。
従って、画像解析処理の精度向上を図ることができる。
In addition, in the signal processing device of the embodiment, an image signal processing unit (same as 3) is provided which includes a demosaic processing unit and performs image signal processing on the captured image, and the control unit changes the signal processing parameters of the image signal processing unit based on the scene determination result (see Figure 8).
This makes it possible to perform image signal processing suitable for the non-demosaic image when it is determined that the scene is a specific one and image analysis processing is performed using a non-demosaic image as input data, and to perform image signal processing suitable for the demosaiced image when it is determined that the scene is not a specific one and image analysis processing is performed using a demosaiced image as input data.
Therefore, the accuracy of the image analysis process can be improved.

さらに、実施形態としての信号処理装置においては、AIモデルは、CNNとしてのニューラルネットワークを有するAIモデルとされ、各画素ユニットから、画素ユニット内位置が同じ画素ごとに画素値を収集して同一画像平面上のそれぞれ異なる領域に並べて形成される画像である色分離画像を生成する画像編成部(同38)を備え、AI処理部は、色分離画像を入力データとして画像解析処理を行っている。
これにより、AI処理部に対する入力データの形式が、CNNの構成に適した入力データ形式となる。
従って、画像解析処理の精度向上を図ることができる。
Furthermore, in the signal processing device as an embodiment, the AI model is an AI model having a neural network such as a CNN, and is equipped with an image organizing unit (38) that generates a color-separated image, which is an image formed by collecting pixel values for each pixel having the same position within the pixel unit from each pixel unit and arranging them in different areas on the same image plane, and the AI processing unit performs image analysis processing using the color-separated image as input data.
This makes the format of the input data to the AI processing unit an input data format suitable for the CNN configuration.
Therefore, the accuracy of the image analysis process can be improved.

さらにまた、実施形態としての信号処理装置においては、AI処理部は、シェーディング補正後の非デモザイク画像を入力データとして画像解析処理を行っている。
図3を参照して説明したように、非デモザイク画像を入力データに用いるべきシーンでは、シェーディング補正後の非デモザイク画像を用いた方がシェーディング補正前の非デモザイク画像を用いる場合よりも解析処理精度の向上を図ることが可能である。
従って、上記構成によれば、暗シーン等の特定シーンに対応して解析処理精度の向上を図ることができる。
Furthermore, in the signal processing device according to the embodiment, the AI processing unit performs image analysis processing using the non-demosaic image after shading correction as input data.
As explained with reference to Figure 3, in scenes where a non-demosaic image should be used as input data, using a non-demosaic image after shading correction can improve the accuracy of analysis processing compared to using a non-demosaic image before shading correction.
Therefore, according to the above configuration, it is possible to improve the accuracy of analysis processing in response to specific scenes such as dark scenes.

また、実施形態としての信号処理装置(センサ部1A,カメラ装置10B)においては、非デモザイク画像を蓄積する蓄積部(センサ内メモリ部7,センサ外メモリ部14)を備えている。
蓄積部に蓄積された非デモザイク画像は、AI処理部で用いるAIモデルの再学習に用いることが可能である。
AIモデルの再学習が可能となることで、AI処理部による画像解析処理の精度向上を図ることができる。
Further, the signal processing device (sensor unit 1A,camera device 10B) according to the embodiment includes a storage unit (sensorinternal memory unit 7, sensor external memory unit 14) for storing non-demosaic images.
The non-demosaic images stored in the storage unit can be used to re-learn the AI model used in the AI processing unit.
By making it possible to re-learn the AI model, it is possible to improve the accuracy of image analysis processing by the AI processing unit.

さらに、実施形態としての信号処理装置においては、蓄積部に蓄積された非デモザイク画像を装置外部に送信する処理を行う送信処理部(カメラ制御部13,センサ内制御部6A,カメラ制御部13B)を備えている。
これにより、AIモデルの再学習を信号処理装置の外部装置で行う場合に対応して、再学習に用いるべき非デモザイク画像を外部装置に対して送信することが可能となる。
従って、AIモデルの再学習が適切に行われるように図ることができる。
Furthermore, the signal processing device according to the embodiment is provided with a transmission processing unit (camera control unit 13,sensor control unit 6A,camera control unit 13B) that performs processing to transmit the non-demosaic image stored in the storage unit to the outside of the device.
This makes it possible to transmit non-demosaic images to be used for re-learning to an external device external to the signal processing device, in response to the case where re-learning of an AI model is performed by the external device.
Therefore, it is possible to ensure that the AI model is re-learned appropriately.

さらにまた、実施形態としての信号処理装置(センサ部1,1A)は、画素アレイ部を備えたセンサ装置として構成されている。
これにより、AIモデルを用いた画像解析処理を実行可能に構成されたセンサ装置について、画像解析処理の精度向上を図ることができる。
Furthermore, the signal processing device (sensor unit 1, 1A) according to the embodiment is configured as a sensor device having a pixel array unit.
This makes it possible to improve the accuracy of image analysis processing for sensor devices configured to perform image analysis processing using an AI model.

また、実施形態としての信号処理方法は、異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットが二次元に複数配列されて構成された画素アレイ部により得られる撮像画像について、デモザイク処理されていない状態の撮像画像である非デモザイク画像を入力データとして、AIモデルを用いた画像解析処理を行う信号処理方法である。
このような信号処理方法によっても、上記した実施形態としての信号処理装置と同様の作用及び効果を得ることができる。
In addition, the signal processing method as an embodiment is a signal processing method that performs image analysis processing using an AI model on an captured image obtained by a pixel array section configured by a plurality of pixel units arranged two-dimensionally in a predetermined pattern, each pixel unit being made up of a plurality of pixels that receive light in different wavelength bands and arranged two-dimensionally. The captured image is obtained by using as input data a non-demosaic image, which is an captured image in a state that has not been demosaiced.
With such a signal processing method, it is possible to obtain the same functions and effects as those of the signal processing device according to the above embodiment.

なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
It should be noted that the effects described in this specification are merely examples and are not limiting, and other effects may also be obtained.

<6.本技術>
本技術は以下のような構成を採ることもできる。
(1)
異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットが二次元に複数配列されて構成された画素アレイ部により得られる撮像画像について、デモザイク処理されていない状態の前記撮像画像である非デモザイク画像を入力データとして、AIモデルを用いた画像解析処理を行うAI処理部を備えた
信号処理装置。
(2)
前記画素アレイ部により得られる撮像画像についてデモザイク処理を行うデモザイク処理部と、
撮像対象シーンについてのシーン判定結果に基づき、前記AI処理部の入力データが、前記デモザイク処理部によるデモザイク処理後の画像であるデモザイク後画像と前記非デモザイク画像との間で切り替えられるように制御する制御部を備えた
前記(1)に記載の信号処理装置。
(3)
前記制御部は、
前記デモザイク後画像が前記入力データとされる場合には前記AIモデルとして前記デモザイク後画像を学習用入力データとして学習されたAIモデルが用いられ、前記非デモザイク画像が前記入力データとされる場合には前記AIモデルとして前記非デモザイク画像を学習用入力データとして学習されたAIモデルが用いられるように制御する
前記(2)に記載の信号処理装置。
(4)
前記撮像対象シーンの判定は、暗シーンであるか否かの判定であり、
前記制御部は、
暗シーンと判定された場合に前記入力データとして前記非デモザイク画像を入力させる
前記(2)又は(3)に記載の信号処理装置。
(5)
前記デモザイク処理部を含み、前記撮像画像を対象とした画像信号処理を行う画像信号処理部を備え、
前記制御部は、
前記シーン判定結果に基づき、前記画像信号処理部の信号処理パラメータを変化させる
前記(2)から(4)の何れかに記載の信号処理装置。
(6)
前記AIモデルは、CNNとしてのニューラルネットワークを有するAIモデルとされ、
各前記画素ユニットから、画素ユニット内位置が同じ画素ごとに画素値を収集して同一画像平面上のそれぞれ異なる領域に並べて形成される画像である色分離画像を生成する画像編成部を備え、
前記AI処理部は、前記色分離画像を入力データとして前記画像解析処理を行う
前記(1)から(5)の何れかに記載の信号処理装置。
(7)
前記AI処理部は、シェーディング補正後の前記非デモザイク画像を入力データとして前記画像解析処理を行う
前記(1)から(6)の何れかに記載の信号処理装置。
(8)
前記非デモザイク画像を蓄積する蓄積部を備えた
前記(1)から(7)の何れかに記載の信号処理装置。
(9)
前記蓄積部に蓄積された前記非デモザイク画像を装置外部に送信する処理を行う送信処理部を備えた
前記(8)に記載の信号処理装置。
(10)
前記画素アレイ部を備えたセンサ装置として構成された
前記(1)から(9)に何れかに記載の信号処理装置。
(11)
異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットが二次元に複数配列されて構成された画素アレイ部により得られる撮像画像について、デモザイク処理されていない状態の前記撮像画像である非デモザイク画像を入力データとして、AIモデルを用いた画像解析処理を行う
信号処理方法。
<6. This Technology>
The present technology can also be configured as follows.
(1)
A signal processing device including an AI processing unit that performs image analysis processing using an AI model on an image obtained by a pixel array unit configured with a plurality of pixel units arranged two-dimensionally in a predetermined pattern, each pixel unit being made up of a plurality of pixels that receive light of different wavelength bands and that uses as input data a non-demosaic image, which is an image that has not been demosaiced.
(2)
a demosaic processing unit that performs demosaic processing on an image obtained by the pixel array unit;
The signal processing device according to (1), further comprising a control unit that controls input data of the AI processing unit to be switched between a demosaic image, which is an image after demosaic processing by the demosaic processing unit, and the non-demosaic image, based on a scene determination result for a scene to be imaged.
(3)
The control unit is
The signal processing device described in (2) above, wherein when the demosaiced image is used as the input data, an AI model trained using the demosaiced image as training input data is used as the AI model, and when the non-demosaic image is used as the input data, an AI model trained using the non-demosaic image as training input data is used as the AI model.
(4)
The determination of the scene to be imaged is a determination of whether the scene is a dark scene,
The control unit is
The signal processing device according to (2) or (3), further comprising: inputting the non-demosaic image as the input data when the scene is determined to be a dark scene.
(5)
an image signal processing unit that includes the demosaic processing unit and performs image signal processing on the captured image,
The control unit is
The signal processing device according to any one of (2) to (4), wherein a signal processing parameter of the image signal processing unit is changed based on the scene determination result.
(6)
The AI model is an AI model having a neural network such as a CNN,
an image organizing unit that generates a color separation image, which is an image formed by collecting pixel values of pixels at the same position in each pixel unit from each of the pixel units and arranging them in different regions on the same image plane;
The signal processing device according to any one of (1) to (5), wherein the AI processing unit performs the image analysis processing using the color separation image as input data.
(7)
The signal processing device according to any one of (1) to (6), wherein the AI processing unit performs the image analysis processing using the non-demosaic image after shading correction as input data.
(8)
The signal processing device according to any one of (1) to (7), further comprising a storage unit that stores the non-demosaic image.
(9)
The signal processing device according to (8), further comprising a transmission processing unit that performs processing for transmitting the non-demosaic image stored in the storage unit to an outside of the device.
(10)
The signal processing device according to any one of (1) to (9), configured as a sensor device including the pixel array unit.
(11)
A signal processing method for performing image analysis processing using an AI model on an image obtained by a pixel array section configured by a two-dimensional array of pixel units, each of which is made up of a plurality of pixels that receive light of different wavelength bands arranged in a two-dimensional pattern, using as input data a non-demosaic image, which is the image obtained without being demosaiced.

10,10A,10B カメラ装置
1,1A,1B センサ部
2 画素アレイ部
3 画像信号処理部
4 前処理部
5 AI処理部
6,6A センサ内制御部
7 センサ内メモリ部
8 出力データ生成部
9 通信インタフェース(I/F)
11 光学系
12 通信インタフェース(I/F)
13,13B カメラ制御部
14 センサ外メモリ部
15 通信部
P1 第一AIモデル設定データ
P2 第二AIモデル設定データ
31 黒レベル補正部
32 シェーディング補正部
33 ゲイン調整部
34 デモザイク処理部
35 色補正部
36 ガンマ補正部
37 デワープ処理部
38 画像編成部
39 セレクタ
Pu 画素ユニット
10, 10A,10B Camera device 1, 1A,1B Sensor unit 2Pixel array unit 3 Imagesignal processing unit 4Pre-processing unit 5AI processing unit 6, 6A Sensorinternal control unit 7 Sensor internal memory unit 8 Outputdata generation unit 9 Communication interface (I/F)
11Optical system 12 Communication interface (I/F)
13, 13BCamera control unit 14 Sensorexternal memory unit 15 Communication unit P1 First AI model setting data P2 Second AImodel setting data 31 Blacklevel correction unit 32Shading correction unit 33Gain adjustment unit 34Demosaic processing unit 35Color correction unit 36Gamma correction unit 37Dewarp processing unit 38Image organization unit 39 Selector Pu Pixel unit

Claims (11)

Translated fromJapanese
異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットが二次元に複数配列されて構成された画素アレイ部により得られる撮像画像について、デモザイク処理されていない状態の前記撮像画像である非デモザイク画像を入力データとして、AIモデルを用いた画像解析処理を行うAI処理部を備えた
信号処理装置。
A signal processing device including an AI processing unit that performs image analysis processing using an AI model on an image obtained by a pixel array unit configured with a plurality of pixel units arranged two-dimensionally in a predetermined pattern, each pixel unit being made up of a plurality of pixels that receive light of different wavelength bands and that uses as input data a non-demosaic image, which is an image that has not been demosaiced.
前記画素アレイ部により得られる撮像画像についてデモザイク処理を行うデモザイク処理部と、
撮像対象シーンについてのシーン判定結果に基づき、前記AI処理部の入力データが、前記デモザイク処理部によるデモザイク処理後の画像であるデモザイク後画像と前記非デモザイク画像との間で切り替えられるように制御する制御部を備えた
請求項1に記載の信号処理装置。
a demosaic processing unit that performs demosaic processing on an image obtained by the pixel array unit;
The signal processing device according to claim 1, further comprising a control unit that controls input data of the AI processing unit to be switched between a demosaic image that is an image after demosaic processing by the demosaic processing unit and the non-demosaic image based on a scene determination result for a scene to be imaged.
前記制御部は、
前記デモザイク後画像が前記入力データとされる場合には前記AIモデルとして前記デモザイク後画像を学習用入力データとして学習されたAIモデルが用いられ、前記非デモザイク画像が前記入力データとされる場合には前記AIモデルとして前記非デモザイク画像を学習用入力データとして学習されたAIモデルが用いられるように制御する
請求項2に記載の信号処理装置。
The control unit is
3. The signal processing device according to claim 2, wherein when the demosaiced image is used as the input data, an AI model trained using the demosaiced image as training input data is used as the AI model, and when the non-demosaic image is used as the input data, an AI model trained using the non-demosaic image as training input data is used as the AI model.
前記撮像対象シーンの判定は、暗シーンであるか否かの判定であり、
前記制御部は、
暗シーンと判定された場合に前記入力データとして前記非デモザイク画像を入力させる
請求項2に記載の信号処理装置。
The determination of the scene to be imaged is a determination of whether the scene is a dark scene,
The control unit is
The signal processing device according to claim 2 , further comprising: a non-demosaic image input as the input data when the scene is determined to be a dark scene.
前記デモザイク処理部を含み、前記撮像画像を対象とした画像信号処理を行う画像信号処理部を備え、
前記制御部は、
前記シーン判定結果に基づき、前記画像信号処理部の信号処理パラメータを変化させる
請求項2に記載の信号処理装置。
an image signal processing unit that includes the demosaic processing unit and performs image signal processing on the captured image,
The control unit is
The signal processing device according to claim 2 , wherein a signal processing parameter of the image signal processing unit is changed based on the scene determination result.
前記AIモデルは、CNNとしてのニューラルネットワークを有するAIモデルとされ、
各前記画素ユニットから、画素ユニット内位置が同じ画素ごとに画素値を収集して同一画像平面上のそれぞれ異なる領域に並べて形成される画像である色分離画像を生成する画像編成部を備え、
前記AI処理部は、前記色分離画像を入力データとして前記画像解析処理を行う
請求項1に記載の信号処理装置。
The AI model is an AI model having a neural network such as a CNN,
an image organizing unit that generates a color separation image, which is an image formed by collecting pixel values of pixels at the same position in each pixel unit from each of the pixel units and arranging them in different regions on the same image plane;
The signal processing device according to claim 1 , wherein the AI processing unit performs the image analysis processing using the color separation image as input data.
前記AI処理部は、シェーディング補正後の前記非デモザイク画像を入力データとして前記画像解析処理を行う
請求項1に記載の信号処理装置。
The signal processing device according to claim 1 , wherein the AI processing unit performs the image analysis processing using the non-demosaic image after shading correction as input data.
前記非デモザイク画像を蓄積する蓄積部を備えた
請求項1に記載の信号処理装置。
The signal processing device according to claim 1 , further comprising a storage unit that stores the non-demosaic image.
前記蓄積部に蓄積された前記非デモザイク画像を装置外部に送信する処理を行う送信処理部を備えた
請求項8に記載の信号処理装置。
The signal processing device according to claim 8 , further comprising a transmission processing unit configured to perform processing for transmitting the non-demosaic image stored in the storage unit to an outside of the device.
前記画素アレイ部を備えたセンサ装置として構成された
請求項1に記載の信号処理装置。
The signal processing device according to claim 1 , which is configured as a sensor device including the pixel array unit.
異なる波長帯の光を受光する複数の画素が所定パターンで二次元配列されて成る画素ユニットが二次元に複数配列されて構成された画素アレイ部により得られる撮像画像について、デモザイク処理されていない状態の前記撮像画像である非デモザイク画像を入力データとして、AIモデルを用いた画像解析処理を行う
信号処理方法。
A signal processing method for performing image analysis processing using an AI model on an image obtained by a pixel array section configured by a two-dimensional array of pixel units, each of which is made up of a plurality of pixels that receive light of different wavelength bands arranged in a two-dimensional pattern, using as input data a non-demosaic image, which is the image obtained without being demosaiced.
JP2023094237A2023-06-072023-06-07 Signal processing device and signal processing methodPendingJP2024176038A (en)

Priority Applications (2)

Application NumberPriority DateFiling DateTitle
JP2023094237AJP2024176038A (en)2023-06-072023-06-07 Signal processing device and signal processing method
PCT/JP2024/019482WO2024252977A1 (en)2023-06-072024-05-28Signal processing device and signal processing method

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2023094237AJP2024176038A (en)2023-06-072023-06-07 Signal processing device and signal processing method

Publications (1)

Publication NumberPublication Date
JP2024176038Atrue JP2024176038A (en)2024-12-19

Family

ID=91580712

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2023094237APendingJP2024176038A (en)2023-06-072023-06-07 Signal processing device and signal processing method

Country Status (2)

CountryLink
JP (1)JP2024176038A (en)
WO (1)WO2024252977A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2020126023A1 (en)*2018-12-212020-06-25Huawei Technologies Co., Ltd.Image processor
CN116420158A (en)*2020-10-272023-07-11三星电子株式会社Apparatus and method for generating image in which subject has been captured
US11778305B2 (en)*2021-06-182023-10-03Qualcomm IncorporatedComposite image signal processor

Also Published As

Publication numberPublication date
WO2024252977A1 (en)2024-12-12

Similar Documents

PublicationPublication DateTitle
US20240214689A1 (en)Image-capturing device and image processing device
CN212785522U (en)Image sensor and electronic device
US12028610B2 (en)Imaging device, image processing device, and electronic apparatus
US7756330B2 (en)Producing an extended dynamic range digital image
US9007488B2 (en)Systems and methods for generating interpolated high-dynamic-range images
EP2547091B1 (en)Image processing apparatus and control method for image processing apparatus
JP2013148873A (en)Imaging device and control method of the same
US20190182419A1 (en)Imaging device, image processing device, and electronic apparatus
JP7439856B2 (en) Imaging device
JP2020187409A (en)Image recognition device, solid-state imaging device, and image recognition method
US7221793B2 (en)Systems and methods for providing spatially-varied demosaicing
JP4250513B2 (en) Image processing apparatus and image processing method
JP2024176038A (en) Signal processing device and signal processing method
US20240062339A1 (en)Photographing system and method of image fusion
JP2011227388A (en)Imaging device
JPWO2017170717A1 (en) IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE, AND ELECTRONIC DEVICE
JP6900577B2 (en) Image processing equipment and programs
JP7726766B2 (en) Imaging device, imaging method, and program
WO2017170726A1 (en)Image pickup device and electronic apparatus
CN101365930A (en)System and method for image sensor element or array with photometric and realtime reporting capabilities
WO2024153152A1 (en)Image sensor, and imaging method and apparatus
JPWO2017170719A1 (en) Imaging apparatus and electronic device
JPWO2017170718A1 (en) IMAGING DEVICE, SUBJECT DETECTING DEVICE, AND ELECTRONIC DEVICE
JPWO2017170725A1 (en) IMAGING DEVICE, SUBJECT DETECTING DEVICE, AND ELECTRONIC DEVICE
JP2016134822A (en)Imaging apparatus and method of controlling the same

[8]ページ先頭

©2009-2025 Movatter.jp