






本発明は、処理装置、キャリブレーション方法、カメラおよび水中ドローンに関する。 The present invention relates to a processing device, a calibration method, a camera and an underwater drone.
撮像装置を備えて水中を移動可能な水中ドローンや、防水機能を備えたスポーツカメラ等が存在している。 There are underwater drones equipped with imaging devices that can move underwater, sports cameras with waterproof functions, and the like.
特許文献1には、ケースを介して伝わる振動を緩衝してカメラを保護することができる水中カメラが記載されている。
特許文献2には、水中ドローンを用いた海底探査システムが記載されている。
非特許文献1には、水中でのRGB-Dイメージについて、色を復元するアルゴリズムが記載されている。 Non-Patent
水中ドローンが備えた撮像装置やスポーツカメラ等によって水中で静止画や動画を撮像した場合、水中粒子による反射の影響で、撮像された画像中の色が実際の色とずれる問題が生じることがある。撮像画像中の色のずれを、元の色へと復元するためのツールが既に存在している(例えば非特許文献1参照)。 When still images or videos are captured underwater by an imaging device equipped with an underwater drone or a sports camera, there is a problem that the colors in the captured image may differ from the actual colors due to the reflection of particles in the water. . Tools already exist for restoring color shifts in captured images to the original colors (see, for example, Non-Patent Document 1).
水中で撮像された画像(以下、水中撮像画像と称する)から、水中粒子による反射の影響を取り除くためには、キャリブレーション処理が必要である。このキャリブレーション処理を行うには、カメラと被写体との間の距離情報と、水中にある黒い物体(自発光しない物体)についての情報とが必要である。 A calibration process is necessary to remove the influence of reflection by underwater particles from an image captured underwater (hereinafter referred to as an underwater captured image). In order to perform this calibration processing, distance information between the camera and the subject and information on black objects (objects that do not emit light by themselves) in the water are required.
しかしながら、水中ドローンやスポーツカメラ等は水中を移動するので、キャリブレーション処理に必要な上記の情報を常に取得できるとは限らない。そのため、既存技術によっては、水中撮像画像から水中粒子による反射の影響を取り除くキャリブレーション処理を行うのは容易ではなかった。 However, since underwater drones, sports cameras, etc. move underwater, it is not always possible to acquire the above information necessary for calibration processing. Therefore, depending on the existing technology, it was not easy to perform calibration processing to remove the influence of reflection from underwater particles from an underwater captured image.
そこで本開示は、水中撮像画像から水中粒子による反射の影響を取り除くキャリブレーション処理を容易に行うことができる処理装置、キャリブレーション方法、カメラおよび水中ドローンを提供することを目的とする。 Therefore, an object of the present disclosure is to provide a processing device, a calibration method, a camera, and an underwater drone that can easily perform calibration processing for removing the influence of reflection from underwater particles from an underwater captured image.
一態様において、処理装置が備えたプロセッサは、カメラが備えるキャリブレーション装置を、前記キャリブレーション装置が前記カメラの視野に入らない第1状態から、前記キャリブレーション装置が前記カメラの視野に入る第2状態へと変位させるように制御し、前記キャリブレーション装置が前記第2状態にある時に前記カメラが撮像した撮像画像に基づいて、キャリブレーション処理を行う。 In one aspect, a processor included in a processing device changes a calibration device included in a camera from a first state in which the calibration device is out of the field of view of the camera to a second state in which the calibration device is in the field of view of the camera. state, and performs calibration processing based on an image captured by the camera when the calibration device is in the second state.
上記構成において、前記カメラは水中での撮像が可能であり、前記キャリブレーション処理は、前記カメラが撮像した撮像画像から、水中粒子による反射の影響を取り除く為に行われてよい。 In the above configuration, the camera is capable of capturing an image underwater, and the calibration processing may be performed to remove the influence of reflection due to underwater particles from the captured image captured by the camera.
上記構成において、前記プロセッサは、前記キャリブレーション装置が前記第2状態にある時に前記カメラが撮像した撮像画像に映り込んだ前記キャリブレーション装置のデプス情報を算出し、算出された前記デプス情報に基づいて、前記キャリブレーション処理を実行してよい。 In the above configuration, the processor calculates depth information of the calibration device reflected in the captured image captured by the camera when the calibration device is in the second state, and calculates depth information based on the calculated depth information. Then, the calibration process may be executed.
上記構成において、前記キャリブレーション装置が伸長可能な棒状を呈してよい。 In the above configuration, the calibration device may have an extendable bar shape.
上記構成において、前記キャリブレーション装置は黒色であってよい。 In the above configuration, the calibration device may be black.
上記構成において、前記キャリブレーション装置は、前記第2状態において、前記撮像画像の端部から中央部へと向かって伸長するように映り込む位置に配置されていてよい。 In the above configuration, in the second state, the calibration device may be arranged at a position where it is reflected in the captured image so as to extend from the end toward the center.
一態様において、プロセッサを備えた処理装置による、カメラのキャリブレーション方法は、前記プロセッサが、前記カメラが備えるキャリブレーション装置を、前記キャリブレーション装置が前記カメラの視野に入らない第1状態から、前記キャリブレーション装置が前記カメラの視野に入る第2状態へと変位させるように制御するステップと、前記プロセッサが、前記キャリブレーション装置が前記第2状態にある時に前記カメラが撮像した撮像画像に基づいて、キャリブレーション処理を行うステップと、を有する。 In one aspect, a method for calibrating a camera by a processing device having a processor includes: the processor calibrating a calibration device provided to the camera from a first state in which the calibration device is not in the field of view of the camera; controlling the calibration device to be displaced to a second state in which the calibration device is in the field of view of the camera; , and performing a calibration process.
一態様において、カメラが上述の処理装置および上述のキャリブレーション装置を備える。 In one aspect, a camera comprises the processing device described above and the calibration device described above.
一態様において、水中ドローンが上述のカメラを備える。 In one aspect, an underwater drone comprises a camera as described above.
上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the present invention is not an exhaustive list of all features of the present disclosure. Subcombinations of these feature groups can also be inventions.
本開示は、水中粒子による反射の影響を取り除くキャリブレーション処理を容易に行うことができる処理装置、キャリブレーション方法、カメラおよび水中ドローンを提供できる。 INDUSTRIAL APPLICABILITY The present disclosure can provide a processing device, a calibration method, a camera, and an underwater drone that can easily perform calibration processing for removing the influence of reflections caused by underwater particles.
以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の
範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合
わせの全てが発明の解決手段に必須とは限らない。Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential for the solution of the invention.
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項
が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル
又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の
著作権を留保する。The claims, specification, drawings, and abstract contain material that is subject to copyright protection. The copyright owner has no objection to the facsimile reproduction by any person of these documents as they appear in the Patent Office files or records. However, otherwise, all copyrights are reserved.
(実施形態)
以下の実施形態では、理解を容易とするため、水中で用いることが可能なスポーツカメラで水中を撮像するという前提で本開示を詳述する。しかしながら、これにより特許請求の範囲に記載の主題を限定することは意図されていない。例えば、カメラは、水中を移動可能な移動体の一つである水中ドローンに搭載された撮像装置であってもよい。(embodiment)
In the following embodiments, in order to facilitate understanding, the present disclosure will be described in detail on the premise that an underwater image is captured by a sports camera that can be used underwater. It is not intended, however, to limit the claimed subject matter thereby. For example, the camera may be an imaging device mounted on an underwater drone, which is one of mobile bodies that can move underwater.
図1は、本開示の一実施形態に係る処理装置1の一例を示す概念図である。処理装置1は、プロセッサ11とメモリ12とを備える。 FIG. 1 is a conceptual diagram showing an example of a
プロセッサ11は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。 The
メモリ12は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ12は、各種プログラムや、各種プログラムが用いるデータを格納する。 The
本実施の形態においては、メモリ12はキャリブレーションプログラム121を格納している。メモリ12に格納されたキャリブレーションプログラム121をプロセッサ11が実行することにより、後述のキャリブレーション処理(図5参照)や、水中粒子による反射の影響を除去する処理(図7参照)等が行われる。 In this embodiment,
なお、図示は省略するが、処理装置1はプロセッサ11とメモリ12以外の構成要素を備えていてもよい。例えば、処理装置1は、処理装置1の外部との情報通信を行う通信インターフェース、距離センサや温度センサ等の各種センサ、ユーザが情報を入力するボタンやマウス、キーボード、マイク等の入力装置、ユーザに情報を出力するディスプレイやスピーカ等の出力装置等をさらに備えていてもよい。 Although illustration is omitted, the
図2は、処理装置1を備えたカメラ2の一例を示す模式図である。図3は、カメラ2のキャリブレーション装置22を伸長させた状態を示す模式図である。図2および図3に基づいて、カメラの構成例と、キャリブレーション装置22の変位について説明する。 FIG. 2 is a schematic diagram showing an example of the
本実施の形態においては、カメラ2は防水機能を有するスポーツカメラである。カメラ2は、例えば水中ドローンが備える撮像装置であってもよい。カメラ2は、水中を撮像可能である。カメラ2は、本体20と、レンズ21と、後述のキャリブレーション装置22とを備える。図2および図3はさらに、カメラ2の視野FOVを例示的に示している。 In this embodiment, the
カメラ2は、図1に示されている処理装置1を内蔵してよい。一方、カメラ2は、処理装置1が備えている各構成要素を別個に備えていてもよい。 The
本実施の形態ではスポーツカメラであるカメラ2は、図示を省略するシャッターボタンを備えている。カメラ2が水中にある状態で、ユーザがシャッターボタンを押すことにより、カメラ2が水中を撮像する。ただし、カメラ2は遠隔操作が可能なタイプのものであってもよい。例えば陸上に居るユーザが、図示を省略するスマートフォン等の携帯端末やコントローラ等を操作することにより、操作信号がカメラ2へと伝送され、操作信号を受信したカメラ2が水中を撮像してもよい。 The
本体20は、カメラ2が有する各構成要素を保持する。カメラ2が有する各構成要素には、例えば、撮像制御部、撮像素子、メモリ、加速度センサ、シャッタ駆動部、ゲイン制御部、フラッシュ等が含まれ得る。これらはカメラの構成要素として一般的なものであってよいため、図示と詳しい説明とを省略する。本体20は、カメラ2に内蔵された各構成要素を水から保護する防水機能を備えている。 The
レンズ21は、本体20から取り外し可能なものであっても、本体20と一体型のものであってもよい。レンズ21を通って入射した光は、撮像素子の撮像面上に結像する。撮像素子は、撮像面上に結像した光学像を光電変換し、画像信号として出力する。撮像素子には、CCD(Charge Coupled Device:電荷結合素子)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor:相補型MOS)イメージセンサが用いられてよい。なお、カメラ2は、視野FOVの範囲内にある被写体を撮像可能である。カメラ2によって撮像可能な領域を、以下、撮像領域と表現する。 The
本実施の形態において、処理装置1はカメラ2に内蔵されている。しかし、処理装置1はカメラ2の外側にあり、処理装置1とカメラ2とがデータ通信可能に接続されていてもよい。 In this embodiment, the
キャリブレーション装置22は、カメラ2の視野FOVに入らない第1状態から、カメラ2の視野FOVに入る第2状態へと変位可能な装置である。図2は、第1状態にあるキャリブレーション装置22を図示しており、図3は、第2状態にあるキャリブレーション装置22を図示している。なお、カメラ2が通常の撮像を行う際には、キャリブレーション装置22を第1状態へと変位させる。カメラ2が後述のキャリブレーション処理を行う際には、キャリブレーション装置22を第2状態へと変位させる。処理装置1のプロセッサ11が、キャリブレーション装置22の第1状態と第2状態との間の変位を制御する。 The
本実施の形態においては、キャリブレーション装置22は、伸長可能な黒色の棒状を呈する。なお、キャリブレーション装置22と視野FOVと間の交差と、図4に示す各種パラメータを明確に表示するため、黒色の棒状を呈するキャリブレーション装置を図中では白抜きで表現している。 In this embodiment, the
図2と図3とを対比すればわかるように、キャリブレーション装置22が第1状態から第2状態へと変位すると、キャリブレーション装置22は、カメラ2の視野FOVを通り抜けるように伸長する。 As can be seen by comparing FIGS. 2 and 3, when the
なお、本実施の形態においては、キャリブレーション装置22はカメラ2の下部中央からカメラ2の前方に向かって伸長するように構成されている。ただし、キャリブレーション装置22の形状、構造、および位置はこれには限定されない。キャリブレーション装置22は、例えば、複数の黒いアームを1以上の関節で接続した、折り畳み形状のものであってよい。 In this embodiment, the
図4は、キャリブレーション装置22を伸長させたカメラ2についての、各パラメータを示す模式図である。仮に図4の上方向を実際の上方向とした時に、レンズ21の中心Oから降ろした線とキャリブレーション装置22との交点を点Aとする。また、視野FOVがキャリブレーション装置22とぶつかる点を点Bとする。キャリブレーション装置22の、カメラ2に固定されている端とは反対側の先端を、点Cとする。 FIG. 4 is a schematic diagram showing each parameter of the
レンズ21の中心Oから点Aまでの距離(高さ)Hは、カメラ2にとって既知の値である。距離Hは、例えば、カメラ2の製造時に定まる値である。なお、レンズ21が本体20から取り外し可能なタイプのものである場合は、カメラ2の図示を省略するレンズマウンタに取付けられたレンズ21の識別情報等をカメラ2が取得し、本体20に対するレンズ21の中心Oの相対位置をカメラ2が算出することができる。そのため、レンズ21が取り外し可能なタイプのものである場合も、距離Hをカメラ2にとって既知の値とすることができる。 A distance (height) H from the center O of the
キャリブレーション装置22のカメラ2に固定されている端から点Aまでの距離L0は、カメラ2にとって既知の値である。レンズ21が取り外し可能なタイプのものである場合も、上述の距離Hと同様に、距離L0をカメラ2にとって既知の値とすることができる。また、キャリブレーション装置22のカメラ2に固定されている端から、その反対側の端である点Cまでの距離Lもまた、カメラ2にとって既知の値である。 The distance L0 from the end of the
点Aから点Bまでの距離L1の値は、プロセッサ11が下記の計算式を計算することにより取得することができる。
L1 = ctg(θFOV) * H
ここでθFOVは、線分OBと、点Oを通る光軸との間のなす角である。The value of the distance L1 from the point A to the point B can be obtained by the
L1=ctg(θFOV )*H
whereθFOV is the angle between the line segment OB and the optical axis passing through the point O.
点Bから点Cまでの距離L2の値は、プロセッサ11が描きの計算式を計算することにより取得することができる。
L2=L-L1-L0The value of the distance L2 from the point B to the point C can be obtained by the
L2=L-L1-L0
従ってプロセッサ11は、カメラ2にとって既知の値に基づいて、距離H、距離L、距離L0、距離L1、および距離L2の全ての値を取得することができる。 Therefore,
図5は、処理装置1が実行するキャリブレーションの一例を示すフローチャートである。以下、処理装置1が備えるプロセッサ11が、各処理を実行する前提で説明する。ただし、各処理の実行主体は、処理装置1が備えるプロセッサ11以外でもよい。 FIG. 5 is a flow chart showing an example of calibration performed by the
ユーザがカメラ2のシャッターボタンを半押しする等の操作を行うことにより、プロセッサ11は、ユーザからのキャリブレーション開始リクエストを受け付ける(St501)。 When the user performs an operation such as half-pressing the shutter button of the
プロセッサ11は、キャリブレーション装置22を、第1状態から第2状態へと変位させるように制御する(St502)。本実施の形態では、プロセッサ11が発出する制御信号に基づいて、キャリブレーション装置22が伸長し、図2に示されている第1状態から、図3に示されている第2状態へと変位する。 The
プロセッサ11は、距離L1および距離L2の値を算出する(St503)。
プロセッサ11は、算出された距離L1および距離L2の値に基づいて、キャリブレーション処理を実行する(St504)。なお、このキャリブレーション処理は、例えば非特許文献1にて用いられているような既存のアルゴリズムに従って行われてよい。
図6は、水中撮像画像にキャリブレーション装置22が映り込んだ状態を示す概念図である。カメラ2が撮像したキャリブレーション用の撮像画像IMGには、第2状態にあるキャリブレーション装置22が映り込んでいる。撮像画像IMGはカメラ2の視野FOVに対応している。本実施の形態において、第2状態にあるキャリブレーション装置22は、撮像画像IMGの下側の端部から中央部へと向かって伸長するように映り込む。 FIG. 6 is a conceptual diagram showing a state in which the
プロセッサ11は、撮像画像IMGに映り込んだキャリブレーション装置22のデプス情報を算出する。なお、撮像画像IMGの下端に映り込んだ点Bについて、カメラ2からの距離を示すデプス(depth)の値はL1である。この値L1は、プロセッサ11が上述の数式に基づいて算出することができる。また、撮像画像IMGの中央やや下寄りに映り込んだ点Cについて、カメラ2からの距離を示すデプス(depth)の値はL1+L2である。プロセッサ11は上述の数式に基づいて値L1とL2をそれぞれ算出できるため、同様に、L1+L2の値も算出することができる。 The
すなわち、キャリブレーション装置22を第2状態に変位させることにより、プロセッサ11は、キャリブレーション処理を行うのに必要な、カメラ2と被写体との間の距離情報と、水中にある黒い物体(キャリブレーション装置22)についての情報とを取得することができる。 That is, by displacing the
図7は、水中撮像画像から水中粒子による影響を取り除く処理の一例を示すフローチャートである。以下、処理装置1が備えるプロセッサ11が各処理を実行する前提で説明する。ただし、各処理の実行主体は、処理装置1が備えるプロセッサ11以外でもよい。 FIG. 7 is a flowchart showing an example of processing for removing the influence of underwater particles from an underwater captured image. The following description assumes that the
ユーザが、半押状態であったカメラ2のシャッターボタンをさらに押し込む等の操作を行うことにより、カメラ2が撮像を開始する(St701)。 When the user further presses the half-pressed shutter button of the
プロセッサ11は、ステップSt701で撮像された撮像画像に映る各部分のデプス(距離)を算出する(St702)。例えばプロセッサ11は、撮像画像IMGに映り込んだ被写体OBJ1およびOBJ2のデプス(距離)を算出する。被写体を含む各部分のデプス(距離)の算出には、距離センサやステレオ画像等の、既存の手段が用いられてよい。 The
プロセッサ11は、ステップSt702で取得したデプス情報に基づいて、撮像画像IMGから水中粒子による反射の影響を取り除く(St703)。水中粒子による反射の影響を取り除くためのアルゴリズムは、例えば非特許文献1に記載されているような既存のものが用いられてよい。 Based on the depth information acquired in step St702, the
以上のようにして、本開示の実施形態に係る処理装置1は、カメラ2による撮像画像IMGから水中粒子による反射の影響を容易に取り除くことができる。 As described above, the
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present invention is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications or modifications within the scope described in the claims, and these also belong to the technical scope of the present invention. Understood. Moreover, each component in the above embodiments may be combined arbitrarily without departing from the spirit of the invention.
特許請求の範囲、明細書、及び図面中において示した装置、方法、およびプログラムにおける動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each processing such as actions, procedures, steps, and stages in the devices, methods, and programs shown in the claims, the specification, and the drawings is particularly "before", "before", etc. Unless explicitly stated that the output of the previous process is used in the subsequent process, it can be implemented in any order. Regarding the operation flow in the claims, specification, and drawings, even if "first", "next", etc. are used for convenience, it does not mean that it is essential to perform in this order. do not have.
本開示は、水中粒子による反射の影響を取り除くキャリブレーション処理を容易に行うことができる処理装置、キャリブレーション方法、カメラおよび水中ドローンとして有用である。 INDUSTRIAL APPLICABILITY The present disclosure is useful as a processing device, a calibration method, a camera, and an underwater drone that can easily perform calibration processing for removing the influence of reflections caused by underwater particles.
1 処理装置
11 プロセッサ
12 メモリ
121 キャリブレーションプログラム
2 カメラ
20 本体
21 レンズ
22 キャリブレーション装置
IMG 撮像画像
OBJ1、OBJ2 被写体1 processing
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021021906AJP2022124250A (en) | 2021-02-15 | 2021-02-15 | Processing device, calibration method, camera, and underwater drone |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021021906AJP2022124250A (en) | 2021-02-15 | 2021-02-15 | Processing device, calibration method, camera, and underwater drone |
| Publication Number | Publication Date |
|---|---|
| JP2022124250Atrue JP2022124250A (en) | 2022-08-25 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021021906APendingJP2022124250A (en) | 2021-02-15 | 2021-02-15 | Processing device, calibration method, camera, and underwater drone |
| Country | Link |
|---|---|
| JP (1) | JP2022124250A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023031710A1 (en) | 2021-08-31 | 2023-03-09 | Ricoh Company, Ltd. | Thermographic inspection apparatus and inspection method |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009159469A (en)* | 2007-12-27 | 2009-07-16 | Sony Corp | Imaging apparatus and its control method |
| CN208207916U (en)* | 2018-05-14 | 2018-12-07 | 青岛市光电工程技术研究院(中国科学院光电研究院青岛光电工程技术研究中心) | Color calibration device and three dimensional reconstructive CT system |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009159469A (en)* | 2007-12-27 | 2009-07-16 | Sony Corp | Imaging apparatus and its control method |
| CN208207916U (en)* | 2018-05-14 | 2018-12-07 | 青岛市光电工程技术研究院(中国科学院光电研究院青岛光电工程技术研究中心) | Color calibration device and three dimensional reconstructive CT system |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023031710A1 (en) | 2021-08-31 | 2023-03-09 | Ricoh Company, Ltd. | Thermographic inspection apparatus and inspection method |
| Publication | Publication Date | Title |
|---|---|---|
| KR102385360B1 (en) | Electronic device performing image correction and operation method of thereof | |
| KR102143456B1 (en) | Depth information acquisition method and apparatus, and image collection device | |
| JP5762211B2 (en) | Image processing apparatus, image processing method, and program | |
| CN103312971B (en) | Image processing apparatus and image processing method | |
| JP4752918B2 (en) | Image processing apparatus, image collation method, and program | |
| KR102452575B1 (en) | Apparatus and method for compensating variation of images caused by optical image stabilization motion | |
| CN110035228B (en) | Camera anti-shake system, method, electronic device and computer-readable storage medium | |
| WO2020088133A1 (en) | Image processing method and apparatus, electronic device and computer-readable storage medium | |
| CN107851311B (en) | Contrast enhanced combined image generation system and method | |
| KR102452564B1 (en) | Apparatus and method for estimating optical image stabilization motion | |
| JP6016226B2 (en) | Length measuring device, length measuring method, program | |
| JP6577703B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
| JP2015197745A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| CN105190229B (en) | Three-dimensional shape measuring device, three-dimensional shape measuring method and three-dimensional shape measuring program | |
| US20120327259A1 (en) | Image processing device, image processing method, image capturing device, and program | |
| JP6876130B2 (en) | Designated device and designated program | |
| CN102196166A (en) | Imaging device and display method | |
| JP5310837B2 (en) | Image generating apparatus, digital camera, method, and program | |
| JP2015005925A (en) | Image processing apparatus and image processing method | |
| TWI617195B (en) | Image capturing device and image mosaic method thereof | |
| JP2022124250A (en) | Processing device, calibration method, camera, and underwater drone | |
| JP2017060010A5 (en) | ||
| WO2017163527A1 (en) | Image processing system, image processing method, and program | |
| JP7321772B2 (en) | Image processing device, image processing method, and program | |
| JP5863280B2 (en) | Imaging apparatus, image processing method, and program |
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20210215 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20220426 | |
| A02 | Decision of refusal | Free format text:JAPANESE INTERMEDIATE CODE: A02 Effective date:20221122 |