








本発明は、投射面に画像を投射するプロジェクター、及び、プロジェクターの制御方法に関する。 The present invention relates to a projector that projects an image on a projection surface, and a projector control method.
  プロジェクターによりスクリーン等の投射面に画像を投射する場合、プロジェクターの投射角によって投射面の画像が歪むことが知られている。従来のプロジェクターは、投射面において正しい形状となるように投射する画像を変形させる台形歪み補正の機能を有している。この台形歪み補正を行った後でプロジェクターが移動してしまうと、投射角が変化して、再び投射画像に歪みが生じる。このため、従来、設置角度を検出する機能を備えたプロジェクターが、設置角度の変化を検出した場合に再び台形歪み補正を実行する技術が提案された(例えば、特許文献1参照)。特許文献1記載のプロジェクターは、加速度センサーによってあおり角を検出する機能を有し、プロジェクターの角度が3度以上変化した場合に自動的に台形歪み補正を行う。  When an image is projected onto a projection surface such as a screen by a projector, it is known that the image on the projection surface is distorted depending on the projection angle of the projector. A conventional projector has a trapezoidal distortion correction function that deforms an image to be projected so as to have a correct shape on a projection surface. If the projector moves after performing this trapezoidal distortion correction, the projection angle changes, and the projected image is distorted again. For this reason, conventionally, a technology has been proposed in which a projector having a function of detecting an installation angle performs keystone distortion correction again when a change in the installation angle is detected (see, for example, Patent Document 1). The projector described in
  ところで、投射画像の歪みは、プロジェクターのあおり角だけでなく水平面内における投射角にも影響されるので、投射面に対するプロジェクターの相対位置が変化した場合には歪みを生じる可能性がある。このため、投射中の投射画像の歪みに対応するためには、プロジェクターの様々な方向への移動や投射面側の移動を検出することが望ましいが、従来の方法ではこれらの移動を全て検出することは難しかった。
  本発明は、上述した事情に鑑みてなされたものであり、投射角が変化するような、投射面に対するプロジェクターの相対位置の変化を確実に検出できるプロジェクター、及び、その制御方法を提供することを目的とする。By the way, the distortion of the projection image is influenced not only by the tilt angle of the projector but also by the projection angle in the horizontal plane, and therefore, there is a possibility that distortion occurs when the relative position of the projector with respect to the projection surface changes. For this reason, in order to cope with the distortion of the projected image during projection, it is desirable to detect the movement of the projector in various directions and the movement of the projection surface side, but the conventional method detects all of these movements. That was difficult.
 The present invention has been made in view of the above-described circumstances, and provides a projector that can reliably detect a change in the relative position of the projector with respect to the projection surface such that the projection angle changes, and a control method thereof. Objective.
  上記目的を達成するために、本発明は、投射面に画像を投射するプロジェクターであって、前記画像を投射する投射部と、移動検出用の特徴画像を含む画像を前記投射部によって投射させる投射制御部と、前記投射面を撮影する撮像部と、前記投射部により前記特徴画像の投射中に前記撮像部により撮影され取得された撮影画像に基づいて参照画像を生成し、前記特徴画像の投射中であって前記撮影画像とは異なる時点で前記撮像部によって撮影され取得された撮影画像に基づいて比較用画像を生成する画像処理部と、前記画像処理部により生成された前記参照画像と前記比較用画像とを用いて、前記投射面に対する前記プロジェクターの相対位置の変化を検出する移動検出部と、を備えることを特徴とする。
  本発明によれば、移動検出用の特徴画像を含む画像を投射面に投射した状態で投射面を撮影した撮影画像に基づく参照画像と、特徴画像を含む画像を投射面に投射した状態で上記の撮影とは異なる時点で撮影された撮影画像に基づく比較用画像とを用いることにより、投射面に対するプロジェクターの相対位置の変化を検出する。特徴画像を含む画像を投射面に投射して撮影を行い、撮影画像に基づく参照画像と比較用画像とを比較するので、投射面の状態等に影響されることなく比較を行い、確実に移動を検出できる。これにより、投射面とプロジェクターのどちらが移動した場合であっても、移動方向に関わらず、移動を確実に検出できる。例えば投射角を変化させるようなプロジェクターの位置変化を検出することもできる。従って、自動的に投射面の画像の歪み補正を行う等の処理を行うことができ、利便性の向上が期待できる。In order to achieve the above object, the present invention is a projector that projects an image on a projection surface, and a projection unit that projects the image and a projection that projects an image including a feature image for movement detection by the projection unit. A control unit, an imaging unit that captures the projection surface, a reference image is generated based on a captured image that is captured and acquired by the imaging unit during projection of the feature image by the projection unit, and the feature image is projected An image processing unit that generates a comparative image based on a captured image captured and acquired by the imaging unit at a different time from the captured image, the reference image generated by the image processing unit, and the And a movement detection unit that detects a change in the relative position of the projector with respect to the projection plane using the comparison image.
 According to the present invention, the reference image based on the photographed image obtained by photographing the projection surface in a state where the image including the feature image for movement detection is projected on the projection surface, and the image including the feature image is projected on the projection surface. A change in the relative position of the projector with respect to the projection surface is detected by using a comparative image based on a photographed image photographed at a different time point from the above photographing. The image including the feature image is projected onto the projection surface, and the reference image based on the captured image is compared with the comparison image. Therefore, the comparison is performed without being affected by the state of the projection surface and the movement is performed reliably. Can be detected. Thus, regardless of the movement direction, the movement can be reliably detected regardless of which of the projection surface and the projector moves. For example, a change in the position of the projector that changes the projection angle can also be detected. Accordingly, it is possible to perform processing such as automatically correcting distortion of the image on the projection surface, and improvement in convenience can be expected.
  本発明は、上記プロジェクターにおいて、前記移動検出部は、前記参照画像及び前記比較用画像について前記特徴画像の位置の変化に起因する画像の差を検出することにより、前記投射面に対する前記プロジェクターの相対位置の変化を検出することを特徴とする。
  本発明によれば、投射面の状態等に影響されることなく、参照画像と比較用画像との差を確実に検出し、投射面に対するプロジェクターの相対位置の変化を確実に検出できる。In the projector according to the aspect of the invention, the movement detection unit may detect the difference between the reference image and the comparative image by detecting a difference in the image due to a change in the position of the feature image, thereby relative to the projection surface. It is characterized by detecting a change in position.
 According to the present invention, it is possible to reliably detect the difference between the reference image and the comparative image without being affected by the state of the projection surface and the like and reliably detect a change in the relative position of the projector with respect to the projection surface.
  また、本発明は、上記プロジェクターにおいて、前記投射制御部は、前記投射面に投射される画像の周囲を囲む枠形状の前記特徴画像を前記投射部によって投射させることを特徴とする。
  本発明によれば、枠形状の特徴画像を用いることにより、より確実に参照画像と比較用画像との差を検出できる。In the projector according to the aspect of the invention, the projection control unit may cause the projection unit to project the feature image having a frame shape surrounding the periphery of the image projected on the projection surface.
 According to the present invention, the difference between the reference image and the comparison image can be detected more reliably by using the frame-shaped feature image.
  また、本発明は、上記プロジェクターにおいて、前記投射制御部は、前記投射部により前記投射面に投射される画像を縮小させ、この縮小した画像の周囲に枠形状の前記特徴画像を投射させることを特徴とする。
  本発明によれば、特徴画像を投射画像に重ならないように投射するので、投射中の投射画像の制約を受けることなく特徴画像を投射でき、また、より確実に参照画像と比較用画像との差を検出できる。In the projector according to the aspect of the invention, the projection control unit may reduce the image projected on the projection surface by the projection unit, and project the frame-shaped feature image around the reduced image. Features.
 According to the present invention, since the feature image is projected so as not to overlap the projection image, the feature image can be projected without being restricted by the projection image being projected, and more reliably between the reference image and the comparison image. Differences can be detected.
  また、本発明は、上記プロジェクターにおいて、前記投射部は、所定の表示可能領域に画像を表示する表示部と、前記表示部に表示された画像を前記投射面に投射する投射光学系とを備え、前記投射制御部は、前記表示部の表示可能領域に表示される画像を変形させることにより前記投射面に投射される画像の変形を補正する歪み補正機能を有し、この歪み補正機能により前記表示部の表示可能領域内に発生する非表示部分に、前記特徴画像を表示させることを特徴とする。
  本発明によれば、表示部の表示可能領域における非表示部分を利用して、投射画像に重ならないように特徴画像を投射するので、投射中の投射画像の制約を受けることなく特徴画像を投射でき、また、より確実に参照画像と比較用画像との差を検出できる。In the projector according to the aspect of the invention, the projection unit may include a display unit that displays an image in a predetermined displayable area, and a projection optical system that projects the image displayed on the display unit onto the projection surface. The projection control unit has a distortion correction function for correcting the deformation of the image projected on the projection surface by deforming the image displayed in the displayable area of the display unit. The feature image is displayed in a non-display portion generated in a displayable area of the display unit.
 According to the present invention, the feature image is projected so as not to overlap the projection image by using the non-display portion in the displayable area of the display unit, so that the feature image is projected without being restricted by the projection image being projected. In addition, the difference between the reference image and the comparison image can be detected more reliably.
  また、本発明は、上記プロジェクターにおいて、前記投射部により投射される画像を変形させて歪み補正を行う台形歪み補正部を備え、前記台形歪み補正部は、前記移動検出部により前記プロジェクターの相対位置の変化が検出された場合に歪み補正を行うことを特徴とする。
  本発明によれば、投射面とプロジェクターとの相対位置の変化を検出した場合に、投射される画像の台形歪みを補正するので、投射面に投射される画像を、歪みの少ない良好な状態に保つことができる。The present invention further includes a trapezoidal distortion correction unit configured to perform distortion correction by deforming an image projected by the projection unit in the projector, and the trapezoidal distortion correction unit is configured so that the relative position of the projector is detected by the movement detection unit. The distortion correction is performed when a change in the above is detected.
 According to the present invention, when a change in the relative position between the projection surface and the projector is detected, the trapezoidal distortion of the projected image is corrected, so that the image projected on the projection surface is in a good state with little distortion. Can keep.
  また、上記目的を達成するために、本発明は、投射面に画像を投射する投射部を備えたプロジェクターの制御方法であって、移動検出用の特徴画像を含む画像を前記投射部によって投射させ、前記特徴画像の投射中に前記撮像部により撮影され取得された撮影画像に基づいて参照画像を生成し、前記特徴画像の投射中であって前記撮影画像とは異なる時点で前記撮像部によって撮影され取得された撮影画像に基づいて比較用画像を生成し、生成した前記参照画像と前記比較用画像とを用いて、前記投射面に対する前記プロジェクターの相対位置の変化を検出することを特徴とする。
  本発明の制御方法を実行することにより、プロジェクターは、移動検出用の特徴画像を含む画像を投射面に投射した状態で投射面を撮影した撮影画像に基づく参照画像と、特徴画像を含む画像を投射面に投射した状態で上記の撮影とは異なる時点で撮影された撮影画像に基づく比較用画像とを用いることにより、投射面に対するプロジェクターの相対位置の変化を検出する。特徴画像を含む画像を投射面に投射して撮影を行い、撮影画像に基づく参照画像と比較用画像とを比較するので、投射面の状態等に影響されることなく比較を行い、確実に移動を検出できる。これにより、投射面とプロジェクターのどちらが移動した場合であっても、移動方向に関わらず、移動を確実に検出できる。例えば投射角を変化させるようなプロジェクターの位置変化を検出することもできる。従って、自動的に投射面の画像の歪み補正を行う等の処理を行うことができ、利便性の向上が期待できる。In order to achieve the above object, the present invention provides a projector control method including a projection unit that projects an image on a projection surface, and causes the projection unit to project an image including a feature image for movement detection. A reference image is generated based on a captured image captured and acquired by the imaging unit during the projection of the feature image, and is captured by the imaging unit at a time different from the captured image during the projection of the feature image. A comparison image is generated based on the acquired captured image, and a change in the relative position of the projector with respect to the projection plane is detected using the generated reference image and the comparison image. .
 By executing the control method of the present invention, the projector receives a reference image based on a captured image obtained by photographing the projection surface in a state where an image including a feature image for movement detection is projected on the projection surface, and an image including the feature image. A change in the relative position of the projector with respect to the projection surface is detected by using a comparative image based on a photographed image taken at a different time from the above photographing in a state of being projected onto the projection surface. The image including the feature image is projected onto the projection surface, and the reference image based on the captured image is compared with the comparison image. Therefore, the comparison is performed without being affected by the state of the projection surface and the movement is performed reliably. Can be detected. Thus, regardless of the movement direction, the movement can be reliably detected regardless of which of the projection surface and the projector moves. For example, a change in the position of the projector that changes the projection angle can also be detected. Accordingly, it is possible to perform processing such as automatically correcting distortion of the image on the projection surface, and improvement in convenience can be expected.
  また、本発明は、上記のプロジェクターの制御方法において、前記プロジェクターは前記投射部により投射される画像を変形させて歪み補正を行う台形歪み補正機能を有し、前記プロジェクターの相対位置の変化が検出された場合に台形歪み補正機能により歪み補正を行うことを特徴とする。
  本発明によれば、プロジェクターが、投射面とプロジェクターとの相対位置の変化を検出した場合に台形歪みを補正するので、投射面に投射される画像を、歪みの少ない良好な状態に保つことができる。According to the present invention, in the projector control method, the projector has a trapezoidal distortion correction function that corrects distortion by deforming an image projected by the projection unit, and detects a change in the relative position of the projector. In such a case, distortion correction is performed by a trapezoidal distortion correction function.
 According to the present invention, since the projector corrects the trapezoidal distortion when detecting a change in the relative position between the projection surface and the projector, the image projected on the projection surface can be kept in a good state with little distortion. it can.
本発明によれば、投射面の状態等に影響されることなく、投射面とプロジェクターのどちらが移動しても移動方向に関わらず移動を確実に検出できる。 According to the present invention, it is possible to reliably detect movement regardless of the moving direction regardless of the movement direction of the projection surface or the projector without being affected by the state of the projection surface or the like.
  以下、図面を参照して本発明の実施形態について説明する。
  図1は、実施形態に係るプロジェクター100の全体構成を示すブロック図である。プロジェクター100には、内蔵する記憶装置が記憶する映像ソース(図示略)、または、パーソナルコンピューターや各種映像プレーヤー等の外部の画像供給装置(図示略)から画像信号が入力される。プロジェクター100は、入力される画像信号に基づいて変調された光をスクリーンSCなどの投射面上に投射し、画像(以下「投射画像」と呼ぶ)として表示させる。本実施例では、スクリーンSCはほぼ直立しており、スクリーン面は矩形形状とされている。プロジェクター100に入力される画像は動画像(映像)と静止画像とのどちらでもよく、プロジェクター100は映像をスクリーンSCに投射することも、静止画像をスクリーンSCに投射し続けることも可能である。以下の実施形態では、外部から入力される映像信号に基づいて映像を投射する場合を例に挙げて説明する。Hereinafter, embodiments of the present invention will be described with reference to the drawings.
 FIG. 1 is a block diagram illustrating an overall configuration of a
  プロジェクター100は、大きく分けて光学的な画像の形成を行う光学系と映像信号を電気的に処理する画像処理系とからなる。投射部として機能する光学系は、照明光学系140、液晶パネル130、投射光学系150から構成されている。照明光学系140は、キセノンランプ、超高圧水銀ランプ、LED等からなる光源を備えている。照明光学系140は、光源が発した光を液晶パネル130に導くリフレクター及び補助リフレクターを備えていてもよく、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光を液晶パネル130に至る経路上で減光させる調光素子等を備えたものであってもよい。
  液晶パネル130(表示部)は、後述する画像処理系からの信号を受けて、パネル面に画像を形成する。液晶パネル130は、カラーの投影を行うため、RGBの三原色に対応した3枚の液晶パネルを備えて構成される。照明光学系140からの光はRGBの3色の色光に分離され、各色の光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系150に射出される。The
 The liquid crystal panel 130 (display unit) receives a signal from an image processing system described later and forms an image on the panel surface. The
  投射光学系150には、投射する画像の拡大・縮小および焦点の調整を行うズームレンズ152、ズームの度合いを調整するズーム調整用モーター156、フォーカスの調整を行うフォーカス調整用モーター157が備えられている。投射光学系150は、液晶パネル130で変調された光を入射し、ズームレンズ152を用いて、スクリーンSC上に投射画像を結像する。ズームレンズ152は、ズーム調整用モーター156とフォーカス調整用モーター157とによって、レンズの位置などが調整され、スクリーンSC上の投射画像の拡大・縮小を行うズーム調整や、スクリーンSC上に投射画像を適正に結像させるフォーカス調整を行う。  The projection
  画像処理系は、プロジェクター100全体を統合的に制御するCPU120と映像用プロセッサー134とを中心に構成され、A/D変換部110、液晶パネル駆動部132、レンズ駆動部155、RAM160、歪み調整用画像記憶部171及び計測パターン記憶部172を含むROM170、CCDカメラ181を備えた撮像部180、撮影画像メモリー182、リモコン制御部190、リモコン191、操作部195等を備える。これらの画像処理系を構成する各要素は、バス102を介して互いに接続されている。  The image processing system is mainly configured by a CPU 120 and an
  A/D変換部110は、上述した外部の画像供給装置からケーブル200を介して入力されたアナログ入力信号をA/D変換するデバイスであり、変換後のデジタル信号を映像用プロセッサー134に出力する。映像用プロセッサー134は、A/D変換部110から入力されたデジタル信号に対して、輝度、コントラスト、色の濃さ、色合い、投射画像の形状等の画像の表示状態を調整する処理を行った上で、液晶パネル駆動部132に対して、処理後の映像信号を出力する。液晶パネル駆動部132は、映像用プロセッサー134から入力される映像信号に基づいて、液晶パネル130を駆動する。これにより、A/D変換部110に入力された映像信号に対応した映像が、液晶パネル130に形成され、この画像が投射光学系150を介して、スクリーンSC上に投射画像として形成される。  The A /
  映像用プロセッサー134が行う画像処理としては、上記の明度、コントラスト、色合いなどの補正の他、台形歪み補正が含まれる。図1では、台形歪み補正を行う回路を、特に台形歪み補正部136として示した。台形歪み補正部136は、CPU120が備える処理部により算出された投射距離及び投影投射角の値に基づいて、デジタル信号に対して台形歪み補正を行う。
  また、映像用プロセッサー134は、上記の台形歪み補正における特定の歪み検出用画像の表示を制御する。映像用プロセッサー134は、台形歪み補正用のDSP(デジタルシグナルプロセッサー)として販売されている汎用のプロセッサーを用いて構成することも、専用のASICとして構成することも可能である。
  さらに、映像用プロセッサー134は、CPU120から後述する計測パターンがコマンドとともに入力された場合に、この計測パターンの画像を、A/D変換部110から入力されている画像に重ねて、液晶パネル駆動部132により表示させる。映像用プロセッサー134は、CPU120の制御に従い、A/D変換部110から入力される画像の表示を停止して計測パターンのみを表示させることも可能である。Image processing performed by the
 The
 Further, when a measurement pattern (to be described later) is input from the CPU 120 together with a command, the
  CPU120は、映像用プロセッサー134と共に、プロジェクター100における画像処理を行う。CPU120は、ズーム比算出部123と、焦点距離算出部124と、三次元測量部125と、投射角算出部126と、画像処理部127と、動き検出部128と、パターン投射制御部129(投射制御部)とを備える。これらの各部は、CPU120がROM170に予め記憶した特定のプログラムを実行することにより実現される。
  ズーム比算出部123、焦点距離算出部124、三次元測量部125、及び投射角算出部126の各処理部は、プロジェクター100とスクリーンSCとの相対距離(以下、投射距離と言う)や、プロジェクター100から投射した投射光の光軸に対するスクリーンSCの傾きである投射角(以下、投影投射角と言う)を算出するために必要な処理を行う。The CPU 120 performs image processing in the
 The processing units of the zoom ratio calculation unit 123, the focal length calculation unit 124, the three-
  CPU120は、上記の各処理部の働きにより投影投射角および投射距離を算出すると、投影投射角に対応した信号を映像用プロセッサー134に出力し、投射距離に対応した信号をレンズ駆動部155に出力する。映像用プロセッサー134は、投影投射角に対応した信号がCPU120から入力されると、この信号に基づいて台形歪み補正を行う。プロジェクター100の光学系の光軸とスクリーンSCとのなす角度である投影投射角が特定されると、映像の歪み方を求めることができる。映像用プロセッサー134は、投影投射角に対応したパラメーターの設定がなされると、投射画像の歪みを補正するように、A/D変換部110から入力した画像を補正し、補正後の映像信号を、液晶パネル駆動部132に出力する。この台形歪み補正部136の機能により、液晶パネル130に表示される画像は台形歪みを補正するように変形される。  When the CPU 120 calculates the projection projection angle and the projection distance by the functions of the respective processing units, the CPU 120 outputs a signal corresponding to the projection projection angle to the
  また、CPU120が備える画像処理部127及びパターン投射制御部129は、後述するように、スクリーンSCとプロジェクター100との相対位置の変化を検出するための参照画像および比較用画像を生成し、動き検出部128は、生成された参照画像と比較用画像とに基づいて、スクリーンSCに対するプロジェクター100の相対位置の変化を検出する。
  画像処理部127は、撮像部180により撮影され撮影画像メモリー182に格納された撮影画像を取得し、この撮影画像に対して、Y成分の抽出、輪郭強調、ノイズ除去、頂点算出等の処理を行って、参照画像を生成する。また、画像処理部127は、撮像部180により撮影され撮影画像メモリー182に格納された撮影画像を取得し、この撮影画像に対して、参照画像と同様にY成分の抽出、輪郭強調、ノイズ除去、頂点算出等の処理を行って、比較用画像を生成する。参照画像のもととなった撮影画像と、比較用画像のもととなった撮影画像は異なる時に撮影された画像である。画像処理部127は、予め設定された周期で撮影画像を取得して比較用画像を生成する。画像処理部127が生成した参照画像は、RAM160が備える参照画像記憶部161に記憶される。また、画像処理部127が生成した比較用画像は、RAM160が備える比較用画像記憶部162に格納される。In addition, the
 The
  また、参照画像及び比較用画像として、スクリーンSCに計測パターンを投射した状態で撮像部180によりスクリーンSCを撮影させ、この撮影画像をもとに参照画像及び比較用画像を生成する場合もある。この場合、参照画像及び比較用画像には計測パターンの画像が含まれる。例えば白色の壁面をスクリーンSCとして利用する場合など、撮像部180の撮影画像に特徴的なものが写っていない場合、参照画像と比較用画像とを比較することが難しい。このような場合は、計測パターンをスクリーンSCに投射することで、この計測パターンの画像を利用して参照画像と比較用画像とを正確に比較できる。
  具体的には、CPU120が備えるパターン投射制御部129の機能により、計測パターン記憶部172に記憶された計測パターン(特徴画像)が読み出され、映像用プロセッサー134にコマンドとともに出力される。映像用プロセッサー134は、入力されたコマンドに従って、入力された計測パターンを投射画像に重畳して液晶パネル駆動部132によって表示させる。このようにスクリーンSCに計測パターンが投射された状態で、撮像部180が撮影を行う。計測パターンの投射は、参照画像を生成するための撮影時、及び、比較用画像を生成するための撮影時のどちらの時も行われる。
  動き検出部128は、後述するように、画像処理部127が生成した参照画像と比較用画像とを比較することによって、スクリーンSCに対するプロジェクター100の相対位置の変化を検出する。Further, as the reference image and the comparison image, the screen SC may be photographed by the
 Specifically, the measurement pattern (feature image) stored in the measurement
 As will be described later, the
  レンズ駆動部155は、CPU120から投射距離に相当する信号が入力されると、この信号に基づいてフォーカス調整用モーター157を駆動してフォーカス調整を行う。フォーカス調整を行うためには、ズームレンズ152のズーム比が必要である。このズーム比は、例えば、ズーム調整用モーター156によるズームレンズ152の駆動量から算出すればよいし、撮像部180による撮影画像から算出することもできる。  When a signal corresponding to the projection distance is input from the CPU 120, the
  RAM160は、CPU120が実行するプログラムやデータを一時的に格納するワークエリアを形成する。なお、映像用プロセッサー134は、自身が行う画像の表示状態の調整処理など、各処理の実行の際に必要となるワークエリアを、内蔵RAMとして備えている。RAM160は、画像処理部127が生成した参照画像を記憶する参照画像記憶部161、及び、画像処理部127が生成した比較用画像を記憶する比較用画像記憶部162を備えている。
  また、ROM170は、上述した各処理部を実現するためにCPU120が実行するプログラムや、当該プログラムに係るデータ等を記憶する。また、ROM170は、後述する台形歪み補正処理でスクリーンSCに投射する調整用画像のデータを、調整用画像記憶部171に記憶している。The
 In addition, the
  リモコン制御部190は、プロジェクター100の外部のリモコン191から送信される無線信号を受信する。リモコン191は、ユーザーによって操作される操作子(図示略)を備え、操作子に対する操作に応じた操作信号を赤外線信号または所定周波数の電波を用いた無線信号として送信する。リモコン制御部190は、赤外線信号を受信する受光部(図示略)や無線信号を受信する受信回路(図示略)を備え、リモコン191から送信された信号を受信し、解析して、ユーザーによる操作の内容を示す信号を生成してCPU120に出力する。
  操作部195は操作子(図示略)を備え、操作子に対する操作に応じた操作信号をCPU120に出力する。この操作子としては、電源ON/OFFを指示するスイッチ、台形歪み補正開始を指示するスイッチ、後述する再補正処理の開始を指示するスイッチ等がある。Remote
 The
  撮像部180は、周知のイメージセンサーであるCCDを用いたCCDカメラ181を備えている。撮像部180は、プロジェクター100の前面、即ち、投射光学系150がスクリーンSCに向けて映像を投射する方向をCCDカメラ181により撮像可能な位置に設けられている。撮像部180は、推奨された投影距離においてスクリーンSCに投影された投射画像の全体が少なくとも撮像範囲内に入るように、CCDカメラ181のカメラ方向及び画角が設定されている。CCDカメラ181は、CCDの他、CCD上に映像を形成する単焦点レンズ、CCDに入射する光量を調整するオートアイリスなどの機構、更にはCCDから映像信号を読み出す制御回路などを備える。オートアイリスの機構は、CCDカメラ181からの映像の明度の累積値に相当する信号を制御回路から受け取り、明度の累積値が所定の範囲に入るように、単焦点レンズに設けられたアイリス(絞り)を自動的に調整している。
  オートアイリスによる明るさの調整がなされた画像は、撮像部180から撮影画像メモリー182に出力され、撮影画像メモリー182の所定の領域に繰り返し書き込まれる。撮影画像メモリー182は、1画面分の画像の書き込みが完了すると、所定の領域のフラグを順次反転するので、CPU120は、このフラグを参照することにより、撮像部180を用いた撮像が完了したか否かを知ることができる。CPU120は、このフラグを参照しつつ、撮影画像メモリー182にアクセスして、必要な撮影画像を取得する。The
 The image whose brightness has been adjusted by auto iris is output from the
  続いて、プロジェクター100の動作について説明する。
  図2及び図3は、プロジェクター100の動作を示すフローチャートであり、図2は全体的な動作を示し、図3は図2のステップS13に示す台形歪み補正処理を詳細に示す。
  プロジェクター100は、電源がオンにされると外部から入力される映像信号に基づいて投射画像の投射を開始し(ステップS11)、リモコン191または操作部195の操作子の操作によってセットアップの実行が指示されると(ステップS12)、台形歪み補正処理を実行する(ステップS13)。この台形歪み補正処理により、スクリーンSCに投射される投射画像は、プロジェクター100の投影投射角による変形が補正され、ほぼ本来の形状となる。Next, the operation of the
 2 and 3 are flowcharts showing the operation of the
 When the power is turned on, the
  ここで、台形歪み補正処理について説明する。
  図3に示すように、プロジェクター100のCPU120は、映像用プロセッサー134を制御して、A/D変換部110から映像用プロセッサー134に入力されている映像信号の表示を停止させる。さらに、CPU120は、調整用画像記憶部171に記憶された調整用画像を読み出し、この調整用画像を映像用プロセッサー134にコマンドとともに出力して、液晶パネル130に表示させ、スクリーンSCに投射させる(ステップS21)。
  次に、CPU120は、スクリーンSCに調整用画像が投射された状態で投射画像を撮像部180により撮影させる(ステップS22)。この撮影画像は、CPU120の制御により、撮影画像メモリー182に保存される。
Here, the trapezoidal distortion correction process will be described.
 As shown in FIG. 3, the CPU 120 of the
 Next, the CPU 120 causes the
  CPU120は、調整用画像の投射中に撮影された撮影画像を撮影画像メモリー182から取得し、この撮影画像に基づいて、台形歪み補正部136により台形歪みを補正するためのパラメーターを算出する(ステップS23)。
  このステップS23で、CPU120は、三次元測量部125の機能により、三次元測量処理を実行する。この三次元測量処理は、プロジェクター100のズームレンズ152の主点を原点とする三次元座標系(以下「レンズ座標系」とも呼ぶ)における、スクリーンSCを含む平面の三次元状態を検出する処理である。すなわち、プロジェクター100における投射光学系150の光軸に対するスクリーンSCの三次元的な傾きを検出する。この処理では、撮影画像メモリー182から取得した撮影画像を離散化し、撮影画像に含まれる16個の四角形の中心を測定点として求める。続いてCPU120は、測定点から平面の定義が可能な3点を選択し、選択した3つの測定点のレンズ座標系における三次元座標を検出する。CPU120は、検出した3つの測定点の三次元座標に基づいて、スクリーンSCを含む平面に近似する近似平面を算出する。続いて、CPU120は、投射角算出部126の機能により、三次元測量処理で検出したスクリーン平面の近似平面とプロジェクター100から投射した投射光の光軸との角度である投影投射角を算出する。次いで、CPU120は、算出された投影投射角を基に、液晶パネル130の表示可能領域131における補正後の画像の形状を求める。そして、CPU120は、液晶パネル130の表示可能領域131における補正前の画像の形状を、補正後の画像の形状に変換する変換係数(パラメーター)を算出する。The CPU 120 acquires a captured image captured during the projection of the adjustment image from the captured
 In step S <b> 23, the CPU 120 executes a three-dimensional survey process using the function of the three-
  CPU120は、求めたパラメーターを台形歪み補正部136に設定し、台形歪み補正部136により台形歪み補正を実行させる(ステップS24)。台形歪み補正部136は、設定されたパラメーターを用いて、入力されるデジタル信号を変換し、変換した結果を液晶パネル駆動部132へと出力する。すなわち、台形歪み補正部136は、A/D変換部110から入力されるデジタル信号に対して、各画素の座標に対してベクトル演算を繰り返し、液晶パネル130に表示する画像を、台形歪みを補正するように変形させる。この台形歪み補正中は、通常は矩形である液晶パネル130の表示可能範囲に、スクリーンSCの投射画像の変形を補正するように上記パラメーターで規定される略台形に変形された映像が表示される。
  この台形歪み補正処理を開始した後、CPU120は、映像用プロセッサー134による映像の投射を再開させ(ステップS25)、この台形歪み補正処理を終了する。The CPU 120 sets the obtained parameter in the trapezoidal
 After starting the trapezoidal distortion correction process, the CPU 120 resumes video projection by the video processor 134 (step S25), and ends the trapezoidal distortion correction process.
  図4は、台形歪み補正による表示状態の変化を示す図であり、(A)は補正前のスクリーンSC上の投射画像の例を示し、(B)は補正前の液晶パネル130の表示可能領域を示し、(C)は補正後のスクリーンSC上の投射画像の例を示し、(D)は補正後の液晶パネル130の表示可能領域を示す。
  図4(A)には、プロジェクター100の投影投射角によりスクリーンSC上の投射画像に歪みを生じた例を示す。この例はプロジェクター100をスクリーンSCの正面に設置し、上向きに投射した場合の典型的な例であり、矩形で表示されるべき投射画像300が、歪みのために略台形となっている。この図4(A)に示す状態では、液晶パネル130においては、図4(B)に示すように、矩形の表示可能領域131の全面に画像137が表示されている。4A and 4B are diagrams showing changes in the display state due to the trapezoidal distortion correction. FIG. 4A shows an example of a projected image on the screen SC before correction, and FIG. 4B shows the displayable area of the
 FIG. 4A shows an example in which a projection image on the screen SC is distorted due to the projection projection angle of the
  図3で説明した処理によって歪み補正用のパラメーターが算出され、このパラメーターに基づいて台形歪み補正が行われると、図4(C)に示すように、スクリーンSCには矩形の投射画像301が投射される。この場合、液晶パネル130においては、図4(D)に示すように、台形歪みを補正するように変形された歪み補正後画像138が、表示可能領域131に表示される。矩形の表示可能領域131に台形の歪み補正後画像138を表示するために、歪み補正後画像138は、図4(B)に示した状態よりも小さく表示され、この歪み補正後画像138の周囲には、表示に使われない非使用領域139が生じる。非使用領域139の画素は黒表示されている。歪み補正後画像138は画像137(図4(B))より小さいため、台形歪み補正の実行時には歪み補正後画像138を拡大するように、ズーム調整用モーター156(図1)によりズームレンズ152(図1)を駆動して、ズーム率を増大させてもよい。  When distortion correction parameters are calculated by the processing described with reference to FIG. 3 and trapezoidal distortion correction is performed based on the parameters, a
  図3の台形歪み補正処理の後、CPU120は、図2に戻り、撮像部180によって撮影を実行させ、撮影画像メモリー182から取得する(ステップS14)。CPU120は、取得した撮影画像においてスクリーンSCの枠を検出できるか否かを判別する(ステップS15)。
  後述する動き検出処理では、所定の時間間隔で撮像部180により撮影を行い、撮影画像から生成した参照画像と比較用画像とを比較して、プロジェクター100の動きを検出する。参照画像と比較用画像とを比較する際に、参照画像と比較用画像の両方に共通の特徴的な物の画像が含まれていると比較が行いやすい。具体的な例としてはスクリーンSCの枠が挙げられる。そこで、ステップS15では画像の比較に利用可能な特徴的な物として、スクリーンSCの枠が撮影画像に写る状態か否かを判別する。黒色の枠を有するスクリーンSCを使用している場合や、ホワイトボードをスクリーンSCとして使用している場合には、撮像部180の撮影画像にスクリーンSCの枠が視認可能に写るが、壁面をスクリーンSCとして使っている場合等は、撮影画像にスクリーンSCの枠は写らない。
  撮影画像においてスクリーンSCの枠の画像が検出できると判別した場合(ステップS15;Yes)、CPU120は、枠検出による動き検出処理を実行する(ステップS16)。また、撮影画像においてスクリーンSCの枠の画像が検出できないと判別した場合(ステップS15;No)、CPU120は、計測パターンを用いた動き検出処理を実行する(ステップS17)。After the trapezoidal distortion correction process of FIG. 3, the CPU 120 returns to FIG. 2, causes the
 In a motion detection process to be described later, the
 When it is determined that the image of the frame of the screen SC can be detected in the captured image (step S15; Yes), the CPU 120 executes a motion detection process by frame detection (step S16). Further, when it is determined that the image of the frame of the screen SC cannot be detected in the captured image (step S15; No), the CPU 120 executes a motion detection process using the measurement pattern (step S17).
  ステップS16、S17の動き検出処理は、スクリーンSCに対するプロジェクター100の相対位置が変化した場合に、この変化を検出する処理である。プロジェクター100またはスクリーンSCが移動して、その位置関係が変化した場合には、ステップS13の台形歪み補正処理で求めた投影投射角が変化するので、台形歪み補正におけるパラメーターも変化する。このため、スクリーンSCに投射される投射画像の歪みの補正が不十分になってしまう。そこで、CPU120は、投射画像の歪みが適正に補正された状態を保持するため、スクリーンSCに対するプロジェクター100の相対位置が変化した場合に、この変化を検出する動き検出処理を行い、所定以上の位置の変化を検出する毎に、台形歪み補正を行う。  The motion detection process of steps S16 and S17 is a process of detecting this change when the relative position of the
  図5は、枠検出による動き検出処理を示すフローチャートである。
  CPU120は、まず、撮像部180により撮影を行わせて、撮影画像(第1の撮影画像)を撮影画像メモリー182から取得する(ステップS31)。続いて、CPU120は、画像処理部127の機能により、撮影画像においてスクリーンSCの枠が強調されるように画像処理を行う。すなわち、CPU120は、取得した撮影画像からY成分の画像を抽出し(ステップS32)、輝度成分(Y)のみを取りだしたグレースケール画像を得る。続いて、CPU120は、撮影画像から抽出したグレースケール画像に対し、輪郭強調処理(ステップS33)およびノイズ除去フィルターによる処理(ステップS34)を施す。これらの処理により、撮影画像の輪郭を強調したモノクロ2値またはグレースケールの画像が得られる。撮影画像にスクリーンSCの枠が写っている場合、上記の画像処理により、スクリーンSCの枠は四角形の枠線の画像として強調される。
FIG. 5 is a flowchart showing a motion detection process by frame detection.
 First, the CPU 120 causes the
  次に、CPU120は、ステップS32〜S34の処理により得られた画像において、スクリーンSCの枠の画像を検出し(ステップS35)、検出した枠の4つの角(頂点)の位置を求める処理を行う(ステップS36)。
  また、CPU120は、ステップS32〜S34の処理により得られた画像を参照画像とし、参照画像記憶部161(図1)に記憶させる(ステップS37)。
  その後、CPU120は、画像処理部127の機能により、ステップS36で記憶させた参照画像において、ステップS35で検出した枠の内側と、枠から所定距離だけ離れた領域とをマスクするマスク画像を生成し、参照画像記憶部161に記憶させる(ステップS38)。
  マスク画像は、参照画像の一部がマスクされた画像であり、マスクされた部分は比較用画像と比較する処理の対象外となる。参照画像を比較用画像と比較するのではなく、参照画像の一部をマスクしたマスク画像を、比較用画像と比較することにより、動きを検出する際の処理負荷を軽減し、かつ正確に動きを検出できるという利点がある。Next, the CPU 120 detects an image of the frame of the screen SC in the image obtained by the processing of steps S32 to S34 (step S35), and performs processing for obtaining the positions of the four corners (vertices) of the detected frame. (Step S36).
 Further, the CPU 120 sets the image obtained by the processes of steps S32 to S34 as a reference image and stores it in the reference image storage unit 161 (FIG. 1) (step S37).
 Thereafter, the CPU 120 uses the function of the
 The mask image is an image in which a part of the reference image is masked, and the masked portion is excluded from processing for comparison with the comparison image. Instead of comparing the reference image with the comparative image, comparing the mask image with a part of the reference image with the comparative image reduces the processing load when detecting motion and moves accurately. There is an advantage that can be detected.
  ここで、CPU120は、予め設定された検出時間だけ待機する(ステップS39)。この検出時間は、スクリーンSCに対するプロジェクター100の相対位置の変化を検出する頻度に影響し、検出時間を短くすれば相対位置の変化をより鋭敏に察知でき、検出時間を長くすれば検出に要する演算処理の負荷を軽減できる。検出時間は、例えば1秒や0.5秒程度とすることができるが、数秒程度あるいは0.1秒以下であってもよい。
  待機後、CPU120は、撮像部180により撮影を実行させ、撮影画像を撮影画像メモリー182から取得する(ステップS40)。続いて、CPU120は、画像処理部127の機能により、取得した撮影画像(第2の撮影画像)に対してステップS32〜S34で実行した画像処理と同様の処理を画像処理部127によって行い、比較用画像を生成して、比較用画像記憶部162に記憶させる(ステップS41)。ここで生成される比較用画像は、ステップS37で生成された参照画像と同様の画像である。
Here, the CPU 120 waits for a preset detection time (step S39). This detection time affects the frequency of detecting a change in the relative position of the
 After waiting, the CPU 120 causes the
  CPU120は、画像処理部127の機能により、比較用画像記憶部162に記憶させた比較用画像にマスク領域を設定する(ステップS42)。ここで設定されるマスク領域は、ステップS38で生成したマスク画像においてマスクされる領域と、同位置である。
  そして、CPU120は、動き検出部128の機能により、参照画像記憶部161に記憶された参照画像(マスク画像)とステップS42でマスク領域を設定した比較用画像との差分を検出する(ステップS43)。このステップS43では、例えば、比較する2つの画像について、マスクされた領域を除く部分の各画素の画素データに基づき差分絶対値和または差分二乗和が算出される。
  ここで、CPU120は、動き検出部128の機能により、求めた差分がしきい値を超えたか否かを判別し(ステップS44)、しきい値を超えている場合には、スクリーンSCに対するプロジェクター100の相対位置が変化したことになるので、図3に示した処理と同様の台形歪み補正を実行する(ステップS45)。台形歪み補正を行った後、CPU120は、ステップS31に戻って、再び参照画像を生成する。なお、ステップS37で生成される参照画像と、ステップS41で生成される比較用画像は同様の画像であるから、ステップS45の台形歪み補正処理を行った後に、比較用画像記憶部162に記憶されている比較用画像を参照画像として参照画像記憶部161に記憶してもよい。この場合、ステップS31〜S36の処理を省略できるという利点がある。The CPU 120 sets a mask area in the comparison image stored in the comparison
 Then, the CPU 120 detects a difference between the reference image (mask image) stored in the reference
 Here, the CPU 120 determines whether or not the obtained difference exceeds the threshold value by the function of the motion detection unit 128 (step S44), and when the difference exceeds the threshold value, the
  一方、ステップS43で求めた差分がしきい値を超えていない場合(ステップS44;No)、CPU120は、投射を終了するか否かを判別し(ステップS46)、投射を終了しない場合はステップS39に戻る。ステップS39では、検出時間だけ待機して、再びステップS40〜S44の処理を実行する。すなわち、撮影画像を取り込み、比較用画像を生成して、この比較用画像と参照画像とを比較する。この際、比較用画像と比較されるマスク画像は、参照画像記憶部161に記憶されたマスク画像である。つまり、ステップS44で差分がしきい値を超えるまでは、ステップS37で生成された参照画像を使い続けることになる。そして、この参照画像とステップS41で生成された比較用画像との差分がしきい値を超えるまで、検出時間毎に、ステップS40〜S44の処理が繰り返し実行される。  On the other hand, if the difference obtained in step S43 does not exceed the threshold value (step S44; No), the CPU 120 determines whether or not to end the projection (step S46), and if not to end the projection, step S39. Return to. In step S39, it waits only for detection time, and performs the process of step S40-S44 again. That is, a captured image is captured, a comparison image is generated, and the comparison image and the reference image are compared. At this time, the mask image to be compared with the comparison image is a mask image stored in the reference
  図5に示す動き検出処理により、プロジェクター100は、投影を開始してからリモコン191または操作部195の操作に応じて台形歪み補正処理を実行し、スクリーンSCに対するプロジェクター100の相対位置が変化し、この変化により撮像部180が撮影した撮影画像に変化が生じた場合に、台形歪み補正処理を再び行う。これにより、投射画像の歪みが補正された後、再び補正が必要になった場合に、速やかに投射画像を補正して、投射画像の状態を良好に保つことができる。
  また、動き検出部128の機能により、ステップS43〜S44の処理を行う場合、ステップS13(図2)またはステップS45で台形歪み補正を行った直後の撮影画像に基づく参照画像(マスク画像)と、ステップS42でマスク処理された比較用画像とが比較される。このため、CPU120は、最後の(直近の)台形歪み補正を行ってからの相対位置の変化を検出するので、プロジェクター100とスクリーンSCの相対位置の変化により投射画像の歪みの補正が必要になったか否かを、正確に判別できる。With the motion detection process shown in FIG. 5, the
 In addition, when performing the processing of steps S43 to S44 by the function of the
  図6は、計測パターンを用いた動き検出処理を示すフローチャートである。
  CPU120は、パターン投射制御部129の機能により、計測パターン記憶部172に記憶された計測パターンの画像データを読み出して、コマンドとともに映像用プロセッサー134に出力し、この計測パターンを表示中の画像に重ねて投射させる(ステップS51)。続いて、CPU120は、計測パターンが投射された状態で撮像部180により撮影を行わせて、撮影画像を撮影画像メモリー182から取得する(ステップS52)。FIG. 6 is a flowchart showing the motion detection process using the measurement pattern.
 The CPU 120 reads out the image data of the measurement pattern stored in the measurement
  CPU120は、取得した撮影画像における計測パターンを抽出し(ステップS53)、抽出した画像を参照画像として、参照画像記憶部161(図1)に記憶させる(ステップS54)。
  さらに、CPU120は、画像処理部127の機能により、ステップS54で記憶させた参照画像において、計測パターンが抽出された領域から所定距離だけ離れた外側の領域をマスクするマスク画像を生成し、参照画像記憶部161に記憶させる(ステップS55)。このステップS55では参照画像において計測パターンに影響しない部分がマスクされる。マスクされる領域は、ステップS53で抽出した計測パターンの位置に合わせて決定してもよいし、予め設定された位置としてもよい。また、計測パターン記憶部172に複数の計測パターンが記憶されている場合は各計測パターンに対応してマスクする領域を設定し、ROM170に記憶させてもよい。CPU120 extracts the measurement pattern in the acquired picked-up image (step S53), and memorize | stores the extracted image as a reference image in the reference image memory | storage part 161 (FIG. 1) (step S54).
 Further, the CPU 120 uses the function of the
  ここで、CPU120は、予め設定された検出時間だけ待機し(ステップS56)、検出時間の経過後、再びステップS51と同じ計測パターンをスクリーンSCに投射させ(ステップS57)、撮像部180により撮影を実行させ、撮影画像を撮影画像メモリー182から取得する(ステップS58)。CPU120は、画像処理部127の機能により、取得した撮影画像に対してステップS53と同様に計測パターンを抽出する処理を行い(ステップS59)、抽出した画像を比較用画像として比較用画像記憶部162に記憶させる(ステップS60)。ここで生成される比較用画像は、ステップS54で生成された参照画像と同様の画像である。
  また、CPU120は、画像処理部127の機能により、比較用画像記憶部162に記憶させた比較用画像にマスク領域を設定する(ステップS61)。ここで設定されるマスク領域は、ステップS55で生成したマスク画像においてマスクされる領域と、同じ位置である。Here, the CPU 120 waits for a preset detection time (step S56), and after the detection time has elapsed, again projects the same measurement pattern as in step S51 on the screen SC (step S57), and the
 Further, the CPU 120 sets a mask area in the comparison image stored in the comparison
  そして、CPU120は、動き検出部128の機能により、参照画像記憶部161に記憶された参照画像(マスク画像)とステップS61でマスク領域を設定した比較用画像との差分を検出する(ステップS62)。このステップS62では、ステップS43(図5)と同様に、例えば差分絶対値和または差分二乗和が算出される。
  ここで、CPU120は、動き検出部128の機能により、求めた差分がしきい値を超えたか否かを判別し(ステップS63)、しきい値を超えている場合には、スクリーンSCに対するプロジェクター100の相対位置が変化したことになるので、図3に示した処理と同様の台形歪み補正を実行する(ステップS64)。台形歪み補正を行った後、CPU120は、ステップS51に戻って、再び参照画像を生成する。なお、ステップS54で生成される参照画像と、ステップS60で生成される比較用画像は同様の画像であるから、ステップS64の台形歪み補正処理を行った後に、ステップS51〜S53の処理を省略し、比較用画像記憶部162に記憶されている比較用画像を参照画像として参照画像記憶部161に記憶してもよい。Then, the CPU 120 detects a difference between the reference image (mask image) stored in the reference
 Here, the CPU 120 determines whether or not the obtained difference exceeds the threshold value by the function of the motion detection unit 128 (step S63), and when the difference exceeds the threshold value, the
  一方、ステップS62で求めた差分がしきい値を超えていない場合(ステップS63;No)、CPU120は、投射を終了するか否かを判別し(ステップS65)、投射を終了しない場合はステップS56に戻る。ステップS56では、検出時間だけ待機して、再びステップS57〜S63の処理を実行する。この処理で比較用画像と比較されるマスク画像は、参照画像記憶部161に記憶されたマスク画像である。つまり、ステップS63で差分がしきい値を超えるまでは、ステップS54で生成された参照画像を使い続けることになる。そして、この参照画像とステップS60で生成された比較用画像との差分がしきい値を超えるまで、検出時間毎に、ステップS57〜S63の処理が繰り返し実行される。  On the other hand, if the difference obtained in step S62 does not exceed the threshold value (step S63; No), the CPU 120 determines whether or not to end the projection (step S65), and if not to end the projection, step S56. Return to. In step S56, the process waits for the detection time and executes the processes of steps S57 to S63 again. The mask image compared with the comparison image in this process is a mask image stored in the reference
  この図6に示す動き検出処理により、プロジェクター100は、投影を開始してからリモコン191または操作部195の操作に応じて台形歪み補正処理を実行し、スクリーンSCに対するプロジェクター100の相対位置が変化し、この変化により撮像部180が撮影した撮影画像に変化が生じた場合に、台形歪み補正処理を再び行う。この処理において、CPU120は、スクリーンSCに計測パターンを投射させた状態で撮像部180が撮影した撮影画像から計測パターンを抽出して参照画像と比較用画像とを生成し、これらを比較するので、スクリーンSCの枠等を利用することなく、また、投射画像の影響を受けることなく、参照画像と比較用画像との差を正確に検出できる。これにより、投射画像の歪みが補正された後、再び補正が必要になった場合に、速やかに投射画像を補正して、投射画像の状態を良好に保つことができる。
  また、動き検出部128の機能により、ステップS13(図2)またはステップS64で台形歪み補正を行った直後の撮影画像に基づく参照画像(マスク画像)と、ステップS61でマスク処理された比較用画像とが比較される。このため、CPU120は、最後の(直近の)台形歪み補正を行ってからの相対位置の変化を検出するので、プロジェクター100とスクリーンSCの相対位置の変化により投射画像の歪みの補正が必要になったか否かを、正確に判別できる。With the motion detection process shown in FIG. 6, the
 Further, by the function of the
  図7は、スクリーンSCに投射される計測パターンの例を示す図であり、(A)は投射画像の例を示し、(B)は計測パターンの例を示し、(C)は計測パターンを画像に重畳して投射した例を示す。
  この図7には、投射画像に重なる位置に表示される計測パターンを例として示す。図7(A)に示すようにスクリーンSCの略中央に矩形の投射画像300が表示(投射)されている場合に、図7(B)に示すように、投射画像300とほぼ同じ大きさ、同じ位置に表示される計測パターンを重畳すると、図7(C)に示すように投射される。計測パターン321は、液晶パネル130の表示可能領域において、投射画像311と同じ領域に表示される。この計測パターン321のように、投射画像311が表示(投射)される領域に重なる計測パターンを用いることにより、液晶パネル130の表示可能領域が狭い場合や、投射可能なスクリーンSCのサイズが小さい場合であっても、計測パターンをできるだけ広い範囲に大きく表示でき、参照画像と比較用画像との差を正確に検出できる。
  図7(C)の重畳画像312は、同じ範囲に投射画像300と計測パターン321とが重なっているが、計測パターン321が上に重なっているため、この計測パターン321を撮像部180で撮影した場合に、撮影画像から計測パターン321を容易に抽出できる。FIG. 7 is a diagram illustrating an example of a measurement pattern projected onto the screen SC. (A) illustrates an example of a projection image, (B) illustrates an example of a measurement pattern, and (C) illustrates an image of the measurement pattern. An example of being superimposed and projected.
 FIG. 7 shows an example of a measurement pattern displayed at a position overlapping the projection image. When a
 In the
  また、図8は、スクリーンSCに投射される計測パターンの別の例を示す図であり、(A)は枠形状の計測パターンの例を示し、(B)は枠形状の計測パターンを画像に重畳して投射した例を示す。
  この図8(A)に示す計測パターン322は、スクリーンSCに投射される画像の枠となる形状である。計測パターン322を投射画像に重畳した場合には、図8(B)に示すように、投射画像に枠が付加された重畳画像313となる。この計測パターン322は、投射画像の視認性にほとんど影響を及ぼすことなく、投射画像に重畳して投射できるので、図6で説明した動き検出処理に使用すれば、画像の投射を中断することなく、動き検出処理を実行できる。図8(B)に示すように枠形状の計測パターン322を投射画像に重畳する場合に、CPU120が映像用プロセッサー134を制御して、投射画像を縮小させてもよい。投射画像を、計測パターン322の枠の太さの分だけ縮小すれば、投射画像が計測パターンによって隠れないため、投射画像の視認性に対する影響をほぼ無くすことができる。
  さらに、計測パターン322のように、投射画像の外側に表示される計測パターンは、液晶パネル130の非表示可能領域を利用して表示してもよい。すなわち、図4(D)に示したように、台形歪み補正を行うと液晶パネル130の表示可能領域131において画像を表示しない非使用領域139が生じるので、この非使用領域139に、計測パターン322のような計測パターンを表示してもよい。この場合、投射画像を縮小しなくても、投射画像の視認性に影響を与えることなく計測パターンを重畳させることができる。FIG. 8 is a diagram showing another example of the measurement pattern projected on the screen SC, (A) shows an example of a frame-shaped measurement pattern, and (B) shows the frame-shaped measurement pattern as an image. An example of superimposing and projecting is shown.
 A
 Further, a measurement pattern displayed outside the projection image, such as the
  図9は、スクリーンSCに投射される計測パターンのさらに別の例を示す図であり、投射画像とともに計測パターンを投射した状態を示す。
  この図9に示すように、投射画像311の表示位置より外側に位置する計測パターン323を用いれば、投射画像の視認性に影響を与えることなく計測パターンを重畳させることができる。この計測パターン323は、投射画像311の外側において、ごく一部に表示されるので、台形歪み補正によって表示可能領域131に生じた非使用領域139に表示できる。プロジェクター100の投影投射角によっては非使用領域139が小さいことがあるが、図9に例示する計測パターン323のように、投射画像311の外側の一部にのみ表示される計測パターンであれば問題なく表示できる。
  図9に示す計測パターン323は現在時刻を表示するものであるから、投射画像とともにSCに投射しても、投射画像を見ている人に違和感を与えることがない。なお、この計測パターン323のように可変的な画像を表示する場合、画像データ作成用のプログラムをROM170に記憶しておき、このプログラムをCPU120が実行して、計測パターンの画像データを随時作成して映像用プロセッサー134に出力すればよい。FIG. 9 is a diagram showing still another example of the measurement pattern projected on the screen SC, and shows a state in which the measurement pattern is projected together with the projection image.
 As shown in FIG. 9, if a
 Since the
  以上説明したように、本発明を適用した実施形態に係るプロジェクター100によれば、スクリーンSCに画像を投射するプロジェクター100であって、移動検出用の計測パターンを含む画像を投射させるパターン投射制御部129と、スクリーンSCを撮影する撮像部180と、計測パターンの投射中に撮像部180により撮影され取得された第1の撮影画像に基づいて参照画像を生成し、計測パターンの投射中であって上記の撮影とは異なる時点で撮像部180によって撮影され取得された第2の撮影画像に基づいて比較用画像を生成する画像処理部127と、画像処理部127により生成された参照画像と比較用画像とを用いて、スクリーンSCに対するプロジェクター100の相対位置の変化を検出する動き検出部128と、を備え、撮像部180の撮影画像においてスクリーンSCの枠を検出できない場合に、参照画像と比較用画像とを用いて、スクリーンSCに対するプロジェクター100の相対位置の変化を検出する。ここで、計測パターンを含む画像とは、計測パターンと本来の投射画像とを重ねた画像、計測パターンと別の画像とを重ねた画像、および、計測パターンのみからなる画像を含む。
  これにより、参照画像と比較用画像とを比較することで、スクリーンSCの状態等に影響されることなく、スクリーンSCとプロジェクター100のどちらが移動しても、移動方向に関わらず移動を確実に検出できる。従って、投射角を変化させるようなプロジェクター100の位置変化を確実に検出できる。
As described above, according to the
 Thus, by comparing the reference image with the comparative image, regardless of the moving direction, the movement is reliably detected regardless of the movement of the screen SC or the
  また、動き検出部128は、計測パターンの位置の変化に起因する参照画像及び比較用画像の差分を検出することにより、スクリーンSCの状態等に影響されることなく、スクリーンSCに対するプロジェクター100の相対位置の変化を確実に検出できる。  In addition, the
  また、パターン投射制御部129の機能により、図8(A)に示す計測パターン322のように、投射画像の周囲を囲む枠形状の計測パターンを投射させた場合、スクリーンSCに大きい計測パターンを投射させることで、参照画像及び比較用画像に大きく計測パターンが写るので、より確実に参照画像と比較用画像との差を検出できる。
  さらに、パターン投射制御部129の機能により、スクリーンSCに投射される画像を縮小させ、この縮小した画像の周囲に、計測パターン322のような枠形状の計測パターンを投射させてもよく、この場合には、投射中の投射画像の制約を受けることなく、かつ、投射中の投射画像の視認性に影響を与えることなく、計測パターンを投射できる。Further, when a measurement pattern having a frame shape surrounding the projection image is projected as shown in FIG. 8A by the function of the pattern
 Further, the image projected on the screen SC may be reduced by the function of the pattern
  そして、プロジェクター100は、動き検出部128の機能により、参照画像と比較用画像との差が検出された場合に、台形歪み補正処理を行う。つまり、プロジェクター100とスクリーンSCの相対位置の変化により投射画像の歪みの補正が必要になったか否かを正確に判別し、補正が必要になった場合は台形歪み補正を行うので、スクリーンSCに投射される画像を、歪みの少ない良好な状態に保つことができる。また、プロジェクター100とスクリーンSCの相対位置が変化して、台形歪み補正をやり直す必要が生じた場合に、台形歪み補正を指示する操作を必要としないため、利便性の向上を図ることができる。  The
  なお、上記実施の形態では計測パターンを投射画像に重畳表示させて撮像部180により撮影を行い、撮影画像をもとに参照画像と比較用画像とを生成していたが、映像用プロセッサー134によりA/D変換部110から入力される画像の表示を停止させ、計測パターンのみをスクリーンSCに投射させることも可能である。この場合、計測パターンのみが写った撮影画像から参照画像と比較用画像を生成する処理は容易であるため、より高速に、小さい負荷でプロジェクター100の相対位置の変化を検出できる。  In the above embodiment, the measurement pattern is superimposed on the projection image and photographed by the
  また、プロジェクター100は、所定の表示可能領域131に画像を表示する液晶パネル130と、液晶パネル130に表示された画像をスクリーンSCに投射する投射光学系150とを備え、台形歪み補正部136の機能により、表示可能領域131に表示される画像を変形させることによりスクリーンSCに投射される画像の変形を補正する歪み補正を行う。そして、この歪み補正機能により液晶パネル130の表示可能領域131内に発生する非使用領域139に、図8(A)に示す計測パターン322や図9に示す計測パターン323のように、計測パターンを表示させる場合には、投射画像に重ならないように計測パターンを投射するので、投射画像の制約を受けることなく、かつ、投射中の投射画像の視認性に影響を与えることなく、計測パターンを投射できる。  The
  なお、上述した実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。例えば、上記実施形態においては、参照画像と比較用画像との画素データの差分を求め、さらに差分絶対値和や差分二乗和としきい値とを比較することにより、スクリーンSCに対するプロジェクター100の相対位置の変化を検出する構成としたが、本発明はこれに限定されるものではなく、比較用画像における計測パターンの位置(座標)を検出し、この位置(座標)と、参照画像において検出した計測パターンの位置(座標)との差がしきい値を超えたか否かに基づき、相対位置の変化を検出してもよい。また、上記実施形態において、参照画像及び比較用画像は、撮影画像から計測パターンを抽出して得られる画像としたが、さらに輪郭強調や輪郭抽出処理を施した画像としてもよい。或いは、参照画像及び比較用画像の実態を、抽出した計測パターンの輪郭線の位置座標を示す座標データとしてもよい。また、計測パターンの色については任意であり、人の目には見えにくい色で構成される計測パターンを用いることで、投射画像への影響を抑えてもよい。  The above-described embodiment is merely an example of a specific mode to which the present invention is applied, and the present invention is not limited. The present invention can be applied as a mode different from the above-described embodiment. For example, in the above-described embodiment, the relative position of the
  また、上記実施形態では、撮像部180はCCDイメージセンサーを備えたCCDカメラ181を有する構成として説明したが、本発明はこれに限定されるものではなく、撮像部180のイメージセンサーとしてCMOSセンサーを用いても良い。
  また、上記実施形態では、光源が発した光を変調する表示部として、RGBの各色に対応した3枚の透過型または反射型の液晶パネル130を用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、例えば、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。ここで、表示部として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。
  また、図1に示した各機能部は、プロジェクター100の機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。In the above embodiment, the
 In the above-described embodiment, the display unit that modulates the light emitted from the light source has been described by taking, as an example, a configuration using three transmissive or reflective
 Further, each functional unit illustrated in FIG. 1 indicates a functional configuration of the
  100…プロジェクター、120…CPU、127…画像処理部、128…動き検出部(移動検出部)、129…パターン投射制御部(投射制御部)、130…液晶パネル(表示部、投射部)、132…液晶パネル駆動部、134…映像用プロセッサー、136…台形歪み補正部、140…照明光学系(投射部)、150…投射光学系(投射部)、160…RAM、161…参照画像記憶部、162…比較用画像記憶部、170…ROM、171…調整用画像記憶部、172…計測パターン記憶部、180…撮像部、181…CCDカメラ、182…撮影画像メモリー、SC…スクリーン(投射面)。  DESCRIPTION OF
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP2010241848AJP5845565B2 (en) | 2010-10-28 | 2010-10-28 | Projector and projector control method | 
| US13/280,589US8727539B2 (en) | 2010-10-28 | 2011-10-25 | Projector and method of controlling projector | 
| CN201110338821.2ACN102457692B (en) | 2010-10-28 | 2011-10-28 | Projector and method of controlling projector | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP2010241848AJP5845565B2 (en) | 2010-10-28 | 2010-10-28 | Projector and projector control method | 
| Publication Number | Publication Date | 
|---|---|
| JP2012095181A JP2012095181A (en) | 2012-05-17 | 
| JP2012095181A5 JP2012095181A5 (en) | 2013-11-28 | 
| JP5845565B2true JP5845565B2 (en) | 2016-01-20 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| JP2010241848AExpired - Fee RelatedJP5845565B2 (en) | 2010-10-28 | 2010-10-28 | Projector and projector control method | 
| Country | Link | 
|---|---|
| JP (1) | JP5845565B2 (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP6330292B2 (en)* | 2013-11-20 | 2018-05-30 | セイコーエプソン株式会社 | Projector and projector control method | 
| JP7099497B2 (en)* | 2020-07-28 | 2022-07-12 | セイコーエプソン株式会社 | Image generation method, image generation system, and program | 
| JP7703907B2 (en)* | 2021-06-02 | 2025-07-08 | セイコーエプソン株式会社 | Projector and method for controlling the projector | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| JP2004236191A (en)* | 2003-01-31 | 2004-08-19 | Nikon Corp | Image display device | 
| JP4734824B2 (en)* | 2003-07-25 | 2011-07-27 | セイコーエプソン株式会社 | projector | 
| JP4631370B2 (en)* | 2004-09-21 | 2011-02-16 | 株式会社ニコン | Projector device, mobile phone, camera | 
| JP2008244580A (en)* | 2007-03-26 | 2008-10-09 | Victor Co Of Japan Ltd | Monitoring apparatus | 
| JP5035614B2 (en)* | 2007-09-26 | 2012-09-26 | カシオ計算機株式会社 | Imaging apparatus and program | 
| JP5481833B2 (en)* | 2008-10-29 | 2014-04-23 | セイコーエプソン株式会社 | Projector and projector control method | 
| Publication number | Publication date | 
|---|---|
| JP2012095181A (en) | 2012-05-17 | 
| Publication | Publication Date | Title | 
|---|---|---|
| CN102457692B (en) | Projector and method of controlling projector | |
| JP5796286B2 (en) | Projector and projector control method | |
| TWI584042B (en) | Projector and control method for the projector | |
| JP5924042B2 (en) | Projector and projector control method | |
| JP6343910B2 (en) | Projector and projector control method | |
| CN103259995B (en) | The control method of projecting apparatus and projecting apparatus | |
| US9804483B2 (en) | Projector and method of controlling projector | |
| JP5644618B2 (en) | projector | |
| JP5845565B2 (en) | Projector and projector control method | |
| JP5845566B2 (en) | Projector and projector control method | |
| JP2011199717A (en) | Projection type display device and image display method | |
| JP6347126B2 (en) | Projector and projector control method | |
| JP2008242087A (en) | Installation position adjustment system for front projection type projector | |
| JP2018142856A (en) | Projector, and method for controlling projector | |
| JP6119902B2 (en) | Projector and projector control method | |
| JP5887777B2 (en) | Projector and projector control method | |
| JP2017203920A (en) | Image projection device | |
| JP2021089313A (en) | Image projection device | |
| JP2021034891A (en) | Control device and control method used for capturing projected image | 
| Date | Code | Title | Description | 
|---|---|---|---|
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20131009 | |
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20131009 | |
| A977 | Report on retrieval | Free format text:JAPANESE INTERMEDIATE CODE: A971007 Effective date:20140714 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20140722 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20140918 | |
| RD04 | Notification of resignation of power of attorney | Free format text:JAPANESE INTERMEDIATE CODE: A7424 Effective date:20150106 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20150331 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20150430 | |
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20151027 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20151109 | |
| R150 | Certificate of patent or registration of utility model | Ref document number:5845565 Country of ref document:JP Free format text:JAPANESE INTERMEDIATE CODE: R150 | |
| S531 | Written request for registration of change of domicile | Free format text:JAPANESE INTERMEDIATE CODE: R313531 | |
| R350 | Written notification of registration of transfer | Free format text:JAPANESE INTERMEDIATE CODE: R350 | |
| LAPS | Cancellation because of no payment of annual fees |