

















本発明は、プロジェクタの投影位置を調整するための投影制御装置、投影制御方法、投影システム、プログラム、記憶媒体に関する。 The present invention relates to a projection control device for adjusting a projection position of a projector, a projection control method, a projection system, a program, and a storage medium.
近年、プロジェクタを用いて様々な場所にコンテンツを投影することが一般的になってきており、複数台のプロジェクタの投影面を並べることによって大画面を形成するマルチ投影などが広く普及している。マルチ投影では、各プロジェクタの投影位置合わせが必要である。 In recent years, it has become common to project content to various places using a projector, and multi-projection, which forms a large screen by arranging the projection surfaces of a plurality of projectors, has become widespread. In multi-projection, it is necessary to align the projection of each projector.
複数台のプロジェクタの投影領域を所望の領域に合うように位置合わせする技術として、カメラを用いて自動位置合わせを行うシステムが知られている。これは、カメラでスクリーンと各プロジェクタの投影領域を撮像し、各プロジェクタが投影すべき位置を計算し、キーストーン補正機能やレンズシフト機能を活用して自動で投影画像の位置合わせを行うものである。なお、キーストーン補正とは、プロジェクタとスクリーンの相対角に起因する台形歪みを画像処理で幾何学的に補正する機能であり、レンズシフト機能とは、プロジェクタの本体の位置や向きを変えずに投影領域をシフトすることができる機能である。 As a technique for aligning the projection areas of a plurality of projectors so as to match a desired area, a system for performing automatic alignment using a camera is known. In this method, the camera captures the screen and the projection area of each projector, the position to be projected by each projector is calculated, and the keystone correction function and lens shift function are used to automatically align the projected image. is there. The keystone correction is a function that geometrically corrects trapezoidal distortion caused by the relative angle between the projector and the screen by image processing, and the lens shift function is a function that does not change the position or orientation of the projector body. This is a function that can shift the projection area.
ところが、プロジェクタ本体の設置状況によっては、キーストーン補正機能やレンズシフト機能を活用しても投影画像を所望の領域に投影することができない場合がある。これは、キーストーン補正機能の補正量やレンズシフト機能のシフト量には限界があるためであり、こうした場合には、プロジェクタ本体の設置位置を調整して、自動位置合わせを再実行する必要がある。 However, depending on the installation condition of the projector main body, it may not be possible to project the projected image on a desired area even if the keystone correction function or the lens shift function is utilized. This is because there is a limit to the amount of correction for the keystone correction function and the amount of shift for the lens shift function. In such a case, it is necessary to adjust the installation position of the projector body and re-execute the automatic alignment. is there.
しかしながら、マルチ投影の場合には、スクリーン上に各プロジェクタが投影すべき領域の目印がないため、どの位置にプロジェクタ本体を移動させれば、自動位置合わせが可能となるかをユーザが知ることが困難であるという問題がある。 However, in the case of multi-projection, since there is no mark on the screen for the area to be projected by each projector, the user can know to which position the projector body should be moved to enable automatic alignment. There is a problem that it is difficult.
特許文献1では、位置合わせができたプロジェクタを用いて、位置合わせができなかったプロジェクタ本体の設置のための参照画像を投影することにより、ユーザが容易にプロジェクタ本体の設置位置を修正できるようにしている。 In Patent Document 1, a user can easily correct the installation position of the projector body by projecting a reference image for installing the projector body that could not be aligned by using a projector that can be aligned. ing.
しかしながら、特許文献1では、位置合わせができたプロジェクタを用いて参照画像を投影するため、位置合わせができたプロジェクタの数と配置によっては、参照画像を投影することができない場合がある。また、プロジェクタの自動位置合わせ実行後に位置合わせが失敗したときに参照画像を投影する構成であるため、プロジェクタの自動位置合わせを複数回実施しなければならない場合がある。 However, in Patent Document 1, since the reference image is projected using the aligned projector, it may not be possible to project the reference image depending on the number and arrangement of the aligned projectors. Further, since the reference image is projected when the alignment fails after the automatic alignment of the projector is executed, it may be necessary to perform the automatic alignment of the projector a plurality of times.
本発明は上述した課題に鑑みてなされたものであり、その目的は、複数台のプロジェクタを用いてマルチ投影を行う場合に、プロジェクタの設置位置を容易に決めることができるようにすることである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to make it possible to easily determine the installation position of a projector when performing multi-projection using a plurality of projectors. ..
本発明に係わる投影制御装置は、複数の投影プロジェクタを制御するための投影制御装置であって、前記複数の投影プロジェクタから、投影面上にマルチ投影面を形成するための複数の第1のプロジェクタと、前記投影面にマーカーを投影するための第2のプロジェクタとを選択する選択手段と、前記マルチ投影面の解像度と、前記第1のプロジェクタの解像度と、エッジブレンド情報と、前記第2のプロジェクタの解像度とに基づくマーカー画像を、前記第2のプロジェクタに投影させる制御手段と、を備えることを特徴とする。 The projection control device according to the present invention is a projection control device for controlling a plurality of projection projectors, and a plurality of first projectors for forming a multi-projection surface on a projection surface from the plurality of projection projectors. And a selection means for selecting a second projector for projecting a marker on the projection surface, a resolution of the multi-projection surface, a resolution of the first projector, edge blend information, and the second. It is characterized by including a control means for projecting a marker image based on the resolution of the projector onto the second projector.
本発明によれば、複数台のプロジェクタを用いてマルチ投影を行う場合に、プロジェクタの設置位置を容易に決めることが可能となる。 According to the present invention, when multi-projection is performed using a plurality of projectors, it is possible to easily determine the installation position of the projectors.
(第1の実施形態)
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。(First Embodiment)
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.
なお、以下の説明では、投影装置の一例であるプロジェクタをパーソナルコンピュータ(単にPCともいう)を用いて制御する例について説明する。しかし、本発明は、パーソナルコンピュータに限らず、プロジェクタを制御可能な他の機器にも適用可能である。これらの機器には、例えばデジタルカメラ、スマートフォンを含む携帯電話機、ゲーム機、タブレット端末、医療機器などが含まれてよい。また、以下の説明では、投影装置の一例としてスタンドアロンタイプのプロジェクタを例に挙げて説明するが、投影装置はこれに限らない。パーソナルコンピュータ、携帯電話機、ゲーム機、タブレット端末、医療機器などの他の機器に内蔵される投影装置に本発明を適用してもよい。 In the following description, an example of controlling a projector, which is an example of a projection device, by using a personal computer (also simply referred to as a PC) will be described. However, the present invention is applicable not only to personal computers but also to other devices capable of controlling projectors. These devices may include, for example, digital cameras, mobile phones including smartphones, game machines, tablet terminals, medical devices, and the like. Further, in the following description, a stand-alone type projector will be described as an example of the projection device, but the projection device is not limited to this. The present invention may be applied to a projection device built in another device such as a personal computer, a mobile phone, a game machine, a tablet terminal, or a medical device.
(第1の実施形態)
[投影システムの構成]
図1は、本発明の第1の実施形態に係わる投影システムの構成を示した模式図である。図1において、投影システム10は、光学像の解像度の向上、輝度を維持した大画面化等のために、複数のプロジェクタ(投影プロジェクタ)の投影画像を投影面上でシームレスにつなぎ合わせるマルチ投影を行う。図1に示す例では、投影システム10は、5台のプロジェクタ100a〜100eを有している。このうち、4台のプロジェクタ100a〜100dは、スクリーン400上でそれぞれの投影領域A、B、C、Dを一部重ね合わせて配置するマルチ投影を行うプロジェクタである。そして、プロジェクタ100eは、プロジェクタ100a〜100dの設置を補助するためのマーカーを投影するための補助プロジェクタである。なお、本実施形態では、4台のプロジェクタによる縦2台、横2台のマルチ投影システムを例に挙げて説明するが、プロジェクタの台数および配置はこれに限られるものではない。(First Embodiment)
[Projection system configuration]
FIG. 1 is a schematic view showing the configuration of a projection system according to the first embodiment of the present invention. In FIG. 1, the
投影システム10に含まれる全てのプロジェクタは投影制御装置として機能するパーソナルコンピュータ(PC)200と相互に通信可能に接続される。また、複数のプロジェクタと、PC200との通信は、有線通信であっても無線通信であってもよく、また、通信プロトコルも特に限定されない。本実施形態では一例として、TCP/IPを通信プロトコルとして用いるローカルエリアネットワーク(LAN)により装置間の通信が行われるものとする。 All projectors included in the
PC200は、予め定められたコマンドをプロジェクタ100a〜100eに送信することにより、プロジェクタ100a〜100eの動作を制御することができる。プロジェクタ100a〜100eは、PC200から受信したコマンドに応じた動作を行って、動作の結果をPC200に送信する。 The PC 200 can control the operation of the
投影システム10はさらに、撮像装置であるカメラ300を含む。カメラ300は例えばデジタルカメラ、ウェブカメラ、ネットワークカメラである。あるいは、PC200に内蔵されたカメラを用いてもよい。カメラは、スクリーン400の全体を撮像範囲として含むように設置され、撮像範囲が変わらないように固定されているものとする。PC200の外部のカメラを用いる場合は、直接あるいはLANを通じて、PC200と通信可能に接続される。PC200は、カメラ300に予め定められたコマンドを送信することにより、カメラ300の動作を制御することができる。例えば、カメラ300はPC200からの要求に応じて撮影を行い、得られた画像データをPC200に送信することができる。 The
[プロジェクタ100の構成]
図2は、投影システム10に含まれるプロジェクタ100及びPC200の機能構成例を示すブロック図である。プロジェクタ100は、CPU101、RAM102、ROM103、投影部104、投影制御部105、VRAM106、操作部107、ネットワークIF108、画像処理部109、映像入力110を有する。これらの機能ブロックは内部バス111によって通信可能に接続されている。[Configuration of Projector 100]
FIG. 2 is a block diagram showing a functional configuration example of the
CPU101はプログラマブルプロセッサの一例であり、例えばROM103に記憶されているプログラムをRAM102に読み込んで実行することにより、プロジェクタ100の動作を実現する。 The
RAM102は、CPU101がプログラムを実行する際のワークメモリとして用いられる。RAM102には、プログラムやプログラムの実行に用いる変数などが記憶される。また、RAM102は、他の用途(例えばデータバッファとして)に用いられてもよい。 The
ROM103は書き換え可能であってもよい。ROM103には、CPU101が実行するプログラム、メニュー画面などの表示に用いるためのGUIデータ、各種の設定値などが記憶される。 The
投影部104は、光源、投影光学系などを有し、投影制御部105から供給される投影用画像に基づいて光学像を投影する。本実施形態では液晶パネルを光学変調素子として用い、光源からの光を反射する反射率もしくは透過させる透過率を投影用画像に従って制御することにより、投影用画像に基づく光学像を生成し、投影光学系によって投影面に投影する。投影制御部105は、画像処理部109から供給される投影用画像のデータを投影部104に供給する。VRAM106は、外部(例えばPCやメディアプレーヤー)から受信した投影用画像のデータを格納するビデオメモリである。 The
操作部107は、キーボタン、スイッチ、タッチパネルなどの入力デバイスを有し、ユーザからプロジェクタ100への指示を受け付ける。CPU101は操作部107の操作を監視しており、操作部107の操作を検出すると、検出した操作に応じた処理を実行する。なお、プロジェクタ100がリモートコントローラを有する場合、操作部107はリモートコントローラから受信した操作信号をCPU101に通知する。 The
ネットワークIF108はプロジェクタ100を通信ネットワークに接続するインタフェースであり、サポートする通信ネットワークの規格に準拠した構成を有する。本実施形態においてプロジェクタ100は、ネットワークIF108を通じて、PC200と共通のローカルネットワークに接続される。したがって、プロジェクタ100とPC200との通信はネットワークIF108を通じて実行される。 The network IF 108 is an interface for connecting the
画像処理部109は、映像入力部110に供給され、VRAM106に格納された映像信号に対して様々な画像処理を必要に応じて適用し、投影制御部105に供給する。画像処理部109は例えば画像処理用のマイクロプロセッサである。あるいは、画像処理部109に相当する機能を、CPU101がROM103に記憶されたプログラムを実行することによって実現してもよい。 The
画像処理部109が実行可能な画像処理には、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー画面などのOSDを重複させる処理、キーストーン補正処理、エッジブレンディング処理などが含まれるが、これらに限定されない。 The image processing that can be executed by the
映像入力部110は、外部装置(本実施形態ではPC200)が出力する映像信号を直接または間接的に受信するインタフェースであり、サポートする映像信号に応じた構成を有する。映像入力部110は例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子の1つ以上を含む。映像入力部110はまた、アナログ映像信号を受信した場合、デジタル映像信号に変換してVRAM106に格納する。 The
[PC200の構成]
次に、PC200の機能構成について説明する。PC200は外部ディスプレイが接続可能な汎用コンピュータであり、したがって汎用コンピュータに準じた機能構成を有する。PC200は、CPU201、RAM202、ROM203、操作部204、表示部205、ネットワークIF206、映像出力部207、通信部208を有する。また、これらの機能ブロックは内部バス209によって通信可能に接続されている。[Configuration of PC200]
Next, the functional configuration of the
CPU201は、プログラマブルプロセッサの一例であり、例えばROM203に記憶されているプログラム(OSやアプリケーションプログラム)をRAM202に読み込んで実行することにより、PC200の動作を実現する。 The
RAM202は、CPU201がプログラムを実行する際のワークメモリとして用いられる。RAM202には、プログラムやプログラムの実行に用いる変数などが記憶される。また、RAM202は、他の用途(例えばデータバッファとして)に用いられてもよい。 The
ROM203は書き換え可能であってもよい。ROM203には、CPU201が実行するプログラム、メニュー画面などの表示に用いるためのGUIデータ、各種の設定値などが記憶される。なお、PC200はROM203よりも大容量の記憶装置(HDDやSSD)を有してもよく、その場合、OSやアプリケーションプログラムといった容量の大きいプログラムは記憶装置に記憶してもよい。
操作部204は、キーボード、ポインティングデバイス(マウスなど)、タッチパネル、スイッチなどの入力デバイスを有し、ユーザからPC200への指示を受け付ける。なお、キーボードはソフトウェアキーボードであってもよい。CPU201は操作部204の操作を監視しており、操作部204の操作を検出すると、検出した操作に応じた処理を実行する。 The
表示部205は、例えば液晶パネルや有機ELパネルである。表示部205は、OSやアプリケーションプログラムが提供する画面の表示を行う。なお、表示部205は外部装置であってもよい。また、表示部205はタッチディスプレイであってもよい。 The
ネットワークIF206はPC200を通信ネットワークに接続するインタフェースであり、サポートする通信ネットワークの規格に準拠した構成を有する。本実施形態においてPC200は、ネットワークIF206を通じて、プロジェクタ100と共通のローカルネットワークに接続される。したがって、PC200とプロジェクタ100との通信はネットワークIF206を通じて実行される。 The network IF206 is an interface for connecting the
映像出力部207は、外部装置(本実施形態ではプロジェクタ100)に映像信号を送信するインタフェースであり、サポートする映像信号に応じた構成を有する。映像出力部207は例えば、コンポジット端子、S映像端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子の1つ以上を含む。 The
なお、本実施形態では、プロジェクタ100の投写領域の調整機能を有する投写制御アプリケーションプログラムのUI画面を表示部205に表示するものとするが、映像出力部207に接続された外部機器にUI画面を表示させてもよい。 In the present embodiment, the UI screen of the projection control application program having the function of adjusting the projection area of the
通信部208は外部機器と例えばシリアル通信を行うための通信インタフェースであり、代表的にはUSBインタフェースであるが、RS−232Cなど他の規格に準じた構成を有してもよい。本実施形態ではカメラ300が通信部208に接続されるものとするが、カメラ300とPC200との通信方法に特に制限はなく、両者がサポートしている任意の規格に準拠した通信を行うことができる。 The
[キーストーン補正について]
次に、キーストーン補正について図3を用いて説明する。キーストーン補正は、投写面の法線方向と投写方向(一般的には投写光学系の光軸)とのずれに応じて投写画像に生じる台形歪みを相殺するように元画像を幾何学的変換(変形)させる補正(幾何補正)である。画像の幾何学的変換は射影変換によって実現できるため、キーストーン補正は幾何補正の補正量である射影変換パラメータの決定に等しい。例えば、CPU101は、矩形上の元画像の各頂点の移動量と移動方向に基づいて射影変換のパラメータを決定し、画像処理部109に与えることができる。[About keystone correction]
Next, the keystone correction will be described with reference to FIG. Keystone correction geometrically transforms the original image so as to cancel the trapezoidal distortion that occurs in the projected image according to the deviation between the normal direction of the projection surface and the projection direction (generally the optical axis of the projection optical system). It is a correction (geometric correction) that causes (deformation). Since the geometric transformation of the image can be realized by the projective transformation, the keystone correction is equal to the determination of the projective transformation parameter which is the correction amount of the geometric correction. For example, the
例えば、元画像の座標を(xs,ys)とすると、射影変換による変形後の画像の座標(xd,yd)は以下の(式1)で表わされる。 For example, assuming that the coordinates of the original image are (xs, ys), the coordinates (xd, yd) of the image after deformation by the projective transformation are expressed by the following (Equation 1).
ここで、Mは3×3行列で、元画像から変形後の画像への射影変換行列である。また、xso、ysoは、図3に実線で示す元画像の左上の頂点の座標であり、xdo、ydoは、図3に一点鎖線で示す変形後の画像において、元画像の頂点(xso,yso)に対応する頂点の座標値である。 Here, M is a 3 × 3 matrix, which is a projective transformation matrix from the original image to the transformed image. Further, xso and yso are the coordinates of the upper left vertices of the original image shown by the solid line in FIG. 3, and xdo and ydo are the vertices (xso and yso) of the original image in the deformed image shown by the alternate long and short dash line in FIG. ) Is the coordinate value of the vertex.
CPU101は、(式1)の行列Mとその逆行列M-1を、オフセット(xso,yso),(xdo,ydo)とともに、キーストーン補正のパラメータとして画像処理部109に与える。画像処理部109は、以下の(式2)に従い、キーストーン補正後の座標値(xd,yd)に対応する元画像の座標(xs,ys)を求めることができる。The
(式2)で得られる元画像の座標xs,ysがいずれも整数であれば、画像処理部109は元画像座標(xs,ys)の画素値をそのままキーストーン補正後の画像の座標(xd,yd)の画素値とすることができる。一方、(式2)で得られる元画像の座標が整数にならない場合、画像処理部109は、元画像座標(xs,ys)に相当する画素値を、複数の周辺画素の値を用いた補間演算により求めることができる。補間演算は、例えばバイリニア、バイキュービックなど、公知の補間演算のいずれかを用いて行うことができる。なお、(式2)で得られる元画像の座標が、元画像の外部領域の座標である場合、画像処理部109は、キーストーン補正後の画像の座標(xd,yd)の画素値を黒(0)またはユーザが設定した背景色とする。このようにして、画像処理部109は、キーストーン補正後の画像の全座標についての画素値を求め、変換後画像を作成することができる。 If the coordinates xs and ys of the original image obtained by (Equation 2) are both integers, the
ここでは、プロジェクタ100のCPU101から画像処理部109に、行列Mとその逆行列M-1の両方が供給されるものとしたが、いずれか一方の行列だけを供給し、他方の行列は画像処理部109が求めてもよい。Here, it is assumed that both the matrix M and its inverse matrix M-1 are supplied from the
なお、キーストーン補正後の画像の頂点の座標は、例えば投写画像の個々の頂点について、頂点が所望の位置に投写されるように操作部107を通じてユーザから移動量を入力させることにより取得することができる。この際、移動量の入力を支援するため、CPU201は、投写制御アプリケーションプログラムの機能を用い、プロジェクタ100にテストパターンを投写させるようにしてもよい。 The coordinates of the vertices of the image after keystone correction can be obtained, for example, by having the user input the amount of movement of each vertex of the projected image through the
[自動位置合わせ処理]
本実施形態の投影制御アプリケーションプログラムの実行に先だって、ユーザはまず、補助プロジェクタ100eの設置作業およびキーストーン補正を行う。ここでの設置作業は、補助プロジェクタ100eの投影面を目標とするマルチ投影面を含むように、図4(a)のように配置することである。そしてキーストーン補正は、前述のキーストーン補正機能を用いて、図4(b)のように目標となるマルチ投影面の外枠を決定することに相当する。なお、図4は、図1の状態から模式的にプロジェクタ100eとスクリーン400を抜粋して図示したものである。[Automatic alignment processing]
Prior to the execution of the projection control application program of the present embodiment, the user first performs the installation work of the
この作業は、従来はレーザー墨出し器などを複数台用いて実施するものであるが、本実施形態では後述の処理に利用するため、プロジェクタを用いて行う。 Conventionally, this work is carried out by using a plurality of laser marking devices and the like, but in the present embodiment, it is carried out by using a projector because it is used for the processing described later.
次に、ユーザは、本実施形態のPC200上で動作する投射制御アプリケーションプログラムを実行する。図5は、本プログラムが実現する、自動位置合わせ処理の動作を示すフローチャートである。なお、図5の説明において、CPU201が投写制御アプリケーションプログラムを実行することにより表示部205に表示されるGUIを説明するために図6も用いる。ユーザはPCの操作部204を通じてGUI画面500を操作して、本プログラムを制御する。 Next, the user executes the projection control application program that operates on the
S401において、PC200のCPU201は、PC200が通信可能なプロジェクタ100の中から、補助プロジェクタとして用いるプロジェクタを選択する。本ステップにおけるGUI画面(補助プロジェクタ選択画面)を図6(a)に示す。 In S401, the
図6(a)に示すGUI画面において、ユーザは、まず「検索」ボタン501を押下する。ユーザによって「検索」ボタン501が押下されたことをCPU201が検出すると、CPU201は、ネットワークIF206を介して、プロジェクタ名とIPアドレスに関する情報を要求する所定のコマンドをネットワーク上にブロードキャストする。なお、このときに要求する情報は、プロジェクタ名とIPアドレスに限らず、例えばプロジェクタ解像度、エッジブレンド設定値、キーストーン変形量などを要求してもよい。 On the GUI screen shown in FIG. 6A, the user first presses the "search"
ネットワークに接続されている個々のプロジェクタ100のCPU101は、ネットワークIF108を介してコマンドを受信すると、要求された情報を含んだデータを、PC200に対して送信する。PC200のCPU201は、コマンドに応答して送信されたデータを受信し、データに含まれる情報を抽出してリストビュー502に表示する。なお、リストビュー502に表示されるプロジェクタの並び順は、検出された順であってもよいし、特定の規則に基づいてソートしてもよい。なお、本実施形態においては、図1におけるプロジェクタ100a,100b,100c,100d,100eのプロジェクタ名をそれぞれ、プロジェクタA、プロジェクタB、プロジェクタC、プロジェクタD、プロジェクタEとしている。 When the
次に、ユーザは前述の補助プロジェクタに相当するものを、ラジオボタン503にチェックを入れることで、選択する。本実施形態においては、前述のようにプロジェクタ100eを補助プロジェクタとして用いたので、図6(a)のようにプロジェクタ名「プロジェクタE」を選択したものとして説明を続ける。 Next, the user selects the one corresponding to the auxiliary projector described above by checking the
補助プロジェクタとして選択されたプロジェクタに関する情報(プロジェクタ名、IPアドレス、プロジェクタ解像度)はPC200のRAM202に格納される。CPU201が「検索」ボタン501の押下を検知したときに、補助プロジェクタとして選択したプロジェクタから、プロジェクタ解像度を取得していない場合は、この時点で要求コマンドを補助プロジェクタに送信し、返信された情報をRAM202に格納する
次に、ユーザは図6(a)の「Next」ボタン504を押下する。ユーザによって「Next」ボタン504が押下されたことをCPU201が検出すると、CPU201は図4のS402に遷移する。Information (projector name, IP address, projector resolution) about the projector selected as the auxiliary projector is stored in the
S402において、PC200のCPU201は、PC200が通信可能なプロジェクタ100の中から、自動位置合わせ処理の対象とする複数のプロジェクタを選択し、レイアウトを設定する。本ステップにおけるGUI画面(レイアウト選択画面)を図6(b)に示す。 In S402, the
ユーザは、レイアウトリスト505から所望のレイアウトを選択する。図1のマルチ投影は縦2台×横2台の構成であるため、Row:2、Column:2を選択する。レイアウトが選択されたことをCPU201が検出すると、選択したレイアウトに合わせてレイアウト図506を表示し、位置に応じたレイアウト番号(1〜4)を表示する。 The user selects a desired layout from the
次に、ユーザは「検索」ボタン507を押下する。ユーザによって「検索」ボタン507が押下されたことをCPU201が検出すると、S401と同様に、CPU201は、ネットワークIF206を介して、プロジェクタ名とIPアドレスに関する情報を要求する所定のコマンドをネットワーク上にブロードキャストする。なお、このときに要求する情報は、プロジェクタ名とIPアドレスに限らず、例えばプロジェクタ解像度、エッジブレンド設定値、キーストーン変形量などを要求してもよい。 Next, the user presses the "search"
ネットワークに接続されている個々のプロジェクタ100のCPU101は、S401と同様に、ネットワークIF108を介してコマンドを受信すると、要求された情報を含んだデータを、PC200に対して送信する。PC200のCPU201は、S401と同様に、コマンドに応答して送信されたデータを受信し、データに含まれる情報を抽出してリストビュー508に表示する。なお、補助プロジェクタとしてすでに選択済みのプロジェクタからの応答は、本リストビュー508に表示する必要がないので、CPU201はこれを表示しない。 When the
図6(b)は、PC200に接続されているプロジェクタが、図1に示すようにマルチ投影を構成する4台である場合の例であるが、マルチ投影を構成するプロジェクタ以外のプロジェクタが同一ネットワークに接続されていれば、同様にリスト表示される。 FIG. 6B is an example in which the number of projectors connected to the
次に、ユーザは、マルチ投影を構成するプロジェクタの「割当」列に表示されたドロップダウンボタン509,510,511,512を押下して各プロジェクタの配置を設定する。図6(b)に示す例では、IPアドレスが192.168.254.1であるプロジェクタは、図1に示すプロジェクタ100aであり、スクリーン400上で左上を担当する。そのため、レイアウト図506を参照し、「1」を選択する。同様に、プロジェクタ100b〜100dについても割当を、510,511,512に示すように設定する。マルチ投影に使用しないプロジェクタがリストビュー508に表示されている場合は、ユーザは割当を設定しなければよい。 Next, the user presses the drop-down
割当が設定されたプロジェクタに関する情報(例えば、プロジェクタ名、IPアドレス、割当、プロジェクタ解像度、エッジブレンド情報)はPC200のRAM202に格納される。CPU201が「検索」ボタン507の押下を検知した時に、各プロジェクタから、プロジェクタ解像度、エッジブレンド情報を収集していない場合には、この時点で割当設定されたプロジェクタに要求コマンドを送信し、返信された情報をRAM202に格納する。 Information about the projector for which the allocation is set (for example, the projector name, IP address, allocation, projector resolution, edge blend information) is stored in the
次に、ユーザは図6(b)の「Next」ボタン513を押下する。ユーザによって「Next」ボタン513が押下されたことをCPU201が検出すると、CPU201は図5のS403の設置位置確認用テストパターン出力処理に遷移する。 Next, the user presses the "Next"
図5のS403では、CPU201は、割当が設定されたプロジェクタそれぞれに対し、ネットワークIF206を通じてテストパターンの表示を指示するコマンドを送信する。このとき、キーストーン変形がかかっている場合には、キーストーン変形の解除を指示するコマンドも送信する。表示させるテストパターンは、各プロジェクタ100の投影領域の大きさや位置を確認しやすくするためのテストパターンであり、例えば格子状の画像などを表示させる。なお、テストパターンはPC200から個々のプロジェクタ100に所定のテストパターンの表示を指示するコマンドを関連付けて送信してもよいし、任意の直線や図形、文字列などをプロジェクタに描画させるコマンドを複数組み合わせて送信してもよい。 In S403 of FIG. 5, the
割当設定されたすべてのプロジェクタにテストパターンを表示すると、CPU201は図5のS404のカメラ選択処理に遷移する。 When the test pattern is displayed on all the assigned projectors, the
図5のS404では、CPU201は、表示部205に図6(c)に示すカメラ選択画面を表示し、自動位置合わせ処理に用いるカメラの選択処理を行う。図6(c)の「検索」ボタン514の操作が検出されると、PC200のCPU201は自身とUSBやネットワーク接続されたカメラの情報(例えば、カメラの製品名)を取得し、ドロップダウンリスト515に表示する。ユーザは検索された複数のカメラから所望のカメラをドロップダウンリスト515によって1台選択する。なお、自動調整に用いるカメラの台数は1台でなく、2台以上選択できてもよい。 In S404 of FIG. 5, the
図6(c)に示す画像領域516は、ドロップダウンリスト515で選択されたカメラで撮影した画像を表示する領域である。例えば、PC200のCPU201が選択されたカメラ300に対して、撮影を指示するコマンドを送信し、取得した撮影画像を画像領域516に貼り付ける。ここに表示される画像は、ライブビュー画像が望ましいが、静止画であってもよい。図6(c)の例では、プロジェクタ100a〜100dと補助プロジェクタ100eが投影する領域を517a〜517eとして図示している。同図では、プロジェクタ100a〜100dの投影領域(517a〜517d)を区別しやすくするためにハッチングパターンを変えているが、投影するテストパターンは同一でもよい。 The
ユーザはこの画像領域516を観察することで、カメラの撮像範囲内にプロジェクタの投影画像が全て収まるためのカメラの設置やズーム調整を容易に行うことができる。本実施形態では、全てのプロジェクタの投影面がカメラの撮像範囲に入っているものとして説明を続ける。 By observing this
図6(c)の「Back」ボタン518の操作が検出されると、前画面(図6(b)に示す画面)に戻る。つまり、図5のフローチャートで、S404からS402へ戻る。 When the operation of the "Back"
図6(c)のチェックボックス519はカメラの制御パラメータ(絞り数値やシャッタースピードなど)をPC200が自動で算出するか否かを設定するためのものである。「Next」ボタン520で次画面に遷移する際に、チェックボックス519にチェックが入っているか否かで、カメラの制御パラメータの自動算出を行うかどうかを切り替えることができる。詳細な説明は本実施形態では省略するが、各々のプロジェクタ100が所定のテストパターンを投影し、カメラが測光することにより、カメラの制御パラメータを得ることができる。 The
図6(c)の「Next」ボタン520の操作が検出されると、CPU201は図5のS405のカメラの制御パラメータの設定処理に遷移する。 When the operation of the "Next"
図5のS405では、CPU201は、表示部205に図6(d)に示すカメラパラメータの設定画面を表示し、カメラの制御パラメータ(絞り数値やシャッタースピードなど)を設定する。 In S405 of FIG. 5, the
図6(d)の521,522,523はそれぞれ、カメラのシャッター速度、ISO感度、絞り数値を設定するためのドロップダウンリストである。なお、設定できるカメラの制御パラメータはこれに限らず、例えばホワイトバランスや測光方式などを設定できるようにしてもよい。 521, 522, 523 of FIG. 6D are drop-down lists for setting the shutter speed, ISO sensitivity, and aperture value of the camera, respectively. The camera control parameters that can be set are not limited to this, and for example, white balance, photometric method, and the like may be set.
図6(d)の「テスト撮影」ボタン524の操作が検出されると、PC200は選択されたカメラ300に対して撮影を促すコマンドを送信して、撮影画像を取得し、画像表示領域525上に表示する。このとき表示する画像は、シャッター速度などの制御パラメータが正しく設定できたかどうかを確認するためのものなので、静止画であることが望ましいが、ライブビュー画像であっても構わない。 When the operation of the "test shooting"
図6(d)の「Back」ボタン526の操作が検出されると、前画面(図6(c)に示す画面)に戻る。つまり、図5のフローチャートで、S405からS404へ戻る。 When the operation of the "Back"
図6(d)の「Next」ボタン527の操作が検出されると、CPU201は図5のS406の設置アシスト処理に遷移する。 When the operation of the "Next"
図5のS406では、CPU201は、S401とS402でRAM202に保存した「補助プロジェクタの解像度」「自動位置合わせ対象として選択した各プロジェクタの解像度、エッジブレンド情報」から補助プロジェクタ100eで投影するためのマーカーを生成して、補助プロジェクタ100eにマーカーの描画を指示する。 In S406 of FIG. 5, the
ここで、上記の情報が図7(a)に示すものだった場合を例に挙げて、マーカーの生成方法について説明する。 Here, a method of generating a marker will be described by taking the case where the above information is shown in FIG. 7A as an example.
まず、CPU201は、自動位置合わせ対象として選択した各プロジェクタの解像度、エッジブレンド情報から、ユーザが作成したいマルチ投影面は図7(b)に図示したものであると計算できる。つまり、マルチ投影面解像度は、幅3680(1920+1920−160)、高さが2300(1200+1200−100)である。また、図7(b)のP5とP6を結んだ線とP7とP8を結んだ線の間の領域、及び、P9とP10を結んだ線とP11とP12を結んだ線の間の領域が、目標となるマルチ投影面のエッジブレンド領域である。なお、図示のP1からP12の座標は左上を原点とした座標系で示している。 First, the
続いて、CPU201は、上述のエッジブレンド領域を補助プロジェクタで投影するために、補助プロジェクタ上でのこれらの位置を計算する。本実施形態においては、目標マルチ投影面解像度、補助プロジェクタ解像度はいずれも16:10のアスペクト比であるため、単純な比例計算でよい。例えば、目標マルチ投影面におけるP5に対応する点であるQ5のx座標であれば、1280×(1760÷3680)= 612.17と算出できる。また、P11に対応するQ11のy座標であれば、800×(1200÷2300)=417.39と算出できる。同様にP5からP12に対応する点を計算したものが図7(c)である。 Subsequently, the
そして、CPU201は、補助プロジェクタであるプロジェクタ100eに対して、Q1,Q2,Q3,Q4を結ぶ補助プロジェクタの外枠を描画するためのコマンドを送信する。さらに、Q5とQ6、Q7とQ8、Q9とQ10、Q11とQ12を結ぶ線分を描画するためのコマンドを送信する。これを受信した補助プロジェク100eタのCPU101は、コマンドを解釈して指示された外枠、線分を描画する。 Then, the
上記処理を実施した後、PC200のCPU201は、表示部205に図6(e)に示す設置アシスト画面を表示し、ユーザによる設置処理の完了を待ち受ける。図6(e)に示す画像領域528は、516,525と同様に、カメラ300で撮影した画像を表示する領域である。ユーザは、投影面、もしくは、画像領域528を確認しながら、プロジェクタ100a,100b,100c,100dの投影位置を調整し、これが完了すると「Next」ボタン530を押下する。この操作を検出すると、CPU201は、図5のS407の射影変換パラメータ計算に遷移する。 After performing the above processing, the
また、図6(e)の「Back」ボタン529の操作が検出されると、前画面(図6(d)に示す画面)に戻る。つまり、図5のフローチャートで、S406からS405に戻る。 When the operation of the "Back"
ここで、ユーザによる設置処理について図8を用いて具体的に説明する。図8(a)は、図5のS406において、PC200から指示を受けた補助プロジェクタ100eが外枠、線分を描画した後の、投影面の状態を示した図である。図8(a)の太線で示したものが、補助プロジェクタが描画している外枠、線分であり、A,B,C,Dはマルチ投影面を構成するプロジェクタ100a,100b,100c,100dがそれぞれ投影している投影面である。ユーザは、各プロジェクタの投影面が、補助プロジェクタが描画している外枠、線分で示される担当領域を含めるようにプロジェクタ投影面を調整する必要がある。これが満たされていれば、以降の処理で説明するキーストーン変形によって、各プロジェクタの投影面をマルチ投影面の担当領域に合致させることが可能となる。 Here, the installation process by the user will be specifically described with reference to FIG. FIG. 8A is a diagram showing the state of the projection surface after the
図8(b)は、図8(a)から模式的にプロジェクタ100aの投影面Aとプロジェクタ100aの担当領域を示すマーカー部分だけを強調して示した図である。これを例にとって説明すると、ユーザはプロジェクタ100aの光学シフトや光学ズーム、またはプロジェクタ100aの設置位置を移動させるなどして、図8(c)の状態へとプロジェクタ100aの投影面を調整する。図8(c)の状態では、プロジェクタ100aの投影面Aが、補助プロジェクタが描画している外枠、線分で示される太線で示したプロジェクタ100aの担当領域を含むように位置調整されている。そして、これと同様の調整作業をプロジェクタ100b,100c,100dについても実施する。そして、これらの調整作業が完了した際に、ユーザは図6(e)の「Next」ボタンを押下して、PC200のCPU201に、調整作業が完了したことを通知する。 FIG. 8B is a diagram schematically showing from FIG. 8A by emphasizing only the projection surface A of the
図5のS407では、CPU201は、プロジェクタ100a,100b,100c,100dにおけるプロジェクタ座標平面とカメラ座標平面との射影変換パラメータをそれぞれ求めて、RAM202に格納する。本処理は本実施形態の主要な部分ではないため、詳細な説明は省略するが、補助プロジェクタ100eのみが投影している投影面を撮像した画像と、各プロジェクタの投影領域を撮像した画像があれば、計算可能である。なお、射影変換パラメータの算出に用いるカメラ座標系における各プロジェクタの担当領域もRAM202に格納するものとする。そして、S408へ遷移する。 In S407 of FIG. 5, the
図5のS408では、CPU201は、投影面上で各プロジェクタの投影領域が図7で示した投影担当領域と重なるようにするためのキーストーン変形パラメータを算出する。具体的には、RAM202に格納されているカメラ座標平面における投影担当領域の座標を各プロジェクタ平面に対して射影することにより、各プロジェクタの変形後画像の座標を求め、元画像の座標から変形後画像へのキーストーン変形パラメータを算出する。そして、S409へ遷移する。 In S408 of FIG. 5, the
図5のS409では、PC200のCPU201がネットワークIF206を介してS408で算出したキーストーン変形パラメータを、マルチ投影面を構成する各プロジェクタ100に対して送信する。プロジェクタ100はキーストーン変形パラメータをPCから受信すると、受信したキーストーン変形パラメータを自身の画像処理部109に送信し、表示画像の変形を実行する。ここでは、キーストーン変形を行うものとして説明したが、ズームやシフトを使用してもよい。光学的なズーム、シフトだけで投影担当領域に一致させることは困難であるが、画像処理によるキーストーン変形と比較して画質面で優れている。ズーム、シフトを併用することにより、キーストーン変形量を最小限に抑えれば、画質低下を抑制できる。また、PC200のCPU201はネットワークIF206を介して、S406で描画指示を行ったマーカー画像の描画停止を指示する。 In S409 of FIG. 5, the
図9は、図5のS406における設置アシスト処理内で行われる補助プロジェクタ100eによるマーカー画像の表示処理の動作を示すフローチャートである。 FIG. 9 is a flowchart showing the operation of the marker image display processing by the
まず、S601において、ユーザは補助プロジェクタ100eを、図4(a)、(b)に示したように、その投影領域が目標投影領域を含むように、位置および向きを調整して設置する。 First, in S601, the user installs the
S602では、ユーザは、所望する目標投影領域の解像度を、操作部204を介して、CPU201に入力する。CPU201は、入力された目標投影領域の解像度をRAM202に保存する。 In S602, the user inputs the desired resolution of the target projection area to the
S603では、CPU201は、図5のS401とS402でRAM202に保存した「補助プロジェクタの解像度」「自動位置合わせ対象として選択した各プロジェクタの解像度、エッジブレンド情報」を取得する。 In S603, the
S604では、CPU201は、S603で取得した各プロジェクタの解像度とエッジブレンド情報に基づいて、図7(b)に示したマルチ投影面の各部のサイズを算出し、各プロジェクタの投影目標位置を示すマーカーを生成する。マーカーの生成方法は、図7と図8を用いて前述したとおりである。 In S604, the
S605では、CPU201は、補助プロジェクタ100eに指示して、S604において生成したマーカーを補助プロジェクタ100eに投影させる。 In S605, the
以上で説明した処理、特にS406、図9で説明した処理によって、補助プロジェクタがマルチ投影面を構成する各プロジェクタの設置を補助するマーカーを投影することができる。そして、そのマーカーを参考に、各プロジェクタの設置を調整することにより、マルチ投影面の自動位置合わせが可能となる。 By the processing described above, particularly the processing described in S406 and FIG. 9, the auxiliary projector can project a marker that assists the installation of each projector constituting the multi-projection surface. Then, by adjusting the installation of each projector with reference to the marker, automatic alignment of the multi-projection plane becomes possible.
なお、本実施形態においては、マルチ投影面の解像度とエッジブレンド情報を、S406において、自動位置合わせ対象として選択した各プロジェクタの解像度、エッジブレンド情報から算出するものとして説明を行った。しかし、その他の形態として、図5のフローチャートの実行前に、ユーザの入力によってPC200上で動作する投射制御アプリケーションプログラムに、これらの情報を設定してもよい。 In the present embodiment, the resolution and edge blend information of the multi-projection plane will be calculated from the resolution and edge blend information of each projector selected as the automatic alignment target in S406. However, as another form, these information may be set in the projection control application program that operates on the
また、本実施形態の説明においては、説明を分かりやすくするために、マルチ投影面のアスペクト比と、補助プロジェクタのアスペクト比が同じ場合を例に挙げて説明した。しかし、これが一致しない場合は、前述の補助プロジェクタ100eの設置作業およびキーストーン補正の実施前に、補助プロジェクタ100eに、マルチ投影面のアスペクト比を設定するのが好ましい。そして、この設定を受けた補助プロジェクタ100eは自身の投影範囲を設定されたアスペクト比に応じて変更し、以降の処理における補助プロジェクタ100eの解像度は、このアスペクト比を踏まえたものとして処理を行えばよい。例えば、補助プロジェクタ100eの解像度は、本来は1280×800でアスペクト比は16:10であるが、マルチ投影面のアスペクト比が16:9であると設定した場合には、1280×720の解像度を持つプロジェクタとして扱えばよい。 Further, in the description of the present embodiment, in order to make the explanation easier to understand, the case where the aspect ratio of the multi-projection plane and the aspect ratio of the auxiliary projector are the same has been described as an example. However, if they do not match, it is preferable to set the aspect ratio of the multi-projection plane on the
また、補助プロジェクタ100eの設置作業およびキーストーン補正は、図5のフローチャートの動作の実施前に行うものとしたが、S401の補助プロジェクタの選択処理を実施した後で、実施してもよい。この場合には、PC200上で動作する投射制御アプリケーションプログラムに対して、マルチ投影面のアスペクト比を入力すればよい。そして、これを検知したCPU201が、補助プロジェクタ100eに対して、投影範囲をそのアスペクト比に応じて変更する指示を送信する構成をとってもよい。このような形態をとれば、以降の処理における補助プロジェクタ100eの本来の解像度およびアスペクト比によらず、図5のフローチャートの処理が実施可能となる。 Further, although the installation work of the
また、S406の設置アシスト処理では、補助プロジェクタが投影するためのマーカーを生成して、補助プロジェクタでこれを投影するものとして説明した。しかし、PC200上で動作する投射制御アプリケーションのUI上でのみマーカー表示を行うようにしてもよい。これは、補助プロジェクタが、マーカーの描画コマンドを解釈して描画することができない場合に有効な方法である。 Further, in the installation assist process of S406, it has been described that a marker for projection by the auxiliary projector is generated and projected by the auxiliary projector. However, the marker display may be performed only on the UI of the projection control application running on the PC200. This is an effective method when the auxiliary projector cannot interpret and draw the marker drawing command.
この方法についてもう少し説明する。CPU201は、S407と同様の手法によって、プロジェクタ100eにおけるプロジェクタ座標平面とカメラ座標平面との射影変換パラメータを算出して、これをRAM202に格納する。そして、図7(c)に示した、プロジェクタ100eのプロジェクタ座標平面上の外枠、エッジブレンド領域を示す線分を、前述の射影変換パラメータを用いて、カメラ座標平面に射影する。そして、図6(e)に示した画像領域528に重畳すればよい。このようにして計算して重畳したマーカーは、結果的にプロジェクタ100eでマーカー表示して、それをライブビュー表示している図6(e)と同じ態様となる。 I will explain this method a little more. The
(第2の実施形態)
以下、第2の実施形態について説明する。本実施形態は、プロジェクタに内蔵されたセンサーを用いることにより、第1の実施形態で説明したシステムのユーザビリティを更に向上させるためのものである。具体的には、第1の実施形態で示した投射位置を示すマーカーについて、ユーザが設置作業中であるプロジェクタに対応する投射位置を強調するマーカーを生成する。(Second Embodiment)
Hereinafter, the second embodiment will be described. This embodiment is for further improving the usability of the system described in the first embodiment by using the sensor built in the projector. Specifically, with respect to the marker indicating the projection position shown in the first embodiment, a marker that emphasizes the projection position corresponding to the projector in which the user is installing is generated.
[投影システムの構成]
図10は、第2の実施形態の投影システムに含まれるプロジェクタ1100及びPC200の機能構成例を示すブロック図である。ここでは、第1の実施形態と同一の構成については同一の符号を付して、第1の実施形態との差分についてのみ説明する。第1の実施形態と比較して、本実施形態のシステムでは、プロジェクタ1100にセンサー112が追加される。なお、センサー112は自動位置合わせ処理の対象とする複数のプロジェクタに搭載されていればよく、補助プロジェクタにおいては必須構成ではない。[Projection system configuration]
FIG. 10 is a block diagram showing a functional configuration example of the
センサー112は、プロジェクタの姿勢の変化を検出するためのセンサーから構成される。なお、センサー112はプロジェクタの姿勢の変化を検出できればどのようなものでもよく、加速度センサー、重力センサー、ジャイロセンサー、イメージセンサーなどを用いればよい。 The
センサー112が重力センサーやイメージセンサーであった場合は、プロジェクタ1100のCPU101がセンサー112のセンサー値を定期的に取得し、時系列での差分に基づいて姿勢の変化を検出することができる。また、センサーが加速度センサーやジャイロセンサーであった場合は、センサー値が所定の閾値を超えたか否かにより姿勢が変化した否かを判定することができる。プロジェクタ1100のCPU101が自身のセンサー112のセンサー値を取得する方法はどのような方法でもよく、例えば、ポーリング処理、割り込み処理、DMA(Direct Memory Access)を用いた方法を用いればよい。 When the
[第2の実施形態の特徴的な処理]
図11は、本実施形態におけるマルチ投影位置合わせ処理の動作を示すフローチャートである。図9に示した第1の実施形態のフローチャートにS1105を追加したものである。本実施形態では、ユーザがプロジェクタの初期設置を終えたことをPC200のCPU201に通知(例えば、不図示の「初期設置完了ボタン」を押下)するまで、補助プロジェクタ100eによるマーカーの投影を続ける(S1105〜S1106)。なお、S1101〜S1103の処理は図9のS601〜S603と同等の処理であるため説明を省略する。[Characteristic processing of the second embodiment]
FIG. 11 is a flowchart showing the operation of the multi-projection alignment process in the present embodiment. S1105 is added to the flowchart of the first embodiment shown in FIG. In the present embodiment, the marker projection by the
図12は、図11のS1105の具体的な動作を示すフローチャートである。 FIG. 12 is a flowchart showing a specific operation of S1105 of FIG.
S1201では、まずPC200のCPU201はネットワークIF206を介して、調整対象プロジェクタ1100に対して姿勢が変化したか否かを取得するコマンドを送信する。プロジェクタ1100のCPU101はこのコマンドを受信すると、直近に自身の姿勢が変化したか否かを表すメッセージを、ネットワークIF108を介してPC200に対して送信する。PC200はプロジェクタ1100の姿勢が変化したか否かを表す情報を受信すると、自身のRAM202にその情報を格納する。 In S1201, the
なお、プロジェクタ1100の姿勢が変化したか否かは、PC200がプロジェクタ1100に対してコマンドを送ることで取得する形式でなくてもよい。プロジェクタ1100がPC200に対して定期的に自身の姿勢を表すメッセージを送信し、PC200がメッセージを定期的に監視してもよい。 Whether or not the posture of the
ここで、自身の姿勢の変化を表すメッセージは、姿勢が変化したか否かを判別できればどのような形式でも構わない。例えば、姿勢が変化したか否かを表す二値であってもよいし、センサー112が取得した数値であってもよい。 Here, the message indicating the change in one's posture may be in any format as long as it can be determined whether or not the posture has changed. For example, it may be a binary value indicating whether or not the posture has changed, or it may be a numerical value acquired by the
S1202〜S1204では、PC200のCPU201が調整対象であるプロジェクタの全てに対して、姿勢が変化したか否かを確認し、補助プロジェクタに姿勢が変化したと判断されたプロジェクタに対応する位置にマーカーを投影させるためのコマンドを生成する。なお、マーカー生成のための計算方法は第1の実施形態で説明した方法と同じである。 In S1202 to S1204, the
次に図13、図14を用いて、補助プロジェクタに投影させるマーカーの例について説明する。 Next, an example of a marker projected on the auxiliary projector will be described with reference to FIGS. 13 and 14.
図13(a)は右上に投影するプロジェクタの姿勢が変化しているときに補助プロジェクタが投影するマーカー画像である。図13(b)のようにマーカーだけでなく、文言を追加してもよい。文言もマーカーと同様に、PC200がプロジェクタ1100に対してコマンドを送信することで投影される。文言には、例えば調整対象のプロジェクタを一意に識別するためにプロジェクタの名称やIPアドレス、シリアルナンバーを含めてもよい。 FIG. 13A is a marker image projected by the auxiliary projector when the posture of the projector projected on the upper right is changing. Not only the marker but also the wording may be added as shown in FIG. 13 (b). Like the marker, the wording is projected when the
複数台のプロジェクタが同時に姿勢変化している場合は、図13(c)のように同時にマーカーを投影すると共に、それぞれのマーカー同士の色を変えることにより、設置目標を視認しやすくしてもよい。マーカー同士の区別の方法は色を変える方法だけではなく、マーカーの輝度や形状を変える方法でもよい。 When a plurality of projectors are changing their postures at the same time, the markers may be projected at the same time as shown in FIG. 13 (c) and the colors of the markers may be changed to make the installation target easier to see. .. The method of distinguishing the markers is not only a method of changing the color but also a method of changing the brightness and shape of the markers.
更に図13(d)のようにプロジェクタの変形可能領域を考慮したマーカーを投影してもよい。図13(d)のマーカーを表示するためには、PC200がプロジェクタ1100に対して、歪み補正の変形可能量を取得するコマンドを送信し、受信したプロジェクタ1100の歪み補正の変形可能量に基づいて、マーカー描画コマンドを生成すればよい。 Further, as shown in FIG. 13D, a marker may be projected in consideration of the deformable region of the projector. In order to display the marker shown in FIG. 13D, the
その他、マーカー画像は姿勢が変化していないプロジェクタに対応する領域にも投影してもよい。図14(a)、(b)、(c)はそれぞれ右上に投影するプロジェクタの姿勢が変化しているときに補助プロジェクタに投影させる画像である。姿勢が変化していないプロジェクタに対応する領域を投影しつつも、右上に位置する領域のみ強調するような画像を用いればよい。 In addition, the marker image may be projected on the area corresponding to the projector whose posture has not changed. 14 (a), (b), and (c) are images projected onto the auxiliary projector when the posture of the projector projected on the upper right is changing. An image may be used that emphasizes only the area located in the upper right while projecting the area corresponding to the projector whose posture has not changed.
投影するマーカーはここまでに示したようなものに限らず、姿勢が変化したと判断されたプロジェクタに対応する投影位置を強調するようなものであればどのような画像でもよい。 The marker to be projected is not limited to the one shown so far, and any image may be used as long as it emphasizes the projection position corresponding to the projector determined to have changed its posture.
本実施形態で説明した構成を用いることにより、姿勢が変化しているプロジェクタ、即ちユーザがプロジェクタの設置作業をしているプロジェクタに対応する領域のみマーカーを強調して表示できるので、直感的な設置作業を促すことができる。 By using the configuration described in this embodiment, the markers can be emphasized and displayed only in the area corresponding to the projector whose posture is changing, that is, the projector in which the user is installing the projector, so that the installation is intuitive. Work can be encouraged.
(第3の実施形態)
第2の実施形態ではプロジェクタ1100に内蔵されたセンサー112を用いてマーカー画像を生成する方法について説明した。本実施形態では、センサー112を用いずに特定のプロジェクタの投射範囲を示すマーカーを強調して表示する方法について説明する。(Third Embodiment)
In the second embodiment, a method of generating a marker image using the
[投影システムの構成]
本実施形態のシステム構成は第1の実施形態と同じである。[Projection system configuration]
The system configuration of this embodiment is the same as that of the first embodiment.
[本実施形態の特徴的な処理]
図11に、本実施形態におけるマルチ投影位置合わせ処理の動作を示すフローチャートを示す(第2の実施形態と同様)。図9に示した第1の実施形態のフローチャートにS1106を追加したものである。本実施形態では、ユーザがプロジェクタの初期設置を終えたことをPC200のCPU201に通知(例えば、不図示の「初期設置完了ボタン」を押下)するまで、補助プロジェクタによるマーカーの投影を続ける(S1105〜S1106)。なお、S1101〜S1103の処理は図9のS601〜S603と同等の処理であるため説明を省略する。[Characteristic processing of this embodiment]
FIG. 11 shows a flowchart showing the operation of the multi-projection alignment process in the present embodiment (similar to the second embodiment). S1106 is added to the flowchart of the first embodiment shown in FIG. In the present embodiment, the marker projection by the auxiliary projector is continued until the user notifies the
図15は、本実施形態におけるCPU201が、マーカーを生成する動作を示すフローチャートである。 FIG. 15 is a flowchart showing an operation in which the
本実施形態で説明する図15の処理フローは、第1の実施形態で説明した図9のS604(制御PCが各PJの目標位置を示すマーカーを生成)に該当する処理の派生系であり、その他の処理は第1の実施形態と同等である。従って、本実施形態での説明は図15のフローチャートを用いた説明に留める。 The processing flow of FIG. 15 described in the present embodiment is a derivative system of the processing corresponding to S604 (control PC generates a marker indicating the target position of each PJ) of FIG. 9 described in the first embodiment. Other processes are the same as those in the first embodiment. Therefore, the description in this embodiment is limited to the description using the flowchart of FIG.
S1501では、PC200のCPU201がユーザからプロジェクタに対する操作があったか否かを判定する。本実施形態では、プロジェクタに対する操作について、以下の2通りの場合についてそれぞれ説明する。 In S1501, the
[プロジェクタの投射位置を制御する操作の場合]
この場合におけるGUI画面(プロジェクタ制御画面)を図16に示す。[For operations that control the projection position of the projector]
The GUI screen (projector control screen) in this case is shown in FIG.
PC200のCPU201は、自身のRAM202に格納された、調整対象プロジェクタの一覧をリストビュー1601に表示する。なお、本実施形態においては、図1におけるプロジェクタ100a,100b,100c,100dのプロジェクタ名をそれぞれ、プロジェクタA、プロジェクタB、プロジェクタC、プロジェクタDとしている。 The
次に、ユーザはチェックボックス1602を用いて制御対象とするプロジェクタをリストビュー1601に列挙されているプロジェクタの中から選択する。選択するプロジェクタの台数は何台であってもよいが、ここでは、プロジェクタCのみを選択したものとして説明する。 Next, the user uses the
ラジオボタン1603はプロジェクタのキーストーン補正(4点補正)の調整点を選択するためのものである。ユーザによって左上頂点が選択されたものとして説明する。ユーザによって調整点が指定されると、PC200のCPU201はプロジェクタと調整点が対になった情報を自身のRAM202に格納する。 The
ボタン1604〜1607の何れかが押下されると、PC200のCPU201は、キーストーン補正を要求するコマンドを生成し、ネットワークIF206を介してチェックボックス1602で選択されているプロジェクタに対して送信する(S1502)。例えば、ラジオボタン1603で「左上」が選択された状態でボタン1604が押下された場合は、PC200のCPU201は左上頂点の座標を上に移動させるように変形させるためのコマンドを生成する。 When any of the
ボタン1608〜1611の何れかが押下されると、PC200のCPU201は、プロジェクタのレンズシフトを要求するコマンドを生成し、ネットワークIF206を介してチェックボックス1602で選択されているプロジェクタに対して送信する(S1502)。例えば、ボタン1608が押下された場合は、PC200のCPU201はチェックボックス1602で選択されているプロジェクタに対して上方向にレンズシフトさせるコマンドを生成する。 When any of the
ボタン1612或いは1613が押下されると、PC200のCPU201は、プロジェクタのズームを要求するコマンドを生成し、ネットワークIF206を介してチェックボックス1602で選択されているプロジェクタに対して送信する(S1502)。例えば、ボタン1613が押下された場合は、PC200のCPU201はテレ方向にズームさせるコマンドを生成する。 When the
上記のようにユーザによってプロジェクタに対する制御指示がなされ、PC200のCPU201が制御コマンドを送信すると(S1502)、次にPC200のCPU201は補助プロジェクタに対して投影させる補助マーカーを生成する(S1503)。投影させる補助マーカーはユーザによって制御されているプロジェクタ(ここではプロジェクタC)の投影領域を表すマーカーである。 When a control instruction is given to the projector by the user as described above and the
ユーザによって図16のOKボタン1614が押下されたことをPC200のCPU201が検知すると、補助プロジェクタのマーカー表示処理を終了する(図11のS1106−Yes)。 When the
本実施形態では、プロジェクタの制御(制御信号)としてキーストーン変形とレンズシフト、レンズズームについて説明したが、これに限らず、その他の幾何学変形処理や電子ズームなどを用いることもできる。 In the present embodiment, the keystone deformation, the lens shift, and the lens zoom have been described as the control (control signal) of the projector, but the present invention is not limited to this, and other geometric deformation processing, electronic zoom, and the like can also be used.
[投影対象プロジェクタにマーカーを投影させる操作の場合]
この場合におけるGUI画面(補助マーカー生成画面)を図17に示す。[For operations that project a marker on the projector to be projected]
The GUI screen (auxiliary marker generation screen) in this case is shown in FIG.
PC200のCPU201は自身のRAM202に格納された調整対象プロジェクタの投影レイアウト情報に基づいてボタン1701〜1704を生成し、GUI画面(補助マーカー生成画面)上に表示する。ここでは、第1の実施形態と同じく2行2列のレイアウトが選択されている場合についてのみ説明するが、レイアウトはこれに限らず、例えば1行4列、3行1列であてもよい。 The
ボタン1701〜1704は、補助プロジェクタに該当領域に対するマーカー画像を表示させるとともに、選択した位置に対応するプロジェクタにマーカー画像を投影させるためのボタンである。ボタン1701〜1704の押下時の処理について詳細に説明する。
ボタン1703がユーザに押下された場合について説明する。ボタン1703が押下されると、PC200のCPU201は該当するプロジェクタ100cに対してマーカー画像を投影させるコマンドを生成して送信する(S1502)。 The case where the
次に、PC200のCPU201は補助プロジェクタ100eに対してマーカー描画コマンドを生成し、送信する(S1503)。 Next, the
図18(a)、(b)は投影面400における調整対象プロジェクタ100cと補助プロジェクタ100eがそれぞれ投影するマーカー画像の投影の様子を表す。1801は調整対象プロジェクタ100cが投影するマーカー画像で、1802は補助プロジェクタ100eが投影するマーカー画像である。なお、図18(a)、(b)に示したマーカー画像の形状はこれに限らない。調整対象プロジェクタが投影するマーカー画像と、補助プロジェクタが投影するマーカー画像の区別ができれば、それぞれどのようなマーカー画像を投影させても構わない。 18 (a) and 18 (b) show the projection of the marker image projected by the
以上の処理を行うことにより、ユーザは1801と1802の位置関係を参考にしながらプロジェクタ100cの初期設置を行うことができる。例えば、図18(a)は調整可能な配置を示し、図18(b)は調整不可能な配置を示す。 By performing the above processing, the user can perform the initial installation of the
ユーザによって図17のOKボタン1705が押下されたことをPC200のCPU201が検知すると、補助プロジェクタのマーカー表示処理を終了する(図11のS1106−Yes)。 When the
上記の説明では、「プロジェクタの投射位置を制御する操作の場合」と「投影対象プロジェクタにマーカーを投影させる操作の場合」の2通りを説明したが、システムは上記2通りの操作を備えていてもよいし、いずれか一つの操作のみを備えていてもよい。2通りの操作を備えている場合は、不図示の選択画面で「プロジェクタの投射位置を制御する操作」と「投影対象プロジェクタにマーカーを投影させる操作」をユーザに選択させてもよい。 In the above description, two types of operations are described, "in the case of an operation of controlling the projection position of the projector" and "in the case of an operation of projecting a marker on the projection target projector", but the system has the above two types of operations. Alternatively, it may have only one operation. When two kinds of operations are provided, the user may be allowed to select "the operation of controlling the projection position of the projector" and "the operation of projecting the marker on the projection target projector" on the selection screen (not shown).
本実施形態によれば、特定のプロジェクタの投射範囲を示すマーカーのみを強調して表示できるので、直感的な設置作業を促すことができる。 According to the present embodiment, only the marker indicating the projection range of a specific projector can be emphasized and displayed, so that intuitive installation work can be promoted.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.
100:プロジェクタ、200:PC、101,201:CPU、102,202:RAM、300:カメラ100: Projector, 200: PC, 101,201: CPU, 102,202: RAM, 300: Camera
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019079561AJP2020178248A (en) | 2019-04-18 | 2019-04-18 | Projection control device, projection control method, projection system, program, storage medium |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019079561AJP2020178248A (en) | 2019-04-18 | 2019-04-18 | Projection control device, projection control method, projection system, program, storage medium |
| Publication Number | Publication Date |
|---|---|
| JP2020178248Atrue JP2020178248A (en) | 2020-10-29 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019079561APendingJP2020178248A (en) | 2019-04-18 | 2019-04-18 | Projection control device, projection control method, projection system, program, storage medium |
| Country | Link |
|---|---|
| JP (1) | JP2020178248A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115150597A (en)* | 2021-03-31 | 2022-10-04 | 成都极米科技股份有限公司 | Projection display method and device and projection equipment |
| CN115883801A (en)* | 2021-09-28 | 2023-03-31 | 精工爱普生株式会社 | Image projection method and projector |
| CN116156125A (en)* | 2021-11-19 | 2023-05-23 | 华人运通(上海)云计算科技有限公司 | Vehicle joint projection method, device, vehicle, terminal, storage medium and system |
| WO2023229146A1 (en)* | 2022-05-26 | 2023-11-30 | 삼성전자 주식회사 | Projector device and control method therefor |
| US11877104B2 (en) | 2021-08-06 | 2024-01-16 | Seiko Epson Corporation | Display method |
| US12445581B2 (en) | 2022-05-26 | 2025-10-14 | Samsung Electronics Co., Ltd. | Projector device and method for controlling the same |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115150597A (en)* | 2021-03-31 | 2022-10-04 | 成都极米科技股份有限公司 | Projection display method and device and projection equipment |
| CN115150597B (en)* | 2021-03-31 | 2023-08-15 | 成都极米科技股份有限公司 | Projection display method and device and projection equipment |
| US11877104B2 (en) | 2021-08-06 | 2024-01-16 | Seiko Epson Corporation | Display method |
| CN115883801A (en)* | 2021-09-28 | 2023-03-31 | 精工爱普生株式会社 | Image projection method and projector |
| CN116156125A (en)* | 2021-11-19 | 2023-05-23 | 华人运通(上海)云计算科技有限公司 | Vehicle joint projection method, device, vehicle, terminal, storage medium and system |
| WO2023229146A1 (en)* | 2022-05-26 | 2023-11-30 | 삼성전자 주식회사 | Projector device and control method therefor |
| US12445581B2 (en) | 2022-05-26 | 2025-10-14 | Samsung Electronics Co., Ltd. | Projector device and method for controlling the same |
| Publication | Publication Date | Title |
|---|---|---|
| US10663844B2 (en) | Projection control apparatus and control method thereof, and projection system | |
| JP2020178248A (en) | Projection control device, projection control method, projection system, program, storage medium | |
| CN106605195B (en) | Communication apparatus and control method of communication apparatus | |
| US10297005B2 (en) | Method for generating panoramic image | |
| US7679643B2 (en) | Remote instruction system, remote instruction method, and program product for remote instruction | |
| US10754237B2 (en) | Control apparatus, control method, projection system, and storage medium | |
| JP2020088691A (en) | Projection control device, control method of the same, and projection system | |
| JP6753049B2 (en) | Projector and projector control method. | |
| US8985781B2 (en) | Projector control device and computer-readable recording medium | |
| JP7096664B2 (en) | Projection control device and its control method, and projection system | |
| JP2019207392A (en) | Controller, control method, projection system, program, and storage medium | |
| JP2020178221A (en) | Projection control device, projection control method and program | |
| US11538134B2 (en) | Information generation method, information generation system, and non-transitory computer-readable storage medium storing program | |
| JP2018125819A (en) | Control device, control method, program, and storage medium | |
| JP2020194998A (en) | Control arrangement, projection system, control method, program and storage medium | |
| JP2019204034A (en) | Projection control device, control method thereof, projection system, program and storage medium | |
| JP6064321B2 (en) | Display device and display control method | |
| JP2019192997A (en) | Projection control apparatus and projection control method | |
| JP2019110408A (en) | Projection control device, control method of the same, and projection system | |
| US20190327457A1 (en) | Projection control apparatus and projection control method | |
| JP2021061541A (en) | Control device, control method, projection system, program, and storage medium | |
| JP7272336B2 (en) | INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM | |
| JP2019192996A (en) | Projection control apparatus and projection control method | |
| JP2021136502A (en) | Information processing equipment, its control method, projection system, program, and recording medium | |
| US12387303B2 (en) | Image correction method, information processing apparatus, and non-transitory computer-readable storage medium |
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney | Free format text:JAPANESE INTERMEDIATE CODE: A7421 Effective date:20210103 | |
| A521 | Written amendment | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20210113 |