Movatterモバイル変換


[0]ホーム

URL:


JP2004056335A - Information processing apparatus and method, display apparatus and method, and program - Google Patents

Information processing apparatus and method, display apparatus and method, and program
Download PDF

Info

Publication number
JP2004056335A
JP2004056335AJP2002209157AJP2002209157AJP2004056335AJP 2004056335 AJP2004056335 AJP 2004056335AJP 2002209157 AJP2002209157 AJP 2002209157AJP 2002209157 AJP2002209157 AJP 2002209157AJP 2004056335 AJP2004056335 AJP 2004056335A
Authority
JP
Japan
Prior art keywords
image
viewpoint
coordinates
user
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002209157A
Other languages
Japanese (ja)
Inventor
Kenji Yamane
山根 健治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony CorpfiledCriticalSony Corp
Priority to JP2002209157ApriorityCriticalpatent/JP2004056335A/en
Publication of JP2004056335ApublicationCriticalpatent/JP2004056335A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To make a required range of image data high in resolution and to minimize a communicated image data quantity. <P>SOLUTION: An image server transmits an image captured by a camera to a head mount display via a network. The head mount display displays a received image, detects a position of eye balls of a user, and transmits the variance of the viewpoint to the image server. The image server brings a prescribed range of an image around the viewpoint 154 of the user to be a high resolution image 153 and the other ranges to be a low resolution image 152 on the basis of the variance of the viewpoint to encode the image data and transmits the result to the head mount display. As a result, the quantity of the transmitted image data can be decreased and the range notified by the user can be brought into a high resolution image. This invention is applicable to display apparatuses for displaying images acquired via a network. <P>COPYRIGHT: (C)2004,JPO

Description

Translated fromJapanese

【0001】
【発明の属する技術分野】
本発明は、情報処理装置および方法、表示装置および方法、並びにプログラムに関し、特に、画像の必要な範囲を高解像度にしつつ、かつ、通信する画像データ量を最小限に抑えることができるようにした情報処理装置および方法、表示装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
従来、例えばパーソナルコンピュータが、エンコードされた画像データをサーバからダウンロードし、同時に再生する、所謂、ストリーミング再生の技術が知られている。この場合、サーバからパーソナルコンピュータに送信される画像データは、例えば、MPEG(Moving Picture Experts Group)2、またはJPEG(JointPhotographic Experts Group)などの画像圧縮規格により圧縮(符号化)されている。
【0003】
【発明が解決しようとする課題】
しかしながら、MPEG2やJPEGなどの画像圧縮規格においては、画像の解像度、すなわち、圧縮係数は1つの画面で一定であった。従って、サーバからパーソナルコンピュータに、高解像度の画像を送信する場合、画面全体を高解像度で圧縮する必要があり、送信する画像データのデータ量が多くなるという課題があった。
【0004】
従って、画像データの送信時間が長くなってしまったり、ネットワークに大きな負荷をかけてしまうという課題があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、ユーザの視点のばらつきにもとづいて、画像の最適な範囲を高解像度にし、かつ、通信する画像データ量を最小限に抑えることを目的とする。
【0006】
【課題を解決するための手段】
本発明の情報処理装置は、画像の第1の領域をそれ以外の第2の領域より高解像度にして符号化する符号手段と、符号手段により符号化された画像を表示装置に送信する送信手段と、表示装置より、予め設定された所定の時間内における、画像に対するユーザの視点の座標の平均値、および分散値を受信する受信手段と、受信手段により受信された画像に対するユーザの視点の座標の平均値、および分散値に基づいて、画像内における第1の領域を指定する指定手段とを備え、符号手段は、指定手段により指定された第1の領域を高解像度にして符号化することを特徴とする。
【0007】
前記画像を撮影する撮影手段をさらに設けるようにすることができる。
【0008】
前記指定手段には、前記分散値の大きさに比例して、前記第1の領域を広範囲に指定するようにさせることができる。
【0009】
前記指定手段には、前記視点の座標の平均値を中心にして、前記第1の領域を指定するようにさせることができる。
【0010】
本発明の情報処理方法は、画像の第1の領域をそれ以外の第2の領域より高解像度にして符号化する符号ステップと、符号ステップの処理により符号化された画像を表示装置に送信する送信ステップと、表示装置より、記画像に対するユーザの視点の座標の平均値、および分散値を受信する受信ステップと、受信ステップの処理により受信された画像に対するユーザの視点の座標の平均値、および分散値に基づいて、画像内における第1の領域を指定する指定ステップとを含み、符号ステップの処理は、指定ステップの処理により指定された第1の領域を高解像度にして符号化することを特徴とする。
【0011】
本発明の第1のプログラムは、画像の第1の領域をそれ以外の第2の領域より高解像度にして符号化する符号ステップと、符号ステップの処理により符号化された画像の表示装置への送信を制御する送信制御ステップと、表示装置からの、画像に対するユーザの視点の座標の平均値、および分散値の受信を制御する受信制御ステップと、受信制御ステップの処理により受信が制御された画像に対するユーザの視点の座標の平均値、および分散値に基づいて、画像内における第1の領域を指定する指定ステップとをコンピュータに実行させることを特徴とする。
【0012】
本発明の表示装置は、情報処理装置より、第1の領域がそれ以外の第2の領域より高解像度にして符号化された画像を受信する受信手段と、受信手段により受信された画像を復号する復号手段と、復号手段により復号された画像を表示する表示手段と、表示手段により表示されている画像に対するユーザの視点の座標を検出する検出手段と、検出手段により検出されたユーザの視点の座標を、予め設定された所定の時間毎に取得する取得手段と、取得手段により取得された、所定の個数の視点の座標の平均値、および分散を演算する演算手段と、演算手段により演算された、ユーザの視点の座標の平均値および分散値を、情報処理装置に送信する送信手段とを備えることを特徴とする。
【0013】
本発明の表示方法は、情報処理装置より、第1の領域がそれ以外の第2の領域より高解像度にして符号化された画像を受信する受信ステップと、受信ステップの処理により受信された画像を復号する復号ステップと、復号ステップの処理により復号された画像を表示する表示ステップと、表示ステップの処理により表示されている画像に対するユーザの視点の座標を検出する検出ステップと、検出ステップの処理により検出されたユーザの視点の座標を、予め設定された所定の時間毎に取得する取得ステップと、取得ステップの処理により取得された、所定の個数の視点の座標の平均値、および分散を演算する演算ステップと、演算ステップの処理により演算された、ユーザの視点の座標の平均値および分散値を、情報処理装置に送信する送信ステップとを含むことを特徴とする。
【0014】
本発明の第2のプログラムは、情報処理装置からの、第1の領域がそれ以外の第2の領域より高解像度にして符号化された画像の受信を制御する受信制御ステップと、受信制御ステップの処理により受信が制御された画像を復号する復号ステップと、復号ステップの処理により復号された画像の表示を制御する表示制御ステップと、表示制御ステップの処理により表示が制御されている画像に対するユーザの視点の座標を検出する検出ステップと、検出ステップの処理により検出されたユーザの視点の座標を、予め設定された所定の時間毎に取得する取得ステップと、取得ステップの処理により取得された、所定の個数の視点の座標の平均値、および分散を演算する演算ステップと、演算ステップの処理により演算された、ユーザの視点の座標の平均値および分散値の、情報処理装置への送信を制御する送信制御ステップとをコンピュータに実行させることを特徴とする。
【0015】
本発明の情報処理装置および方法、並びにプログラムにおいては、画像の第1の領域がそれ以外の第2の領域より高解像度にして符号化され、符号化された画像が表示装置に送信され、表示装置より、予め設定された所定の時間内における、画像に対するユーザの視点の座標の平均値、および分散値が受信され、受信された画像に対するユーザの視点の座標の平均値、および分散値に基づいて、画像内における第1の領域が指定され、指定された第1の領域が高解像度にして符号化される。
【0016】
本発明の表示装置および方法、並びにプログラムにおいては、情報処理装置より、第1の領域がそれ以外の第2の領域より高解像度にして符号化された画像が受信され、受信された画像が復号され、復号された画像が表示され、表示されている画像に対するユーザの視点の座標が検出され、検出されたユーザの視点の座標が、予め設定された所定の時間毎に取得され、取得された、所定の個数の視点の座標の平均値、および分散が演算され、演算された、ユーザの視点の座標の平均値および分散値が、情報処理装置に送信される。
【0017】
【発明の実施の形態】
図1は、本発明を適用したサービス提供システムの一実施の形態を示す図である。本実施の形態においては、図1において、インターネットなどのネットワーク10には、ヘッドマウントディスプレイ(HMD)11、および画像サーバ12が接続されている。また、画像サーバ12は、カメラ13に接続されている。カメラ13により撮影された画像は、画像サーバ12により加工され、ネットワーク10を介して、ヘッドマウントディスプレイ11に供給される。ヘッドマウントディスプレイ11は、ネットワーク10を介して、画像サーバ12から供給された画像を表示し、ユーザに視聴させる。
【0018】
図2は、ヘッドマウントディスプレイ11の外観の構成例を示している。ユーザは、ヘッドマウントディスプレイ11を、図2に示されるように、メガネをかけるように装着する。ヘッドマウントディスプレイ11においては、ユーザの目の前方の位置に、映像を表示する表示部258(図5)が配置されている。ユーザは、この表示部258に表示される映像を見ることができる。ヘッドマウントディスプレイ11には、視点検出部101が内蔵されている。視点検出部101は、例えば角膜(強膜)反射方式(眼球の黒目と白目の反射率の違いを利用する)により、ユーザの眼球の位置を検出する。視点検出部101の視点検出の原理について以下に説明する。
【0019】
視点検出部101は、水平方向の眼球の位置を検出するセンサと、垂直方向の眼球の位置を検出するセンサにより構成される。水平方向の眼球の位置を検出するセンサは、1つの発光素子(赤外LED)、および発光素子を挟むように左右に配置された2つの受光素子(フォトダイオード)により構成される。発光素子は、眼球の中央に位置する黒目に赤外光を照射する。受光素子は、発光素子が眼球に照射した赤外光の反射光を受光する。左右の受光素子によりそれぞれ受光された反射光の強度の差に基づいて、水平方向の眼球の位置が検出される。
【0020】
すなわち、眼球の黒目の部分は、反射率が低く、白目の部分は、反射率が高い。よって、黒目の部分の面積が大きくなる側の受光素子は、黒目の部分の面積が小さい側の受光素子と比べて、より少ない反射光しか受光しない。従って、黒目が右側の受光素子側に移動した場合、右側の受光素子が受光する反射光の光量は左側の受光素子と比べて少ないものとなる。反対に、黒目が左側の受光素子側に移動した場合、左側の受光素子が受光する反射光の光量は右側の受光素子と比べて少ないものとなる。以上のような、左右の受光素子が受光する反射光の強度の差に基づいて、眼球の水平方向の位置が検出される。
【0021】
垂直方向の眼球の位置を検出するセンサも、1つの発光素子(赤外LED)、および発光素子を挟むように左右に配置された2つの受光素子(フォトダイオード)により構成される。発光素子は、眼球の表面下縁に向かって赤外光を照射する。受光素子は、発光素子が眼球に照射した赤外光の反射光を受光する。左右の受光素子によりそれぞれ受光された反射光の強度の和に基づいて、垂直方向の眼球の位置が検出される。
【0022】
すなわち、眼球が下を向くと、眼球の表面下縁における黒目の面積が多くなるため、左右の受光素子が受光する反射光強度が低くなる。反対に、眼球が上を向くと、黒目の面積が少なくなるため、左右の受光素子が受光する反射光強度が高くなる。左右の受光素子が受光した反射光の強度を足し算することにより、眼球の垂直方向の眼球の位置が検出される。
【0023】
なお、以上のような視点検出方法は、例えば、特開平8−229008号公報に開示されている。また、視点検出部101の視点検出方法としては、上記した角膜反射方式に限定されるものではなく、角膜反射方式以外の方法を用いても良い。例えば、VOG(Video−oculogram)方式を用いるようにすることもできる。
【0024】
ヘッドマウントディスプレイ11は、視点検出部101により検出されたユーザの眼球の位置に基づいて、表示部258に表示されている画像の中で、ユーザの視線が注がれている部分を特定する。その後、ヘッドマウントディスプレイ11は、ユーザの視線が注がれている部分を特定する情報を、ネットワーク10を介して、画像サーバ12に通知する。画像サーバ12は、ヘッドマウントディスプレイ11からの通知に基づいて、ユーザの視線が注がれている部分の画像を、それ以外の部分より高解像度にした画像データを、ヘッドマウントディスプレイ11に供給する。その結果、ヘッドマウントディスプレイ11の表示部258には、例えば図3に示されるような画像が表示される。
【0025】
図3の画面151は、表示部258に表示されている画面を示している。画面151中、視点154は、ユーザの視線が注がれていた部分である。視点154を中心として所定の領域が高解像度画像153となっている。また、画面151中、高解像度画像153以外の領域が低解像度画像152となっている。このように、送信する画像データのうち、ユーザが注視している部分のみを高解像度とし、それ以外の部分を低解像度とすることにより、画像データ全体のデータ量を少なくすることが可能である。従って、画像サーバ12からヘッドマウントディスプレイ11に送信する画像データのデータ量が少なくなるため、より短時間で、画像サーバ12からヘッドマウントディスプレイ11に画像データを送信することができる。
【0026】
本発明は、図3の高解像度画像の領域が、ユーザの視点の位置の分散に基づいて可変であることを1つの特徴とする。すなわち、ユーザが、1点を凝視している場合、ユーザの視点の座標の分散が小さくなるため、高解像度画像153の領域を、ユーザが凝視している点を中心とした小さい範囲にとどめる。一方、ユーザが、画面151の1点を凝視せず、視点が移動している場合、ユーザの視点の分散が大きくなるため、高解像度画像153の領域をより広い範囲に取る。このようにすることにより、画像サーバ12からヘッドマウントディスプレイ11に送信すべき画像データのデータ量を必要最小限にしつつ、ユーザが注視する部分については、より高解像度の画像とすることができる。
【0027】
このように、画像データのうち、所定の領域のみを高解像度画像153にし、それ以外の領域を低解像度画像152にする画像圧縮方式として、本実施の形態においては、JPEG2000を利用する。JPEG2000は、画像の一部分だけを高い解像度で実現する機能を有している。なお、このことは、本発明の画像圧縮方式がJPEG2000に限定されることを意味するものではない。画像データのうち、所定の領域のみを高解像度にし、それ以外の領域を低解像度にすることが可能な、JPEG2000以外の画像圧縮方式を利用することも勿論可能である。
【0028】
次に、図4は、画像サーバ12の内部の構成例を表している。図4において、操作部201は、画像サーバ12の管理者の操作の入力を受け付け、入力された操作に対応する操作情報を制御部202に送信する。制御部202は、操作部201から受信した操作情報に従って、画像サーバ12内の各部の動作を制御する。また、制御部202は、タイマを内蔵しており、タイマに基づいた所定のタイミングで、予め設定された所定のプログラムを実行し、画像サーバ12内の各部の動作を制御する。
【0029】
エンコーダ203は、カメラ13により取り込まれている画像を、キャプチャする。そして、エンコーダ203は、キャプチャした画像データを、ROI(Region of Interest)指定部205からの指定に従って、JPEG2000の画像圧縮方式により圧縮(符号化)して、所定の領域を高解像度にし、それ以外の部分を低解像度にした画像データを作成する。そして、エンコーダ203は、作成した画像データを通信部204に送信する。
【0030】
通信部204は、エンコーダ203から供給されたJPEG2000方式でエンコードされた画像データを、ネットワーク10を介して、ヘッドマウントディスプレイ11に送信する。また、通信部204は、ネットワーク10を介して、ヘッドマウントディスプレイ11より、視点情報を受信し、これをROI指定部205に供給する。なお、視点情報とは、ユーザが注視している部分を特定するための情報であり、詳細な説明は後述する。
【0031】
ROI指定部205は、通信部204から供給された視点情報に基づいて、高解像度にする領域とそれ以外の領域を、エンコーダ203に対して指定する。
【0032】
次に、図5は、ヘッドマウントディスプレイ11の内部の構成例を表している。図5において、操作部251は、ユーザの操作の入力を受け付け、入力された操作に対応する操作情報を制御部252に送信する。制御部252は、操作部251から受信した操作情報に従って、ヘッドマウントディスプレイ11内の各部の動作を制御する。また、制御部252は、タイマを内蔵しており、タイマに基づいた所定のタイミングで、予め設定された所定のプログラムを実行し、ヘッドマウントディスプレイ11内の各部の動作を制御する。
【0033】
視点検出部101は、ユーザの眼球の位置を検出して(詳細な説明は上記した通り)、画面151上のユーザが注視している座標(以下、画面151上のユーザが注視している座標を視点座標とも称する)を演算し、この視点座標を視点座標保持部253に供給する。視点座標保持部253は、視点検出部101から供給された視点座標を記憶する。また、視点座標保持部253は、視点座標を演算処理部254に供給すると共に、演算処理部254より、演算結果としての視点情報を受信し記憶する。そして、視点座標保持部253は、記憶した視点情報を、所定のタイミングで、パケット作成部255に供給する。
【0034】
演算処理部254は、視点座標保持部253より、視点座標を取得し、この視点座標に基づいて視点情報を演算する。そして、演算処理部254は、演算結果の視点情報を視点座標保持部253に供給し、記憶させる。
【0035】
パケット作成部255は、所定のタイミングで、視点座標保持部253より視点情報を取得し、この視点情報をパケット通信により画像サーバ12に送信するためのパケットを作成し、これを通信部256に供給する。通信部256は、パケット作成部255から供給された、視点情報を含むパケットを、ネットワーク10を介して、画像サーバ12に送信する。また、通信部256は、ネットワーク10を介して、画像サーバ12から、JPEG2000方式で圧縮(符号化)された画像データを受信し、これをデコーダ257に供給する。
【0036】
デコーダ257は、通信部256から供給された画像データを伸長(復号)し、これを表示部258に供給する。表示部258は、例えば小型のLCD(Liquid Crystal Display)により構成され、デコーダ257から供給された、伸長された画像データに基づいて、画像を出力し、ユーザの目の前に表示させ、閲覧させる。
【0037】
次に、図6および図7のフローチャートを参照して、画像データ表示処理、すなわち、画像サーバ12からヘッドマウントディスプレイ11に画像データを供給し、ヘッドマウントディスプレイ11の表示部258に表示するまでの処理について説明する。
【0038】
なお、図6はヘッドマウントディスプレイ11の処理を、図7は画像サーバ12の処理を、それぞれ示している。また、ヘッドマウントディスプレイ11と画像サーバ12間の通信は、全てネットワーク10を介して行われるものとして、以下の説明においては、ネットワーク10を介する旨の記載は省略する。
【0039】
図6のステップS101において、ヘッドマウントディスプレイ11の制御部252は、操作部251からの操作情報に基づいて、ユーザから画像視聴開始の指示が入力されたか否かを判定して、待機する。そして、ユーザから画像視聴開始の指示が入力された場合、ステップS102に進み、制御部252は、通信部256を介して、画像サーバ12に、画像データを要求する。
【0040】
図7のステップS131において、画像サーバ12の制御部202は、通信部204を介して、ヘッドマウントディスプレイ11より画像データの要求を受信すると、ステップS132において、画像データ送信処理を実行する。
【0041】
画像データ送信処理の詳細について、図8のフローチャートを参照して説明する。図8のステップS171において、制御部201は、エンコードするタイミングか否かを判定し、エンコードするタイミングである場合、処理はステップS171に進む。なお、今回は、ヘッドマウントディスプレイ11より画像データの要求を受信してから初めての画像データ送信処理なので、制御部202は、ステップS171において、エンコードするタイミングであると判定し、処理はステップS172に進む。
【0042】
ステップS172において、制御部202は、エンコーダ203に指示して、カメラ13から供給されている画像データをキャプチャさせる。ステップS173において、制御部202は、ROI指定部205に、ROIパラメータをエンコーダ203に供給するように指示する。ここで、ROIパラメータとは、高解像度の領域を指定する情報のことである。
【0043】
ただし、今回は、ヘッドマウントディスプレイ11より画像データの要求を受信してから初めての画像データ送信処理であり、ヘッドマウントディスプレイ11から、視点情報を取得していないので、ROI指定部205は、高解像度領域を指定しない。従って、ステップS173において、ROI指定部205からエンコーダ203へは、高解像度領域が無いことを示すROIパラメータが供給される。エンコーダ203は、ROI指定部205より、高解像度領域がないことを示すROIパラメータを取得する。
【0044】
ステップS174において、制御部202からの指示により、エンコーダ203は、ステップS173で取得したROIパラメータに従って、ステップS172でキャプチャした画像データをエンコードする。なお、今回は、ヘッドマウントディスプレイ11より画像データの要求を受信してから初めての画像データ送信処理であり、上記したように、ステップS173で高解像度領域が無いことを示すROIパラメータを取得しているので、エンコーダ203は、画像データ全体を低解像度にして画像をエンコードする。
【0045】
ステップS175において、制御部202からの指示により、エンコーダ203は、ステップS174でエンコードした画像データを、通信部204に供給する。通信部204は、エンコーダ203から供給された、エンコードされた画像データを、ヘッドマウントディスプレイ11に送信する。なお、この送信には、例えばRTP(Real−time Transport Protocol)が利用される。
【0046】
ステップS176において、制御部202は、エンコード時間を更新する。すなわち、一旦画像をエンコードして送信して(ステップS171乃至ステップS176)から次に画像をエンコードして送信するまでの時間は予め設定されている。その時間は、例えば、0.1秒とされる。そこで、制御部202は、例えば0.1秒後に、再度、ステップS171乃至ステップS176の処理を開始するように、内蔵するタイマを更新する。
【0047】
以上で、画像データ送信処理を終了する。
【0048】
ヘッドマウントディスプレイ11の制御部252は、ステップS103において、画像サーバ12が図8のステップS175で送信した画像データを、通信部256を介して受信する。ステップS104において、制御部252は、ステップS103で受信されたパケットの受信状況に基づいて、パケット喪失率を算出し、パケット損失率を含むRTCP(RTP Control Protocol)レシーバレポートを、通信部256を介して、画像サーバ12に送信する。図9は、ステップS104で、ヘッドマウントディスプレイ11から画像サーバ12に送信されるRTCPレシーバレポートのフォーマットを示す図である。なお、RTCP Application Specificは、RFC(Request For Comments)1889に定義されている。
【0049】
図9のRTCPレシーバレポートにおいて、1番上の段の1番左側から右に向かって、バージョン番号(v)、パディング(p)、ペイロードタイプ(Pt=201)、メッセージ長が記録されている。上から2段目には、送信者の同期ソース識別子(SSRC)が記録されている。上から3段目には、左からパケット損失率、および累計喪失パケット数が記録されている。上から4段目には、最大受信シーケンス番号が記録されている。上から5段目には、パケット間隔ジッタが記録されている。上から6段目には、最新送信レポート時刻が記録されている。1番下の段には、送信レポート経過時間が記録されている。
【0050】
図7に戻って、ステップS133において、画像サーバ12の制御部202は、図6のステップS104でヘッドマウントディスプレイ11が送信したパケット喪失率を、通信部204を介して受信し、記憶する。すなわち、制御部202は、図9のRTCPレシーバレポートからパケット喪失率を読み出し、記憶する。
【0051】
ここで、図6に戻り、ステップS105において、ヘッドマウントディスプレイ11の制御部252は、ステップS103で受信した画像データを、通信部256からデコーダ257に供給させる。そして、デコーダ257は、制御部252からの指示により、供給された画像データをデコードし、表示部258に供給する。表示部258は、供給された画像データに対応する画像を表示させる。ユーザは、表示部258に表示された画像を見ることができる。
【0052】
ステップS106において、ヘッドマウントディスプレイ11の制御部252は、操作部251からの操作情報に基づいて、ユーザにより視聴停止の指示が入力されたか否かを判定し、ユーザにより視聴停止の指示が入力された場合、処理はステップS107に進む。
【0053】
ステップS107において、ヘッドマウントディスプレイ11の制御部252は、通信部256を介して、画像サーバ12に視聴停止を通知する。そして、ヘッドマウントディスプレイ11は、画像データ表示処理を終了する。
【0054】
このとき、画像サーバ12の制御部202は、ヘッドマウントディスプレイ11がステップS107で送信した視聴停止の通知を受信するため、図7のステップS134において、視聴停止の通知が受信されたと判定し、画像データ表示処理を終了する。
【0055】
視聴停止の指示が入力されていない場合、図6のステップS106において、ヘッドマウントディスプレイ11の制御部252は、視聴停止の指示が入力されていないと判定し、ステップS103に戻り、ステップS103以降の処理を繰り返し実行する。すなわち、画像サーバ12の制御部202は、図7のステップS134において、ヘッドマウントディスプレイ11より、視聴停止の通知が受信されていないと判定し、ステップS132以降の処理を繰り返す。従って、ヘッドマウントディスプレイ11は、ステップS103において、画像サーバ12より、次の画像データを受信し、それ以降の処理を繰り返す。
【0056】
ところで、画像サーバ12からヘッドマウントディスプレイ11に、1つ目の画像データ(全体が低解像度領域の画像データ)が送信され、ヘッドマウントディスプレイ11の表示部258に表示されたとき、ヘッドマウントディスプレイ11は、ユーザの視点の位置に基づいて、視点情報を算出し、これを画像サーバ12に送信する。画像サーバ12は、この視点情報に基づいて、図8のステップS174で、高解像度領域を含む画像データを作成し、ヘッドマウントディスプレイ11に供給する。ヘッドマウントディスプレイ11は、供給された高解像度領域のある画像データを表示する。
【0057】
そこで、次に、図10のフローチャートを参照して、ヘッドマウントディスプレイ11の視点情報送信処理、すなわち、ヘッドマウントディスプレイ11が視点情報を算出し、ヘッドマウントディスプレイ11から、画像サーバ12に視点情報を送信するまでの処理について説明する。なお、視点情報送信処理は、視聴開始の指示が入力された後、1回目のステップS105の処理により、表示部258に画像が表示されたとき、開始される。
【0058】
図10のステップS201において、制御部252からの指示により、演算処理部254は、変数nを初期化して、n=0に設定する。各変数の具体的な説明は後述する。
【0059】
ステップS202において、ヘッドマウントディスプレイ11の制御部252は、内蔵するタイマに基づいて、視点情報の計算時刻か否かを判定し、計算時刻である場合、処理はステップS203に進む。なお、図10のステップS201の後、1回目のステップS202の処理においては、制御部252は、視点情報の計算時刻であると判定し、処理はステップS203に進む。
【0060】
ステップS203において、制御部252からの指示により、視点座標保持部253は、視点検出部101から供給される視点座標を記憶する。ここで、視点座標について、図11を参照して説明する。図11において、画面領域401は、表示部258に表示される画面全体を示している。画面領域401の横方向にX軸を、縦方向にY軸をとる。画面領域401のX軸方向を0乃至100の101個の座標に分割する。同様に、画面領域401のY軸方向を0乃至100の101個の座標に分割する。視点検出部101は、ユーザの眼球の位置を検出した後、その眼球の位置において、眼球が注視している画面領域401の座標を算出する。
【0061】
視点検出部101は、例えば、眼球が注視している位置が、図11の視点402であると算出する。その後、視点検出部101は、視点402の画面領域401内での座標を算出する。例えば、視点402が、図11のように、画面領域401の中央に位置していた場合、視点検出部101は、視点座標を(x,y)=(50,50)と算出する。視点検出部101は、所定のタイミングで、視点座標を算出し、視点座標保持部253に出力している。視点検出部254は、1秒間にa回以上、視点座標を算出する。なお、aは、予め設定された所定の定数のことであり、後述するステップS205の処理で利用される。視点検出部254は、例えば、1秒間に100回、視点座標を算出する。
【0062】
視点座標保持部253は、視点検出部101から供給された視点座標を記憶する。
【0063】
ステップS204において、制御部252からの指示により、演算処理部254は、変数nの値を1だけインクリメントする。ステップS205において、演算処理部205は、n≧a(ただし、aは予め設定された定数)か否かを判定する。なお、以下の例においては、a=10に設定されている。ただし、勿論、a=10は一例であり、aは10以外の値でも良い。
【0064】
そして、演算処理部205がn≧aではないと判定した場合、処理はステップS202に戻り、ステップS202以降の処理が繰り返し実行される。
【0065】
ステップS205で、演算処理部205がn≧aであると判定するまで、ステップS202乃至ステップS205の処理は繰り返される。そして、そのたびに、nが1ずつインクリメントされてゆく。
【0066】
以下に、2回目以降のステップS202乃至ステップS205の処理について説明する。1回目のステップS205の処理で、演算処理部205がn≧aではないと判定した後、2回目のステップS202において、制御部252は、計算時刻であるか否かを判定する。なお、ステップS201の処理の後、ステップS205で演算処理部205がn≧aであると判定するまでの間、制御部252に内蔵されているタイマは、例えば0.1秒毎に、計算時刻であると判定するようになっている。そこで、2回目のステップS202において、制御部252は、計算時刻であると判定する。そして、制御部252が、計算時刻であると判した後、ステップS203で、視点座標保持部253は、視点検出部101から入力される視点座標を記憶し、ステップS204で、演算処理部254はnの値を1だけインクリメントして、n=2とする。
【0067】
その後、2回目のステップS205の処理で、演算処理部205がn≧aではないと判定した後、3回目のステップS202において、制御部252は、計算時刻であるか否かを判定する。そして、制御部252が、計算時刻であると判した後、ステップS203で、視点座標保持部253は、視点検出部101から入力される視点座標を記憶し、ステップS204で、演算処理部254はnの値を1だけインクリメントして、n=3とする。
【0068】
以降、同様にして、4回目乃至9回目のステップS202乃至ステップS205の処理が実行されたとき、視点座標保持部253には、9個の視点座標が記憶され、nはn=9になっている。その後、10回目のステップS202において、制御部252は、計算時刻であるか否かを判定する。そして、制御部252が、計算時刻であると判した後、ステップS203で、視点座標保持部253は、視点検出部101から入力される視点座標を記憶し、ステップS204で、演算処理部254はnの値を1だけインクリメントして、n=10とする。
【0069】
その後、ステップS205において、演算処理部254は、n≧aであると判定し、処理はステップS206に進む。
【0070】
以上のステップS202乃至ステップS205の処理の繰り返しにおいて、視点座標保持部253が視点座標を記憶する仕組みについて説明する。
【0071】
視点座標保持部253は、a=10個分の視点座標を記憶する領域を有している。視点座標保持部253が、視点座標を記憶する際の概念図を、図12乃至図15に示す。図12に示されている輪は、10個の領域に分割されており、分割された各領域が、a乃至jにより示されている。a乃至jの各領域には、それぞれ1つずつ、視点座標が記憶される。書き込みポイントの矢印が示す位置の領域(図12においてはaで示された領域)に、視点座標が記憶される。
【0072】
図10において、1回目のステップS203の処理において、図12に示される領域aに、視点座標(x0,y0)が記憶される。その後、図12に示された輪は、視点座標の記憶領域1つ分だけ回転し、図13に示されるように、書き込みポイントの位置に、領域bが位置する。2回目のステップS203の処理において、図13に示される領域bに、視点座標(x1,y1)が記憶される。その後、図13に示された輪は、視点座標の記憶領域1つ分だけ回転し、図14に示されるように、書き込みポイントの位置に、領域cが位置する。3回目のステップS203の処理において、図14に示される領域cに、視点座標(x2,y2)が記憶される。
【0073】
以下、同様にして、4回目のステップS203において、領域dに、視点座標(x3,y3)が記憶され、5回目のステップS203において、領域eに、視点座標(x4,y4)が記憶され、6回目のステップS203において、領域fに、視点座標(x5,y5)が記憶され、7回目のステップS203において、領域gに、視点座標(x6,y6)が記憶され、8回目のステップS203において、領域hに、視点座標(x7,y7)が記憶され、9回目のステップS203において、領域iに、視点座標(x8,y8)が記憶される。
【0074】
そして、10回目のステップS203において、図15に示されるように、領域jに、視点座標(x9,y9)が記憶される。
【0075】
このようにして、領域a乃至jに記憶された視点座標の例を、図16に示す。図16において、1番左側の列は、上から順番に領域a乃至jを示す。また、図16において、中央の列は、視点座標保持部253に記憶されたx座標の例を示している。また、図16において、1番右側の列は、視点座標保持部253に記憶されたy座標の例を示している。
【0076】
図16に示されるように、領域aには、視点座標(x,y)=(10,20)が記憶されている。また、領域bには、視点座標(x,y)=(30,30)が記憶されている。以下、同様に、領域cには、視点座標(x,y)=(10,40)が記憶され、領域dには、視点座標(x,y)=(40,40)が記憶され、領域eには、視点座標(x,y)=(50,50)が記憶され、領域fには、視点座標(x,y)=(50,50)が記憶され、領域gには、視点座標(x,y)=(60,20)が記憶され、領域hには、視点座標(x,y)=(10,10)が記憶され、領域iには、視点座標(x,y)=(5,1)が記憶され、領域jには、視点座標(x,y)=(90,90)が記憶されている。
【0077】
このように、視点座標保持部253に、所定の個数の視点座標が記憶されたとき、ステップS205において、演算処理部254は、n≧aである(予め設定された所定の個数の視点座標が、視点座標保持部253に記憶された)と判定し、処理はステップS206に進む。
【0078】
ステップS206において、演算処理部254は、x座標の平均値(以下、x座標の平均値をxmとする)、およびy座標の平均値(以下、y座標の平均値をymとする)を算出する。図16の例においては、演算処理部254は、xm=(10+30+10+40+50+50+60+10+5+90)/10=35.5、およびym=(20+30+40+40+50+50+20+10+1+30)/10=29.1を計算する。
【0079】
次に、ステップS207において、演算処理部254は、xの分散(以下、xの分散をσ^2xとする)、およびyの分散(以下、yの分散をσ^2yとする)を算出する。ここで、xの分散を算出する式は、以下のようになっている。
【0080】
【数1】

Figure 2004056335
【0081】
以上の式を式(1)とする。式(1)に関する以下の説明においては、xの添え字iは、x_iのように記す。同様に、fの添え字iは、f_iのように記す。式1に示されるようにiは1乃至101の値をとる。すなわち、図11を参照して説明したように、x座標は、0乃至100の101個の座標に分割されている。従って、iの値1乃至101は、それぞれ、x座標0乃至100に対応している。
【0082】
x_iは、x座標の値である。すなわち、x_iの値は、(i−1)である。xmは、ステップS206で算出したx座標の平均値である。f_iは、視点座標のx座標の、0乃至100の各x座標における度数分布を示す値である。例えば、図16の例において、x=50は領域eと領域fの2個あるので、x=50の度数分布であるf_51はf_51=2である。
【0083】
つまり、式(1)は、変量の値x_iの、平均値xmからの偏差を2乗し、それに度数f_iを掛け算した値を、iが1の場合乃至101の場合分だけ足し算し、これを、視点座標の個数10で割り算したものである。
【0084】
yの分散を算出する式は、以下のようになっている。
【0085】
【数2】
Figure 2004056335
【0086】
以上の式を式(2)とする。式(2)は、式(1)におけるx_iおよびxmを、それぞれy_iおよびymに置き換えたものである。つまり、式(2)は、変量の値y_iの、平均値ymからの偏差を2乗し、それに度数f_iを掛け算した値を、iが1の場合乃至101の場合分だけ足し算し、これを、視点座標の個数10で割り算したものである。
【0087】
図10に戻って、ステップS208において、ヘッドマウントディスプレイ11の演算処理部254は、ステップS206で算出したxmおよびym、並びにステップS207で算出したσ^2xおよびσ^2yを、視点座標保持部253に記憶させる。
【0088】
ステップS209において、制御部252は、ステップS208で視点座標保持部253に記憶されたxm、ym、σ^2x、およびσ^2yを、パケット作成部255に供給させる。そして、制御部252は、パケット作成部255に、xm、ym、σ^2x、およびσ^2yを含む、送信用のパケットを作成させる。図17は、パケット作成部255により作成されたパケットの例を示している。図17は、RTCP Application Specificのフォーマットを表している。なお、RTCP Application Specificは、RFC1889に定義されている。
【0089】
図17において、1番上の段には、左側から右側に向かって順番に、バージョン番号(v)、パディング(p)、パケットタイプ、メッセージ長が記録されている。上から2段目には、送信者の同期ソース識別子(SSRC)が記録されている。上から3段目には、アプリケーション名が記録されている。上から4段目には、データ、すなわち、xm、ym、σ^2x、およびσ^2yが記録されている。
【0090】
ステップS209の処理の後、ステップS210において、ヘッドマウントディスプレイ11の制御部252は、入力モードが1であるか否かを判定し、入力モードが1である場合、処理はステップS211に進む。ユーザは、操作部251を操作して、入力モードを0または1のいずれかに設定することができる。入力モード=1の場合、制御部252は、計算時刻までのタイマを0.1秒に設定する(前回、ステップS202で計算時刻であると判定された時刻から0.1秒後に、再度計算時刻がくるように設定する)。その後、処理はステップS202に戻る。
【0091】
この場合、ステップS202において、制御部252は、前回、ステップS202で計算時刻であると判定してから0.1秒後に、再び、計算時刻であると判定する。結果的に、前回、演算処理部254がxm、ym、σ^2x、およびσ^2yを算出してから0.1秒後に、演算処理部254は、次のxm、ym、σ^2x、およびσ^2yを算出する。
【0092】
ステップS210において、制御部252が、入力モードは1ではない、すなわち入力モードは0であると判定した場合、処理はステップS212に進む。
【0093】
ステップS212において、制御部252は、計算時刻までのタイマを0.2秒に設定する(前回、ステップS202で計算時刻であると判定された時刻から0.2秒後に、再度計算時刻がくるように設定する)。その後、処理はステップS202に戻る。
【0094】
この場合、ステップS202において、制御部252は、前回、ステップS202で計算時刻であると判定してから0.2秒後に、再び、計算時刻であると判定する。結果的に、前回、演算処理部254がxm、ym、σ^2x、およびσ^2yを算出してから0.2秒後に、演算処理部254は、次のxm、ym、σ^2x、およびσ^2yを算出する。
【0095】
以上のように、入力モードの切り替えにより、xm、ym、σ^2x、およびσ^2yを算出する間隔を調節することができる。したがって、入力モード=1を選択することにより、より細かい眼球の位置の変化を検出することができ、入力モード=0を選択することにより、より大雑把な眼球の位置の変化を検出することができる。なお、以上の例においては、入力モードは0か1の2パターンしかないが、入力モードは3パターン以上にすることも勿論可能である。
【0096】
ところで、図10において、ステップS211、またはステップS212の処理によりタイマをセットした後、ステップS202で計算時刻であると判定された場合、処理はステップS203に進む。このとき、視点座標保持部253は、すでに10個の視点座標を記憶しているので、ステップS203において、視点座標保持部253は、記憶している10個の視点座標のうち最も古い視点座標に、視点検出部101から入力された視点座標を上書きして、記憶させる。この処理の概念を、図15および図18を参照して説明する。
【0097】
すなわち、例えば、図15には、領域a乃至jの全ての領域に視点座標が既に記憶されている場合の例が示されている。図15において、1番古く記憶されている視点座標は、領域aの(x0,y0)である。そこで、新しい視点座標を記憶させるとき、図18に示されるように、領域aに記憶されていた(x0,y0)を消去し、領域aに新しい視点座標(x10,y10)を記憶させる。
【0098】
より一般的な概念図を図19に示す。図19において、書き込みポイントに位置する領域には最新の視点座標(xn,yn)が記憶される。その1つ下の領域には、1つ前に取得された視点座標(xn−1,yn−1)が記憶されている。さらに、その1つ下の領域には、2つ前に取得された視点座標(xn−2,yn−2)が記憶されている。以下、同様に、より古い視点座標が記憶され、輪の1番上の領域には最新の視点座標(xn,yn)の8つ前に取得された視点座標(xn−8,yn−8)が記憶されている。視点座標(xn−8,yn−8)の下には、最新の視点座標(xn,yn)の9つ前に取得された視点座標(xn−9,yn−9)が記憶されている。このように、視点座標保持部253は、新しい視点座標を順次上書きしてゆく。
【0099】
図10のステップS209で、ヘッドマウントディスプレイ11が送信した視点情報(xm、ym、σ^2x、およびσ^2y)は、画像サーバ12により受信され記憶される。次に、図20のフローチャートを参照して、画像サーバ12の視点情報受信処理について説明する。
【0100】
ステップS251において、画像サーバ12の通信部204は、ヘッドマウントディスプレイ11が図10のステップS209で送信した視点情報(xm、ym、σ^2x、およびσ^2y)を受信する。
【0101】
ステップS252において、画像サーバ12の制御部202は、ステップS251で通信部204が受信した視点情報を、ROI指定部205に供給させる。そして、制御部202は、ROI指定部205に、視点情報を記憶させる。
【0102】
以上で、画像サーバ12の視点情報受信処理を終了する。
【0103】
画像サーバ12のROI指定部205は、以上のようにして記憶した視点情報を基に、高解像度領域を指定するROIパラメータを演算し、エンコーダ203に供給する。エンコーダ203は、図8のステップS174において、このROIパラメータに基づいて、高解像度領域を含む画像データを作成する。
【0104】
次に、図21のフローチャートを参照して、画像サーバ12のROI範囲決定処理、すなわち、視点情報に基づいて、高解像度領域を指定する処理について説明する。
【0105】
図21のステップS301において、制御部202からの指示に基づいて、ROI指定部205は、変数a,b,Cを初期化する。ここで、変数a,b,Cについて、図22を参照して説明する。
【0106】
図22においては、画面領域401の中で、視点402を中心とした所定の範囲が、高解像度領域501として指定されている。視点402の座標は、視点情報に含まれている(x,y)=(xm,ym)である。この高解像度領域501は、Y軸方向の辺の長さをαとし、X軸方向の辺の長さをβとする長方形(正方形を含む)である。
【0107】
ここで、αは、例えば、
α=aσ^2y
により算出される。この式を式(3)とする。
【0108】
また、βは、例えば、
β=bσ^2x
により算出される。この式を式(4)とする。
【0109】
上記の式(3)および式(4)の中のaおよびbは、ネットワークの状況に応じて設定される。例えば、パケット喪失率が高くなった場合、aおよびbを小さな値にすることにより、αおよびβの長さを短くすることができる。結果的に、高解像度領域501を少なくして、エンコードした画像データのデータ量を少ないものにすることができる。
【0110】
また、ユーザが、視点402を凝視して、眼球の位置を移動させなかった場合、分散σ^2x、または分散σ^2yは限りなく0に近づいてしまう。その場合、上記の式(3)または式(4)においては、α、またはβの長さも限りなく0に近づいてしまう。結果的に、ユーザが、1点を凝視すればするほど、高解像度領域501がほとんどなくなってしまう。
【0111】
また、ネットワーク10の輻輳が続いた場合、aおよびbの値が、0になってしまう可能性がある。その場合も、上記の式(3)または式(4)においては、α、またはβの長さが0になってしまう。結果的に、高解像度領域501がなくなってしまう。
【0112】
このような事態を避けるために、αおよびβには、最小値Cが設定され、もし式(3)または式(4)において、α、またはβの値が最小値Cを下回った場合、その辺の長さは、Cとされる。
【0113】
変数a,b,Cには、予め設定された所定の初期値があり、ステップS301で、画像サーバ12のROI指定部205は、変数a,b,Cを、予め設定された初期値に設定する。
【0114】
ステップS302において、制御部202は、ヘッドマウントディスプレイ11から、パケット喪失率、および視点情報を受信したか否かを判定し、パケット喪失率、および視点情報を受信していた場合、処理はステップS303に進む。ここで、パケット喪失率は、図7のステップS133で受信したものである。また、視点情報は、図20のステップS251で受信したものである。
【0115】
ステップS303において、制御部202は、記憶していたパケット喪失率をROI指定部205に供給する。ROI指定部205は、制御部202から供給されたパケット喪失率を、予め設定されている所定の基準値Xと比較し、パケット喪失率がX以上であるか否かを判定する。その結果、パケット喪失率がX以上ではなかった場合、処理はステップS304に進む。
【0116】
ステップS304において、ROI指定部205は、aの値に1足して、これを新たなaとして設定する。また、ROI指定部205は、bの値に1足して、これを新たなbとして設定する。
【0117】
ステップS303において、ROI指定部205が、パケット喪失率がX以上ではない、すなわちX未満であると判定した場合、処理はステップS305に進む。
【0118】
ステップS305において、ROI指定部205は、aの値から1引いて、これを新たなaとして設定する。また、ROI指定部205は、bの値から1引いて、これを新たなbとして設定する。
【0119】
ステップS304、またはステップS305の処理の後、処理はステップS306に進み、ROI指定部205は、式(3)および式(4)を実行し、αおよびβの値を算出する。
【0120】
ステップS307において、ROI指定部205は、α<Cであるか否かを判定し、α<Cである場合、処理はステップS308に進む。ステップS308において、ROI指定部205は、α=Cに設定する。その後、処理はステップS309に進む。
【0121】
ステップS307において、ROI指定部205が、α<Cではないと判定した場合、すなわち、α≧Cであると判定した場合、ステップS308の処理はスキップされ、処理はステップS309に進む。
【0122】
ステップS309において、ROI指定部205は、β<Cであるか否かを判定し、β<Cである場合、処理はステップS310に進む。ステップS310において、ROI指定部205は、β=Cに設定する。その後、処理はステップS311に進む。
【0123】
ステップS309において、ROI指定部205が、β<Cではないと判定した場合、すなわち、β≧Cであると判定した場合、ステップS310の処理はスキップされ、処理はステップS311に進む。
【0124】
ステップS311において、ROI指定部205は、ステップS306乃至ステップS310の処理により設定された値α、β、並びに視点情報に含まれているxmおよびymを、1グループとして、記憶する。ステップS311の処理の後、処理はステップS302に戻り、ステップS302以降の処理が繰り返される。
【0125】
以上のようにして、高解像度領域501が決定される。ROI指定部205は、以上の処理により設定された値α、β、xm、およびymをもとに、高解像度領域501を指定するためのROIパラメータを作成し、所定のタイミングで、ROIパラメータを、エンコーダ203に供給する(図8のステップS173)。エンコーダ203は、このROIパラメータに従って、高解像度領域501を含む画像データを作成する(図8のステップS174)。
【0126】
なお、図21のフローチャートにおいては、高解像度領域501の辺αおよびβは、それぞれ、式(3)および式(4)により算出する場合を例にして説明したが、このことは、本発明が、高解像度領域501の辺αおよびβを、それぞれ、式(3)および式(4)により算出することに限定されることを意味するものではない。
【0127】
例えば、式(3)および式(4)において、b∝aとしても良い。また、α∝βとしてもよい。この場合、αおよびβを算出する式を、例えば、
α=a(σ^2x+σ^2y)
β=b(σ^2x+σ^2y)
としても良い。
【0128】
また、aおよびbを、パケット喪失率とは無関係に、定数にするようにしても良い。さらに、上記で説明した例は、高解像度領域501が長方形(正方形を含む)の場合であるが、高解像度領域501は、長方形以外の形状でも良い。JPEG2000においては、高解像度領域は、任意の形状を指定することができる。高解像度領域は、例えば、図23に示されるように、円形でも良い。
【0129】
図23において、高解像度領域511は、視点402を中心とし、半径をrとする円形である。この場合、半径rは、例えば、
r=k(aσ^2x+bσ^2y)
により算出してもよい。なお、kは、予め設定された定数である。また、aおよびbの算出方法は、図21のフローチャートのステップS303乃至ステップS305の処理と同様の方法にすることができる。
【0130】
また、高解像度領域は、例えば、図24に示されるように、楕円形でも良い。図24において、高解像度領域521は、視点402を中心とした楕円形である。αおよびβの算出方法は、図21のフローチャートと同様でも良い。
【0131】
以上、本実施の形態において説明したように、ユーザの視点の分散に基づいて、高解像度領域を指定するようにすることにより、画像サーバ12からヘッドマウントディスプレイ11に送信する画像データ全体のデータ量を必要最小限に抑えつつ、ユーザが注視している領域は高解像度にすることができる。
【0132】
ヒトの眼球運動は、一般的にサッケード(跳躍性眼球運動)と滑動性眼球運動に分類される。サッケードとは、ある注視点から、他の注視点へ高速に視点を移動させる眼球運動であり、サッケード中は、表示部258に表示された画像を知覚することができない。滑動性眼球運動とは、注視している対象物(例えば、表示部258に表示されている人物など)が低速で移動してゆく場合に、その対象物を追従してゆく眼球運動であり、滑動性眼球運動中は、表示部258に表示された画像を知覚することができる。
【0133】
サッケードが生じた場合、分散の値は大きくなる。従って、高解像度領域は、より広い範囲になる。このようにすることにより、ユーザの注視点が瞬間的に、遠い位置に移動しても(例えば、ユーザの注視点が、図3の画面151の左上端から、右下端へと、瞬間的に移動しても)、注視点の移動先が高解像度領域内である確率を高めることができる。また、仮に、注視点の移動先が、視点の移動直後には高解像度領域ではなかったとしても、速やかに、高解像度領域内とすることができる。
【0134】
それに対して、滑動性眼球運動が生じた場合、分散は、サッケードの場合と比較して、より小さい値となる。従って、高解像度領域は、サッケードの場合と比較して、より狭い範囲となる。このようにすることにより、ユーザの注視点が低速で移動した場合(例えば、ユーザの注視点が、図3の画面151の視点154から、徐々に下方へと移動した場合)、高解像度領域の範囲を必要最小限の広さに抑えた上で(従って、画像サーバ12からヘッドマウントディスプレイ11に送信する画像データのデータ量を少なく抑えた上で)、注視点の移動先が高解像度領域内であるようにすることができる。
【0135】
また、ヒトの視野は、一般的に中心視野と周辺視野に分類される。視野とは、眼前の1点を固視している場合に、同時に見える空間の範囲をいう。ヒトが対象物を見るとき、眼球のレンズを通過した光は網膜に像が倒置した状態で結ばれる。網膜の部分によって、得られる視力は異なり、網膜の中心部(網膜中心窩)において、最も良好な視力を得ることができる。中心視野とは、網膜中心窩に結ばれた像の範囲である。また、周辺視野とは、網膜の網膜中心窩以外の部分に結ばれた像の範囲である。周辺視野においては、中心視野ほど、良好な視力を得ることができない。
【0136】
視力は、網膜中心窩から離れるに従い、急激に低下する。例えば、網膜中心窩に結像された画像に対して1.0乃至1.2の視力を有するヒトにおいて、網膜中心窩から、角度が5度離れた部分に結像された画像に対する視力は、0.1程度であり、角度が10度離れた部分に結像された画像に対する視力は、0.05程度である。
【0137】
例えば、図22において、ユーザの視点402の位置する部分の画像が、網膜中心窩に結像される。よって、ユーザの視力は、視点402において最も良好であり、視点402から離れるにつれて急激に低下する。従って、仮に、図22の画面151全体の画像を高解像度にしたとしても、ユーザは、視点402から離れた部分の画像を鮮明に知覚することができない。
【0138】
そこで、本発明のように、視点402から離れた部分の画像を低解像度の画像にしても、ユーザが画面401に表示されている画像全体を知覚する際に、ユーザの知覚能力に大きな影響を与えることはない。
【0139】
また、網膜上には、光を受容する光受容細胞が存在する。光受容細胞には、錐体細胞と桿体細胞の2種類ある。錐体細胞は、網膜中心窩に多く分布し、桿体細胞は、網膜の周辺部に多く分布している。つまり、中心視野は、主に錐体細胞の働きにより得られ、周辺視野は、主に桿体細胞の働きにより得られる。
【0140】
錐体細胞は、赤の波長を吸収するタイプ、青の波長を吸収するタイプ、および緑の波長を吸収するタイプに分類される。錐体細胞は、明るいところで、色彩を識別するために働く。一方、桿体細胞は、可視光の全波長を吸収する。桿体細胞は、暗いなかで、物の形を識別するために働く。
【0141】
従って、中心視野内の画像(例えば、図3の高解像度画像153)をカラー表示にし、周辺視野内の画像(例えば、図3の低解像度画像152)を、グレースケールで表示するようにしても良い。
【0142】
なお、本実施の形態において説明したヘッドマウントディスプレイ11の外観の構成は、図2に示されたものに限定されるものではなく、任意の形状のヘッドマウントディスプレイを採用することができる。また、図2においては、視点検出部101は、ヘッドマウントディスプレイ11に内蔵されているが、視点検出部101は、ヘッドマウントディスプレイ11の本体とは別体として構成するようにしても良い。また、視点検出部101は、図2においては、ユーザの右眼の前方に設置され、右眼の眼球の位置を検出するようになっているが、視点検出部101は、ユーザの左眼の前方に設置され、ユーザの左眼の眼球の位置を検出するようにしても良い。
【0143】
また、本発明は、ヘッドマウントディスプレイ11以外の表示装置に適用することも可能である。例えば、ユーザから所定の距離だけ前方に位置する筐体に画面を設置したディスプレイ、ユーザの前方に位置するスクリーンに画像を投影するプロジェクタなどに、本発明を適用することができる。その場合、ユーザには、眼球の位置を検出するための検出装置が装着される。
【0144】
また、本実施の形態においては、RTCP Application Specific、およびRTCP Receiver Reportを利用して、ヘッドマウントディスプレイ11から画像サーバ12へ、視点情報やパケット喪失率を送信しているが、このことは、本発明が、RTCP Application Specific、およびRTCP Receiver Reportを利用することに限定されることを意味するものではない。
【0145】
また、本実施の形態においては、説明を簡単にするために、画像サーバ12は、1台のヘッドマウントディスプレイ11に対してのみ、画像データを送信する場合を例にして説明したが、画像サーバ12は、複数のヘッドマウントディスプレイ11に対して、独立並行に画像データを送信するようにすることもできる。その場合、各ヘッドマウントディスプレイ11は、例えば、RTCP Application SpecificやRTCP Receiver Reportに含まれる送信者の同期ソース識別子により、個々に識別される。そして、画像サーバ12は、識別した各ヘッドマウントディスプレイ11に対して、それぞれ、独立して、本実施の形態で説明した処理を実行する。
【0146】
また、本実施の形態においては、高解像度領域(例えば、図22の高解像度領域501、図23の高解像度領域511、または図24の高解像度領域521)を指定する場合、視点402の座標として、(xm,ym)を利用しているが、視点402の座標は、例えば、ヘッドマウントディスプレイ11が図19の書き込みポイントで書き込んだばかりの(xn,yn)とすることができる。
【0147】
また、本実施の形態においては、画像サーバ12は、ヘッドマウントディスプレイ11に対して、エンコードした画像データのみを送信する場合について説明したが、画像サーバ12は、勿論、画像データと共に、音声データを送信するようにすることができる。すなわち、画像サーバ12は、カメラ13に備えられたマイクロフォンにより集音された音声データを、エンコーダ203により、画像データと共にエンコードし、通信部204を介して、ヘッドマウントディスプレイ11に送信することができる。
【0148】
また、図4には、画像サーバ12から受信した音声データを再生するスピーカが記載されていないが、スピーカをさらに備えるようにすることもできる。すなわち、ヘッドマウントディスプレイ11が、通信部256を介して、画像サーバ12から受信したデータは、デコーダ257によりデコードされ、デコードされたデータのうち、画像データは、表示部258に表示され、音声データは、スピーカに供給され、音声データに対応する音声が出力される。
【0149】
また、本実施の形態においては、画像サーバ12は、カメラ13から取り込まれた画像をエンコードする場合を例として説明しているが、このことは、本発明がカメラ13から取り込まれた画像をエンコードする場合に限定されることを意味するものではない。画像サーバ12は、例えば、予め所定の記録媒体に記録された画像データをキャプチャし、エンコーダ203でエンコードし、通信部204を介して、ヘッドマウントディスプレイ11に送信することもできる。また、勿論、予め所定の記録媒体に記録された画像データをエンコードする際に、視点情報に基づいて、高解像度領域を指定することも可能である。
【0150】
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、例えば、画像サーバ12、またはヘッドマウントディスプレイ11は、図25に示されるような汎用のパーソナルコンピュータ700により構成される。
【0151】
図25において、CPU701は、ROM702に記憶されているプログラム、または記憶部709からRAM703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0152】
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インターフェース705も接続されている。
【0153】
入出力インターフェース705には、キーボード、マウスなどよりなる操作部706、スピーカなどよりなり、音声を出力する音声出力部707、LCD、またはCRT(Cathode Ray Tube)などよりなるディスプレイ708、ハードディスクなどより構成される記憶部709、モデム、ターミナルアダプタなどより構成される通信部710が接続されている。通信部710は、インターネットを含むネットワーク10を介しての通信処理を行う。
【0154】
入出力インターフェース705にはまた、必要に応じてドライブ711が接続され、磁気ディスク721、光ディスク722、光磁気ディスク723、或いは半導体メモリ724などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部709にインストールされる。
【0155】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0156】
この記録媒体は、図25に示されるように、装置本体とは別に、ユーザにプログラムを供給するために配布される、プログラムが記憶されている磁気ディスク721(フレキシブルディスクを含む)、光ディスク722(CD−ROM,DVDを含む)、光磁気ディスク723(MD(Mini−Disk)を含む)、もしくは半導体メモリ724などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに供給される、プログラムが記憶されているROM702や、記憶部709に含まれるハードディスクなどで構成される。
【0157】
また、記録媒体へのプログラムの格納は、必要に応じて通信部710を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった有線または無線の通信媒体を利用して行われるようにしても良い。
【0158】
なお、本明細書において、媒体により提供されるプログラムを記述するステップは、記載された順序に従って、時系列的に行われる処理は勿論、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0159】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0160】
【発明の効果】
以上のように、第1の本発明によれば、ネットワークを介して表示装置に、画像を送信することが可能となる。
【0161】
また、第1の本発明によれば、ネットワークを介して送信する画像データのうち、ユーザが注視している範囲の画像解像度を高解像度に保ちつつ、画像データのデータ量を必要最小限に抑えることが可能となる。従って、画像データの送信時間を短縮することができる。また、ネットワークが輻輳することを防ぐことができる。
【0162】
さらに、第1の本発明によれば、ユーザの眼球運動、すなわちサッケード、滑動性眼球運動、および眼球を動かさずに1点を固視した場合のそれぞれにおいて、高解像度の画像にする領域が、最適な範囲に指定された画像を、表示装置に送信することができる。
【0163】
また第2の本発明によれば、ネットワークを介して、画像を受信することができる。
【0164】
また、第2の本発明によれば、ネットワークを介して受信する画像データのうち、ユーザが注視している範囲の画像解像度を高解像度に保ちつつ、画像データのデータ量を必要最小限に抑えることが可能となる。従って、画像データの受信時間を短縮することができる。また、ネットワークが輻輳することを防ぐことができる。
【0165】
さらに、第2の本発明によれば、ユーザの眼球運動、すなわちサッケード、滑動性眼球運動、および眼球を動かさずに1点を固視した場合のそれぞれにおいて、高解像度の画像にする領域が、最適な範囲に指定された画像を表示することができる。
【図面の簡単な説明】
【図1】本発明を適用したサービス提供システムの構成例を示すブロック図である。
【図2】ヘッドマウントディスプレイの外観の構成例を示す図である。
【図3】ヘッドマウントディスプレイの表示部に表示される画面の例を示す図である。
【図4】画像サーバの内部の構成例を示すブロック図である。
【図5】ヘッドマウントディスプレイの内部の構成例を示すブロック図である。
【図6】ヘッドマウントディスプレイの画像データ表示処理を説明するフローチャートである。
【図7】画像サーバの画像データ表示処理を説明するフローチャートである。
【図8】画像サーバの画像データ送信処理を説明するフローチャートである。
【図9】図6のステップS104で送信されるパケットのフォーマットの例を示す図である。
【図10】ヘッドマウントディスプレイの視点情報送信処理を説明するフローチャートである。
【図11】視点座標の特定方法を説明する図である。
【図12】視点情報保持部の視点座標の記憶方法を概念的に説明する図である。
【図13】視点情報保持部の視点座標の記憶方法を概念的に説明する、図12に続く図である。
【図14】視点情報保持部の視点座標の記憶方法を概念的に説明する、図13に続く図である。
【図15】視点情報保持部の視点座標の記憶方法を概念的に説明する、図14に続く図である。
【図16】視点座標保持部に記憶される視点座標の例を示す図である。
【図17】図10のステップS209図でで送信されるパケットのフォーマットの例を示す図である。
【図18】視点情報保持部の視点座標の記憶方法を概念的に説明する、図15に続く図である。
【図19】視点情報保持部の視点座標の記憶方法を概念的に説明する図である。
【図20】画像サーバの視点情報受信処理を説明するフローチャートである。
【図21】画像サーバのROI範囲決定処理を説明するフローチャートである。
【図22】ROI範囲の指定方法を説明する図である。
【図23】ROI範囲の指定方法を説明する他の図である。
【図24】ROI範囲の指定方法を説明するさらに他の図である。
【図25】本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
10 ネットワーク, 11 ヘッドマウントディスプレイ, 12 画像サーバ, 13 カメラ, 101 視点検出部, 152 低解像度画像, 153高解像度画像, 154 視点, 201 操作部, 202 制御部, 203エンコーダ, 204 通信部, 251 操作部, 252 制御部, 253視点座標保持部, 254 演算処理部, 255 パケット作成部, 256
通信部, 257 デコーダ, 258 表示部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing apparatus and method, a display apparatus and method, and a program, and more particularly, to a technique that enables a necessary range of an image to be increased in resolution and an amount of image data to be communicated to be minimized. The present invention relates to an information processing device and method, a display device and method, and a program.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is known a so-called streaming reproduction technique in which, for example, a personal computer downloads encoded image data from a server and simultaneously reproduces the encoded image data. In this case, the image data transmitted from the server to the personal computer is compressed (encoded) according to an image compression standard such as MPEG (Moving Picture Experts Group) 2 or JPEG (Joint Photographic Experts Group).
[0003]
[Problems to be solved by the invention]
However, in image compression standards such as MPEG2 and JPEG, the resolution of an image, that is, the compression coefficient is constant in one screen. Therefore, when transmitting a high-resolution image from a server to a personal computer, it is necessary to compress the entire screen at a high resolution, and there is a problem that the amount of image data to be transmitted increases.
[0004]
Therefore, there has been a problem that the transmission time of the image data becomes longer and a heavy load is imposed on the network.
[0005]
The present invention has been made in view of such circumstances, and has as its object to increase the optimum range of an image based on variations in a user's viewpoint and to minimize the amount of image data to be communicated. And
[0006]
[Means for Solving the Problems]
An information processing apparatus according to the present invention comprises: encoding means for encoding a first area of an image at a higher resolution than the other second area; and transmitting means for transmitting the image encoded by the encoding means to a display device. Receiving means for receiving an average value and a variance value of coordinates of the user's viewpoint with respect to the image within a predetermined time set in advance from the display device; and coordinates of the user's viewpoint with respect to the image received by the receiving means. Designating means for designating a first area in an image based on the average value and the variance of the image, and the encoding means encodes the first area designated by the designating means with a high resolution. It is characterized by.
[0007]
A photographing means for photographing the image may be further provided.
[0008]
The designating means may be configured to designate the first region in a wide range in proportion to the magnitude of the variance value.
[0009]
The designating means may designate the first area around an average of coordinates of the viewpoint.
[0010]
According to the information processing method of the present invention, a coding step of coding a first area of an image with a higher resolution than the other second areas and transmitting the image coded by the processing of the coding step to a display device. A transmitting step, from the display device, a receiving step of receiving the average value of the coordinates of the viewpoint of the user with respect to the image, and a variance value, and an average value of the coordinates of the viewpoint of the user with respect to the image received by the processing of the receiving step, and A designating step of designating a first region in the image based on the variance value, wherein the process of the signing step includes encoding the first region designated by the process of the designation step with high resolution. Features.
[0011]
A first program according to the present invention includes a coding step of coding a first area of an image at a resolution higher than that of the other second areas and coding the image coded by the processing of the coding step to a display device. A transmission control step of controlling transmission, a reception control step of controlling reception of an average value and a variance value of coordinates of a user's viewpoint with respect to the image from the display device, and an image whose reception is controlled by the processing of the reception control step And a designation step of designating a first region in an image based on an average value and a variance value of coordinates of a user's viewpoint with respect to.
[0012]
The display device according to the present invention comprises: a receiving unit for receiving, from an information processing device, an image in which the first area is encoded with a higher resolution than the other second areas; and a decoding unit for decoding the image received by the receiving unit. Decoding means, display means for displaying the image decoded by the decoding means, detection means for detecting the coordinates of the user's viewpoint with respect to the image displayed by the display means, and detection of the user's viewpoint detected by the detection means. Acquiring means for acquiring coordinates at predetermined time intervals; computing means for computing the average value and variance of coordinates of a predetermined number of viewpoints acquired by the acquiring means; and computing means for computing. And transmitting means for transmitting the average value and the variance value of the coordinates of the user's viewpoint to the information processing apparatus.
[0013]
According to the display method of the present invention, a receiving step of receiving an image in which a first area is encoded with a higher resolution than other second areas from an information processing apparatus, and an image received by the processing of the receiving step , A display step of displaying an image decoded by the processing of the decoding step, a detection step of detecting the coordinates of the viewpoint of the user with respect to the image displayed by the processing of the display step, and a processing of the detection step Acquiring the coordinates of the user's viewpoint detected by the above at predetermined intervals, and calculating the average value and variance of the coordinates of the predetermined number of viewpoints acquired by the processing of the acquiring step And transmitting the average value and the variance value of the coordinates of the user's viewpoint calculated by the processing of the calculation step to the information processing device. Characterized in that it comprises a step.
[0014]
A second program according to the present invention includes: a reception control step of controlling reception of an image coded with a first area having a higher resolution than the other second area from an information processing apparatus; A decoding step of decoding an image the reception of which is controlled by the processing of the above, a display control step of controlling the display of the image decoded by the processing of the decoding step, and a user for the image whose display is controlled by the processing of the display control step. A detection step of detecting the coordinates of the viewpoint, and an acquisition step of acquiring the coordinates of the viewpoint of the user detected by the processing of the detection step at predetermined intervals, and acquired by the processing of the acquisition step. A calculation step of calculating an average value and a variance of coordinates of a predetermined number of viewpoints; and a position of the user's viewpoint calculated by the processing of the calculation step. The average and variance values, characterized in that to execute a transmission control step of controlling the transmission to the information processing apparatus to the computer.
[0015]
In the information processing apparatus and method and the program according to the present invention, the first area of the image is encoded with a higher resolution than the other second area, and the encoded image is transmitted to the display device and displayed. From the device, within a predetermined time set in advance, the average value of the coordinates of the user's viewpoint with respect to the image, and the variance value are received, based on the average value of the coordinates of the user's viewpoint with respect to the received image, and the variance value Then, a first region in the image is designated, and the designated first region is encoded with high resolution.
[0016]
In the display device, the method, and the program according to the present invention, an image in which the first region is encoded with a higher resolution than the other second region is received from the information processing device, and the received image is decoded. The decoded image is displayed, the coordinates of the user's viewpoint with respect to the displayed image are detected, and the coordinates of the detected user's viewpoint are acquired at predetermined time intervals. The average and variance of the coordinates of the predetermined number of viewpoints are calculated, and the calculated average and variance of the coordinates of the viewpoint of the user are transmitted to the information processing apparatus.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a diagram showing an embodiment of a service providing system to which the present invention is applied. In the present embodiment, a head-mounted display (HMD) 11 and animage server 12 are connected to anetwork 10 such as the Internet in FIG. Theimage server 12 is connected to thecamera 13. An image captured by thecamera 13 is processed by theimage server 12 and supplied to the head mounteddisplay 11 via thenetwork 10. The head mounteddisplay 11 displays an image supplied from theimage server 12 via thenetwork 10 and allows the user to view the image.
[0018]
FIG. 2 shows a configuration example of the appearance of the head mounteddisplay 11. The user wears the head-mounteddisplay 11 so as to wear glasses as shown in FIG. In the head mounteddisplay 11, a display unit 258 (FIG. 5) for displaying an image is arranged at a position in front of the user's eyes. The user can see the video displayed on thedisplay unit 258. The head mounteddisplay 11 has a built-inviewpoint detection unit 101. Theviewpoint detecting unit 101 detects the position of the user's eyeball by, for example, a corneal (scleral) reflection method (using a difference in reflectance between the iris and the white of the eyeball). The principle of viewpoint detection by theviewpoint detection unit 101 will be described below.
[0019]
Theviewpoint detection unit 101 includes a sensor that detects the position of the eyeball in the horizontal direction and a sensor that detects the position of the eyeball in the vertical direction. The sensor that detects the position of the eyeball in the horizontal direction is composed of one light-emitting element (infrared LED) and two light-receiving elements (photodiodes) arranged on both sides of the light-emitting element. The light emitting element emits infrared light to a black eye located at the center of the eyeball. The light receiving element receives reflected light of infrared light emitted from the light emitting element to the eyeball. The position of the eyeball in the horizontal direction is detected based on the difference between the intensities of the reflected lights received by the right and left light receiving elements, respectively.
[0020]
That is, the iris portion of the eyeball has a low reflectance, and the iris portion has a high reflectance. Therefore, the light receiving element on the side where the area of the iris is larger receives less reflected light than the light receiving element on the side where the area of the iris is smaller. Therefore, when the iris moves to the right light receiving element, the amount of reflected light received by the right light receiving element becomes smaller than that of the left light receiving element. Conversely, when the iris moves toward the left light receiving element, the amount of reflected light received by the left light receiving element is smaller than that of the right light receiving element. The horizontal position of the eyeball is detected based on the difference between the intensities of the reflected lights received by the left and right light receiving elements as described above.
[0021]
The sensor for detecting the position of the eyeball in the vertical direction is also constituted by one light emitting element (infrared LED) and two light receiving elements (photodiodes) arranged on the left and right with the light emitting element interposed therebetween. The light emitting element emits infrared light toward the lower edge of the surface of the eyeball. The light receiving element receives reflected light of infrared light emitted from the light emitting element to the eyeball. The position of the eyeball in the vertical direction is detected based on the sum of the intensities of the reflected lights respectively received by the right and left light receiving elements.
[0022]
That is, when the eyeball faces downward, the area of the iris at the lower edge of the surface of the eyeball increases, so that the reflected light intensity received by the left and right light receiving elements decreases. Conversely, when the eyeball faces upward, the area of the iris decreases, and the reflected light intensity received by the left and right light receiving elements increases. By adding the intensities of the reflected lights received by the left and right light receiving elements, the position of the eyeball in the vertical direction of the eyeball is detected.
[0023]
The above viewpoint detection method is disclosed in, for example, Japanese Patent Application Laid-Open No. Hei 8-229008. Further, the viewpoint detection method of theviewpoint detection unit 101 is not limited to the corneal reflection method described above, and a method other than the corneal reflection method may be used. For example, a VOG (Video-oculogram) method can be used.
[0024]
The head-mounteddisplay 11 specifies a portion of the image displayed on thedisplay unit 258 where the user's line of sight is focused, based on the position of the user's eyeball detected by theviewpoint detection unit 101. Thereafter, the head-mounteddisplay 11 notifies theimage server 12 via thenetwork 10 of information for specifying the part where the user's gaze is focused. Based on the notification from the head-mounteddisplay 11, theimage server 12 supplies the head-mounteddisplay 11 with image data in which the image of the part where the user's line of sight is focused has a higher resolution than the other parts. . As a result, an image as shown in FIG. 3, for example, is displayed on thedisplay unit 258 of the head mounteddisplay 11.
[0025]
A screen 151 in FIG. 3 shows a screen displayed on thedisplay unit 258. In the screen 151, the viewpoint 154 is a portion where the user's line of sight is focused. A predetermined area around the viewpoint 154 is a high-resolution image 153. In the screen 151, an area other than the high-resolution image 153 is a low-resolution image 152. As described above, in the image data to be transmitted, only the part that the user is gazing at has a high resolution, and the other parts have a low resolution, so that the data amount of the entire image data can be reduced. . Accordingly, since the amount of image data transmitted from theimage server 12 to the head mounteddisplay 11 is reduced, the image data can be transmitted from theimage server 12 to the head mounteddisplay 11 in a shorter time.
[0026]
The present invention is characterized in that the region of the high-resolution image in FIG. 3 is variable based on the variance of the position of the viewpoint of the user. That is, when the user is staring at one point, the variance of the coordinates of the viewpoint of the user is small, so that the area of the high-resolution image 153 is limited to a small range around the point where the user is staring. On the other hand, when the user does not stare at one point on the screen 151 and moves the viewpoint, the variance of the user's viewpoint is increased, so that the area of the high-resolution image 153 is set to be wider. By doing so, it is possible to minimize the amount of image data to be transmitted from theimage server 12 to the head-mounteddisplay 11 and to obtain a higher-resolution image for the part that the user gazes at.
[0027]
As described above, in the present embodiment, JPEG2000 is used as an image compression method in which only a predetermined area of the image data is set to the high-resolution image 153 and the other areas are set to the low-resolution image 152. JPEG2000 has a function of realizing only a part of an image at a high resolution. Note that this does not mean that the image compression method of the present invention is limited to JPEG2000. Of course, it is also possible to use an image compression method other than JPEG2000, which allows high resolution only in a predetermined area and low resolution in other areas of the image data.
[0028]
Next, FIG. 4 illustrates an example of the internal configuration of theimage server 12. In FIG. 4, anoperation unit 201 receives an input of an operation of an administrator of theimage server 12 and transmits operation information corresponding to the input operation to thecontrol unit 202. Thecontrol unit 202 controls the operation of each unit in theimage server 12 according to the operation information received from theoperation unit 201. Thecontrol unit 202 has a built-in timer, executes a predetermined program set in advance at a predetermined timing based on the timer, and controls the operation of each unit in theimage server 12.
[0029]
Theencoder 203 captures an image captured by thecamera 13. Then, theencoder 203 compresses (encodes) the captured image data according to the specification of the ROI (Region of Interest) specifyingunit 205 according to the JPEG2000 image compression method, thereby setting a predetermined area to a high resolution. To create image data with a low resolution. Then, theencoder 203 transmits the created image data to thecommunication unit 204.
[0030]
Thecommunication unit 204 transmits the image data encoded by the JPEG2000 method supplied from theencoder 203 to the head mounteddisplay 11 via thenetwork 10. In addition, thecommunication unit 204 receives the viewpoint information from the head mounteddisplay 11 via thenetwork 10 and supplies this to theROI designation unit 205. Note that the viewpoint information is information for specifying a part that the user is gazing at, and will be described later in detail.
[0031]
TheROI designation unit 205 designates, to theencoder 203, an area to be made high-resolution and other areas based on the viewpoint information supplied from thecommunication unit 204.
[0032]
Next, FIG. 5 illustrates an example of an internal configuration of the head mounteddisplay 11. In FIG. 5, an operation unit 251 receives an input of a user operation and transmits operation information corresponding to the input operation to the control unit 252. The control unit 252 controls the operation of each unit in the head mounteddisplay 11 according to the operation information received from the operation unit 251. The control unit 252 has a built-in timer, executes a predetermined program set in advance at a predetermined timing based on the timer, and controls the operation of each unit in the head mounteddisplay 11.
[0033]
Theviewpoint detection unit 101 detects the position of the user's eyeball (as described in detail above), and coordinates on which the user is gazing on the screen 151 (hereinafter, coordinates on which the user is gazing on the screen 151) Is also referred to as viewpoint coordinates), and the viewpoint coordinates are supplied to the viewpoint coordinatestorage unit 253. The viewpoint coordinatestorage unit 253 stores the viewpoint coordinates supplied from theviewpoint detection unit 101. In addition, the viewpoint coordinatestorage unit 253 supplies the viewpoint coordinates to thearithmetic processing unit 254, and receives and stores viewpoint information as an arithmetic result from thearithmetic processing unit 254. Then, the viewpoint coordinatestorage unit 253 supplies the stored viewpoint information to thepacket creating unit 255 at a predetermined timing.
[0034]
Thearithmetic processing unit 254 acquires the viewpoint coordinates from the viewpoint coordinatestorage unit 253, and calculates viewpoint information based on the viewpoint coordinates. Then, thecalculation processing unit 254 supplies the viewpoint information of the calculation result to the viewpoint coordinate holdingunit 253 and stores the viewpoint information.
[0035]
Thepacket creation unit 255 acquires the viewpoint information from the viewpoint coordinatestorage unit 253 at a predetermined timing, creates a packet for transmitting the viewpoint information to theimage server 12 by packet communication, and supplies the packet to thecommunication unit 256. I do. Thecommunication unit 256 transmits the packet including the viewpoint information supplied from thepacket creation unit 255 to theimage server 12 via thenetwork 10. Thecommunication unit 256 receives image data compressed (encoded) by the JPEG2000 system from theimage server 12 via thenetwork 10 and supplies the image data to thedecoder 257.
[0036]
Thedecoder 257 decompresses (decodes) the image data supplied from thecommunication unit 256 and supplies it to thedisplay unit 258. Thedisplay unit 258 is configured by, for example, a small LCD (Liquid Crystal Display), outputs an image based on the expanded image data supplied from thedecoder 257, displays the image in front of the user, and allows the user to view the image. .
[0037]
Next, with reference to the flowcharts of FIGS. 6 and 7, image data display processing, that is, a process of supplying image data from theimage server 12 to the head mounteddisplay 11 and displaying the image data on thedisplay unit 258 of the head mounteddisplay 11. The processing will be described.
[0038]
6 shows the processing of the head mounteddisplay 11, and FIG. 7 shows the processing of theimage server 12, respectively. In addition, it is assumed that all communication between the head mounteddisplay 11 and theimage server 12 is performed via thenetwork 10, and in the following description, the description that the communication is performed via thenetwork 10 is omitted.
[0039]
In step S101 in FIG. 6, the control unit 252 of the head mounteddisplay 11 determines whether or not an instruction to start image viewing has been input from the user based on operation information from the operation unit 251, and waits. Then, when an instruction to start image viewing is input from the user, the process proceeds to step S <b> 102, and the control unit 252 requests image data from theimage server 12 via thecommunication unit 256.
[0040]
In step S131 of FIG. 7, when thecontrol unit 202 of theimage server 12 receives a request for image data from the head mounteddisplay 11 via thecommunication unit 204, thecontrol unit 202 executes image data transmission processing in step S132.
[0041]
The details of the image data transmission processing will be described with reference to the flowchart in FIG. In step S171 of FIG. 8, thecontrol unit 201 determines whether it is the timing to encode, and if it is the timing to encode, the process proceeds to step S171. Note that this is the first image data transmission process after receiving the request for image data from the head mounteddisplay 11, so thecontrol unit 202 determines in step S171 that it is the timing to encode, and the process proceeds to step S172. move on.
[0042]
In step S172, thecontrol unit 202 instructs theencoder 203 to capture the image data supplied from thecamera 13. In step S173, thecontrol unit 202 instructs theROI designation unit 205 to supply the ROI parameters to theencoder 203. Here, the ROI parameter is information for specifying a high-resolution area.
[0043]
However, this is the first image data transmission process after receiving a request for image data from the head mounteddisplay 11, and since the viewpoint information has not been obtained from the head mounteddisplay 11, theROI designation unit 205 Do not specify a resolution area. Therefore, in step S173, theROI designation unit 205 supplies theencoder 203 with the ROI parameter indicating that there is no high-resolution area. Theencoder 203 acquires, from theROI designation unit 205, an ROI parameter indicating that there is no high-resolution area.
[0044]
In step S174, in accordance with an instruction from thecontrol unit 202, theencoder 203 encodes the image data captured in step S172 according to the ROI parameter acquired in step S173. This is the first image data transmission process after receiving the request for the image data from the head mounteddisplay 11, and as described above, the ROI parameter indicating that there is no high-resolution area is acquired in step S173. Therefore, theencoder 203 encodes the image with the entire image data at a low resolution.
[0045]
In step S175, in accordance with an instruction from thecontrol unit 202, theencoder 203 supplies the image data encoded in step S174 to thecommunication unit 204. Thecommunication unit 204 transmits the encoded image data supplied from theencoder 203 to the head mounteddisplay 11. For this transmission, for example, RTP (Real-time Transport Protocol) is used.
[0046]
In step S176, thecontrol unit 202 updates the encoding time. That is, the time from once encoding and transmitting an image (steps S171 to S176) to encoding and transmitting the next image is preset. The time is, for example, 0.1 second. Therefore, thecontrol unit 202 updates the built-in timer so that the processes of steps S171 to S176 are started again, for example, after 0.1 seconds.
[0047]
Thus, the image data transmission processing ends.
[0048]
In step S103, the control unit 252 of the head-mounteddisplay 11 receives, via thecommunication unit 256, the image data transmitted by theimage server 12 in step S175 in FIG. In step S104, the control unit 252 calculates a packet loss rate based on the reception status of the packet received in step S103, and sends an RTCP (RTP Control Protocol) receiver report including the packet loss rate via thecommunication unit 256. To theimage server 12. FIG. 9 is a diagram showing a format of the RTCP receiver report transmitted from the head mounteddisplay 11 to theimage server 12 in step S104. Note that the RTCP Application Specific is defined in RFC (Request For Comments) 1889.
[0049]
In the RTCP receiver report of FIG. 9, the version number (v), padding (p), payload type (Pt = 201), and message length are recorded from the left to the right in the top row. In the second row from the top, the synchronization source identifier (SSRC) of the sender is recorded. In the third row from the top, the packet loss rate and the total number of lost packets are recorded from the left. In the fourth row from the top, the maximum reception sequence number is recorded. In the fifth row from the top, the packet interval jitter is recorded. In the sixth row from the top, the latest transmission report time is recorded. At the bottom, the transmission report elapsed time is recorded.
[0050]
Returning to FIG. 7, in step S133, thecontrol unit 202 of theimage server 12 receives, via thecommunication unit 204, the packet loss rate transmitted by the head mounteddisplay 11 in step S104 in FIG. That is, thecontrol unit 202 reads out and stores the packet loss rate from the RTCP receiver report of FIG.
[0051]
Here, returning to FIG. 6, in step S105, the control unit 252 of the head mounteddisplay 11 supplies the image data received in step S103 from thecommunication unit 256 to thedecoder 257. Then, thedecoder 257 decodes the supplied image data according to an instruction from the control unit 252 and supplies the decoded image data to thedisplay unit 258. Thedisplay unit 258 displays an image corresponding to the supplied image data. The user can see the image displayed on thedisplay unit 258.
[0052]
In step S <b> 106, the control unit 252 of the head mounteddisplay 11 determines whether or not an instruction to stop viewing has been input by the user based on operation information from the operation unit 251, and the instruction to stop viewing has been input by the user. If so, the process proceeds to step S107.
[0053]
In step S107, the control unit 252 of the head mounteddisplay 11 notifies theimage server 12 via thecommunication unit 256 of the stop of viewing. Then, the head mounteddisplay 11 ends the image data display processing.
[0054]
At this time, since thecontrol unit 202 of theimage server 12 receives the viewing stop notification transmitted by the head mounteddisplay 11 in step S107, thecontrol unit 202 determines that the viewing stop notification has been received in step S134 in FIG. The data display processing ends.
[0055]
If the instruction to stop viewing has not been input, the control unit 252 of the head mounteddisplay 11 determines in step S106 of FIG. 6 that the instruction to stop viewing has not been input, returns to step S103, and returns to step S103. Repeat the process. That is, thecontrol unit 202 of theimage server 12 determines in Step S134 of FIG. 7 that the notification of the viewing stop has not been received from the head mounteddisplay 11, and repeats the processing of Step S132 and thereafter. Therefore, in step S103, the head mounteddisplay 11 receives the next image data from theimage server 12, and repeats the subsequent processing.
[0056]
By the way, when the first image data (the whole image data in the low resolution area) is transmitted from theimage server 12 to the head mounteddisplay 11 and displayed on thedisplay unit 258 of the head mounteddisplay 11, Calculates viewpoint information based on the position of the viewpoint of the user, and transmits this to theimage server 12. Theimage server 12 creates image data including the high-resolution area based on the viewpoint information and supplies the created image data to the head-mounteddisplay 11 in step S174. The head mounteddisplay 11 displays the supplied image data having a high resolution area.
[0057]
Therefore, next, referring to the flowchart of FIG. 10, the viewpoint information transmission processing of the head mounteddisplay 11, that is, the head mounteddisplay 11 calculates the viewpoint information, and transmits the viewpoint information from the head mounteddisplay 11 to theimage server 12. Processing until transmission is described. Note that the viewpoint information transmission processing is started when an image is displayed on thedisplay unit 258 by the first processing of step S105 after an instruction to start viewing is input.
[0058]
In step S201 of FIG. 10, thearithmetic processing unit 254 initializes a variable n and sets n = 0 according to an instruction from the control unit 252. Specific description of each variable will be described later.
[0059]
In step S202, the control unit 252 of the head mounteddisplay 11 determines whether or not it is the time of calculation of the viewpoint information based on a built-in timer. If the time is the time of calculation, the process proceeds to step S203. In step S202 of the first time after step S201 in FIG. 10, the control unit 252 determines that the calculation time is the viewpoint information, and the process proceeds to step S203.
[0060]
In step S203, in response to an instruction from the control unit 252, the viewpoint coordinatestorage unit 253 stores the viewpoint coordinates supplied from theviewpoint detection unit 101. Here, the viewpoint coordinates will be described with reference to FIG. 11, ascreen area 401 shows the entire screen displayed on thedisplay unit 258. The X axis is set in the horizontal direction of thescreen area 401, and the Y axis is set in the vertical direction. The X-axis direction of thescreen area 401 is divided into 101 coordinates of 0 to 100. Similarly, the Y-axis direction of thescreen area 401 is divided into 101 coordinates from 0 to 100. After detecting the position of the user's eyeball, theviewpoint detection unit 101 calculates the coordinates of thescreen area 401 where the eyeball gazes at the position of the eyeball.
[0061]
Theviewpoint detection unit 101 calculates, for example, that the position where the eyeball gazes is theviewpoint 402 in FIG. After that, theviewpoint detection unit 101 calculates the coordinates of theviewpoint 402 in thescreen area 401. For example, when theviewpoint 402 is located at the center of thescreen area 401 as shown in FIG. 11, theviewpoint detection unit 101 calculates the viewpoint coordinates as (x, y) = (50, 50). Theviewpoint detection unit 101 calculates viewpoint coordinates at a predetermined timing, and outputs the coordinates to the viewpoint coordinate holdingunit 253. Theviewpoint detection unit 254 calculates the viewpoint coordinates at least a times per second. Note that a is a predetermined constant set in advance, and is used in the processing of step S205 described later. Theviewpoint detection unit 254 calculates viewpoint coordinates, for example, 100 times per second.
[0062]
The viewpoint coordinatestorage unit 253 stores the viewpoint coordinates supplied from theviewpoint detection unit 101.
[0063]
In step S204, theoperation processing unit 254 increments the value of the variable n by 1 according to an instruction from the control unit 252. In step S205, thearithmetic processing unit 205 determines whether n ≧ a (where a is a preset constant). In the following example, a = 10 is set. However, of course, a = 10 is an example, and a may be a value other than 10.
[0064]
When thearithmetic processing unit 205 determines that n ≧ a is not satisfied, the process returns to step S202, and the processes after step S202 are repeatedly executed.
[0065]
Until thearithmetic processing unit 205 determines in step S205 that n ≧ a, the processing of steps S202 to S205 is repeated. Then, each time n is incremented by one.
[0066]
Hereinafter, the processing of steps S202 to S205 after the second time will be described. After thearithmetic processing unit 205 determines that n ≧ a is not satisfied in the first process of step S205, the control unit 252 determines whether or not the calculation time is reached in the second step S202. After the process in step S201, the timer built in the control unit 252 keeps the calculation time, for example, every 0.1 second until thearithmetic processing unit 205 determines in step S205 that n ≧ a. Is determined. Therefore, in the second step S202, the control unit 252 determines that it is the calculation time. Then, after the control unit 252 determines that it is the calculation time, in step S203, the viewpoint coordinatestorage unit 253 stores the viewpoint coordinates input from theviewpoint detection unit 101, and in step S204, thearithmetic processing unit 254 The value of n is incremented by 1 so that n = 2.
[0067]
After that, in the processing of the second step S205, thearithmetic processing unit 205 determines that n ≧ a is not satisfied. Then, in the third step S202, the control unit 252 determines whether or not it is the calculation time. Then, after the control unit 252 determines that it is the calculation time, in step S203, the viewpoint coordinatestorage unit 253 stores the viewpoint coordinates input from theviewpoint detection unit 101, and in step S204, thearithmetic processing unit 254 The value of n is incremented by 1 so that n = 3.
[0068]
Thereafter, similarly, when the processes of steps S202 to S205 are executed for the fourth to ninth times, nine viewpoint coordinates are stored in the viewpoint coordinate holdingunit 253, and n becomes n = 9. I have. After that, in the tenth step S202, the control unit 252 determines whether or not it is the calculation time. Then, after the control unit 252 determines that it is the calculation time, in step S203, the viewpoint coordinatestorage unit 253 stores the viewpoint coordinates input from theviewpoint detection unit 101, and in step S204, thearithmetic processing unit 254 The value of n is incremented by 1 so that n = 10.
[0069]
Thereafter, in step S205, thearithmetic processing unit 254 determines that n ≧ a, and the process proceeds to step S206.
[0070]
A description will be given of a mechanism in which the viewpoint coordinatestorage unit 253 stores the viewpoint coordinates in the repetition of the processing of steps S202 to S205.
[0071]
The viewpoint coordinatestorage unit 253 has an area for storing a = 10 viewpoint coordinates. 12 to 15 show conceptual diagrams when the viewpoint coordinatestorage unit 253 stores the viewpoint coordinates. The ring shown in FIG. 12 is divided into ten regions, and the divided regions are indicated by a to j. One viewpoint coordinate is stored in each of the areas a to j. The viewpoint coordinates are stored in the area indicated by the arrow of the writing point (the area indicated by a in FIG. 12).
[0072]
In FIG. 10, in the first process of step S203, the viewpoint coordinates (x0, y0) are stored in the area a shown in FIG. Thereafter, the wheel shown in FIG. 12 is rotated by one storage area of the viewpoint coordinates, and the area b is located at the position of the writing point as shown in FIG. In the process of the second step S203, the viewpoint coordinates (x1, y1) are stored in the area b shown in FIG. Thereafter, the wheel shown in FIG. 13 rotates by one storage area of the viewpoint coordinates, and as shown in FIG. 14, the area c is located at the position of the writing point. In the process of the third step S203, the viewpoint coordinates (x2, y2) are stored in the area c shown in FIG.
[0073]
Hereinafter, similarly, in the fourth step S203, the viewpoint coordinates (x3, y3) are stored in the region d, and in the fifth step S203, the viewpoint coordinates (x4, y4) are stored in the region e. In the sixth step S203, the viewpoint coordinates (x5, y5) are stored in the region f. In the seventh step S203, the viewpoint coordinates (x6, y6) are stored in the region g. , The region coordinates (x7, y7) are stored in the region h, and the viewpoint coordinates (x8, y8) are stored in the region i in the ninth step S203.
[0074]
Then, in the tenth step S203, the viewpoint coordinates (x9, y9) are stored in the area j as shown in FIG.
[0075]
FIG. 16 shows an example of the viewpoint coordinates stored in the areas a to j in this way. In FIG. 16, the leftmost column indicates the regions a to j in order from the top. In FIG. 16, the center column shows an example of the x-coordinate stored in the viewpoint coordinatestorage unit 253. In FIG. 16, the rightmost column shows an example of the y coordinate stored in the viewpoint coordinatestorage unit 253.
[0076]
As shown in FIG. 16, the viewpoint a (x, y) = (10, 20) is stored in the area a. In the area b, the viewpoint coordinates (x, y) = (30, 30) are stored. Similarly, in the area c, the viewpoint coordinates (x, y) = (10, 40) are stored, in the area d, the viewpoint coordinates (x, y) = (40, 40) are stored. In e, viewpoint coordinates (x, y) = (50, 50) are stored, in region f, viewpoint coordinates (x, y) = (50, 50) are stored, and in region g, viewpoint coordinates are stored. (X, y) = (60, 20) is stored, the viewpoint coordinates (x, y) = (10, 10) are stored in the region h, and the viewpoint coordinates (x, y) = (5, 1) is stored, and the view point coordinates (x, y) = (90, 90) are stored in the area j.
[0077]
As described above, when a predetermined number of viewpoint coordinates are stored in the viewpoint coordinatestorage unit 253, in step S205, thearithmetic processing unit 254 satisfies n ≧ a (the predetermined predetermined number of viewpoint coordinates is , Stored in the viewpoint coordinate storage unit 253), and the process proceeds to step S206.
[0078]
In step S206, thearithmetic processing unit 254 calculates an average value of the x coordinate (hereinafter, the average value of the x coordinate is xm) and an average value of the y coordinate (hereinafter, the average value of the y coordinate is ym). I do. In the example of FIG. 16, thearithmetic processing unit 254 calculates xm = (10 + 30 + 10 + 40 + 50 + 50 + 60 + 10 + 5 + 90) /10=35.5, and ym = (20 + 30 + 40 + 40 + 50 + 50 + 20 + 10 + 1 + 30) /10=29.1.
[0079]
Next, in step S207, thearithmetic processing unit 254 calculates the variance of x (hereinafter, the variance of x is σ ^ 2x) and the variance of y (hereinafter, the variance of y is σ ^ 2y). . Here, the formula for calculating the variance of x is as follows.
[0080]
(Equation 1)
Figure 2004056335
[0081]
The above equation is defined as equation (1). In the following description of Expression (1), the subscript i of x is described as x_i. Similarly, the subscript i of f is described as f_i. As shown inExpression 1, i takes a value from 1 to 101. That is, as described with reference to FIG. 11, the x coordinate is divided into 101 coordinates from 0 to 100. Therefore, thevalues 1 to 101 of i correspond to the x coordinates 0 to 100, respectively.
[0082]
x_i is the value of the x coordinate. That is, the value of x_i is (i-1). xm is the average value of the x coordinates calculated in step S206. f_i is a value indicating the frequency distribution at each x coordinate of 0 to 100 of the x coordinate of the viewpoint coordinates. For example, in the example of FIG. 16, x = 50 includes two regions e and f, so that f_51 which is a frequency distribution of x = 50 is f_51 = 2.
[0083]
That is, the equation (1) is obtained by squaring the deviation of the variable x_i from the average xm and multiplying it by the frequency f_i for the case where i is 1 to 101 and adding this value. , Divided by thenumber 10 of viewpoint coordinates.
[0084]
The equation for calculating the variance of y is as follows.
[0085]
(Equation 2)
Figure 2004056335
[0086]
The above equation is defined as equation (2). Equation (2) is obtained by replacing x_i and xm in equation (1) with y_i and ym, respectively. That is, equation (2) calculates the square of the deviation of the variable value y_i from the average value ym and multiplies it by the frequency f_i for the case where i is 1 to 101 and adds this value. , Divided by thenumber 10 of viewpoint coordinates.
[0087]
Returning to FIG. 10, in step S208, thearithmetic processing unit 254 of the head mounteddisplay 11 stores the xm and ym calculated in step S206, and the σ ^ 2x and σ ^ 2y calculated in step S207, in the viewpoint coordinatestorage unit 253. To memorize.
[0088]
In step S209, the control unit 252 causes thepacket creating unit 255 to supply xm, ym, σ ^ 2x, and σ ^ 2y stored in the viewpoint coordinatestorage unit 253 in step S208. Then, the control unit 252 causes thepacket creating unit 255 to create a transmission packet including xm, ym, σ ^ 2x, and σ ^ 2y. FIG. 17 shows an example of a packet created by thepacket creating unit 255. FIG. 17 shows the format of the RTCP Application Specific. Note that RTCP Application Specific is defined in RFC1889.
[0089]
In FIG. 17, the version number (v), padding (p), packet type, and message length are recorded in order from left to right in the uppermost row. In the second row from the top, the synchronization source identifier (SSRC) of the sender is recorded. In the third row from the top, the application name is recorded. In the fourth row from the top, data, that is, xm, ym, σ ^ 2x, and σ ^ 2y are recorded.
[0090]
After the process in step S209, in step S210, the control unit 252 of the head mounteddisplay 11 determines whether or not the input mode is 1, and if the input mode is 1, the process proceeds to step S211. The user can operate the operation unit 251 to set the input mode to either 0 or 1. In the case of the input mode = 1, the control unit 252 sets the timer until the calculation time to 0.1 second (the calculation time is again set to 0.1 second after the time previously determined to be the calculation time in step S202). Is set to come). Thereafter, the process returns to step S202.
[0091]
In this case, in step S202, the control unit 252 again determines that the calculation time is 0.1 seconds after the determination in step S202 is the calculation time. As a result, after 0.1 second from the previous time when thearithmetic processing unit 254 calculates xm, ym, σ ^ 2x, and σ 演算 2y, thearithmetic processing unit 254 sets the next xm, ym, σ ^ 2x, And σ ^ 2y are calculated.
[0092]
If the control unit 252 determines in step S210 that the input mode is not 1, that is, the input mode is 0, the process proceeds to step S212.
[0093]
In step S212, the control unit 252 sets the timer until the calculation time to 0.2 seconds (so that the calculation time comes again 0.2 seconds after the time previously determined to be the calculation time in step S202). Set to.) Thereafter, the process returns to step S202.
[0094]
In this case, in step S202, the control unit 252 again determines that the calculation time is 0.2 seconds after the calculation time is determined in step S202. As a result, 0.2 seconds after the last time thearithmetic processing unit 254 calculates xm, ym, σ 、 2x, and σy2y, thearithmetic processing unit 254 sets the next xm, ym, σ ^ 2x, And σ ^ 2y are calculated.
[0095]
As described above, the intervals at which xm, ym, σ 、 2x, and σ ^ 2y are calculated can be adjusted by switching the input mode. Therefore, by selecting the input mode = 1, a finer change in the position of the eyeball can be detected, and by selecting the input mode = 0, a more coarse change in the position of the eyeball can be detected. . In the above example, the input mode has only two patterns of 0 or 1, but it is of course possible to have three or more input modes.
[0096]
By the way, in FIG. 10, after setting the timer in the processing of step S211 or step S212, if it is determined in step S202 that it is the calculation time, the processing proceeds to step S203. At this time, since the viewpoint coordinatestorage unit 253 has already stored the ten viewpoint coordinates, in step S203, the viewpoint coordinatestorage unit 253 sets the oldest viewpoint coordinate among the stored ten viewpoint coordinates. The viewpoint coordinates input from theviewpoint detection unit 101 are overwritten and stored. The concept of this processing will be described with reference to FIGS.
[0097]
That is, for example, FIG. 15 shows an example in which the viewpoint coordinates are already stored in all the regions a to j. In FIG. 15, the earliest stored viewpoint coordinates are (x0, y0) of the area a. Therefore, when storing the new viewpoint coordinates, as shown in FIG. 18, (x0, y0) stored in the area a is deleted, and the new viewpoint coordinates (x10, y10) are stored in the area a.
[0098]
FIG. 19 shows a more general conceptual diagram. In FIG. 19, the latest viewpoint coordinates (xn, yn) are stored in the area located at the writing point. In the area immediately below, the viewpoint coordinates (xn-1, yn-1) acquired immediately before are stored. Further, in the area immediately below, the viewpoint coordinates (xn−2, yn−2) acquired two times earlier are stored. Hereinafter, similarly, the older viewpoint coordinates are stored, and the viewpoint coordinates (xn-8, yn-8) acquired eight times before the latest viewpoint coordinates (xn, yn) are stored in the uppermost region of the ring. Is stored. Under the viewpoint coordinates (xn-8, yn-8), viewpoint coordinates (xn-9, yn-9) acquired nine times before the latest viewpoint coordinates (xn, yn) are stored. As described above, the viewpoint coordinatestorage unit 253 sequentially overwrites new viewpoint coordinates.
[0099]
In step S209 of FIG. 10, the viewpoint information (xm, ym, σ ^ 2x, and σ ^ 2y) transmitted by the head mounteddisplay 11 is received and stored by theimage server 12. Next, the viewpoint information reception processing of theimage server 12 will be described with reference to the flowchart in FIG.
[0100]
In step S251, thecommunication unit 204 of theimage server 12 receives the viewpoint information (xm, ym, σ ^ 2x, and σ ^ 2y) transmitted by the head mounteddisplay 11 in step S209 of FIG.
[0101]
In step S252, thecontrol unit 202 of theimage server 12 causes theROI designation unit 205 to supply the viewpoint information received by thecommunication unit 204 in step S251. Then,control unit 202 causesROI designation unit 205 to store the viewpoint information.
[0102]
Thus, the viewpoint information receiving process of theimage server 12 ends.
[0103]
TheROI specifying unit 205 of theimage server 12 calculates an ROI parameter that specifies a high-resolution area based on the viewpoint information stored as described above, and supplies the ROI parameter to theencoder 203. Theencoder 203 creates image data including a high-resolution area based on the ROI parameter in step S174 of FIG.
[0104]
Next, the ROI range determination processing of theimage server 12, that is, the processing of specifying a high-resolution area based on viewpoint information will be described with reference to the flowchart of FIG.
[0105]
In step S301 in FIG. 21, theROI designation unit 205 initializes variables a, b, and C based on an instruction from thecontrol unit 202. Here, the variables a, b, and C will be described with reference to FIG.
[0106]
In FIG. 22, a predetermined range around theviewpoint 402 in thescreen area 401 is designated as the high-resolution area 501. The coordinates of theviewpoint 402 are (x, y) = (xm, ym) included in the viewpoint information. The high resolution area 501 is a rectangle (including a square) in which the length of the side in the Y-axis direction is α and the length of the side in the X-axis direction is β.
[0107]
Here, α is, for example,
α = aσ ^ 2y
Is calculated by This equation is defined as equation (3).
[0108]
Β is, for example,
β = bσ ^ 2x
Is calculated by This equation is defined as equation (4).
[0109]
A and b in the above equations (3) and (4) are set according to the network situation. For example, when the packet loss rate increases, the lengths of α and β can be shortened by setting a and b to small values. As a result, it is possible to reduce the amount of encoded image data by reducing the high resolution area 501.
[0110]
In addition, if the user does not move the position of the eyeball while staring at theviewpoint 402, the variance σ ^ 2x or the variance ^^ 2y approaches 0 without limit. In that case, the length of α or β in Equation (3) or Equation (4) also approaches 0 without limit. As a result, the more the user gazes at one point, the more the high resolution area 501 disappears.
[0111]
Further, when the congestion of thenetwork 10 continues, the values of a and b may become zero. Also in that case, the length of α or β becomes 0 in the above equation (3) or equation (4). As a result, the high resolution area 501 disappears.
[0112]
In order to avoid such a situation, a minimum value C is set for α and β, and if the value of α or β falls below the minimum value C in equation (3) or (4), The length of the side is C.
[0113]
The variables a, b, and C have predetermined preset initial values. In step S301, theROI designation unit 205 of theimage server 12 sets the variables a, b, and C to the preset initial values. I do.
[0114]
In step S302, thecontrol unit 202 determines whether the packet loss rate and the viewpoint information have been received from the head mounteddisplay 11, and if the packet loss rate and the viewpoint information have been received, the process proceeds to step S303. Proceed to. Here, the packet loss rate is the one received in step S133 in FIG. The viewpoint information is the one received in step S251 of FIG.
[0115]
In step S303, thecontrol unit 202 supplies the stored packet loss rate to theROI specifying unit 205.ROI designation section 205 compares the packet loss rate supplied fromcontrol section 202 with a predetermined reference value X set in advance, and determines whether or not the packet loss rate is equal to or greater than X. As a result, if the packet loss rate is not equal to or higher than X, the processing proceeds to step S304.
[0116]
In step S304, theROI specifying unit 205 adds one to the value of a and sets this as a new a. Also, theROI specifying unit 205 adds one to the value of b and sets this as a new b.
[0117]
In step S303, when theROI specifying unit 205 determines that the packet loss rate is not equal to or more than X, that is, is smaller than X, the process proceeds to step S305.
[0118]
In step S305, theROI designation unit 205 subtracts 1 from the value of a and sets this as a new a. Also, theROI specifying unit 205 subtracts 1 from the value of b and sets this as a new b.
[0119]
After the process of step S304 or step S305, the process proceeds to step S306, where theROI specifying unit 205 executes the formulas (3) and (4) and calculates the values of α and β.
[0120]
In step S307,ROI specifying section 205 determines whether or not α <C. If α <C, the process proceeds to step S308. In step S308, theROI designation unit 205 sets α = C. Thereafter, the process proceeds to step S309.
[0121]
In step S307, when theROI specifying unit 205 determines that α <C is not satisfied, that is, when it determines that α ≧ C, the process of step S308 is skipped, and the process proceeds to step S309.
[0122]
In step S309,ROI designation section 205 determines whether or not β <C. If β <C, the process proceeds to step S310. In step S310,ROI designation section 205 sets β = C. Thereafter, the process proceeds to step S311.
[0123]
In step S309, if theROI specifying unit 205 determines that β <C is not satisfied, that is, determines that β ≧ C, the process of step S310 is skipped, and the process proceeds to step S311.
[0124]
In step S311, theROI designation unit 205 stores the values α and β set by the processing in steps S306 to S310 and xm and ym included in the viewpoint information as one group. After the process in step S311, the process returns to step S302, and the processes in and after step S302 are repeated.
[0125]
As described above, the high resolution area 501 is determined. TheROI designation unit 205 creates an ROI parameter for designating the high resolution area 501 based on the values α, β, xm, and ym set by the above processing, and assigns the ROI parameter at a predetermined timing. Is supplied to the encoder 203 (step S173 in FIG. 8). Theencoder 203 creates image data including the high-resolution area 501 according to the ROI parameter (Step S174 in FIG. 8).
[0126]
In the flowchart of FIG. 21, the case where sides α and β of the high-resolution area 501 are calculated by Expressions (3) and (4), respectively, has been described as an example. However, this does not mean that the sides α and β of the high-resolution region 501 are limited to the calculation using the equations (3) and (4), respectively.
[0127]
For example, in Expressions (3) and (4), b∝a may be set. Also, α∝β may be satisfied. In this case, the equations for calculating α and β are, for example,
α = a (σ ^ 2x + σ ^ 2y)
β = b (σ ^ 2x + σ ^ 2y)
It is good.
[0128]
Further, a and b may be constants irrespective of the packet loss rate. Further, in the example described above, the high-resolution area 501 is a rectangle (including a square), but the high-resolution area 501 may have a shape other than a rectangle. In JPEG2000, an arbitrary shape can be specified for the high resolution area. The high-resolution area may be, for example, circular as shown in FIG.
[0129]
In FIG. 23, the high-resolution area 511 is a circle having a center at theviewpoint 402 and a radius of r. In this case, the radius r is, for example,
r = k (aσ ^ 2x + bσ ^ 2y)
May be calculated by Here, k is a preset constant. Further, the method of calculating a and b can be the same method as the processing of steps S303 to S305 in the flowchart of FIG.
[0130]
The high resolution area may be, for example, elliptical as shown in FIG. In FIG. 24, the high resolution area 521 is elliptical with theviewpoint 402 as the center. The method of calculating α and β may be the same as the flowchart in FIG.
[0131]
As described above, as described in the present embodiment, by specifying the high resolution area based on the dispersion of the user's viewpoint, the data amount of the entire image data transmitted from theimage server 12 to the head mounteddisplay 11 Can be set to a high resolution while the area of the user's gaze is minimized.
[0132]
Human eye movements are generally classified into saccades (jumping eye movements) and sliding eye movements. The saccade is an eyeball movement that moves the viewpoint from one point of gazing point to another point of gazing point at high speed, and during the saccade, the image displayed on thedisplay unit 258 cannot be perceived. The slippery eye movement is an eye movement that follows an object that is gazing (for example, a person displayed on the display unit 258) when the object moves at a low speed, During the smooth eye movement, the image displayed on thedisplay unit 258 can be perceived.
[0133]
If saccades occur, the value of the variance increases. Therefore, the high resolution area has a wider range. By doing in this way, even if the user's point of gaze momentarily moves to a far position (for example, the user's point of gaze instantaneously moves from the upper left corner to the lower right corner of the screen 151 in FIG. 3). Even if it moves, it is possible to increase the probability that the destination of the gazing point is within the high resolution area. Further, even if the destination of the gazing point is not in the high-resolution area immediately after the movement of the viewpoint, the gazing point can be quickly set in the high-resolution area.
[0134]
On the other hand, when a smooth eye movement occurs, the variance becomes smaller as compared with the case of the saccade. Therefore, the high-resolution area has a narrower range than the case of the saccade. By doing in this way, when the user's gazing point moves at a low speed (for example, when the user's gazing point gradually moves downward from the viewpoint 154 of the screen 151 in FIG. 3), the high resolution area After the range is reduced to the minimum necessary size (therefore, the amount of image data transmitted from theimage server 12 to the head-mounteddisplay 11 is reduced), the moving destination of the gazing point is within the high-resolution area. .
[0135]
Human visual fields are generally classified into central visual fields and peripheral visual fields. The field of view refers to a range of a space that can be simultaneously viewed when one point in front of the eye is fixed. When a human looks at an object, light passing through the lens of the eyeball is formed on the retina with the image inverted. The obtained visual acuity differs depending on the retinal portion, and the best visual acuity can be obtained in the central portion of the retina (fovea retinal). The central field is the area of the image formed in the fovea. Further, the peripheral visual field is a range of an image formed in a portion of the retina other than the fovea centralis. In the peripheral visual field, better visual acuity cannot be obtained as in the central visual field.
[0136]
Visual acuity drops sharply as one moves away from the fovea. For example, in a human having a visual acuity of 1.0 to 1.2 with respect to an image formed in the fovea retinal, the visual acuity for an image formed in a portion at an angle of 5 degrees from the fovea is: The visual acuity for an image formed at a portion separated by an angle of 10 degrees is about 0.1, and is about 0.05.
[0137]
For example, in FIG. 22, an image of a portion where theviewpoint 402 of the user is located is formed in the fovea of the retina. Therefore, the user's visual acuity is the best at theviewpoint 402, and sharply decreases as the distance from theviewpoint 402 increases. Therefore, even if the image of the entire screen 151 in FIG. 22 is set to a high resolution, the user cannot clearly perceive the image of the part distant from theviewpoint 402.
[0138]
Therefore, even when the image of the portion distant from theviewpoint 402 is a low-resolution image as in the present invention, when the user perceives the entire image displayed on thescreen 401, the user's perceptual ability is greatly affected. I will not give.
[0139]
In addition, photoreceptor cells that receive light exist on the retina. There are two types of photoreceptor cells, cone cells and rod cells. Pyramidal cells are widely distributed in the fovea of the retina, and rod cells are widely distributed in the periphery of the retina. That is, the central visual field is mainly obtained by the action of cone cells, and the peripheral visual field is mainly obtained by the action of rod cells.
[0140]
Pyramidal cells are classified into a type that absorbs red wavelengths, a type that absorbs blue wavelengths, and a type that absorbs green wavelengths. Pyramidal cells work in bright places to distinguish colors. On the other hand, rod cells absorb all wavelengths of visible light. Rod cells work to identify the shape of an object in the dark.
[0141]
Therefore, an image in the central visual field (for example, the high-resolution image 153 in FIG. 3) is displayed in color, and an image in the peripheral visual field (for example, the low-resolution image 152 in FIG. 3) is displayed in gray scale. good.
[0142]
The configuration of the appearance of the head mounteddisplay 11 described in the present embodiment is not limited to that shown in FIG. 2, and a head mounted display having an arbitrary shape can be adopted. In addition, in FIG. 2, theviewpoint detection unit 101 is built in the head mounteddisplay 11, but theviewpoint detection unit 101 may be configured separately from the main body of the head mounteddisplay 11. In addition, in FIG. 2, theviewpoint detection unit 101 is installed in front of the right eye of the user and detects the position of the right eyeball. However, theviewpoint detection unit 101 detects the position of the left eye of the user. It may be installed in front and detect the position of the eyeball of the left eye of the user.
[0143]
Further, the present invention can be applied to a display device other than the head mounteddisplay 11. For example, the present invention can be applied to a display in which a screen is installed in a housing located a predetermined distance in front of the user, a projector that projects an image on a screen located in front of the user, and the like. In that case, the user is equipped with a detection device for detecting the position of the eyeball.
[0144]
Also, in the present embodiment, the viewpoint information and the packet loss rate are transmitted from the head mounteddisplay 11 to theimage server 12 using the RTCP Application Specific and the RTCP Receiver Report. It is not meant that the invention is limited to utilizing RTCP Application Specific and RTCP Receiver Report.
[0145]
Further, in the present embodiment, for the sake of simplicity, theimage server 12 has been described as an example in which image data is transmitted to only one head-mounteddisplay 11. Thedevice 12 can transmit image data to the plurality of head mounted displays 11 independently and in parallel. In this case, each head-mounteddisplay 11 is individually identified, for example, by the sender's synchronization source identifier included in the RTCP Application Specific or RTCP Receiver Report. Then, theimage server 12 independently executes the processing described in the present embodiment on each of the identified head-mounted displays 11.
[0146]
In the present embodiment, when a high-resolution area (for example, the high-resolution area 501 in FIG. 22, the high-resolution area 511 in FIG. 23, or the high-resolution area 521 in FIG. , (Xm, ym), the coordinates of theviewpoint 402 can be, for example, (xn, yn) just written by the head mounteddisplay 11 at the writing point in FIG.
[0147]
Further, in the present embodiment, the case where theimage server 12 transmits only the encoded image data to the head mounteddisplay 11 has been described, but theimage server 12 may, of course, transmit the audio data together with the image data. Can be sent. That is, theimage server 12 can encode the audio data collected by the microphone provided in thecamera 13 together with the image data by theencoder 203 and transmit the encoded audio data to the head mounteddisplay 11 via thecommunication unit 204. .
[0148]
Although FIG. 4 does not show a speaker that reproduces the audio data received from theimage server 12, a speaker may be further provided. That is, the data received by the head-mounteddisplay 11 from theimage server 12 via thecommunication unit 256 is decoded by thedecoder 257, and the image data among the decoded data is displayed on thedisplay unit 258, and the audio data Is supplied to a speaker, and a sound corresponding to the sound data is output.
[0149]
Further, in the present embodiment, the case where theimage server 12 encodes an image captured from thecamera 13 is described as an example. This is because the present invention encodes an image captured from thecamera 13. It is not meant to be limited to the case where Theimage server 12 can, for example, capture image data recorded in advance on a predetermined recording medium, encode the image data with theencoder 203, and transmit the encoded data to the head-mounteddisplay 11 via thecommunication unit 204. Of course, when encoding image data recorded in a predetermined recording medium in advance, it is also possible to specify a high-resolution area based on viewpoint information.
[0150]
The series of processes described above can be executed by hardware, but can also be executed by software. In this case, for example, theimage server 12 or the head-mounteddisplay 11 is configured by a general-purpose personal computer 700 as shown in FIG.
[0151]
In FIG. 25, aCPU 701 executes various processes according to a program stored in aROM 702 or a program loaded from astorage unit 709 into aRAM 703. TheRAM 703 also stores data and the like necessary for theCPU 701 to execute various types of processing.
[0152]
TheCPU 701, theROM 702, and theRAM 703 are mutually connected via abus 704. The input /output interface 705 is also connected to thebus 704.
[0153]
The input /output interface 705 includes anoperation unit 706 including a keyboard, a mouse, and the like, asound output unit 707 including a speaker, and outputting sound, adisplay 708 including an LCD or a CRT (Cathode Ray Tube), a hard disk, and the like. Acommunication unit 710 including astorage unit 709, a modem, a terminal adapter, and the like is connected. Thecommunication unit 710 performs communication processing via thenetwork 10 including the Internet.
[0154]
Adrive 711 is connected to the input /output interface 705 as necessary, and amagnetic disk 721, anoptical disk 722, a magneto-optical disk 723, asemiconductor memory 724, or the like is appropriately mounted. It is installed in thestorage unit 709 as needed.
[0155]
When a series of processing is executed by software, a program constituting the software can execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed in a possible, for example, a general-purpose personal computer from a network or a recording medium.
[0156]
As shown in FIG. 25, this recording medium is a magnetic disk 721 (including a flexible disk) storing a program and an optical disk 722 (including a flexible disk) which are distributed to supply the user with the program separately from the apparatus main body. Not only a package medium including a CD-ROM and a DVD), a magneto-optical disk 723 (including an MD (Mini-Disk)), or asemiconductor memory 724, but also a state in which the optical disk is pre-installed in the apparatus main body. Thestorage unit 709 includes aROM 702 that stores a program and is supplied to the user, and a hard disk included in thestorage unit 709.
[0157]
The storage of the program in the recording medium may be performed using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via thecommunication unit 710 as necessary.
[0158]
In this specification, the steps of describing a program provided by a medium are not necessarily performed in chronological order, but may be performed in parallel or individually according to the described order. This includes the processing to be executed.
[0159]
Also, in this specification, a system refers to an entire device including a plurality of devices.
[0160]
【The invention's effect】
As described above, according to the first aspect of the present invention, it is possible to transmit an image to a display device via a network.
[0161]
Further, according to the first aspect of the present invention, of the image data transmitted via the network, the amount of image data is minimized while maintaining a high image resolution in a range where the user is gazing. It becomes possible. Therefore, the transmission time of the image data can be reduced. In addition, network congestion can be prevented.
[0162]
Furthermore, according to the first aspect of the present invention, in each of the user's eye movements, that is, the saccade, the smooth eye movement, and the case where one point is fixed without moving the eye, the region to be a high-resolution image is The image specified in the optimum range can be transmitted to the display device.
[0163]
According to the second aspect of the present invention, an image can be received via a network.
[0164]
Further, according to the second aspect of the present invention, of the image data received via the network, the image resolution of the range in which the user is gazing is kept high, and the data amount of the image data is minimized. It becomes possible. Therefore, the reception time of the image data can be reduced. In addition, network congestion can be prevented.
[0165]
Further, according to the second aspect of the present invention, the eye movement of the user, that is, the saccade, the smooth eye movement, and in each case where one point is fixed without moving the eyeball, the region to be a high-resolution image, An image specified in an optimal range can be displayed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a service providing system to which the present invention has been applied.
FIG. 2 is a diagram illustrating a configuration example of an appearance of a head mounted display.
FIG. 3 is a diagram illustrating an example of a screen displayed on a display unit of a head mounted display.
FIG. 4 is a block diagram illustrating an example of the internal configuration of an image server.
FIG. 5 is a block diagram illustrating an example of the internal configuration of a head mounted display.
FIG. 6 is a flowchart illustrating image data display processing of a head mounted display.
FIG. 7 is a flowchart illustrating an image data display process of the image server.
FIG. 8 is a flowchart illustrating an image data transmission process of the image server.
FIG. 9 is a diagram illustrating an example of a format of a packet transmitted in step S104 of FIG. 6;
FIG. 10 is a flowchart illustrating a viewpoint information transmission process of a head mounted display.
FIG. 11 is a diagram illustrating a method of specifying viewpoint coordinates.
FIG. 12 is a diagram conceptually illustrating a method of storing viewpoint coordinates in a viewpoint information holding unit.
FIG. 13 is a diagram subsequent to FIG. 12 and conceptually illustrating a method of storing viewpoint coordinates in the viewpoint information holding unit.
FIG. 14 is a diagram subsequent to FIG. 13 and conceptually illustrating a method of storing viewpoint coordinates in the viewpoint information holding unit.
FIG. 15 is a diagram subsequent to FIG. 14 and conceptually illustrating a method of storing viewpoint coordinates in the viewpoint information holding unit.
FIG. 16 is a diagram illustrating an example of viewpoint coordinates stored in a viewpoint coordinate holding unit.
FIG. 17 is a diagram showing an example of a format of a packet transmitted in step S209 in FIG. 10;
FIG. 18 is a diagram subsequent to FIG. 15 and conceptually illustrating a method of storing viewpoint coordinates in the viewpoint information holding unit.
FIG. 19 is a diagram conceptually illustrating a method of storing viewpoint coordinates in a viewpoint information holding unit.
FIG. 20 is a flowchart illustrating a viewpoint information receiving process of the image server.
FIG. 21 is a flowchart illustrating an ROI range determination process of the image server.
FIG. 22 is a diagram illustrating a method of specifying a ROI range.
FIG. 23 is another diagram illustrating a method of specifying a ROI range.
FIG. 24 is yet another diagram illustrating a method of specifying a ROI range.
FIG. 25 is a block diagram illustrating a configuration example of a personal computer to which the present invention has been applied.
[Explanation of symbols]
Reference Signs List 10 network, 11 head mounted display, 12 image server, 13 camera, 101 viewpoint detection unit, 152 low resolution image, 153 high resolution image, 154 viewpoint, 201 operation unit, 202 control unit, 203 encoder, 204 communication unit, 251 operation Unit, 252 control unit, 253 viewpoint coordinate storage unit, 254 arithmetic processing unit, 255 packet creation unit, 256
Communication unit, 257 decoder, 258 display unit

Claims (9)

Translated fromJapanese
画像の第1の領域をそれ以外の第2の領域より高解像度にして符号化する符号手段と、
前記符号手段により符号化された前記画像を表示装置に送信する送信手段と、
前記表示装置より、予め設定された所定の時間内における、前記画像に対するユーザの視点の座標の平均値、および分散値を受信する受信手段と、
前記受信手段により受信された前記画像に対する前記ユーザの前記視点の座標の平均値、および前記分散値に基づいて、前記画像内における前記第1の領域を指定する指定手段と
を備え、
前記符号手段は、前記指定手段により指定された前記第1の領域を高解像度にして符号化する
ことを特徴とする情報処理装置。
Encoding means for encoding the first area of the image at a higher resolution than the other second areas;
Transmission means for transmitting the image encoded by the encoding means to a display device,
From the display device, within a predetermined time set in advance, receiving means for receiving the average value of the coordinates of the viewpoint of the user with respect to the image, and a variance value,
Specifying means for specifying the first area in the image based on the average value of the coordinates of the viewpoint of the user with respect to the image received by the receiving means, and the variance value,
The information processing apparatus according to claim 1, wherein the encoding unit encodes the first area designated by the designation unit with a high resolution.
前記画像を撮影する撮影手段をさらに備える
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a photographing unit that photographs the image.
前記指定手段は、前記分散値の大きさに比例して、前記第1の領域を広範囲に指定する
ことを特徴とする請求項1に記載の情報処理装置。
2. The information processing apparatus according to claim 1, wherein the specifying unit specifies the first area in a wide range in proportion to the magnitude of the variance value. 3.
前記指定手段は、前記視点の座標の平均値を中心にして、前記第1の領域を指定する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the specifying unit specifies the first area around an average of coordinates of the viewpoint.
画像の第1の領域をそれ以外の第2の領域より高解像度にして符号化する符号ステップと、
前記符号ステップの処理により符号化された前記画像を表示装置に送信する送信ステップと、
前記表示装置より、前記画像に対するユーザの視点の座標の平均値、および分散値を受信する受信ステップと、
前記受信ステップの処理により受信された前記画像に対する前記ユーザの前記視点の座標の平均値、および前記分散値に基づいて、前記画像内における前記第1の領域を指定する指定ステップと
を含み、
前記符号ステップの処理は、前記指定ステップの処理により指定された前記第1の領域を高解像度にして符号化する
ことを特徴とする情報処理方法。
A coding step of coding the first area of the image at a higher resolution than the other second areas;
A transmitting step of transmitting the image encoded by the processing of the encoding step to a display device,
From the display device, a receiving step of receiving the average value of the coordinates of the viewpoint of the user with respect to the image, and a variance value,
A designation step of designating the first area in the image based on the average value of the coordinates of the viewpoint of the user with respect to the image received by the processing of the reception step, and the variance value,
The information processing method according to claim 1, wherein the processing of the encoding step includes encoding the first area specified by the processing of the specifying step with a high resolution.
画像の第1の領域をそれ以外の第2の領域より高解像度にして符号化する符号ステップと、
前記符号ステップの処理により符号化された前記画像の表示装置への送信を制御する送信制御ステップと、
前記表示装置からの、前記画像に対するユーザの視点の座標の平均値、および分散値の受信を制御する受信制御ステップと、
前記受信制御ステップの処理により受信が制御された前記画像に対する前記ユーザの前記視点の座標の平均値、および前記分散値に基づいて、前記画像内における前記第1の領域を指定する指定ステップと
をコンピュータに実行させることを特徴とするプログラム。
A coding step of coding the first area of the image at a higher resolution than the other second areas;
A transmission control step of controlling transmission of the image encoded by the processing of the encoding step to a display device,
From the display device, the average value of the coordinates of the viewpoint of the user with respect to the image, and a reception control step of controlling the reception of the variance value,
A designation step of designating the first region in the image based on the average value of the coordinates of the viewpoint of the user with respect to the image whose reception is controlled by the process of the reception control step, and the variance value. A program that is executed by a computer.
情報処理装置より、第1の領域がそれ以外の第2の領域より高解像度にして符号化された画像を受信する受信手段と、
前記受信手段により受信された前記画像を復号する復号手段と、
前記復号手段により復号された前記画像を表示する表示手段と、
前記表示手段により表示されている前記画像に対するユーザの視点の座標を検出する検出手段と、
前記検出手段により検出された前記ユーザの視点の座標を、予め設定された所定の時間毎に取得する取得手段と、
前記取得手段により取得された、所定の個数の前記視点の座標の平均値、および分散を演算する演算手段と、
前記演算手段により演算された、前記ユーザの視点の座標の前記平均値および前記分散値を、前記情報処理装置に送信する送信手段と
を備えることを特徴とする表示装置。
Receiving means for receiving, from the information processing apparatus, an image in which the first area is encoded at a higher resolution than the other second areas;
Decoding means for decoding the image received by the receiving means,
Display means for displaying the image decoded by the decoding means,
Detecting means for detecting coordinates of a user's viewpoint with respect to the image displayed by the display means,
Acquisition means for acquiring the coordinates of the viewpoint of the user detected by the detection means at predetermined time intervals,
An arithmetic unit that calculates an average value and a variance of coordinates of a predetermined number of the viewpoints acquired by the acquiring unit,
A display device, comprising: a transmission unit that transmits the average value and the variance value of the coordinates of the user's viewpoint calculated by the calculation unit to the information processing device.
情報処理装置より、第1の領域がそれ以外の第2の領域より高解像度にして符号化された画像を受信する受信ステップと、
前記受信ステップの処理により受信された前記画像を復号する復号ステップと、
前記復号ステップの処理により復号された前記画像を表示する表示ステップと、
前記表示ステップの処理により表示されている前記画像に対するユーザの視点の座標を検出する検出ステップと、
前記検出ステップの処理により検出された前記ユーザの視点の座標を、予め設定された所定の時間毎に取得する取得ステップと、
前記取得ステップの処理により取得された、所定の個数の前記視点の座標の平均値、および分散を演算する演算ステップと、
前記演算ステップの処理により演算された、前記ユーザの視点の座標の前記平均値および前記分散値を、前記情報処理装置に送信する送信ステップと
を含むことを特徴とする表示方法。
A receiving step of receiving, from the information processing apparatus, an image in which the first area is encoded with a higher resolution than the other second areas;
A decoding step of decoding the image received by the processing of the receiving step,
A display step of displaying the image decoded by the processing of the decoding step;
A detection step of detecting coordinates of a user's viewpoint with respect to the image displayed by the processing of the display step,
An acquisition step of acquiring the coordinates of the viewpoint of the user detected by the processing of the detection step at predetermined time intervals;
An arithmetic step of calculating an average value and a variance of coordinates of a predetermined number of viewpoints acquired by the processing of the acquiring step,
A transmitting step of transmitting the average value and the variance value of the coordinates of the viewpoint of the user calculated by the processing of the calculating step to the information processing device.
情報処理装置からの、第1の領域がそれ以外の第2の領域より高解像度にして符号化された画像の受信を制御する受信制御ステップと、
前記受信制御ステップの処理により受信が制御された前記画像を復号する復号ステップと、
前記復号ステップの処理により復号された前記画像の表示を制御する表示制御ステップと、
前記表示制御ステップの処理により表示が制御されている前記画像に対するユーザの視点の座標を検出する検出ステップと、
前記検出ステップの処理により検出された前記ユーザの視点の座標を、予め設定された所定の時間毎に取得する取得ステップと、
前記取得ステップの処理により取得された、所定の個数の前記視点の座標の平均値、および分散を演算する演算ステップと、
前記演算ステップの処理により演算された、前記ユーザの視点の座標の前記平均値および前記分散値の、前記情報処理装置への送信を制御する送信制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
A reception control step of controlling reception of an image encoded with a first area having a higher resolution than the other second area from the information processing apparatus;
A decoding step of decoding the image whose reception has been controlled by the processing of the reception control step;
A display control step of controlling display of the image decoded by the processing of the decoding step;
A detection step of detecting coordinates of a user's viewpoint with respect to the image whose display is controlled by the processing of the display control step,
An acquisition step of acquiring the coordinates of the viewpoint of the user detected by the processing of the detection step at predetermined time intervals;
An arithmetic step of calculating an average value and a variance of coordinates of a predetermined number of viewpoints acquired by the processing of the acquiring step,
A transmission control step of controlling transmission of the average value and the variance value of the coordinates of the user's viewpoint calculated by the processing of the calculation step to the information processing apparatus. program.
JP2002209157A2002-07-182002-07-18Information processing apparatus and method, display apparatus and method, and programPendingJP2004056335A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2002209157AJP2004056335A (en)2002-07-182002-07-18Information processing apparatus and method, display apparatus and method, and program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2002209157AJP2004056335A (en)2002-07-182002-07-18Information processing apparatus and method, display apparatus and method, and program

Publications (1)

Publication NumberPublication Date
JP2004056335Atrue JP2004056335A (en)2004-02-19

Family

ID=31933080

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2002209157APendingJP2004056335A (en)2002-07-182002-07-18Information processing apparatus and method, display apparatus and method, and program

Country Status (1)

CountryLink
JP (1)JP2004056335A (en)

Cited By (45)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2006088722A (en)*2004-09-212006-04-06Nissan Motor Co Ltd VEHICLE DISPLAY DEVICE AND VEHICLE DISPLAY METHOD
JP2008015634A (en)*2006-07-032008-01-24Seikatsu Kyodo Kumiai Coop SapporoSystem and method for providing commodity-related information
JP2008131321A (en)*2006-11-212008-06-05Nippon Telegr & Teleph Corp <Ntt> Video transmission method, video transmission program, and computer-readable recording medium recording the program
JP2009206953A (en)*2008-02-282009-09-10Nippon Hoso Kyokai <Nhk>Compression-coding preprocessing apparatus and program
JP2010525746A (en)*2007-04-252010-07-22チャウム,デイビッド Video copy protection system with interaction and compression
JP4573001B2 (en)*2009-01-092010-11-04コニカミノルタホールディングス株式会社 Image compression method, image processing apparatus, image display apparatus, and image display system
JP2011013310A (en)*2009-06-302011-01-20Dainippon Printing Co LtdImage projection device
WO2013018276A1 (en)*2011-08-012013-02-07株式会社ソニー・コンピュータエンタテインメントVideo data generation unit, video image display device, video data generation method, video image display method, and video image file data structure
JP2014011623A (en)*2012-06-292014-01-20Brother Ind LtdCommunication system, terminal device, registration method, and program
WO2016009695A1 (en)*2014-07-182016-01-21ソニー株式会社Information processing device, information processing method, written work providing system and computer program
US9316834B2 (en)2011-11-242016-04-19Panasonic Intellectual Property Management Co., Ltd.Head-mounted display device with foveated pixels
JP2016116162A (en)*2014-12-172016-06-23日立マクセル株式会社Video display device, video display system and video display method
JP2016526957A (en)*2013-06-072016-09-08株式会社ソニー・インタラクティブエンタテインメント 3D gameplay sharing
JP2016207042A (en)*2015-04-242016-12-08株式会社コーエーテクモゲームス Program and recording medium
JP2017041688A (en)*2015-08-182017-02-23富士ゼロックス株式会社Server device, information processing system, and terminal device
WO2017046956A1 (en)*2015-09-182017-03-23フォーブ インコーポレーテッドVideo system
JP2017117175A (en)*2015-12-242017-06-29セイコーエプソン株式会社Head-wearable display device, control method of head-wearable display device, and computer program
KR101764063B1 (en)*2016-07-272017-08-03네이버 주식회사Method and system for analyzing and pre-rendering of virtual reality content
JP2017528947A (en)*2014-07-142017-09-28株式会社ソニー・インタラクティブエンタテインメント System and method for use in playback of panoramic video content
JP2017225128A (en)*2011-07-072017-12-21エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc Observation focus-oriented image processing
WO2018021071A1 (en)*2016-07-292018-02-01ソニー株式会社Image processing device and image processing method
JP2018509113A (en)*2015-01-222018-03-29ハドリー インコーポレイテッド Video transmission based on independent coding background update
JP2018073104A (en)*2016-10-282018-05-10キヤノン株式会社Image processing apparatus, image processing method, and program
JP2018110397A (en)*2016-12-302018-07-12アクシス アーベーMethod and computer device
WO2018134947A1 (en)*2017-01-192018-07-26株式会社ソニー・インタラクティブエンタテインメントImage delivery device
JP2018523331A (en)*2015-04-292018-08-16ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Dynamically adjustable situational recognition interface for unmanned vehicle control
JP2018129054A (en)*2013-06-072018-08-16ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for reducing the number of hops associated with a head mounted system
KR101897789B1 (en)*2016-10-282018-09-13(주)에프엑스기어Method and system for providing 3D desktop
JP2018526726A (en)*2015-07-172018-09-13マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual / augmented reality system with dynamic domain resolution
JP2018141816A (en)*2015-09-182018-09-13フォーブ インコーポレーテッドVideo system, video generation method, video distribution method, video generation program and video distribution program
JPWO2017138458A1 (en)*2016-02-092018-09-13株式会社ソニー・インタラクティブエンタテインメント Video display system
US10185212B1 (en)2017-07-242019-01-22Samsung Electronics Co., Ltd.Projection display apparatus including eye tracker
JP2019029952A (en)*2017-08-032019-02-21キヤノン株式会社 Image processing apparatus, image processing method, and program
KR20190063232A (en)*2017-11-292019-06-07엘지디스플레이 주식회사Head mount display device
JP2019533325A (en)*2016-08-012019-11-14フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Adaptive parameters in image area based on eye tracking information
US10699372B2 (en)2017-01-192020-06-30Sony Interactive Entertainment Inc.Image generation apparatus and image display control apparatus
US10805592B2 (en)2016-06-302020-10-13Sony Interactive Entertainment Inc.Apparatus and method for gaze tracking
JP2021015731A (en)*2019-07-122021-02-12キヤノン株式会社Light-emitting device
WO2021065632A1 (en)*2019-09-302021-04-08株式会社ソニー・インタラクティブエンタテインメントImage data transfer device, image display system, and image compression method
US20220317766A1 (en)*2019-09-302022-10-06Boe Technology Group Co., Ltd.Virtual Tourism Client, Server, System and Acquisition Device
JP2022546081A (en)*2019-08-292022-11-02株式会社ソニー・インタラクティブエンタテインメント Foveal Optimization of TV Streaming and Rendering Content Assisted by Personal Devices
JP2023021184A (en)*2016-11-162023-02-09マジック リープ, インコーポレイテッド Multi-resolution displays for head-mounted display systems
US12323644B2 (en)2019-09-302025-06-03Sony Interactive Entertainment Inc.Image display system, moving image distribution server, image processing apparatus, and moving image distribution method
US12363309B2 (en)2019-09-302025-07-15Sony Interactive Entertainment Inc.Image data transfer apparatus and image compression
US12368830B2 (en)2019-09-302025-07-22Sony Interactive Entertainment Inc.Image processing apparatus, image display system, image data transfer apparatus, and image processing method

Citations (10)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH05110925A (en)*1991-10-171993-04-30Canon IncMagnetic recording and photographing device
JPH05161054A (en)*1991-12-091993-06-25Canon IncImage pickup recorder
JPH099253A (en)*1995-06-191997-01-10Toshiba Corp Image compression communication device
JPH10112856A (en)*1996-10-041998-04-28Agency Of Ind Science & TechnolImage transmitting device and method
JP2001333430A (en)*2000-05-232001-11-30Canon Inc Image processing apparatus, method, and computer-readable storage medium
JP2002062473A (en)*2000-08-212002-02-28Canon Inc Optical device and camera
JP2002135782A (en)*2000-10-272002-05-10Canon Inc Digital camera, image processing apparatus and method, and storage medium
JP2002176650A (en)*2000-12-082002-06-21Nikon Corp Image encoding apparatus, electronic camera, and recording medium for image encoding program
JP2003125286A (en)*2001-10-182003-04-25Nippon Hoso Kyokai <Nhk> Video clipping control method and video clipping control device
JP2003348532A (en)*2002-05-242003-12-05Canon Inc Imaging device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH05110925A (en)*1991-10-171993-04-30Canon IncMagnetic recording and photographing device
JPH05161054A (en)*1991-12-091993-06-25Canon IncImage pickup recorder
JPH099253A (en)*1995-06-191997-01-10Toshiba Corp Image compression communication device
JPH10112856A (en)*1996-10-041998-04-28Agency Of Ind Science & TechnolImage transmitting device and method
JP2001333430A (en)*2000-05-232001-11-30Canon Inc Image processing apparatus, method, and computer-readable storage medium
JP2002062473A (en)*2000-08-212002-02-28Canon Inc Optical device and camera
JP2002135782A (en)*2000-10-272002-05-10Canon Inc Digital camera, image processing apparatus and method, and storage medium
JP2002176650A (en)*2000-12-082002-06-21Nikon Corp Image encoding apparatus, electronic camera, and recording medium for image encoding program
JP2003125286A (en)*2001-10-182003-04-25Nippon Hoso Kyokai <Nhk> Video clipping control method and video clipping control device
JP2003348532A (en)*2002-05-242003-12-05Canon Inc Imaging device

Cited By (77)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2006088722A (en)*2004-09-212006-04-06Nissan Motor Co Ltd VEHICLE DISPLAY DEVICE AND VEHICLE DISPLAY METHOD
JP2008015634A (en)*2006-07-032008-01-24Seikatsu Kyodo Kumiai Coop SapporoSystem and method for providing commodity-related information
JP2008131321A (en)*2006-11-212008-06-05Nippon Telegr & Teleph Corp <Ntt> Video transmission method, video transmission program, and computer-readable recording medium recording the program
JP2010525746A (en)*2007-04-252010-07-22チャウム,デイビッド Video copy protection system with interaction and compression
JP2009206953A (en)*2008-02-282009-09-10Nippon Hoso Kyokai <Nhk>Compression-coding preprocessing apparatus and program
JPWO2010079682A1 (en)*2009-01-092012-06-21コニカミノルタホールディングス株式会社 Image compression method, image processing apparatus, image display apparatus, and image display system
JP4573001B2 (en)*2009-01-092010-11-04コニカミノルタホールディングス株式会社 Image compression method, image processing apparatus, image display apparatus, and image display system
JP2011013310A (en)*2009-06-302011-01-20Dainippon Printing Co LtdImage projection device
JP2017225128A (en)*2011-07-072017-12-21エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc Observation focus-oriented image processing
WO2013018276A1 (en)*2011-08-012013-02-07株式会社ソニー・コンピュータエンタテインメントVideo data generation unit, video image display device, video data generation method, video image display method, and video image file data structure
US9516310B2 (en)2011-08-012016-12-06Sony CorporationMoving image data generation device, moving image display device, moving image data generation method, moving image displaying method, and data structure of moving image file
US9316834B2 (en)2011-11-242016-04-19Panasonic Intellectual Property Management Co., Ltd.Head-mounted display device with foveated pixels
JP2014011623A (en)*2012-06-292014-01-20Brother Ind LtdCommunication system, terminal device, registration method, and program
JP2016526957A (en)*2013-06-072016-09-08株式会社ソニー・インタラクティブエンタテインメント 3D gameplay sharing
US10843088B2 (en)2013-06-072020-11-24Sony Interactive Entertainment Inc.Sharing recorded gameplay
JP2018129054A (en)*2013-06-072018-08-16ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for reducing the number of hops associated with a head mounted system
US10150042B2 (en)2013-06-072018-12-11Sony Interactive Entertainment Inc.Sharing recorded gameplay
JP2017528947A (en)*2014-07-142017-09-28株式会社ソニー・インタラクティブエンタテインメント System and method for use in playback of panoramic video content
US10204658B2 (en)2014-07-142019-02-12Sony Interactive Entertainment Inc.System and method for use in playing back panorama video content
US11120837B2 (en)2014-07-142021-09-14Sony Interactive Entertainment Inc.System and method for use in playing back panorama video content
WO2016009695A1 (en)*2014-07-182016-01-21ソニー株式会社Information processing device, information processing method, written work providing system and computer program
CN107005670A (en)*2014-12-172017-08-01日立麦克赛尔株式会社Image display, image display system and image display method
JP2016116162A (en)*2014-12-172016-06-23日立マクセル株式会社Video display device, video display system and video display method
WO2016098411A1 (en)*2014-12-172016-06-23日立マクセル株式会社Video display device, video display system, and video display method
US10511823B2 (en)2014-12-172019-12-17Maxell, Ltd.Video display apparatus, video display system, and video display method
JP7045856B2 (en)2015-01-222022-04-01ハドリー インコーポレイテッド Video transmission based on independent coded background update
JP2018509113A (en)*2015-01-222018-03-29ハドリー インコーポレイテッド Video transmission based on independent coding background update
JP2016207042A (en)*2015-04-242016-12-08株式会社コーエーテクモゲームス Program and recording medium
JP2018523331A (en)*2015-04-292018-08-16ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Dynamically adjustable situational recognition interface for unmanned vehicle control
JP2018526726A (en)*2015-07-172018-09-13マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual / augmented reality system with dynamic domain resolution
JP2017041688A (en)*2015-08-182017-02-23富士ゼロックス株式会社Server device, information processing system, and terminal device
WO2017046956A1 (en)*2015-09-182017-03-23フォーブ インコーポレーテッドVideo system
CN108141559B (en)*2015-09-182020-11-06Fove股份有限公司 Image system, image generation method, and computer-readable medium
CN108141559A (en)*2015-09-182018-06-08Fove股份有限公司Image system
JP2018141816A (en)*2015-09-182018-09-13フォーブ インコーポレーテッドVideo system, video generation method, video distribution method, video generation program and video distribution program
JP2017117175A (en)*2015-12-242017-06-29セイコーエプソン株式会社Head-wearable display device, control method of head-wearable display device, and computer program
US20180365800A1 (en)*2016-02-092018-12-20Sony Interactive Entertainment Inc.Video display system
EP3416392A4 (en)*2016-02-092019-09-18Sony Interactive Entertainment Inc. VIDEO DISPLAY SYSTEM
JPWO2017138458A1 (en)*2016-02-092018-09-13株式会社ソニー・インタラクティブエンタテインメント Video display system
US11270410B2 (en)2016-02-092022-03-08Sony Interactive Entertainment Inc.Video display system
US10810701B2 (en)*2016-02-092020-10-20Sony Interactive Entertainment Inc.Video display system
CN108605148A (en)*2016-02-092018-09-28索尼互动娱乐股份有限公司Video display system
JP2019197224A (en)*2016-02-092019-11-14株式会社ソニー・インタラクティブエンタテインメントVideo display system
US10805592B2 (en)2016-06-302020-10-13Sony Interactive Entertainment Inc.Apparatus and method for gaze tracking
US11089280B2 (en)2016-06-302021-08-10Sony Interactive Entertainment Inc.Apparatus and method for capturing and displaying segmented content
KR101764063B1 (en)*2016-07-272017-08-03네이버 주식회사Method and system for analyzing and pre-rendering of virtual reality content
US11138784B2 (en)*2016-07-292021-10-05Sony CorporationImage processing apparatus and image processing method
JPWO2018021071A1 (en)*2016-07-292019-05-16ソニー株式会社 Image processing apparatus and image processing method
WO2018021071A1 (en)*2016-07-292018-02-01ソニー株式会社Image processing device and image processing method
US10984756B2 (en)2016-08-012021-04-20Facebook Technologies, LlcAdaptive parameters in image regions based on eye tracking information
JP2019533325A (en)*2016-08-012019-11-14フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Adaptive parameters in image area based on eye tracking information
JP2018073104A (en)*2016-10-282018-05-10キヤノン株式会社Image processing apparatus, image processing method, and program
JP7005134B2 (en)2016-10-282022-01-21キヤノン株式会社 Image processing equipment, image processing methods and programs
KR101897789B1 (en)*2016-10-282018-09-13(주)에프엑스기어Method and system for providing 3D desktop
JP2023021184A (en)*2016-11-162023-02-09マジック リープ, インコーポレイテッド Multi-resolution displays for head-mounted display systems
JP2018110397A (en)*2016-12-302018-07-12アクシス アーベーMethod and computer device
WO2018134947A1 (en)*2017-01-192018-07-26株式会社ソニー・インタラクティブエンタテインメントImage delivery device
JPWO2018134947A1 (en)*2017-01-192019-11-07株式会社ソニー・インタラクティブエンタテインメント Image distribution device
US10699372B2 (en)2017-01-192020-06-30Sony Interactive Entertainment Inc.Image generation apparatus and image display control apparatus
US10185212B1 (en)2017-07-242019-01-22Samsung Electronics Co., Ltd.Projection display apparatus including eye tracker
JP2019029952A (en)*2017-08-032019-02-21キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7000066B2 (en)2017-08-032022-01-19キヤノン株式会社 Image processing equipment, image processing methods, and programs
KR20190063232A (en)*2017-11-292019-06-07엘지디스플레이 주식회사Head mount display device
KR102028997B1 (en)*2017-11-292019-10-07엘지디스플레이 주식회사Head mount display device
JP7374635B2 (en)2019-07-122023-11-07キヤノン株式会社 light emitting device
JP2021015731A (en)*2019-07-122021-02-12キヤノン株式会社Light-emitting device
JP2022546081A (en)*2019-08-292022-11-02株式会社ソニー・インタラクティブエンタテインメント Foveal Optimization of TV Streaming and Rendering Content Assisted by Personal Devices
JP7339435B2 (en)2019-08-292023-09-05株式会社ソニー・インタラクティブエンタテインメント Foveal Optimization of TV Streaming and Rendering Content Assisted by Personal Devices
US20220317766A1 (en)*2019-09-302022-10-06Boe Technology Group Co., Ltd.Virtual Tourism Client, Server, System and Acquisition Device
JP2021057769A (en)*2019-09-302021-04-08株式会社ソニー・インタラクティブエンタテインメントImage data transfer device, image display system, and image compression method
WO2021065632A1 (en)*2019-09-302021-04-08株式会社ソニー・インタラクティブエンタテインメントImage data transfer device, image display system, and image compression method
US11989342B2 (en)*2019-09-302024-05-21Boe Technology Group Co., Ltd.Virtual tourism client, server, system and acquisition device
JP7496677B2 (en)2019-09-302024-06-07株式会社ソニー・インタラクティブエンタテインメント Image data transfer device, image display system, and image compression method
US12323644B2 (en)2019-09-302025-06-03Sony Interactive Entertainment Inc.Image display system, moving image distribution server, image processing apparatus, and moving image distribution method
US12363309B2 (en)2019-09-302025-07-15Sony Interactive Entertainment Inc.Image data transfer apparatus and image compression
US12368830B2 (en)2019-09-302025-07-22Sony Interactive Entertainment Inc.Image processing apparatus, image display system, image data transfer apparatus, and image processing method
US12432356B2 (en)2019-09-302025-09-30Sony Interactive Entertainment Inc.Image data transfer apparatus, image display system, and image compression method

Similar Documents

PublicationPublication DateTitle
JP2004056335A (en)Information processing apparatus and method, display apparatus and method, and program
US11546610B2 (en)Foveated video link for VR with gaze tracking
US12131437B2 (en)Dynamic foveated pipeline
JP7429512B2 (en) Image processing device, image data transfer device, image processing method, and image data transfer method
CN105684074B (en)Image display device, image display method, image output device, image output method, and image display system
JP6870080B2 (en) Image generator, image display system, and image generation method
US9978183B2 (en)Video system, video generating method, video distribution method, video generating program, and video distribution program
JP7389602B2 (en) Image display system, image processing device, and video distribution method
JP6909286B2 (en) Image generator, image display system, and image generation method
JP2010050645A (en)Image processor, image processing method, and image processing program
JP6571767B2 (en) Video display device and control method
JP6533761B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
WO2021065627A1 (en)Image processing device, image display system, image data transfer device, and image processing method
WO2021065630A1 (en)Image data transfer device and image data transfer method
JP2021057769A (en)Image data transfer device, image display system, and image compression method
JP2021057768A (en)Image data transfer device and image compression method
CN114374832B (en)Control method and device for virtual reality experience, user equipment and network equipment
US10701184B2 (en)Information processing apparatus, information processing system, and information processing method

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20050714

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20070601

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20070606

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20071005


[8]ページ先頭

©2009-2025 Movatter.jp