































本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、術者がより安全に効率よく手術や治療を行うことができる画像を提供することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。This technology relates to an information processing device, an information processing method, and a program, and in particular to an information processing device, an information processing method, and a program that can provide images that enable surgeons to perform surgery and treatment more safely and efficiently.
手術ロボット、手術顕微鏡、内視鏡などを用いた手術やX線などを用いたIVR(Interventional Radiology)治療においては、術野画像を3D表示(立体表示)することにより術者が生体の構造を知覚しやすくし、効率よく手術を行えるようにしている(例えば特許文献1を参照)。In surgeries using surgical robots, surgical microscopes, endoscopes, etc., and in IVR (Interventional Radiology) treatments using X-rays, etc., the surgical field image is displayed in 3D (stereoscopic display), making it easier for the surgeon to perceive the structure of the body, and enabling the surgeon to perform surgery more efficiently (see, for example, Patent Document 1).
また、これらの手術や治療においては、事前に撮影されたCT(Computed Tomography)画像やMRI(Magnetic Resonance Imaging)画像に基づいて生成されたCG画像を術野画像の横に表示したり、術野画像に重畳して表示したりすることにより、より安全に効率よく手術や治療を行うことができると期待されている。In addition, it is expected that these surgeries and treatments will be able to be performed more safely and efficiently by displaying CG images generated based on CT (Computed Tomography) images or MRI (Magnetic Resonance Imaging) images taken in advance next to the surgical field image or superimposing them on the surgical field image.
しかしながら、術野画像とCG画像の間で焦点距離、画角などが一致していないと、術野画像とCG画像の間で、奥行き感やそれぞれに映る生体の形状が合わないことがある。したがって、CG画像を、術野画像に対する精緻な比較(リファレンス)画像として利用することが難しかった。However, if the focal length and angle of view do not match between the surgical field image and the CG image, the sense of depth and the shape of the living body depicted in each image may not match. This makes it difficult to use the CG image as a precise comparison (reference) image for the surgical field image.
本技術はこのような状況に鑑みてなされたものであり、術者がより安全に効率よく手術や治療を行うことができる画像を提供することができるようにするものである。This technology was developed in light of these circumstances, and is designed to provide images that enable surgeons to perform surgery and treatment more safely and efficiently.
本技術の一側面の情報処理装置は、被写体を撮影装置で実際に撮影した実写画像における奥行き方向のスケールを示す第1のガイドと、3Dモデルを仮想カメラで撮影したCG画像における奥行き方向のスケールを示す第2のガイドとに基づいて、前記CG画像を調整し、前記実写画像と前記CG画像とを表示装置に表示させるための表示画像を生成する画像生成部を備える。An information processing device according to one aspect of the present technology includes an image generating unit that adjusts a CG image based on a first guide indicating the scale in the depth direction in a live-action image of a subject actually captured by a capture device and a second guide indicating the scale in the depth direction in a CG image of a 3D model captured by a virtual camera, and generates a display image for displaying the live-action image and the CG image on a display device.
本技術の一側面の情報処理方法は、被写体を撮影装置で実際に撮影した実写画像における奥行き方向のスケールを示す第1のガイドと、3Dモデルを仮想カメラで撮影したCG画像に奥行き方向のスケールを示す第2のガイドとに基づいて、前記CG画像を調整し、前記実写画像と前記CG画像とを表示装置に表示させるための表示画像を生成する。An information processing method according to one aspect of the present technology adjusts a CG image based on a first guide indicating the scale in the depth direction in a live-action image of a subject actually photographed by a photographing device, and a second guide indicating the scale in the depth direction in a CG image of a 3D model photographed by a virtual camera, and generates a display image for displaying the live-action image and the CG image on a display device.
本技術の一側面のプログラムは、コンピュータに、被写体を撮影装置で実際に撮影した実写画像における奥行き方向のスケールを示す第1のガイドと、3Dモデルを仮想カメラで撮影したCG画像における奥行き方向のスケールを示す第2のガイドとに基づいて、前記CG画像を調整し、前記実写画像と前記CG画像とを表示装置に表示させるための表示画像を生成する処理を実行させる。A program according to one aspect of the present technology causes a computer to execute a process of adjusting a CG image based on a first guide indicating the scale in the depth direction in a live-action image of a subject actually photographed by a photographing device, and a second guide indicating the scale in the depth direction in a CG image of a 3D model photographed by a virtual camera, and generating a display image for displaying the live-action image and the CG image on a display device.
本技術の一側面においては、被写体を撮影装置で実際に撮影した実写画像における奥行き方向のスケールを示す第1のガイドと、3Dモデルを仮想カメラで撮影したCG画像における奥行き方向のスケールを示す第2のガイドとに基づいて、前記CG画像が調整され、前記実写画像と前記CG画像とを表示装置に表示させるための表示画像が生成される。In one aspect of this technology, the CG image is adjusted based on a first guide indicating the scale of the depth direction in a live-action image of a subject actually photographed by a photographing device, and a second guide indicating the scale of the depth direction in a CG image of a 3D model photographed by a virtual camera, and a display image is generated for displaying the live-action image and the CG image on a display device.
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.手術システムの概要
2.本技術の実施の形態
3.変形例Hereinafter, an embodiment of the present technology will be described in the following order.
1. Overview of the
<1.手術システムの概要>
図1は、本技術の一実施の形態に係る手術システムの構成を示す図である。1. Overview of the surgery system
FIG. 1 is a diagram showing a configuration of a surgery system according to an embodiment of the present technology.
図1の手術システムは、マスター装置100とスレーブ装置500により構成される。手術システムにおいて、ユーザ(術者)はマスター装置100を制御することによりスレーブ装置500を駆動させ、手術を行う。The surgical system in FIG. 1 is composed of a
マスター装置100は、スレーブ装置500を操作するための入力機能、スレーブ装置500の制御機能、スレーブ装置500のカメラやセンサから出力された信号をユーザへ提示する提示機能を有する情報処理装置である。The
マスター装置100は、情報処理装置101、ユーザが把持して操作する入力装置200(右手用の入力装置200R、及び左手用の入力装置200L)、支持台300、および、スレーブ装置500からの信号に基づいて映像を表示する表示装置400により構成される。The
マスター装置100においては、情報処理装置101が、入力装置200の入力に基づいてスレーブ装置500に制御信号を出力することにより、スレーブ装置500が制御される。また、マスター装置100においては、情報処理装置101が、スレーブ装置500からの信号に基づいて入力装置200による振動(触覚提示)の制御または表示装置400による表示の制御を行うことにより、術野の画像やスレーブ装置500からのフィードバックがユーザに提示される。In the
情報処理装置101は、マスター装置100における情報を処理する装置であり、例えばCPUやメモリ等を備えた情報処理回路を有するコンピュータである。The
入力装置200は、ユーザの入力を受け付ける装置であり、例えばユーザの手の動作や把持動作を入力可能な装置である。The input device 200 is a device that accepts user input, for example, a device that can input the user's hand movements or gripping movements.
支持台300は、ユーザの両腕または両肘などを載せることが可能な台であり、例えばアルミフレームである。なお、支持台300にマスター装置100やスレーブ装置500への入力が可能なタッチディスプレイなどが設けられるようにしてもよい。The
表示装置400は、互いに視差を有する左目用画像と右目用画像からなる3D画像を表示することで、所定の空間内に配置された仮想的な3Dオブジェクトを立体としてユーザが視認可能な表示装置であり、例えば空間再現ディスプレイである。なお、表示装置400は、2D画像を表示するディスプレイであってもよい。The
表示装置400は、例えば、実空間における水平面に対して表示面が斜め上方を向くように設置される。なお、表示面の傾きは、入力装置200の配置角度に基づいて変更可能にしてもよい。図1の例では表示装置400が、ユーザから見て入力装置200の奥側に配置されているが、入力装置200の手前側に配置されてもよい。The
スレーブ装置500は、情報処理装置501、医療装置600、および、医療装置を支えるアーム700により構成される。The
スレーブ装置500においては、情報処理装置501が、マスター装置100から送信されてきた信号に基づいて医療装置600またはアーム700を制御することにより、ユーザの入力に基づいた制御が行われる。In the
情報処理装置501は、スレーブ装置500における情報を処理する装置であり、例えばCPUやメモリなどを備えた情報処理回路を有するコンピュータである。The
医療装置600は、マスター装置100の入力に基づいて動作する装置であり、例えばステレオカメラや内視鏡などの撮影装置または電気メスや鉗子を備えたエンドエフェクタである。The
スレーブ装置500は、医療装置600およびアーム700のセットを複数備えていることが好ましい。例えば、撮影装置を備えた第1のアームと、エンドエフェクタを備えた第2のアームとを備える構成であってもよい。The
エンドエフェクタは、患部等への接触を検知する検知装置を備えていることが好ましい。これにより、エンドエフェクタに係る圧力に基づいて入力装置を振動させたり動作を制限したりことで、ユーザに適切なフィードバックを行うことができる。The end effector is preferably equipped with a detection device that detects contact with an affected area, etc. This allows the input device to vibrate or restrict movement based on the pressure applied to the end effector, providing appropriate feedback to the user.
図2は、情報処理装置101の機能構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of the
図2に示すように、情報処理装置101は、キャプチャ部111、UI処理部112、視位置検出部113、3D画像生成部114、および、出力制御部115により構成される。As shown in FIG. 2, the
キャプチャ部111は、撮影装置611により撮影された撮影画像をキャプチャして術野画像を生成し、3D画像生成部114に供給する。術野画像は、3D画像であってもよいし、2D画像であってもよい。なお、キャプチャ部111は、X線撮影装置により撮影された血管造影透視画像などを術野画像として取得することも可能である。撮影装置611は、一般的なカメラやステレオカメラ、手術顕微鏡、内視鏡などにより構成され、例えばスレーブ装置500に設けられる。撮影装置611は、患者の生体の少なくとも一部分を被写体として、手術や治療の術野を撮影する。術野画像は、被写体を撮影装置611で実際に撮影した画像である実写画像と言える。The
UI処理部112は、入力装置200やジェスチャなどが用いられてユーザにより入力された操作内容を取得し、3D画像生成部114に供給する。The
視位置検出部113は、表示装置400に設けられた撮影装置411により撮影された撮影画像に基づいて、ユーザの視位置(視点の位置と姿勢)を検出し、検出結果を3D画像生成部114に供給する。The viewing
3D画像生成部114は、撮影装置611の撮影条件を示す情報を撮影装置611から取得する。撮影装置611の撮影条件は、焦点距離、画角、輻輳点、輻輳角などを含む。また、3D画像生成部114は、手術や治療前に撮影されたCT画像やMRI画像などのDICOM(Digital Imaging and Communications in Medicine)データを取得し、DICOMデータに基づいて、例えば術野画像に映る患者の生体の形状を示す3Dモデルを生成する。The 3D
3D画像生成部114は、仮想カメラで3Dモデルを撮影する(ボリュームレンダリング)ことでCG画像を生成する。仮想カメラによる3Dモデルの撮影は、例えば、撮影装置611の撮影条件と同様の条件で行われる。以下では、CG画像のことを、手術や治療前に撮影されたCT画像やMRI画像に基づいて生成された術前画像とも称する。The 3D
3D画像生成部141は、キャプチャ部111から供給された術野画像と、生成した術前画像とを仮想空間に配置する。3D画像生成部141は、視位置検出部113により検出されたユーザの視位置に基づいて当該仮想空間をレンダリングすることで3D画像を生成する。例えば、3D画像生成部24は、ユーザの視位置から適切に血管造影透視画像や3Dモデルが見えるように3D画像を生成する。3D画像生成部141により生成される3D画像(左目用画像と右目用画像)は、仮想空間に配置された術野画像と術前画像を表示装置400に表示させるための表示画像とも言える。ここでは、UI処理部112から供給される操作内容に応じて、術野画像や術前画像の配置が制御される。The 3D image generating unit 141 places the operative field image supplied from the
3D画像生成部114は、生成した3D画像を出力制御部115に供給する。The 3D
出力制御部115は、表示装置400による表示を制御する。具体的には、出力制御部115は、3D画像生成部114から供給された3D画像を表示装置400に供給し、3D画像を構成する左目用画像と右目用画像を表示させる。左目用画像がユーザの左目に届けられ、右目用画像がユーザの右目に届けられることにより、例えば、術野画像(撮影装置611)と同じ視位置から見た生体の3Dモデルが映る術前画像P1と術野画像P2が、横に並べられてリアルタイムでユーザに提示される。The
次に、図3から図5を用いて、手術システムの表示装置400として適用される空間再現ディスプレイについて説明する。Next, we will explain the spatial reproduction display used as the
近年、空間再現ディスプレイとして、専用の眼鏡を用いずにコンテンツを立体的に表示することが可能な裸眼立体画像表示装置が提案されている。このような空間再現ディスプレイは、視認角度ごとに水平方向にずらした画像を表示することが可能であり、ユーザは、左目用画像と右目用のずれ(視差)により、奥行きを知覚することができる。In recent years, a naked-eye stereoscopic image display device has been proposed as a spatial reproduction display that can display content in three dimensions without the need for special glasses. Such spatial reproduction displays can display images that are shifted horizontally for each viewing angle, and users can perceive depth due to the shift (parallax) between the image for the left eye and the image for the right eye.
なお、専用のメガネを利用した空間再現ディスプレイが表示装置400として適用されるようにしてもよい。In addition, a spatial reproduction display using special glasses may be applied as the
図3は、空間再現ディスプレイの表示面の例を示す図である。Figure 3 shows an example of the display surface of a spatial reproduction display.
上述したように、空間再現ディスプレイは、例えば、表示面412が実空間における水平面に対して斜め上方を向くように配置される。この場合、空間再現ディスプレイにおいては、例えば表示面412と交差するように、言い換えると、ユーザの視位置Eから見て表示面412の手前側と奥側の両方に領域を有するような仮想空間VWが再現される。As described above, the spatial reproduction display is arranged, for example, so that the
仮想空間VWに配置された3Dオブジェクトは、例えば表示面412から一部が飛び出して見えるように表示される。空間再現ディスプレイは、例えばユーザの左目と右目にそれぞれ異なる画像が届けられる3D画像を表示することによって仮想的な奥行きを表現し、3Dオブジェクトが実空間に存在しているかのような感覚をユーザに与えることができる。3D objects placed in the virtual space VW are displayed so that, for example, a portion of them appears to protrude from the
図4は、術前画像の表示例を示す図である。Figure 4 shows an example of a preoperative image display.
図4に示すように、術野画像P11は、例えば、仮想空間VW内に配置された仮想プレート上に投影されて表示される。術野画像P11が投影された仮想プレートは、ユーザの視位置に対して常に正対するように配置される。As shown in FIG. 4, the surgical field image P11 is displayed, for example, by projecting it onto a virtual plate placed in the virtual space VW. The virtual plate onto which the surgical field image P11 is projected is positioned so as to always face directly toward the user's viewing position.
したがって、図5の上側に示すように、ユーザが空間再現ディスプレイ(仮想空間VW)に向かって右側から仮想空間VWを見た場合、術野画像P11が投影された仮想プレートは、右側を向くように配置される。また、図5の下側に示すように、ユーザが空間再現ディスプレイに向かって左側から仮想空間VWを見た場合、術野画像P11が投影された仮想プレートは、左側を向くように配置される。Therefore, as shown in the upper part of Figure 5, when the user looks at the virtual space VW (virtual space VW) from the right side while facing the spatial reproduction display, the virtual plate onto which the surgical field image P11 is projected is positioned so as to face the right side. Also, as shown in the lower part of Figure 5, when the user looks at the virtual space VW from the left side while facing the spatial reproduction display, the virtual plate onto which the surgical field image P11 is projected is positioned so as to face the left side.
<2.本技術の実施の形態>
表示装置400において、術野画像と術前画像が同時に表示される場合、術野画像と術前画像の間で焦点距離、画角、輻輳角などが一致していないと、術野画像と術前画像の間で、奥行き感やそれぞれに映る生体の形状が合わないことがある。この場合、術前画像を、術野画像に対する精緻なリファレンス画像として利用することが難しい。2. Embodiment of the present technology
When an operative field image and a preoperative image are simultaneously displayed on the
そこで、本技術の情報処理装置101は、術前画像と術野画像それぞれに対して奥行きガイドを重畳(付加)し、奥行きガイドに基づいて術前画像と術野画像の焦点距離、画角、輻輳角などを一致させる。奥行きガイドは、術前画像と術野画像それぞれにおける奥行き方向のスケールを示し、ユーザにとっては奥行き知覚の手掛かりとなる。The
図6と図7は、奥行きガイドの例を示す図である。Figures 6 and 7 show examples of depth guides.
図6のAに示すように、奥行きガイドは、例えば、多重の矩形が同心状に配置された形状を有する。As shown in FIG. 6A, the depth guide has a shape in which, for example, multiple rectangles are arranged concentrically.
図6のBに示すように、奥行きガイドは、少なくとも最外周の矩形が術前画像P21を囲むように術前画像P21に重畳される。言い換えると、奥行きガイドは、術前画像P21の背景として術前画像P21に重畳される。なお、術前画像P21と奥行きガイドがアルファブレンドなどにより合成されることで重畳されるようにしてもよい。As shown in FIG. 6B, the depth guide is superimposed on the preoperative image P21 so that at least the outermost rectangle surrounds the preoperative image P21. In other words, the depth guide is superimposed on the preoperative image P21 as the background of the preoperative image P21. Note that the preoperative image P21 and the depth guide may be superimposed by being combined using alpha blending or the like.
奥行きガイドが術前画像P21に重畳されることで、ユーザにとっては、術前画像P21に映る3Dモデルの奥行き感がわかりやすくなる。By superimposing the depth guide on the preoperative image P21, the user can easily understand the sense of depth of the 3D model shown in the preoperative image P21.
また、図7のAに示すように、奥行きガイドは、少なくとも最外周の矩形が術野画像P22を囲むように術野画像P22に重畳される。言い換えると、奥行きガイドは、術野画像P22の背景として術野画像P22に重畳される。なお、術野画像P22と奥行きガイドがアルファブレンドなどにより合成されることで重畳されるようにしてもよい。Also, as shown in A of FIG. 7, the depth guide is superimposed on the operative field image P22 so that at least the outermost rectangle surrounds the operative field image P22. In other words, the depth guide is superimposed on the operative field image P22 as the background of the operative field image P22. Note that the operative field image P22 and the depth guide may be superimposed by being combined using alpha blending or the like.
図7のBに示す奥行きガイドが重畳されていない術野画像P22と比較すると、奥行きガイドが重畳された術野画像P22は、被写体の奥行き感がわかりやすい画像となる。Compared to the surgical field image P22 shown in FIG. 7B, which does not have a depth guide superimposed thereon, the surgical field image P22 with the depth guide superimposed thereon provides an image that makes it easier to understand the sense of depth of the subject.
なお、図7の例では、被写体が映る領域が切り出された術野画像P22に奥行きガイドが重畳されているが、撮影装置611により撮影された撮影画像全体(例えば矩形の画像)に奥行きガイドが重畳されるようにしてもよい。In the example of FIG. 7, the depth guide is superimposed on the surgical field image P22, which is a cut-out area showing the subject, but the depth guide may be superimposed on the entire captured image (e.g., a rectangular image) captured by the
図8は、奥行きガイドが重畳された術野画像と術前画像の配置例を示す図である。Figure 8 shows an example of the arrangement of a surgical field image and a preoperative image with a depth guide superimposed on it.
図8の上側に示すように、奥行きガイドが重畳された術前画像P21は、例えば、仮想空間VW内に配置された仮想プレート上に投影されて表示される。術前画像P21に映る3Dモデルと奥行きガイドは、例えば他の仮想空間に3次元的に配置され、3Dモデルと奥行きガイドDG1を仮想カメラで撮影することで、奥行きガイドDG1が重畳された術前画像P21が生成される。As shown in the upper part of Figure 8, the preoperative image P21 with the superimposed depth guide is, for example, projected and displayed on a virtual plate placed in the virtual space VW. The 3D model and depth guide shown in the preoperative image P21 are, for example, placed three-dimensionally in another virtual space, and the preoperative image P21 with the superimposed depth guide DG1 is generated by photographing the 3D model and depth guide DG1 with a virtual camera.
奥行きガイドが仮想空間内において3次元的に配置されることを言い換えると、仮想空間内では、奥行きガイドは、例えば、同じ形状の複数の矩形が仮想カメラの視位置から見て奥行き方向に例えば一定の間隔で配置されて構成される。奥行きガイドの位置は、例えば術野画像の画角と輻輳角に基づいて決定される。In other words, the depth guide is arranged three-dimensionally in the virtual space, and in the virtual space, the depth guide is configured, for example, by multiple rectangles of the same shape arranged at regular intervals in the depth direction when viewed from the viewing position of the virtual camera. The position of the depth guide is determined, for example, based on the angle of view and the convergence angle of the surgical field image.
図8の下側に示すように、術野画像P22は、例えば、仮想空間VW内に配置された仮想プレート上に投影されて表示されるが、術野画像P22に重畳される奥行きガイドは、仮想空間VW内において3次元的に配置される。すなわち、仮想空間VW内では、奥行きガイドは、例えば、同じ形状の複数の矩形がユーザの視位置から見て奥行き方向に例えば一定の間隔で配置されて構成される。As shown in the lower part of FIG. 8, the surgical field image P22 is, for example, projected and displayed on a virtual plate placed in the virtual space VW, and the depth guide superimposed on the surgical field image P22 is placed three-dimensionally in the virtual space VW. That is, in the virtual space VW, the depth guide is, for example, composed of multiple rectangles of the same shape placed at regular intervals in the depth direction as seen from the user's viewing position.
図9は、術前画像と術野画像の表示例を示す図である。Figure 9 shows an example of a preoperative image and an operative field image.
図9に示すように、術前画像P21と術野画像P22が横に並べられて表示される場合、仮想空間VWにおいて、奥行きガイドがそれぞれ重畳された術前画像P21と術野画像P22は、1つの仮想プレート上に投影されて表示される。As shown in FIG. 9, when the preoperative image P21 and the operative field image P22 are displayed side-by-side, in the virtual space VW, the preoperative image P21 and the operative field image P22, each with a depth guide superimposed thereon, are projected and displayed on a single virtual plate.
図10は、表示装置400の表示面412の変形例を示す図である。FIG. 10 shows a modified example of the
表示装置400は、図10に示すように、例えば、表示面412が実空間における水平面に対して垂直になるように配置されてもよい。As shown in FIG. 10, the
図11は、奥行きガイドの他の例を示す図である。Figure 11 shows another example of a depth guide.
説明を簡単にするため、ここでは、奥行きガイドが2つの矩形により構成されるとする。図11の例では、奥行きガイドG1は、2つの矩形を手前側の面(フレームF1)と奥側の面(フレームF2)とし、各頂点に球が付された立方体として構成される。仮想空間において、術野画像P31は、奥行きガイドG1(立方体)の中に配置される。For ease of explanation, it is assumed here that the depth guide is composed of two rectangles. In the example of FIG. 11, the depth guide G1 is composed of two rectangles, the front face (frame F1) and the back face (frame F2), and is composed of a cube with spheres attached to each vertex. In the virtual space, the surgical field image P31 is placed inside the depth guide G1 (cube).
図12は、奥行きガイドの見え方の例を説明する図である。Figure 12 is a diagram that explains an example of how the depth guide appears.
図12のAに示すように、奥行きガイドG1の中に、術野画像P31の被写体Obj1が仮想的に配置され、奥行きガイドG1が画角いっぱいに映るように術野画像P31が撮影されるとする。As shown in A of FIG. 12, the subject Obj1 of the surgical field image P31 is virtually placed within the depth guide G1, and the surgical field image P31 is captured so that the depth guide G1 fills the entire angle of view.
例えば、画角が60度であるような視位置E1で撮影された撮影画像は図12のBに示すようになり、画角が30度であるような視位置E2で撮影された撮影画像は図12のCに示すようになる。For example, an image captured at a viewing position E1 where the angle of view is 60 degrees will look like the image shown in FIG. 12B, and an image captured at a viewing position E2 where the angle of view is 30 degrees will look like the image shown in FIG. 12C.
画角が60度である場合の撮影画像と比較すると、画角が30度である場合の撮影画像においては、奥側のフレームF2がより手前側にあるように見える。言い換えると、フレームF1とフレームF2の間隔がより狭く見える。さらに言い換えると、フレームF2のサイズがより大きく見える。Compared to the image captured with a 60-degree angle of view, in the image captured with a 30-degree angle of view, frame F2 at the back appears to be closer to the front. In other words, the distance between frames F1 and F2 appears narrower. In other words, the size of frame F2 appears larger.
このように、画角によって奥行きガイドG1の見え方は異なる。また、被写体Obj1の見え方も画角によって異なる。In this way, the appearance of the depth guide G1 differs depending on the angle of view. The appearance of the subject Obj1 also differs depending on the angle of view.
次に、図13のフローチャートを参照して、以上のような構成を有する情報処理装置101が行う処理について説明する。ここでは、術野画像と術前画像の取得、操作内容の取得、および、ユーザの視位置の検出は適宜行われる。Next, the processing performed by the
説明を簡単にするため、ユーザは表示装置400の表示面412に正対していて、仮想プレートは表示面412上に配置されるとする。言い換えると、左目用画像と右目用画像の奥行きガイドが映る領域以外の領域は略同じ画像になる。For ease of explanation, it is assumed that the user faces the
ステップS1において、3D画像生成部114は、術野画像を所定の大きさで仮想空間内に配置する。具体的には、図14のAに示すように、仮想空間内に配置された仮想プレートP71上に、例えば画角が60度である場合の術野画像P41が投影される。In step S1, the 3D
ステップS2において、3D画像生成部114は、術野画像に対して、撮影装置611の焦点距離と画角に基づいて調整された奥行きガイドを重畳する。例えば、図14のBに示すように、術野画像P41に対して、60度の画角に対応する奥行きガイドG11が重畳される。In step S2, the 3D
ステップS3において、3D画像生成部114は、仮想空間内に術前画像を配置する。例えば、図15のCに示すように、ユーザの視位置から見て術野画像P41の左側に、術前画像P42が配置される。なお、術前画像P42には、奥行きガイドG12があらかじめ重畳されている。In step S3, the
ステップS4において、3D画像生成部114は、術野画像に重畳された奥行きガイドと術前画像に重畳された奥行きガイドが一致するように、術前画像の視位置、画角、およびサイズを調整する。例えば、図15のDに示すように、術前画像P42と奥行きガイドG12の見え方が、撮影装置611の視位置と同様の視位置から60度の画角の仮想カメラで生体の3Dモデルを撮影したときの見え方になるように調整される。In step S4, the
図16は、画角が異なる術前画像における3Dモデルと奥行きガイドの見え方の例を示す図である。Figure 16 shows examples of how the 3D model and depth guide appear in preoperative images with different angles of view.
図16の例では、画角が30度、40度、50度、および60度である場合の術前画像における生体の3Dモデルと奥行きガイドの見え方が示されている。画角が大きくなるほど、奥行きガイドの奥側のフレームがより奥側にあるように見える。また、画角によって生体の3Dモデルの見え方が異なる。The example in Figure 16 shows how the 3D model of the living body and the depth guide appear in preoperative images when the angle of view is 30 degrees, 40 degrees, 50 degrees, and 60 degrees. The larger the angle of view, the further back the frame on the back side of the depth guide appears to be. Also, the appearance of the 3D model of the living body differs depending on the angle of view.
図17は、術野画像のサイズの調整方法を説明する図である。Figure 17 is a diagram explaining how to adjust the size of the surgical field image.
図17のAに示すように、例えば、術野画像P41が撮影される際、被写体とともに、被写体のサイズ感を示す目盛りであるスケールSc1が撮影される。As shown in A of FIG. 17, for example, when an operative field image P41 is captured, a scale Sc1, which is a scale indicating the size of the subject, is captured together with the subject.
図17のBに示すように、術前画像P42が撮影される際も同様に、生体の3Dモデルとともに、3Dモデルのサイズ感を示す目盛りであるスケールSc2が撮影される。スケールSc1とスケールSc2が同じになるように術前画像P42のサイズを調整することで、術野画像P41に映る被写体のサイズ感と、術前画像P42に映る3Dモデルのサイズ感を一致させることができる。As shown in FIG. 17B, when the preoperative image P42 is captured, the scale Sc2, which is a scale indicating the size of the 3D model, is also captured together with the 3D model of the living body. By adjusting the size of the preoperative image P42 so that the scale Sc1 and the scale Sc2 are the same, the size of the subject shown in the surgical field image P41 and the size of the 3D model shown in the preoperative image P42 can be made to match.
図13に戻り、ステップS5において、情報処理装置101は、術野画像と術前画像を左右(横)に並べて表示するか否かを判定する。術野画像と術前画像を左右に並べて表示するか否かは、例えばユーザによる操作に応じて切り替えられる。Returning to FIG. 13, in step S5, the
術野画像と術前画像を左右に並べて表示するとステップS5において判定された場合、処理はステップS6に進む。ステップS6において、3D画像生成部114は、実写画像と術前画像が仮想プレート上に並べられた状態でレンダリングを行って左目用画像と右目用画像を生成し、出力制御部115は、実写画像と術前画像を並べて表示装置400に表示させる。If it is determined in step S5 that the surgical field image and the preoperative image are to be displayed side-by-side, the process proceeds to step S6. In step S6, the 3D
一方、術野画像と術前画像を左右に並べて表示しないとステップS5において判定された場合、処理はステップS7に進む。ステップS7において、3D画像生成部114は、実写画像と術前画像をアルファブレンドなどにより合成した画像を仮想プレート上に投影した状態でレンダリングを行って左目用画像と右目用画像を生成し、出力制御部115は、実写画像と術前画像を重畳して表示装置400に表示させる。On the other hand, if it is determined in step S5 that the surgical field image and the preoperative image are not to be displayed side-by-side, the process proceeds to step S7. In step S7, the 3D
図18は、術野画像と術前画像の重畳表示の例を示す図である。Figure 18 shows an example of a superimposed display of a surgical field image and a preoperative image.
術野画像に重畳される奥行きガイドと術前画像に重畳される奥行きガイドとが一致するように術前画像が調整されているため、図18のAに示すように、被写体と3Dモデルのサイズ感や向きが合っている。なお、図18のAの例では、画角が60度である場合の術野画像と術前画像が重畳されている。The preoperative image has been adjusted so that the depth guide superimposed on the surgical field image matches the depth guide superimposed on the preoperative image, so the size and orientation of the subject and 3D model match, as shown in Figure 18A. Note that in the example of Figure 18A, the surgical field image and preoperative image are superimposed when the angle of view is 60 degrees.
術野画像と術前画像が重畳されて表示されることで、ユーザは、術野画像に映る被写体と術前画像に映る3Dモデルを直接的に比較することが可能となる。By displaying the surgical field image and the preoperative image superimposed on each other, users can directly compare the subject shown in the surgical field image with the 3D model shown in the preoperative image.
一方、術前画像が調整されないままで術野画像と術前画像が重畳されると、図18のBに示すように、術野画像に重畳される奥行きガイドと術前画像に重畳される奥行きガイドとがずれていて、被写体と3Dモデルのサイズ感や向きも合っていない。On the other hand, if the surgical field image and the preoperative image are superimposed without adjusting the preoperative image, as shown in Figure 18B, the depth guide superimposed on the surgical field image and the depth guide superimposed on the preoperative image will be misaligned, and the size and orientation of the subject and the 3D model will not match.
図19は、画角が30度である場合の術野画像と術前画像の表示例を示す図である。Figure 19 shows an example of the display of a surgical field image and a preoperative image when the angle of view is 30 degrees.
図19のAの例では、画角が30度である場合の術野画像P41と術前画像P42が左右に並べられて表示されている。図19のBの例では、画角が30度である場合の術野画像と術前画像が重畳されて表示されている。In the example of FIG. 19A, an operative field image P41 and a preoperative image P42 with a 30 degree angle of view are displayed side by side. In the example of FIG. 19B, an operative field image and a preoperative image with a 30 degree angle of view are displayed superimposed on each other.
以上のように、本技術の情報処理装置においては、術野画像に付加された奥行きガイド(第1のガイド)と、術前画像に付加された奥行きガイド(第2のガイド)とに基づいて術前画像が調整され、術野画像と術前画像とを表示装置400に表示させるための表示画像が生成される。ユーザは、表示装置400の表示を見て、画角などによる見え方が最適化された術前画像を術野画像と比較することで、術野に含まれる生体の形状や位置を正しく認識することが可能となる。As described above, in the information processing device of the present technology, the preoperative image is adjusted based on the depth guide (first guide) added to the operative field image and the depth guide (second guide) added to the preoperative image, and a display image is generated for displaying the operative field image and the preoperative image on the
したがって、ユーザは、術前画像と術野画像を見ながら、精緻な手術や治療を効率よく行うことができる。精緻な手術や治療が効率よく行われるため、手術や治療にかかる時間が短くなり、患者の負荷を軽減することができる。また、手術室の効率的利用、術者の時間工数の削減などの効果が期待できる。As a result, users can efficiently perform sophisticated surgeries and treatments while viewing preoperative images and surgical field images. Because sophisticated surgeries and treatments can be performed efficiently, the time required for surgery and treatment is shortened, reducing the burden on patients. Other benefits include more efficient use of operating rooms and reduced time and labor required by surgeons.
カテーテルなどを用いたIVR手術などを行う場合においては、術野画像としての血管造影透視画像などと術前画像を比較することで、ユーザは、直観的に手術を行うことが可能となる。これにより、患者のX線の被爆時間を短縮することができ、患者にかかる負荷を低減することができる。When performing IVR surgery using catheters, etc., users can intuitively perform surgery by comparing preoperative images with angiographic fluoroscopic images, etc., which serve as surgical field images. This can shorten the time that patients are exposed to X-rays, and reduce the burden on patients.
図20は、ある視点から見た場合の奥行きガイドを構成する各フレームのサイズの見え方を説明する図である。Figure 20 is a diagram that explains how the size of each frame that makes up the depth guide appears when viewed from a certain viewpoint.
図20においては、奥行きガイドは、4つのフレームF11からF14が一定の間隔Dで奥行き方向に並んで配置されるようにして構成されるとする。4つのフレームF11からF14のうち、最も手前に配置されるフレームF11が画角いっぱいに撮影されるような視位置E21から撮影が行われると、撮影画像においては、視位置E21から離れたフレームほど小さく映る。In FIG. 20, the depth guide is configured such that four frames F11 to F14 are arranged in a line in the depth direction at a fixed interval D. When shooting is performed from a viewing position E21 such that the frame F11, which is arranged in the foreground among the four frames F11 to F14, is shot to fill the angle of view, the frames farther away from the viewing position E21 will appear smaller in the shot image.
撮影画像に映るフレームF11の縮小比を1とする(撮影画像に映るフレームF11のサイズを基準とする)と、フレームF12の縮小比は、L/(L+2・D・tan(θ/2))で示される。θは画角を示し、Lは左右幅を示す。また、撮影画像に映るフレームF13の縮小比は、L/(L+4・D・tan(θ/2))で示され、フレームF14の縮小比は、L/(L+6・D・tan(θ/2))で示される。各フレームの縮小比に対して、視位置E21とフレームF11の間の距離xは寄与しない。If the reduction ratio of frame F11 in the captured image is 1 (based on the size of frame F11 in the captured image), the reduction ratio of frame F12 is expressed as L/(L + 2 D tan(θ/2)). θ indicates the angle of view, and L indicates the left-right width. The reduction ratio of frame F13 in the captured image is expressed as L/(L + 4 D tan(θ/2)), and the reduction ratio of frame F14 is expressed as L/(L + 6 D tan(θ/2)). The distance x between viewing position E21 and frame F11 does not contribute to the reduction ratio of each frame.
θ=30度、D=Lとすると、撮影画像に映るフレームF12の縮小比は0.65、フレームF13の縮小比は0.48、フレームF14の縮小比は0.38になる。If θ = 30 degrees and D = L, the reduction ratio of frame F12 in the captured image will be 0.65, the reduction ratio of frame F13 will be 0.48, and the reduction ratio of frame F14 will be 0.38.
図21と図22は、ある画角で撮影した場合の奥行きガイドを構成する各フレームのサイズの見え方を説明する図である。Figures 21 and 22 are diagrams that explain how the size of each frame that makes up the depth guide appears when shooting at a certain angle of view.
図21に示すように、フレームF12が画角いっぱいに撮影されるような画角αで視位置E21から撮影が行われる場合、撮影画像に映るフレームF12の縮小比を1とする(撮影画像に映るフレームF12のサイズを基準とする)と、フレームF13の縮小比は、L/(L+2・D・tan(α/2))で示され、フレームF14の縮小比は、L/(L+4・D・tan(α/2))で示される。As shown in FIG. 21, when shooting is performed from viewing position E21 with an angle of view α such that frame F12 is captured to fill the entire angle of view, if the reduction ratio of frame F12 in the captured image is 1 (based on the size of frame F12 in the captured image), the reduction ratio of frame F13 is expressed as L/(L+2·D·tan(α/2)), and the reduction ratio of frame F14 is expressed as L/(L+4·D·tan(α/2)).
また、画角αは、2・arctan(tan(θ/2)/(1+2・tan(θ/2)))で示される。The angle of view α is expressed as 2 arctan(tan(θ/2)/(1+2 tan(θ/2))).
α=19.5度とすると、図22の左側に示すように、画角αで撮影された撮影画像に映るフレームF13の縮小比は0.74、フレームF14の縮小比は0.59になる。If α = 19.5 degrees, then as shown on the left side of Figure 22, the reduction ratio of frame F13 in the image captured with the angle of view α is 0.74, and the reduction ratio of frame F14 is 0.59.
フレームF11を基準とするフレームF13の縮小比をフレームF12を基準とする縮小比に変換する(0.48を0.65で除算する)と、0.74になる。フレームF11を基準とするフレームF14の縮小比をフレームF12を基準とする縮小比に変換する(0.38を0.65で除算する)と、0.59になる。When the reduction ratio of frame F13 based on frame F11 is converted to a reduction ratio based on frame F12 (0.48 divided by 0.65), the result is 0.74. When the reduction ratio of frame F14 based on frame F11 is converted to a reduction ratio based on frame F12 (0.38 divided by 0.65), the result is 0.59.
したがって、画角αで撮影された画像、および、画角θで撮影された撮影画像からフレームF12が画角いっぱいになるようにクロップした画像は同じ画像になる。Therefore, the image captured with the angle of view α and the image captured with the angle of view θ cropped so that frame F12 fills the entire angle of view will be the same image.
一般的に、人間は、120度程度の画角で視野を捉えながら、47度程度の画角の領域をクロップして見たり、さらに狭い領域を集中して見たりしている。人間の視野角(画角)は、焦点距離が10~12mm程度(35mm換算)の超広角レンズに例えられるが、視野の一部分の領域のみが重点的に処理されるため、人間が実際に見ている視野角は、焦点距離が50mm(35mm換算)のレンズに相当する。Generally, humans see an image with an angle of view of about 120 degrees, cropping an area with an angle of view of about 47 degrees, or concentrating on an even narrower area. The human field of view (angle of view) can be compared to an ultra-wide-angle lens with a focal length of about 10-12mm (35mm equivalent), but because only a portion of the field of view is focused on, the field of view that humans actually see is equivalent to a lens with a focal length of 50mm (35mm equivalent).
<3.変形例>
互いに視差を有する一対の術野画像がユーザの左目と右目にそれぞれ届けられる術野3D画像や、互いに視差を有する一対の術前画像がユーザの左目と右目にそれぞれ届けられる術前3D画像が表示されるようにしてもよい。術野3D画像は、撮影装置611としての例えばステレオカメラで術野を撮影することで得られる画像である。なお、術前3D画像と2D画像の術野画像とが表示されるようにしてもよい。3. Modifications
A 3D surgical field image in which a pair of surgical field images having a parallax between each other are delivered to the left eye and the right eye of the user, respectively, or a preoperative 3D image in which a pair of preoperative images having a parallax between each other are delivered to the left eye and the right eye of the user, respectively, may be displayed. The 3D surgical field image is an image obtained by photographing the surgical field with, for example, a stereo camera as the
ステレオカメラは、例えば被写体に向かって左側に配置される左カメラと、被写体に向かって右側に配置される右カメラとにより構成される。例えば、左カメラにより撮影された撮影画像が左目用画像として表示され、右カメラにより撮影された撮影画像が右目用画像として表示されることで、ユーザにとっては術野が立体的に見える。A stereo camera is composed of, for example, a left camera placed on the left side of the subject, and a right camera placed on the right side of the subject. For example, the image captured by the left camera is displayed as an image for the left eye, and the image captured by the right camera is displayed as an image for the right eye, so that the surgical field appears three-dimensional to the user.
図23のフローチャートを参照して、術野3D画像と術前3D画像を表示する場合の情報処理装置101が行う処理について説明する。ここでは、術野画像と術前画像の取得、操作内容の取得、および、ユーザの視位置の検出は適宜行われる。The process performed by the
説明を簡単にするため、ユーザは表示装置400の表示面412に正対していて、仮想プレートは表示面412上に配置されるとする。言い換えると、左目用画像と右目用画像の術野3D画像、術前3D画像、および奥行きガイドが映る領域以外の領域は略同じ画像になる。For ease of explanation, it is assumed that the user faces the
ステップS21において、3D画像生成部114は、術野3D画像を所定の大きさで仮想空間内に配置する。具体的には、図24のAに示すように、仮想空間内に配置された仮想プレートP151上に、術野3D画像P101が投影される。In step S21, the 3D
図24のAにおいて吹き出しで示すように、ユーザに提示される左目用画像においては、ステレオカメラの左カメラにより撮影された2D画像の術野画像P101Lが仮想プレート上に投影される。ユーザに提示される右目用画像においては、ステレオカメラの右カメラにより撮影された2Dの術野画像P101Rが仮想プレート上に投影される。術野画像P101Lと術野画像P101Rは、ステレオカメラの輻輳角に基づく視差を有する。As shown in the speech bubble in A of Figure 24, in the left eye image presented to the user, a 2D surgical field image P101L captured by the left camera of the stereo camera is projected onto the virtual plate. In the right eye image presented to the user, a 2D surgical field image P101R captured by the right camera of the stereo camera is projected onto the virtual plate. The surgical field images P101L and P101R have a parallax based on the convergence angle of the stereo cameras.
ステップS22において、3D画像生成部114は、術野3D画像に対して、ステレオカメラの焦点距離と画角に基づいて調整された奥行きガイドを重畳する。例えば、図24のBに示すように、術野3D画像P101に対して、立体視が可能な奥行きガイドG101が重畳される。奥行きガイドG101が重畳されることで、ユーザにとっては、術野3D画像P101に映る被写体の奥行き感が正しく認識しやすくなる。In step S22, the 3D
図24のBにおいて吹き出しで示すように、ユーザに提示される左目用画像と右目用画像においては、術野画像P101Lと術野画像P101Rそれぞれに対して、ステレオカメラの輻輳角に基づく視差を持たせた奥行きガイドG101Lまたは奥行きガイドG101Rが重畳される。As shown in the speech bubble in FIG. 24B, in the left eye image and right eye image presented to the user, a depth guide G101L or depth guide G101R with parallax based on the convergence angle of the stereo camera is superimposed on the surgical field image P101L or surgical field image P101R, respectively.
ステップS23において、3D画像生成部114は、仮想空間内に術前3D画像を配置する。例えば、図25のAに示すように、ユーザの視位置から見て術野3D画像P101の左側に、術前3D画像P102が配置される。なお、術前3D画像P102には、立体視が可能な奥行きガイドG102があらかじめ重畳されている。In step S23, the 3D
図25のAにおいて吹き出しで示すように、ユーザに提示される左目用画像と右目用画像それぞれにおいては、例えば、ステレオカメラの輻輳角に基づく視差を持たせた2D画像の術前画像P102Lまたは2D画像の術前画像P102Rが配置される。また、ユーザに提示される左目用画像と右目用画像においては、術前画像P102Lと術前画像P102Rそれぞれに対して、ステレオカメラの輻輳角に基づく視差を持たせた奥行きガイドG102Lまたは奥行きガイドG102Rが重畳される。As shown in the speech bubble in A of FIG. 25, for example, a 2D preoperative image P102L or a 2D preoperative image P102R with parallax based on the convergence angle of the stereo camera is placed on each of the left-eye and right-eye images presented to the user. Also, a depth guide G102L or a depth guide G102R with parallax based on the convergence angle of the stereo camera is superimposed on each of the left-eye and right-eye images presented to the user.
ステップS24において、3D画像生成部114は、術野3D画像に重畳された奥行きガイドと術前3D画像に重畳された奥行きガイドが一致するように、術前3D画像の視位置、画角、およびサイズを調整する。In step S24, the
このように、ステップS23とステップS24においては、術野画像P101Lと術野画像P101Rの間の視差(輻輳角)、および、術前画像P102Lと術前画像P102Rの間の視差(輻輳角)が一致するように、術前画像P102Lと術前画像P102Rの視差が調整される。また、術野画像P101Lに重畳される奥行きガイドG101Lと術前画像P102Lに重畳される奥行きガイドG102Lとが一致するように、術前画像P102Lが調整される。さらに、術野画像P101Rに重畳される奥行きガイドG101Rと術前画像P102Rに重畳される奥行きガイドG102Rとが一致するように、術前画像P102Rが調整される。In this way, in steps S23 and S24, the parallax between the preoperative image P102L and the preoperative image P102R is adjusted so that the parallax (convergence angle) between the operative field image P101L and the operative field image P101R and the parallax (convergence angle) between the preoperative image P102L and the preoperative image P102R match. Also, the preoperative image P102L is adjusted so that the depth guide G101L superimposed on the operative field image P101L matches the depth guide G102L superimposed on the preoperative image P102L. Furthermore, the preoperative image P102R is adjusted so that the depth guide G101R superimposed on the operative field image P101R matches the depth guide G102R superimposed on the preoperative image P102R.
したがって、図25のAに示すように、術野3D画像P101と術前3D画像P102の奥行き感が一致する。術野画像P101L'と術野画像P101R'の間の視差、および、術前画像P102L'と術前画像P102R'の間の視差が一致していない場合、図25のBにおいてハッチングを施して示すように、ユーザにとっては術前画像P102'の奥行きが歪んで見える。例えば、奥行きが伸びて見えたり、奥行きがつぶれて見えたり、奥行き感がずれて見えたりする。Therefore, as shown in A of Figure 25, the sense of depth of the operative field 3D image P101 and the preoperative 3D image P102 match. If the parallax between the operative field image P101L' and the operative field image P101R', and the parallax between the preoperative image P102L' and the preoperative image P102R' do not match, the depth of the preoperative image P102' will appear distorted to the user, as shown by hatching in B of Figure 25. For example, the depth may appear stretched or compressed, or the sense of depth may appear distorted.
ステップS25において、情報処理装置101は、術野3D画像と術前3D画像を左右に並べて表示するか否かを判定する。術野3D画像と術前3D画像を左右に並べて表示するか否かは、例えばユーザによる操作に応じて切り替えられる。In step S25, the
術野3D画像と術前3D画像を左右に並べて表示するとステップS25において判定された場合、処理はステップS26に進む。ステップS26において、3D画像生成部114は、実写3D画像と術前3D画像が並べられた状態でレンダリングを行って左目用画像と右目用画像を生成し、出力制御部115は、実写3D画像と術前3D画像を並べて表示装置400に表示させる。If it is determined in step S25 that the surgical field 3D image and the preoperative 3D image are to be displayed side-by-side, processing proceeds to step S26. In step S26, the 3D
一方、術野3D画像と術前3D画像を左右に並べて表示しないとステップS25において判定された場合、処理はステップS27に進む。ステップS27において、3D画像生成部114は、実写3D画像と術前3D画像をアルファブレンドなどにより合成した状態でレンダリングを行って左目用画像と右目用画像を生成し、出力制御部115は、実写3D画像と術前3D画像を重畳して表示装置400に表示させる。On the other hand, if it is determined in step S25 that the surgical field 3D image and the preoperative 3D image are not to be displayed side-by-side, processing proceeds to step S27. In step S27, the 3D
図26は、術野3D画像と術前3D画像の重畳表示の例を示す図である。Figure 26 shows an example of a superimposed display of a 3D surgical field image and a preoperative 3D image.
術野3D画像を構成する2つの術野画像の間の視差と術前3D画像を構成する2つの術前画像の視差とが一致するように術前画像が調整されているため、図26のAの吹き出しで示すように、術野画像と術前画像がそれぞれ重畳された左目用画像P111Lと右目用画像P111Rのどちらにおいても、奥行きガイドが一致している。このような左目用画像P111Lと右目用画像P111Rが表示されると、ユーザにとっては、3D画像P111に映る被写体と3Dモデルのサイズ感や向きが合って見える。The preoperative images are adjusted so that the parallax between the two surgical field images that make up the surgical field 3D image matches the parallax between the two preoperative images that make up the preoperative 3D image, so that the depth guides match in both the left-eye image P111L and the right-eye image P111R in which the surgical field image and the preoperative image are superimposed, as shown in the speech bubble in Figure 26A. When such a left-eye image P111L and right-eye image P111R are displayed, the user sees the size and orientation of the subject and 3D model in the 3D image P111 match.
術野3D画像と術前3D画像が重畳されて表示されることで、ユーザは、術野3D画像に映る被写体と術前3D画像に映る3Dモデルとを直接的に比較することが可能となる。By displaying the 3D surgical field image and the preoperative 3D image superimposed on each other, users can directly compare the subject shown in the 3D surgical field image with the 3D model shown in the preoperative 3D image.
一方、2つの術野画像の間の視差と2つの術前画像の視差とが一致しないままで術野3D画像と術前3D画像が重畳されると、図26のBの吹き出しで示すように、術野画像と術前画像がそれぞれ重畳された左目用画像P111L'と右目用画像P111R'のどちらにおいても、術野画像の奥行きガイドと術前画像の奥行きガイドとがずれる。このような左目用画像P111L'と右目用画像P111R'が表示されると、ユーザにとっては、ハッチングを施して示すように、3D画像P111'の奥行きが歪んで見える。例えば、奥行きが伸びて見えたり、奥行きがつぶれて見えたり、奥行き感がずれて見えたりする。On the other hand, if the surgical field 3D image and the preoperative 3D image are superimposed without the parallax between the two surgical field images and the parallax between the two preoperative images matching, then as shown in the speech bubble in Figure 26B, the depth guide of the surgical field image and the depth guide of the preoperative image will be misaligned in both the left eye image P111L' and the right eye image P111R' in which the surgical field image and the preoperative image are respectively superimposed. When such a left eye image P111L' and right eye image P111R' are displayed, the depth of the 3D image P111' appears distorted to the user, as shown by the hatching. For example, the depth may appear stretched or compressed, or the sense of depth may appear distorted.
図27は、術野3D画像と術前3D画像の重畳表示の他の例を示す図である。Figure 27 shows another example of a superimposed display of a 3D surgical field image and a preoperative 3D image.
図27に示すように、奥行きガイドが重畳されていない術野3D画像と術前3D画像が重畳されて表示されてもよい。この場合、図27の吹き出しで示すように、奥行きガイドが重畳されていない術野画像と術前画像がそれぞれ重畳された左目用画像と右目用画像が表示されることで、奥行きガイドが重畳されていない3D画像P121が表示される。As shown in FIG. 27, a 3D surgical field image without a superimposed depth guide and a preoperative 3D image may be displayed superimposed. In this case, as shown in the speech bubble in FIG. 27, a left-eye image and a right-eye image with the surgical field image without a superimposed depth guide and the preoperative image superimposed thereon are displayed, thereby displaying a 3D image P121 without a superimposed depth guide.
奥行きガイドが重畳されていない3D画像P121が表示される場合、2つの術野画像の間の視差と2つの術前画像の間の視差とが一致するように術前画像の視差が調整されるとともに、術野画像に重畳された奥行きガイドと術前画像に重畳された奥行きガイドが一致するように術前画像が調整される。奥行きガイドに基づく術前画像が調整された後に、奥行きガイドが消された左目用画像と右目用画像が生成される。When a 3D image P121 without a depth guide superimposed thereon is displayed, the parallax of the preoperative image is adjusted so that the parallax between the two surgical field images matches the parallax between the two preoperative images, and the preoperative image is adjusted so that the depth guide superimposed on the surgical field image matches the depth guide superimposed on the preoperative image. After the preoperative image is adjusted based on the depth guide, a left eye image and a right eye image are generated with the depth guide removed.
このように、術前3D画像を調整する際に、術野3D画像と術前3D画像それぞれに対して奥行きガイドが一時的に付加されてもよい。In this way, when adjusting the preoperative 3D image, depth guides may be temporarily added to both the surgical field 3D image and the preoperative 3D image.
以上のように、ユーザは、画角などによる見え方が最適化された術前3D画像を術野3D画像と比較することで、術野に含まれる生体の形状や位置を容易に正しく認識することが可能となる。また、本技術の手術システムにおいては、輻輳角が一致した術野3D画像と術前3D画像が表示されるため、ユーザは、術野3D画像に映る被写体と術前3D画像に映る3Dモデルの奥行き感をより正しく認識することができる。As described above, by comparing the preoperative 3D image, in which the appearance is optimized based on the angle of view, etc., with the surgical field 3D image, the user can easily and correctly recognize the shape and position of the living body contained in the surgical field. Furthermore, in the surgical system using this technology, the surgical field 3D image and preoperative 3D image with matching convergence angles are displayed, so the user can more accurately recognize the sense of depth of the subject shown in the surgical field 3D image and the 3D model shown in the preoperative 3D image.
図28から図31は、輻輳角による奥行きガイドの見え方の違いを説明する図である。Figures 28 to 31 are diagrams that explain how the appearance of the depth guide differs depending on the convergence angle.
図28から図31においては、奥行きガイドは、4つのフレームF21からF24が一定の間隔で奥行き方向に並んで配置されるようにして構成されるとする。ここでは、4つのフレームF21からF24のうちのフレームF22が、表示装置400の表示面412上に仮想的に配置される。なお、表示面412上に輻輳点があるとする。In Figures 28 to 31, the depth guide is configured such that four frames F21 to F24 are arranged side by side at regular intervals in the depth direction. Here, frame F22 of the four frames F21 to F24 is virtually arranged on the
視位置E51から見る場合、例えばフレームF11は表示面412よりも手前側にあるため、左目用画像と右目用画像を比較すると、図28の白抜き矢印#11の先に示すように、右目用画像内のフレームF11の位置が、左目用画像内のフレームF11の位置よりも左側に見える。一方、例えばフレームF13は表示面412よりも奥側にあるため、左目用画像と右目用画像を比較すると、図28の白抜き矢印#12の先に示すように、左目用画像内のフレームF11の位置が、右目用画像内のフレームF11の位置よりも左側に見える。When viewed from viewing position E51, for example, frame F11 is in front of
したがって、図29の左下側に示すように、左目用画像P201Lにおいては、フレームF11の中心位置がフレームF12の中心位置を基準として右側にずれて映り、フレームF13とフレームF14の中心位置がフレームF12の中心位置を基準として左側にずれて映る。また、図29の右下側に示すように、右目用画像P201Rにおいては、フレームF11の中心位置がフレームF12の中心位置を基準として左側にずれて映り、フレームF13とフレームF14の中心位置がフレームF12の中心位置を基準として右側にずれて映る。As a result, as shown in the lower left of Figure 29, in the left-eye image P201L, the center position of frame F11 is shifted to the right based on the center position of frame F12, and the center positions of frames F13 and F14 are shifted to the left based on the center position of frame F12. Also, as shown in the lower right of Figure 29, in the right-eye image P201R, the center position of frame F11 is shifted to the left based on the center position of frame F12, and the center positions of frames F13 and F14 are shifted to the right based on the center position of frame F12.
このような左目用画像P201Lと右目用画像P201Rが表示されることで、ユーザは、図29の上側に示すような、視位置E51から見た奥行きガイドを示す3D画像P201を見ることができる。By displaying such a left eye image P201L and a right eye image P201R, the user can see a 3D image P201 showing a depth guide as seen from a viewing position E51, as shown in the upper part of FIG. 29.
次に、図28を参照して説明した例での視位置と同じ視位置E51から見るが、この例よりも輻輳角を大きくした場合の奥行きガイドの見え方について、図30を参照して説明する。Next, referring to FIG. 30, we will explain how the depth guide appears when viewed from the same viewing position E51 as in the example described with reference to FIG. 28, but with a larger convergence angle than in this example.
視位置E51から見る場合、左目用画像と右目用画像を比較すると、図30の白抜き矢印#21の先に示すように、右目用画像内のフレームF11の位置は、左目用画像内のフレームF11の位置よりも左側に見える。また、フレームF11の視差量は、図28の例におけるフレームF11の視差量よりも大きい。When viewed from viewing position E51, comparing the left eye image and the right eye image, as shown at the tip of
一方、左目用画像と右目用画像を比較すると、図30の白抜き矢印#22の先に示すように、左目用画像内の例えばフレームF13の位置は、右目用画像内のフレームF13の位置よりも左側に見える。また、フレームF13の視差量も、図28の例におけるフレームF13の視差量よりも大きい。On the other hand, when comparing the left-eye image and the right-eye image, as shown at the tip of the
したがって、図31の左下側に示すように、左目用画像P201Lにおいては、フレームF11の中心位置がフレームF12の中心位置を基準として、図30の例よりもさらに右側にずれて映り、フレームF13とフレームF14の中心位置がフレームF12の中心位置を基準として図30の例よりもさらに左側にずれて映る。また、図31の右下側に示すように、右目用画像P201Rにおいては、フレームF11の中心位置がフレームF12の中心位置を基準として図30の例よりもさらに左側にずれて映り、フレームF13とフレームF14の中心位置がフレームF12の中心位置を基準として図30の例よりもさらに右側にずれて映る。Therefore, as shown in the lower left of Figure 31, in the left-eye image P201L, the center position of frame F11 is shifted further to the right than in the example of Figure 30, using the center position of frame F12 as the reference, and the center positions of frames F13 and F14 are shifted further to the left than in the example of Figure 30, using the center position of frame F12 as the reference. Also, as shown in the lower right of Figure 31, in the right-eye image P201R, the center position of frame F11 is shifted further to the left than in the example of Figure 30, using the center position of frame F12 as the reference, and the center positions of frames F13 and F14 are shifted further to the right than in the example of Figure 30, using the center position of frame F12 as the reference.
<コンピュータについて>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。<About computers>
The above-mentioned series of processes can be executed by hardware or software. When the series of processes is executed by software, the program constituting the software is installed from a program recording medium into a computer incorporated in dedicated hardware, or into a general-purpose personal computer, etc.
図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。FIG. 32 is a block diagram showing an example of the hardware configuration of a computer that executes the above-mentioned series of processes using a program.
CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。The CPU (Central Processing Unit) 1001, ROM (Read Only Memory) 1002, and RAM (Random Access Memory) 1003 are interconnected by a
バス1004には、さらに、入出力インタフェース1005が接続される。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。Further connected to the
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。In a computer configured as described above, the
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。The programs executed by the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。The program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or a program in which processing is performed in parallel or at the required timing, such as when called.
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。In this specification, a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all the components are in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device in which multiple modules are housed in a single housing, are both systems.
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。The effects described in this specification are merely examples and are not limiting, and other effects may also exist.
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。The embodiment of this technology is not limited to the above-mentioned embodiment, and various modifications are possible without departing from the spirit of this technology.
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。For example, this technology can be configured as cloud computing, in which a single function is shared and processed collaboratively by multiple devices over a network.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。In addition, each step described in the above flowchart can be executed by a single device, or can be shared and executed by multiple devices.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。Furthermore, when a single step includes multiple processes, the processes included in that single step can be executed by a single device, or can be shared and executed by multiple devices.
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。<Examples of configuration combinations>
The present technology can also be configured as follows.
(1)
被写体を撮影装置で実際に撮影した実写画像における奥行き方向のスケールを示す第1のガイドと、3Dモデルを仮想カメラで撮影したCG画像における奥行き方向のスケールを示す第2のガイドとに基づいて、前記CG画像を調整し、前記実写画像と前記CG画像とを表示装置に表示させるための表示画像を生成する画像生成部
を備える情報処理装置。
(2)
前記画像生成部は、前記第1のガイドと前記第2のガイドが一致するように前記CG画像を調整する
前記(1)に記載の情報処理装置。
(3)
前記実写画像は、患者の生体の少なくとも一部分が前記被写体として撮影された術野画像である
前記(1)または(2)に記載の情報処理装置。
(4)
前記CG画像は、前記生体の少なくとも一部分の形状を示す前記3Dモデルを前記仮想カメラで撮影した画像である
前記(3)に記載の情報処理装置。
(5)
前記表示装置は、空間再現ディスプレイである
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記画像生成部は、前記実写画像と前記CG画像を、前記表示装置のユーザの視位置に正対するように仮想空間内に配置された仮想プレート上に投影し、前記仮想空間をレンダリングすることで前記表示画像を生成する
前記(5)に記載の情報処理装置。
(7)
前記画像生成部は、前記実写画像と前記CG画像を前記仮想プレート上に並べて投影する
前記(6)に記載の情報処理装置。
(8)
前記画像生成部は、前記実写画像と前記CG画像を重畳して前記仮想プレート上に投影する
前記(6)に記載の情報処理装置。
(9)
前記画像生成部は、前記第1のガイドと前記第2のガイドに基づいて、前記CG画像の焦点距離、画角、およびサイズのうちの少なくともいずれかを調整する
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記CG画像は、互いに視差を有する一対の画像が、前記表示装置のユーザの左目と右目にそれぞれ届けられる3D画像である
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(11)
前記実写画像は、互いに視差を有する一対の画像が、前記ユーザの左目と右目にそれぞれ届けられる3D画像である
前記(10)に記載の情報処理装置。
(12)
前記画像生成部は、前記実写画像の輻輳角に基づいて前記CG画像の輻輳角を調整する
前記(11)に記載の情報処理装置。
(13)
前記画像生成部は、前記第1のガイドが重畳された前記実写画像と、前記第2のガイドが重畳された前記CG画像とを前記表示装置に表示させるための前記表示画像を生成する
前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記表示画像内に映る前記第1のガイドと前記第2のガイドは、多重の矩形が同心状に配置された形状を有する
前記(13)に記載の情報処理装置。
(15)
前記画像生成部は、前記第1のガイドと前記第2のガイドが重畳されていない前記実写画像と前記CG画像を前記表示装置に表示させるための前記表示画像を生成する
前記(1)乃至(12)のいずれかに記載の情報処理装置。
(16)
被写体を撮影装置で実際に撮影した実写画像における奥行き方向のスケールを示す第1のガイドと、3Dモデルを仮想カメラで撮影したCG画像に奥行き方向のスケールを示す第2のガイドとに基づいて、前記CG画像を調整し、
前記実写画像と前記CG画像とを表示装置に表示させるための表示画像を生成する
情報処理方法。
(17)
コンピュータに、
被写体を撮影装置で実際に撮影した実写画像における奥行き方向のスケールを示す第1のガイドと、3Dモデルを仮想カメラで撮影したCG画像における奥行き方向のスケールを示す第2のガイドとに基づいて、前記CG画像を調整し、
前記実写画像と前記CG画像とを表示装置に表示させるための表示画像を生成する
処理を実行させるためのプログラム。(1)
an information processing device comprising: an image generation unit that adjusts a CG image based on a first guide indicating the scale of the depth direction in a real-life image of a subject actually photographed by a photographing device and a second guide indicating the scale of the depth direction in a CG image of a 3D model photographed by a virtual camera, and generates a display image for displaying the real-life image and the CG image on a display device.
(2)
The information processing device according to (1), wherein the image generation unit adjusts the CG image so that the first guide and the second guide coincide with each other.
(3)
The information processing device according to (1) or (2), wherein the actual image is a surgical field image in which at least a part of a patient's living body is captured as the subject.
(4)
The information processing device according to (3), wherein the CG image is an image of the 3D model showing the shape of at least a part of the living body photographed by the virtual camera.
(5)
The information processing device according to any one of (1) to (4), wherein the display device is a spatial reproduction display.
(6)
The information processing device described in (5), wherein the image generation unit projects the real-life image and the CG image onto a virtual plate arranged in a virtual space so as to face directly against a viewing position of a user of the display device, and generates the display image by rendering the virtual space.
(7)
The information processing device according to (6), wherein the image generating unit projects the real image and the CG image side by side on the virtual plate.
(8)
The information processing device according to (6), wherein the image generating unit superimposes the real image and the CG image and projects them onto the virtual plate.
(9)
The information processing device described in any one of (1) to (8), wherein the image generation unit adjusts at least one of a focal length, an angle of view, and a size of the CG image based on the first guide and the second guide.
(10)
The information processing device according to any one of (1) to (8), wherein the CG image is a 3D image in which a pair of images having a parallax with respect to each other are delivered to the left eye and the right eye of a user of the display device, respectively.
(11)
The information processing device according to (10), wherein the real-life images are 3D images in which a pair of images having parallax with respect to each other are delivered to the left eye and right eye of the user, respectively.
(12)
The information processing device according to (11), wherein the image generation unit adjusts a convergence angle of the CG image based on a convergence angle of the real image.
(13)
The information processing device described in any of (1) to (12), wherein the image generation unit generates the display image for displaying on the display device the real-life image with the first guide superimposed thereon and the CG image with the second guide superimposed thereon.
(14)
The information processing device according to (13), wherein the first guide and the second guide shown in the display image have a shape in which multiple rectangles are arranged concentrically.
(15)
The information processing device described in any of (1) to (12), wherein the image generation unit generates the display image for displaying the real-life image and the CG image without the first guide and the second guide superimposed on the display device.
(16)
adjusting the CG image based on a first guide indicating a scale in the depth direction in a real-life image obtained by actually photographing a subject with a photographing device and a second guide indicating a scale in the depth direction in a CG image obtained by photographing a 3D model with a virtual camera;
an information processing method for generating a display image for displaying the real image and the CG image on a display device;
(17)
On the computer,
adjusting the CG image based on a first guide indicating a scale in the depth direction in a real-life image obtained by actually photographing a subject with a photographing device and a second guide indicating a scale in the depth direction in a CG image obtained by photographing a 3D model with a virtual camera;
A program for executing a process of generating a display image for displaying the real image and the CG image on a display device.
100 マスター装置, 101 情報処理装置, 111 キャプチャ部, 112 UI処理部, 113 視位置検出部, 114 3D画像生成部, 115 出力制御部, 400 表示装置, 411 撮影装置, 412 表示面, 500 スレーブ装置, 611 撮影装置100 Master device, 101 Information processing device, 111 Capture unit, 112 UI processing unit, 113 Viewing position detection unit, 114 3D image generation unit, 115 Output control unit, 400 Display device, 411 Shooting device, 412 Display surface, 500 Slave device, 611 Shooting device
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023207428 | 2023-12-08 | ||
| JP2023-207428 | 2023-12-08 |
| Publication Number | Publication Date |
|---|---|
| WO2025121121A1true WO2025121121A1 (en) | 2025-06-12 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/040906PendingWO2025121121A1 (en) | 2023-12-08 | 2024-11-19 | Information processing device, information processing method, and program |
| Country | Link |
|---|---|
| WO (1) | WO2025121121A1 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110282140A1 (en)* | 2010-05-14 | 2011-11-17 | Intuitive Surgical Operations, Inc. | Method and system of hand segmentation and overlay using depth data |
| JP2013009040A (en)* | 2011-06-22 | 2013-01-10 | Toshiba Corp | Image processing system, device, and method |
| JP2014212904A (en)* | 2013-04-25 | 2014-11-17 | 株式会社日立メディコ | Medical projection system |
| JP2017113343A (en)* | 2015-12-25 | 2017-06-29 | ソニー株式会社 | Medical imaging apparatus and surgery navigation system |
| US20200008874A1 (en)* | 2017-03-22 | 2020-01-09 | Intuitive Surgical Operations, Inc. | Systems and methods for intelligently seeding registration |
| WO2023140120A1 (en)* | 2022-01-21 | 2023-07-27 | ソニーグループ株式会社 | Surgical robot system |
| US20230255692A1 (en)* | 2022-02-16 | 2023-08-17 | Siemens Healthcare Gmbh | Technique for optical guidance during a surgical procedure |
| JP2023121441A (en)* | 2022-02-21 | 2023-08-31 | コニカミノルタ株式会社 | Ultrasonic diagnostic apparatus, ultrasonic probe and attachment for ultrasonic probe |
| JP2023548279A (en)* | 2020-10-01 | 2023-11-16 | ディジタル サージェリー システムズ インコーポレイテッド ドゥーイング ビジネス アズ トゥルー ディジタル サージェリー | Auto-navigating digital surgical microscope |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110282140A1 (en)* | 2010-05-14 | 2011-11-17 | Intuitive Surgical Operations, Inc. | Method and system of hand segmentation and overlay using depth data |
| JP2013009040A (en)* | 2011-06-22 | 2013-01-10 | Toshiba Corp | Image processing system, device, and method |
| JP2014212904A (en)* | 2013-04-25 | 2014-11-17 | 株式会社日立メディコ | Medical projection system |
| JP2017113343A (en)* | 2015-12-25 | 2017-06-29 | ソニー株式会社 | Medical imaging apparatus and surgery navigation system |
| US20200008874A1 (en)* | 2017-03-22 | 2020-01-09 | Intuitive Surgical Operations, Inc. | Systems and methods for intelligently seeding registration |
| JP2023548279A (en)* | 2020-10-01 | 2023-11-16 | ディジタル サージェリー システムズ インコーポレイテッド ドゥーイング ビジネス アズ トゥルー ディジタル サージェリー | Auto-navigating digital surgical microscope |
| WO2023140120A1 (en)* | 2022-01-21 | 2023-07-27 | ソニーグループ株式会社 | Surgical robot system |
| US20230255692A1 (en)* | 2022-02-16 | 2023-08-17 | Siemens Healthcare Gmbh | Technique for optical guidance during a surgical procedure |
| JP2023121441A (en)* | 2022-02-21 | 2023-08-31 | コニカミノルタ株式会社 | Ultrasonic diagnostic apparatus, ultrasonic probe and attachment for ultrasonic probe |
| Publication | Publication Date | Title |
|---|---|---|
| EP3293972B1 (en) | Three-dimensional observation device for medical use, three-dimensional observation method for medical use, and program | |
| Rolland et al. | Optical versus video see-through head-mounted displays in medical visualization | |
| Held et al. | A guide to stereoscopic 3D displays in medicine | |
| Satava | 3-D vision technology applied to advanced minimally invasive surgery systems | |
| JP2019523663A (en) | System, method and computer readable storage medium for controlling aspects of a robotic surgical apparatus and a viewer adapted stereoscopic display | |
| WO2007078581A1 (en) | Analyzing radiological images using 3d stereo pairs | |
| Khoshabeh et al. | Multiview glasses-free 3-D laparoscopy | |
| Breedveld et al. | Observation in laparoscopic surgery: overview of impeding effects and supporting aids | |
| US10330945B2 (en) | Medical image display apparatus, medical information processing system, and medical image display control method | |
| JP6618260B2 (en) | Information processing apparatus, information processing method, and program | |
| JP2011182808A (en) | Medical image generating apparatus, medical image display apparatus, medical image generating method and program | |
| CN104887316A (en) | Virtual three-dimensional endoscope displaying method based on active three-dimensional displaying technology | |
| EP4467095A1 (en) | Surgical robot system | |
| WO2025121121A1 (en) | Information processing device, information processing method, and program | |
| US10855980B2 (en) | Medical-image display control device, medical image display device, medical-information processing system, and medical-image display control method | |
| Sauer et al. | Augmented reality | |
| JP6849775B2 (en) | Information processing equipment, information processing methods, programs | |
| Liao et al. | High spatiotemporal resolution biomedical imaging and visualization | |
| WO2025204551A1 (en) | Information processing device, information processing method, and program | |
| WO2025105158A1 (en) | Information processing device, information processing method, program, and information processing system | |
| US20250294123A1 (en) | Methods for generating stereoscopic views in multicamera systems, and associated devices and systems | |
| WO2024185547A1 (en) | Information processing device, information processing method, information processing program, and information processing system | |
| WO2012043547A1 (en) | Stereoscopic image display method and stereoscopic image display device | |
| WO2012043480A1 (en) | Stereovision image display method and stereovision image display device | |
| WO2024071208A1 (en) | Display device, display method, and program |
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application | Ref document number:24900416 Country of ref document:EP Kind code of ref document:A1 |