本発明は、画像診断を支援する画像生成技術に関するものであり、特に、CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)等の画像診断装置により得られた3次元画像データに基づき、診断支援に好適な観察用画像(2次元可視画像)を生成し得る医用画像生成装置および医用画像生成プログラムに関する。 The present invention relates to an image generation technique that supports image diagnosis, and particularly to diagnosis support based on three-dimensional image data obtained by an image diagnosis apparatus such as CT (Computed Tomography) and MRI (Magnetic Resonance Imaging). The present invention relates to a medical image generation apparatus and a medical image generation program capable of generating a suitable observation image (two-dimensional visible image).
現在、医療分野において用いられる医用画像構成手法は、画像診断装置により得られた断層画像群に基づき、コンピュータ上で被観察体(表示対象物体)の3次元画像モデルを構築し、この3次元画像モデルを2次元平面上に投影した2次元可視画像を構成するものが一般的であり、その手法の一例としてボリュームレンダリング法が知られている(例えば、特許文献1を参照)。 Currently, a medical image construction method used in the medical field constructs a three-dimensional image model of an object to be observed (display target object) on a computer based on a group of tomographic images obtained by an image diagnostic apparatus. Generally, a two-dimensional visible image obtained by projecting a model onto a two-dimensional plane is configured, and a volume rendering method is known as an example of the method (see, for example, Patent Document 1).
ボリュームレンダリング法では、画像診断装置により得られたCT値等の信号値がそれぞれ対応付けられた、ボクセル(voxel)と称される画像構成要素の集合体を用いて3次元画像モデルが構成され、2次元可視画像を構成する際には各画像構成要素に対し、色や不透明度等の画像化に必要とされる表示特性が各信号値に応じて与えられるようになっている。そのため、表示対象物体に応じて表示特性を適切に設定することで、例えば臓器中における血管の走行状態を立体的に把握することが可能となり、特に手術等のリスクを伴う治療の術前評価用としてボリュームレンダリング法は有効活用されている。 In the volume rendering method, a three-dimensional image model is configured using a collection of image constituent elements called voxels that are associated with signal values such as CT values obtained by an image diagnostic apparatus, When constructing a two-dimensional visible image, display characteristics required for imaging such as color and opacity are given to each image component according to each signal value. Therefore, by appropriately setting the display characteristics according to the display target object, for example, it is possible to grasp the running state of blood vessels in an organ in a three-dimensional manner, especially for preoperative evaluation of treatments involving risks such as surgery. As a result, the volume rendering method is effectively utilized.
ところで、ボリュームレンダリング法の1つとして、αブレンディングによるボリュームレンダリング法が知られているが、この方法では、物体の表面側から光を入射させ、光の透過方向に並ぶボクセル各々の不透明度を積算し、積算して求められた値に基づいて2次元可視画像を表示させるようになっている。このαブレンディングによるボリュームレンダリング法においては、上述のように不透明度を積算して得られた値に基づいて表示させるために、信号値にノイズ成分が含まれる場合には、光の透過方向にボクセル各々のノイズ成分も積算されて、表示対象物体の厚みに略比例してノイズ成分の影響が増大することとなる。 By the way, as one of the volume rendering methods, a volume rendering method by α blending is known. In this method, light is incident from the surface side of an object, and the opacity of each voxel arranged in the light transmission direction is integrated. The two-dimensional visible image is displayed based on the value obtained by integration. In this volume rendering method by α blending, in order to display based on the value obtained by integrating the opacity as described above, when the noise value is included in the signal value, the voxel is transmitted in the light transmission direction. Each noise component is also integrated, and the influence of the noise component increases substantially in proportion to the thickness of the display target object.
そのため、例えば図9に示すように、門脈520および静脈530が肝臓実質510内を複雑に走行する肝臓500を表示させる場合、門脈520および静脈530に比較して厚みのある肝臓実質510では、その肝臓実質510に対応した信号値に含まれるノイズ成分の影響が、特に問題となる。よって、肝臓実質510部分を透明にして透かすように表示特性を設定したとしても、ノイズ成分の影響を受けて肝臓実質510部分が設定通りに透明に表示されず、その結果、肝臓実質510の内部や背後に位置する門脈520や静脈530を鮮明に表示させることが難しいという課題があった。 Therefore, for example, as shown in FIG. 9, when displaying the liver 500 in which the portal vein 520 and the vein 530 travel in a complicated manner in the liver parenchyma 510, the liver parenchyma 510 having a thickness larger than that of the portal vein 520 and the vein 530 The influence of the noise component included in the signal value corresponding to the liver substance 510 is particularly problematic. Therefore, even if the display characteristic is set so that the liver substance 510 part is transparent and transparent, the liver substance 510 part is not displayed transparently as set due to the influence of the noise component. In addition, there is a problem that it is difficult to clearly display the portal vein 520 and the vein 530 located behind.
本発明は上記のような課題に鑑みてなされたものであり、ノイズ成分の影響を受けにくくすることで、表示対象物体の厚みに拘らずその内部を透明に表示させることが可能な医用画像生成装置および医用画像生成プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and is capable of generating a medical image that can be transparently displayed regardless of the thickness of a display target object by making it less susceptible to noise components. An object is to provide a device and a medical image generation program.
上記目的を達成するため、本発明に係る医用画像生成装置および医用画像生成プログラムは、以下のように構成されている In order to achieve the above object, a medical image generation apparatus and a medical image generation program according to the present invention are configured as follows.
すなわち、本発明に係る医用画像生成装置は、
被観察体を含む観察領域を画像診断装置により撮影して取得された医用画像データ(例えば、CT画像データやMRI画像データ)に基づき、所望の観察用画像を生成する医用画像生成装置であって、
前記医用画像データの信号値を基にして、取得された前記医用画像データの中から、前記被観察体を示す閉曲領域に対応する被観察体画像データ群を抽出するデータ抽出手段と、
前記被観察体画像データ群の信号値を基にして、前記閉曲領域の表面形状モデルを生成する表面形状モデル生成手段と、
前記表面形状モデルに所定の不透明度を設定することで、前記所望の観察用画像を生成する不透明度設定手段と、を備えたことを特徴とする。That is, the medical image generation apparatus according to the present invention is
A medical image generation apparatus that generates a desired observation image based on medical image data (for example, CT image data or MRI image data) acquired by imaging an observation region including an object to be observed by an image diagnostic apparatus. ,
Data extraction means for extracting an observed object image data group corresponding to a closed region indicating the observed object from the acquired medical image data based on the signal value of the medical image data;
Surface shape model generating means for generating a surface shape model of the closed region based on the signal value of the observed object image data group,
Opacity setting means for generating the desired observation image by setting a predetermined opacity to the surface shape model.
本発明に係る医用画像生成装置において、
前記表面形状モデル生成手段は、
前記被観察体画像データ群の信号値を、前記閉曲領域を構成する複数の領域構成空間の頂点にそれぞれ対応付け、前記領域構成空間の1辺の両端に対応付けられた前記被観察体画像データ群の信号値と、前記1辺の両端の各々に対応して予め設定された所定の閾値とを比較することで、前記1辺の各々について前記表面形状モデルとの交差位置を特定し、特定された前記交差位置同士を繋ぐことで前記表面形状モデルを生成する構成が好ましい。In the medical image generation apparatus according to the present invention,
The surface shape model generation means includes
The object image data group is associated with the signal values of the plurality of area configuration spaces constituting the closed region, and the object image is associated with both ends of one side of the area configuration space. By comparing the signal value of the data group and a predetermined threshold set in advance corresponding to each of both ends of the one side, the intersection position with the surface shape model for each of the one side is specified, A configuration in which the surface shape model is generated by connecting the specified intersecting positions is preferable.
なお、前記表面形状モデル生成手段が、マーチンキューブス法を用いた構成とされても良い。 The surface shape model generation means may be configured to use a Martin cubes method.
さらに、前記表面形状モデルに対して、シェーディング処理およびレンダリング処理の少なくともいずれかを施すことが可能な表示設定手段を備えた構成が好ましい。 Furthermore, it is preferable to include a display setting unit capable of performing at least one of shading processing and rendering processing on the surface shape model.
本発明に係る医用画像生成プログラムは、
被観察体を含む観察領域を画像診断装置により撮影して取得された医用画像データに基づき、所望の観察用画像を生成する処理を、コンピュータにおいて実行せしめる医用画像生成プログラムであって、
前記医用画像データの信号値を基にして、取得された前記医用画像データの中から、前記被観察体を示す閉曲領域に対応する被観察体画像データ群を抽出するデータ抽出ステップと、
前記被観察体画像データ群の信号値を基にして、前記閉曲領域の表面形状モデルを生成する表面形状モデル生成ステップと、
前記表面形状モデルに所定の不透明度を設定することで、前記所望の観察用画像を生成する不透明度設定ステップと、をコンピュータにおいて実行せしめることを特徴とする。A medical image generation program according to the present invention includes:
A medical image generation program for causing a computer to execute processing for generating a desired observation image based on medical image data acquired by photographing an observation region including an object to be observed by an image diagnostic apparatus,
A data extraction step for extracting an object image data group corresponding to a closed region indicating the object to be observed from the obtained medical image data based on the signal value of the medical image data;
A surface shape model generation step for generating a surface shape model of the closed region based on the signal value of the observed object image data group;
By setting a predetermined opacity in the surface shape model, an opacity setting step of generating the desired observation image is executed in a computer.
本発明に係る医用画像生成装置は、被観察体を示す閉曲領域に対応する被観察体画像データ群を抽出するデータ抽出手段と、表面形状モデルを生成する表面形状モデル生成手段と、表面形状モデルに不透明度を設定することで観察用画像を生成する不透明度設定手段とを備えている。このため、内部構造に関する信号値を備えず表面形状に関する信号値のみを備える表面形状モデルに不透明度が設定されるので、例えばαブレンディングによるボリュームレンダリング法を用いて観察用画像を生成する場合に、内部構造に関する信号値に含まれるノイズ成分の影響を排除して、表示対象物体の厚みに拘らずその内部を透明に表示させることが可能になる。 A medical image generation apparatus according to the present invention includes a data extraction unit that extracts a group of observation object image data corresponding to a closed region indicating an observation unit, a surface shape model generation unit that generates a surface shape model, and a surface shape Opacity setting means for generating an observation image by setting the opacity to the model. For this reason, since the opacity is set in the surface shape model having only the signal value related to the surface shape without including the signal value related to the internal structure, for example, when generating the observation image using the volume rendering method by α blending, The influence of the noise component included in the signal value related to the internal structure can be eliminated, and the inside can be displayed transparently regardless of the thickness of the display target object.
また、表面形状モデル生成手段は、被観察体画像データ群の信号値を、閉曲領域を構成する複数の領域構成空間の頂点に対応付けた上で、領域構成空間を構成する1辺の両端に設定された所定の閾値と比較することにより、該1辺と表面形状モデルとの交差位置を特定し、特定された交差位置同士を繋ぐことで表面形状モデルを生成する構成であることが好ましい。この構成の場合には、医用画像生成装置における演算処理負担を増大させることなく、信号値と閾値との大小関係に基づいて被観察体の表面形状モデルを比較的簡単に生成できる。 Further, the surface shape model generation means associates the signal value of the observed object image data group with the vertices of the plurality of region configuration spaces that constitute the closed region, and then both ends of one side that constitutes the region configuration space. It is preferable that the cross-sectional position between the one side and the surface shape model is specified by comparing with a predetermined threshold set in the above, and the surface shape model is generated by connecting the specified cross-points. . In the case of this configuration, the surface shape model of the object to be observed can be generated relatively easily based on the magnitude relationship between the signal value and the threshold without increasing the processing load on the medical image generation apparatus.
なお、表面形状モデル生成手段が、マーチンキューブス法を用いたものであっても良く、この場合において、例えば8つの頂点を備えた直方体状の領域構成空間を設定することで、閉曲領域内に位置する頂点の組み合わせを14通りに限定することができる。そのため、この14パターンをテーブルにして記憶させておくことで、領域構成空間と表面形状モデルとの交差位置を簡単に特定できて、表面形状モデルの生成が容易となる。 The surface shape model generation means may use a Martin cubes method. In this case, for example, by setting a rectangular parallelepiped region configuration space having eight vertices, Can be limited to 14 combinations. Therefore, by storing these 14 patterns as a table, the intersection position of the region configuration space and the surface shape model can be easily specified, and the generation of the surface shape model is facilitated.
さらに、表面形状モデルに対して、シェーディング処理およびレンダリング処理の少なくともいずれかを施すことが可能な表示設定手段を備えた構成とすることで、立体的で視覚効果の高い観察用画像を生成することが可能になる。 Furthermore, the display configuration means capable of performing at least one of shading processing and rendering processing on the surface shape model can be used to generate a stereoscopic image with a high visual effect. Is possible.
本発明に係る医用画像生成プログラムは、被観察体を示す閉曲領域に対応する被観察体画像データ群を抽出するデータ抽出ステップと、閉曲領域の表面形状モデルを生成する表面形状モデル生成ステップと、表面形状モデルに不透明度を設定することで観察用画像を生成する不透明度設定ステップとをコンピュータにおいて実行せしめるように構成されている。このため、例えばαブレンディングによるボリュームレンダリング法を用いて観察用画像を自動的に生成する場合に、内部構造に関する信号値に含まれるノイズ成分の影響を排除して、表示対象物体の厚みに拘らず自動的にその内部を透明に表示させることができる。 A medical image generation program according to the present invention includes a data extraction step for extracting an object image data group corresponding to a closed region indicating an object to be observed, and a surface shape model generation step for generating a surface shape model of the closed region. And an opacity setting step for generating an observation image by setting the opacity in the surface shape model. For this reason, for example, when an image for observation is automatically generated using a volume rendering method based on α blending, the influence of noise components included in signal values related to the internal structure is eliminated, regardless of the thickness of the display target object. The inside can be automatically displayed transparently.
以下、本発明の実施形態について上述の図面を参照しつつ詳細に説明する。まず、図1および図2を参照しながら、本発明の一実施形態に係る医用画像生成装置1の装置構成について説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the above-mentioned drawings. First, an apparatus configuration of a medical image generation apparatus 1 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2.
図1に示す医用画像生成装置1は、医用画像データに基づき表示対象物体の画像を生成して表示させるものであり、コンピュータ等からなる演算処理装置10と、マウスやキーボード等からなる入力装置20と、画像表示装置等からなる出力装置30とを備えてなる。 A medical image generation apparatus 1 shown in FIG. 1 generates and displays an image of a display target object based on medical image data, and includes an arithmetic processing device 10 including a computer and an input device 20 including a mouse and a keyboard. And an output device 30 composed of an image display device or the like.
上記演算処理装置10は、図2に示すように、医用画像データ記憶手段11、物体抽出手段12、表面形状モデル生成手段13、表示設定手段14および画像生成手段15を備えており、表示設定手段14は、不透明度設定手段14a、シェーディング手段14bおよびレンダリング手段14cを有している。これらの手段は、各種の演算処理を行うCPU、ハードディスクやROM等の記憶装置、該記憶装置に格納された制御プログラム(本発明の一実施形態に係る医用画像生成プログラムを含む)およびRAM等の一時記憶装置等により構成されるものを、概念的に示したものである。 As shown in FIG. 2, the arithmetic processing device 10 includes medical image data storage means 11, object extraction means 12, surface shape model generation means 13, display setting means 14, and image generation means 15, and display setting means. 14 includes opacity setting means 14a, shading means 14b, and rendering means 14c. These means include a CPU for performing various arithmetic processes, a storage device such as a hard disk and a ROM, a control program (including a medical image generation program according to an embodiment of the present invention) stored in the storage device, a RAM, and the like. It is conceptually shown what is constituted by a temporary storage device or the like.
上記医用画像データ記憶手段11は、表示対象物体を含む観察領域をX線CT装置またはMRI装置等の画像診断装置により断層撮影して取得された医用画像データ(CT画像データまたはMRI画像データ)と、上述の物体抽出手段12、表面形状モデル生成手段13、表示設定手段14および画像生成手段15により得られた各種データと、を記憶するものである。 The medical image data storage unit 11 includes medical image data (CT image data or MRI image data) acquired by tomographic imaging of an observation region including a display target object by an image diagnostic apparatus such as an X-ray CT apparatus or an MRI apparatus. The above-described object extraction means 12, surface shape model generation means 13, display setting means 14 and various data obtained by the image generation means 15 are stored.
物体抽出手段12は、画像診断装置により断層撮影して取得された医用画像データの中から、表示対象物体の閉曲領域に対応する画像データ群を3次元的に抽出するものである。なお、この物体抽出手段12により抽出された画像データ群により特定される領域を、以下において「マスク領域」と称する。 The object extraction unit 12 three-dimensionally extracts an image data group corresponding to the closed region of the display target object from medical image data acquired by tomography using an image diagnostic apparatus. The area specified by the image data group extracted by the object extracting unit 12 is hereinafter referred to as “mask area”.
表面形状モデル生成手段13は、上記物体抽出手段12により抽出された画像データ群を用いて、表示対象物体の表面形状モデルを生成するものであり、詳細については後述する。 The surface shape model generation means 13 generates a surface shape model of the display target object using the image data group extracted by the object extraction means 12, and details will be described later.
表示設定手段14を構成する不透明度設定手段14aは、例えば入力装置20に対する外部操作に基づいて、上記表面形状モデル生成手段13により生成された表面形状モデルに不透明度を与えるものである。表示設定手段14を構成するシェーディング手段14bは、表面形状モデルにシェーディング(影付け)処理を施すものである。表示設定手段14を構成するレンダリング手段14cは、表面形状モデルにレンダリング(色付け)処理を施すものである。 The opacity setting means 14a constituting the display setting means 14 gives opacity to the surface shape model generated by the surface shape model generation means 13 based on, for example, an external operation on the input device 20. The shading means 14b constituting the display setting means 14 performs a shading process on the surface shape model. The rendering unit 14c constituting the display setting unit 14 performs a rendering (coloring) process on the surface shape model.
画像生成手段15は、ボリュームレンダリング法を用いて、表示設定手段14により各処理が施された表面形状モデルの2次元可視画像を生成するものである。 The image generation unit 15 generates a two-dimensional visible image of the surface shape model subjected to each process by the display setting unit 14 using a volume rendering method.
次に、本実施形態の医用画像生成装置1による表示対象物体の表面形状モデルの生成、およびこの表面形状モデルの2次元可視画像の生成手順について、主に図3〜図7を参照しながら説明する。次述する表面形状モデルの生成、および2次元可視画像の生成手順は、本発明の一実施形態に係る医用画像生成プログラムに従って実行されるものである。 Next, the generation of the surface shape model of the display target object by the medical image generation apparatus 1 of the present embodiment and the generation procedure of the two-dimensional visible image of the surface shape model will be described mainly with reference to FIGS. To do. The following surface shape model generation and two-dimensional visible image generation procedures are executed according to a medical image generation program according to an embodiment of the present invention.
なお、以下の説明では、臓器や血管、骨等の複数種の生体組織を含んだ被検体の腹部を画像診断装置により断層撮影し、断層撮影して得られた複数の医用画像データの信号値に基づいて、図8に示すような肝臓実質110、門脈120および静脈130からなる肝臓100の2次元可視画像を生成する場合を例に挙げて説明する。 In the following description, the abdominal part of a subject including a plurality of types of biological tissues such as organs, blood vessels, and bones is tomographed by an image diagnostic apparatus, and signal values of a plurality of medical image data obtained by tomography A case where a two-dimensional visible image of the liver 100 including the liver parenchyma 110, the portal vein 120, and the vein 130 as illustrated in FIG. 8 is generated will be described as an example.
〈1〉被検体の腹部から胸部に亘る医用画像データ(CT画像データまたはMRI画像データ)を取得する(医用画像データ取得ステップ;図3のステップS1参照)。本実施形態では、必要な医用画像データが、予め上記医用画像データ記憶手段11(図2参照)に記憶されていることを想定しているが、CDやDVD等の情報記憶媒体に記録された医用画像データを必要に応じて読み出すようにしてもよい。 <1> Medical image data (CT image data or MRI image data) from the abdomen to the chest of the subject is acquired (medical image data acquisition step; see step S1 in FIG. 3). In the present embodiment, it is assumed that necessary medical image data is stored in advance in the medical image data storage unit 11 (see FIG. 2), but is recorded in an information storage medium such as a CD or a DVD. You may make it read medical image data as needed.
〈2〉物体抽出手段12により、医用画像データから表示対象としての肝臓100の閉曲領域に対応する画像データ群を抽出する(肝臓抽出ステップ;図3のステップS2参照)。この肝臓抽出ステップでは、肝臓100を構成する組織毎(肝臓実質110、門脈120および静脈130毎)に区別されて画像データ群が抽出される。 <2> The object extraction unit 12 extracts an image data group corresponding to the closed region of the liver 100 as a display target from the medical image data (liver extraction step; see step S2 in FIG. 3). In this liver extraction step, image data groups are extracted by being distinguished for each tissue constituting the liver 100 (for each liver parenchyma 110, portal vein 120, and vein 130).
この抽出方法に関しては、例えば医用画像データの信号値(ボクセル値)が一般に、生体組織毎に異なる値を示すことを利用し、予め設定した閾値(ここでの閾値は画像データ抽出に用いられるものであり、図5(a)〜(c)に示される、表面形状モデルを生成する際の閾値とは異なるものである)に基づいて生体組織毎の画像データ群を抽出する方法(閾値物体選択法)や、生体組織内部の点から同一領域に属すると想定される連結領域を順次取り込みながら領域拡張を行うことで、生体組織の画像データ群を抽出するリージョングローイング法等を適用することが可能である。なお、本実施形態における信号値とは、CTにより得られた医用画像データの場合には濃度値のことであり、一方、MRIにより得られた医用画像データの場合には相対強度のことである。 With regard to this extraction method, for example, a signal value (voxel value) of medical image data generally uses a different value for each living tissue, and a preset threshold value (the threshold value here is used for image data extraction) And a method of extracting an image data group for each living tissue based on the threshold value for generating the surface shape model shown in FIGS. 5A to 5C (threshold object selection) Method) and region growing method to extract image data group of biological tissue by sequentially expanding connected regions that are assumed to belong to the same region from the point inside the biological tissue. It is. In the present embodiment, the signal value is a density value in the case of medical image data obtained by CT, and is a relative intensity in the case of medical image data obtained by MRI. .
〈3〉抽出された画像データ群の信号値に基づき、表面形状モデル生成手段13により、肝臓実質110、門脈120および静脈130毎の表面形状モデルを生成する(表面形状モデル生成ステップ;図3のステップS3および図4のステップS31〜ステップS35参照)。なお、以下の説明においては、マーチンキューブス法を適用して表面形状モデルを生成する場合を例示している。 <3> Based on the signal values of the extracted image data group, the surface shape model generation unit 13 generates a surface shape model for each of the liver parenchyma 110, the portal vein 120, and the vein 130 (surface shape model generation step; FIG. 3). Step S3 and steps S31 to S35 in FIG. 4). In the following description, a case where a surface shape model is generated by applying the Martin Cubes method is illustrated.
〈3−1〉具体的には、まず、医用画像データにより構築されるデータ空間内に、各々8つの頂点を持つ微小な直方体を、仮想的に複数設定する(直方体設定ステップ;図4のステップS31参照)。ここで設定される直方体の各頂点には、生体組織毎に異なる信号値を示すことを利用して、肝臓実質110、門脈120および静脈130の各々の生体組織に対応させた閾値が設定されている。そのため、信号値と閾値とを比較することで、該信号値を示す頂点位置が生体組織のマスク領域の内外どちらに位置するのかを判別できる。 <3-1> Specifically, first, a plurality of minute rectangular parallelepipeds each having eight vertices are virtually set in a data space constructed by medical image data (cuboid setting step; step in FIG. 4) (See S31). At each vertex of the rectangular parallelepiped set here, a threshold value corresponding to each biological tissue of the liver parenchyma 110, the portal vein 120, and the vein 130 is set by using different signal values for each biological tissue. ing. Therefore, by comparing the signal value with the threshold value, it is possible to determine whether the vertex position indicating the signal value is located inside or outside the mask region of the living tissue.
なお、本実施形態では、微小な直方体を設定する構成例を示して説明を行っているが、演算処理装置10における演算処理負担を低減させるために、データ空間内に各々8つの頂点を持つ立方体を設定する構成としても良い。 In the present embodiment, a configuration example in which a minute rectangular parallelepiped is set is described. However, in order to reduce the processing load on the processing unit 10, a cube having eight vertices in the data space. It is good also as a structure which sets.
〈3−2〉抽出された画像データ群の各信号値(ボクセル値)を、データ空間内に設定された直方体の頂点位置に対応付ける(信号値を頂点位置に対応付けるステップ;図4のステップS32参照)。 <3-2> Associating each signal value (voxel value) of the extracted image data group with the vertex position of the rectangular parallelepiped set in the data space (step of associating the signal value with the vertex position; see step S32 in FIG. 4) ).
〈3−3〉データ空間内に設定された直方体の任意の辺において、該辺の両端(頂点)に各々予め設定された閾値と、上記ステップS32において対応付けられた信号値とが比較される(閾値との比較ステップ;図4のステップS33参照)。ここでの比較結果に基づいて、該辺の両端がマスク領域内に位置するのか、該辺の両端がマスク領域外に位置するのか、または、該辺の一端がマスク領域内に位置し他端がマスク領域外に位置するのかが判別される。 <3-3> For an arbitrary side of the rectangular parallelepiped set in the data space, a threshold value set in advance at each end (vertex) of each side is compared with the signal value associated in step S32. (Comparison step with threshold value; see step S33 in FIG. 4). Based on the comparison result here, whether both ends of the side are located within the mask area, both ends of the side are located outside the mask area, or one end of the side is located within the mask area and the other end Is determined to be located outside the mask area.
上記ステップS33における判別について、図5および図6を参照しながら具体的に説明する。図5(a)〜(c)には、データ空間内に設定された直方体の側面図を示しており、これらの図では信号値の閾値が50に設定された場合を例示している。また、各頂点に対応付けられた信号値を各頂点に隣接する括弧内に記載し、信号値が閾値を上回ることで、その頂点がマスク領域内に位置する場合を例示している。 The determination in step S33 will be specifically described with reference to FIGS. FIGS. 5A to 5C show side views of rectangular parallelepipeds set in the data space. In these figures, a case where the threshold value of the signal value is set to 50 is illustrated. In addition, the signal value associated with each vertex is described in parentheses adjacent to each vertex, and the case where the vertex is located in the mask area by the signal value exceeding the threshold is illustrated.
図5(a)に例示する場合においては、第1頂点51に対応付けられた信号値が35、第2頂点52に対応付けられた信号値が35、第3頂点53に対応付けられた信号値が35、第4頂点54に対応付けられた信号値が35となっている。いずれの頂点に対応付けられた信号値も、閾値である50を下回っているので、第1頂点51〜第4頂点54は全てマスク領域の外側に位置すると判別できる。なお、図5(a)では、マスク領域の外側に位置する各頂点51〜54を「×」印で表記して、マスク領域の外側に位置することを分かり易く図示している。 In the case illustrated in FIG. 5A, the signal value associated with the first vertex 51 is 35, the signal value associated with the second vertex 52 is 35, and the signal associated with the third vertex 53. The value is 35, and the signal value associated with the fourth vertex 54 is 35. Since the signal value associated with any vertex is below the threshold value of 50, it can be determined that the first vertex 51 to the fourth vertex 54 are all located outside the mask area. In FIG. 5A, the vertices 51 to 54 located outside the mask area are indicated by “x” marks to easily show that they are located outside the mask area.
図5(b)に例示する場合においては、第1頂点61に対応付けられた信号値が30、第2頂点62に対応付けられた信号値が60、第3頂点63に対応付けられた信号値が60、第4頂点64に対応付けられた信号値が40となっている。ここで、第1頂点61と第2頂点62とを結ぶ第1辺65に着目すると、閾値よりも小さな信号値が対応付けられた第1頂点61はマスク領域の外側に位置し(「×」印で表記)、一方、閾値よりも大きな信号値が対応付けられた第2頂点62は、マスク領域の内側に位置すると判別できる(「○」印で表記)。このことから、マスク領域表面MSが第1辺65上に位置することが分かり、マスク領域表面MSと第1辺65との交差位置65aが、各頂点の信号値を基にして直線補間により求められる。 In the case illustrated in FIG. 5B, the signal value associated with the first vertex 61 is 30, the signal value associated with the second vertex 62 is 60, and the signal associated with the third vertex 63. The value is 60 and the signal value associated with the fourth vertex 64 is 40. Here, paying attention to the first side 65 connecting the first vertex 61 and the second vertex 62, the first vertex 61 associated with a signal value smaller than the threshold is located outside the mask area (“×”). On the other hand, it can be determined that the second vertex 62 associated with a signal value larger than the threshold value is located inside the mask area (denoted by “◯”). From this, it can be seen that the mask region surface MS is located on the first side 65, and the intersection position 65a between the mask region surface MS and the first side 65 is obtained by linear interpolation based on the signal value of each vertex. It is done.
また、第3頂点63と第4頂点64とを結ぶ第3辺67に着目すると、閾値よりも大きな信号値が対応付けられた第3頂点63はマスク領域の内側に位置し(「○」印で表記)、一方、閾値よりも小さな信号値が対応付けられた第4頂点64は、マスク領域の外側に位置すると判別できる(「×」印で表記)。このことから、マスク領域表面MSが第3辺67上に位置することが分かり、マスク領域表面MSと第3辺67との交差位置67aが、各頂点の信号値を基にして直線補間により求められる。 When attention is paid to the third side 67 connecting the third vertex 63 and the fourth vertex 64, the third vertex 63 associated with a signal value larger than the threshold value is located inside the mask area (marked with “◯”). On the other hand, it can be determined that the fourth vertex 64 associated with a signal value smaller than the threshold is located outside the mask area (denoted by “x”). From this, it can be seen that the mask region surface MS is located on the third side 67, and the intersection position 67a between the mask region surface MS and the third side 67 is obtained by linear interpolation based on the signal value of each vertex. It is done.
図5(c)に例示する場合においては、第1頂点71に対応付けられた信号値が40、第2頂点72に対応付けられた信号値が60、第3頂点73に対応付けられた信号値が70、第4頂点74に対応付けられた信号値が60となっている。ここで、第1頂点71と第2頂点72とを結ぶ第1辺75に着目すると、閾値よりも小さな信号値が対応付けられた第1頂点71はマスク領域の外側に位置し(「×」印で表記)、一方、閾値よりも大きな信号値が対応付けられた第2頂点72は、マスク領域の内側に位置すると判別できる(「○」印で表記)。このことから、マスク領域表面MSが第1辺75上に位置することが分かり、マスク領域表面MSと第1辺75との交差位置75aが、各頂点の信号値を基にして直線補間により求められる。 In the case illustrated in FIG. 5C, the signal value associated with the first vertex 71 is 40, the signal value associated with the second vertex 72 is 60, and the signal associated with the third vertex 73. The value is 70, and the signal value associated with the fourth vertex 74 is 60. Here, paying attention to the first side 75 connecting the first vertex 71 and the second vertex 72, the first vertex 71 associated with a signal value smaller than the threshold is located outside the mask area (“×”). On the other hand, it can be determined that the second vertex 72 associated with a signal value larger than the threshold value is located inside the mask area (denoted by “◯”). From this, it can be seen that the mask region surface MS is located on the first side 75, and the intersection position 75a between the mask region surface MS and the first side 75 is obtained by linear interpolation based on the signal value of each vertex. It is done.
また、第1頂点71と第4頂点74とを結ぶ第4辺78に着目すると、上記の通り第1頂点71はマスク領域の外側に位置し、一方、閾値よりも大きな信号値が対応付けられた第4頂点74は、マスク領域の内側に位置すると判別できる(「○」印で表記)。このことから、マスク領域表面MSが第4辺78上に位置することが分かり、マスク領域表面MSと第4辺78との交差位置78aが、各頂点の信号値を基にして直線補間により求められる。なお、第3頂点73は、対応付けられた信号値が閾値よりも大きいので、マスク領域の内側に位置すると判別される(「○」印で表記)。 Focusing on the fourth side 78 connecting the first vertex 71 and the fourth vertex 74, the first vertex 71 is located outside the mask area as described above, and on the other hand, a signal value larger than the threshold value is associated. It can be determined that the fourth vertex 74 is located inside the mask region (indicated by “◯”). From this, it can be seen that the mask region surface MS is located on the fourth side 78, and the intersection position 78a between the mask region surface MS and the fourth side 78 is obtained by linear interpolation based on the signal value of each vertex. It is done. Note that the third vertex 73 is determined to be located inside the mask area because the associated signal value is larger than the threshold (denoted by “◯”).
ところで、直方体における8つの頂点のうちで、マスク領域内に位置する頂点の組み合わせは、反転や回転を考慮した場合14通りに限定される。そのため、この14通りのパターンに対応したテーブルを予め記憶させておき、必要に応じてこのテーブルを参照するようにすれば、演算処理装置10における演算処理負担を低減させつつ、マスク領域表面MSと辺との交差位置を算出可能になる。 By the way, of the eight vertices in the rectangular parallelepiped, combinations of vertices located in the mask area are limited to 14 in consideration of inversion and rotation. Therefore, if a table corresponding to these 14 patterns is stored in advance and the table is referred to as necessary, the mask area surface MS and the mask area surface MS can be reduced while reducing the processing load on the processing unit 10. The intersection position with the side can be calculated.
〈3−4〉上述したステップS33の処理が、設定された全ての直方体を構成する辺の各々について実行されたか否かが判定される(実行済み判定ステップ;図4のステップS34参照)。このステップS34において、ステップS33の処理が実行されていない辺が存在すると判定された場合にはステップS33に戻り、設定された全ての直方体を構成する辺の各々についてステップS33の処理が実行される。 <3-4> It is determined whether or not the processing in step S33 described above has been executed for each of the sides constituting all the set rectangular parallelepipeds (executed determination step; see step S34 in FIG. 4). If it is determined in step S34 that there is an edge for which the process of step S33 has not been executed, the process returns to step S33, and the process of step S33 is executed for each of the sides constituting all the set rectangular parallelepipeds. .
なお、本実施形態においては、ステップS33の処理を設定された直方体の全てに対して実行する方法を例示しているが、この方法に代えて、あるマスク領域表面MSの位置を一旦特定した後は、その近傍に位置する辺を中心にステップS33の処理を実行する方法でも良い。この方法によれば、ステップS33の処理対象となる辺を減らして、演算処理装置10における演算処理負担を低減させることができる。 In the present embodiment, a method of executing the process of step S33 for all the set rectangular parallelepipeds is illustrated, but instead of this method, after once specifying the position of a certain mask region surface MS May be a method of executing the process of step S33 centering on a side located in the vicinity thereof. According to this method, the side to be processed in step S33 can be reduced, and the arithmetic processing load on the arithmetic processing device 10 can be reduced.
〈3−5〉設定された全ての直方体を構成する辺の各々についてステップS33の処理が実行されると、ステップS33で求められた交差位置同士を連結することで、肝臓実質110、門脈120および静脈130毎の表面形状モデルを生成する(交差位置同士の連結ステップ;図4のステップS35参照)。 <3-5> When the process of step S33 is executed for each of the sides constituting all the set rectangular parallelepipeds, the intersection positions obtained in step S33 are connected to each other, thereby the liver parenchyma 110 and the portal vein 120. Then, a surface shape model for each vein 130 is generated (a step of connecting intersection positions; see step S35 in FIG. 4).
このステップS35では、ステップS33で求められた交差位置同士を連結するときに、例えば図6(a)に示すように、隣接する交差位置同士を優先して連結することで、複数の直方体に跨った滑らかな表面形状モデル(マスク領域表面MS)を生成する。また、このステップS35における交差位置同士の連結は、図6(b)および図6(c)に示すように3次元的に実行されて、3次元的な表面形状モデルが生成される。 In this step S35, when connecting the intersecting positions obtained in step S33, for example, as shown in FIG. 6A, the adjacent intersecting positions are preferentially connected so as to straddle a plurality of rectangular parallelepipeds. A smooth surface shape model (mask region surface MS) is generated. Further, the connection between the intersecting positions in step S35 is executed three-dimensionally as shown in FIGS. 6B and 6C to generate a three-dimensional surface shape model.
〈4〉上述のようにして生成された肝臓実質110、門脈120および静脈130の表面形状モデルの各々に対し、表示設定手段14により不透明度が設定されるとともに、シェーディング処理およびレンダリング処理が施される(表示設定ステップ;図3のステップS4参照)。 <4> For each of the surface shape models of the liver parenchyma 110, the portal vein 120, and the vein 130 generated as described above, the display setting unit 14 sets opacity and performs shading processing and rendering processing. (Display setting step; see step S4 in FIG. 3).
具体的には、不透明度設定手段14aにより、肝臓実質110、門脈120および静脈130表面形状モデルの各々に対して、個別に不透明度が設定される。例えば、肝臓実質110の内部や肝臓実質110の背後に位置する門脈120や静脈130の状態を観察する場合には、門脈120や静脈130の手前側に位置する肝臓実質110を透かして透明に表示させるように、肝臓実質110の表面形状モデルに対して門脈120や静脈130よりも低い不透明度が設定される。 Specifically, the opacity setting unit 14a sets opacity individually for each of the liver parenchyma 110, the portal vein 120, and the vein 130 surface shape model. For example, when observing the state of the portal vein 120 or vein 130 located inside the liver parenchyma 110 or behind the liver parenchyma 110, the liver parenchyma 110 located on the near side of the portal vein 120 or vein 130 is transparently seen through. The opacity lower than that of the portal vein 120 and the vein 130 is set for the surface shape model of the liver parenchyma 110.
また、シェーディング手段14bにより、図7に示す視点5から、3次元空間K3の空間座標点を構成する各ボクセルに向かう視線6を想定したときに、表面形状モデルにおける法線ベクトルの視線6方向成分の大きさに対応させて、色の濃度(白〜黒)が変調されて設定される。さらに、レンダリング手段14cにより、肝臓実質110、門脈120および静脈130の表面形状モデルの各々に対し、例えば互いを見分け易いように色付け(レンダリング)処理が行われる。Further, the shading means 14b, from a viewpoint 5 shown in FIG. 7, the three-dimensional line of sight 6 towards each voxel constituting the spatial coordinate points of the space K3 when assuming line-of-sight 6 direction of the normal vector on the surface shape model The color density (white to black) is modulated and set in accordance with the component size. Furthermore, the rendering means 14c performs a coloring (rendering) process on each of the surface shape models of the liver parenchyma 110, the portal vein 120, and the vein 130 so that they can be easily distinguished from each other, for example.
〈5〉ボリュームレンダリング法により、表示対象物体としての肝臓100の2次元可視画像を生成する(2次元可視画像生成ステップ;図3のステップS5参照)。 <5> A two-dimensional visible image of the liver 100 as a display target object is generated by the volume rendering method (two-dimensional visible image generation step; see step S5 in FIG. 3).
具体的には、このステップS5では、図7に示すように、各視線6と、投影用の2次元平面(可視化面)K2(例えば、CCD等の撮像平面やディスプレイ等の画像平面)の各平面座標点を表す画素(ピクセル)とが、対応付けられている。そして、視線6上に位置する全ボクセル(表面形状モデル)の各々の色および不透明度を、αブレンディングルールに基づき視線6毎に積算し、この積算値を各視線6上に位置する2次元平面K2の画素にそれぞれ反映させることで、表示対象物体としての肝臓100の2次元可視画像が生成され、図3に示すフローは終了する。Specifically, in this step S5, as shown in FIG. 7, each line of sight 6 and a projection two-dimensional plane (visualization plane) K2 (for example, an imaging plane such as a CCD or an image plane such as a display) are displayed. Pixels (pixels) representing each plane coordinate point are associated with each other. Then, the colors and opacity of all the voxels (surface shape models) located on the line of sight 6 are integrated for each line of sight 6 based on the α blending rule, and this integrated value is a two-dimensional plane located on each line of sight 6. by reflecting to the pixel of the K2, 2-dimensional visible image of the liver 100 as the display object is generated, the flow shown in FIG. 3 is terminated.
以上説明したように、本実施形態に係る医用画像生成装置1においては、内部構造に関する信号値を持たず表面形状に関する信号値のみを備えた表面形状モデルに対して、不透明度等を設定するように構成されている。そのため、例えば肝臓実質110を透明に表示させて、その内部または背後に位置する門脈120や静脈130の状態を観察する場合に、肝臓実質110の内部構造に関する信号値に含まれるノイズ成分の影響を排除し、門脈120や静脈130の手前側に位置する肝臓実質110を表示設定通りに透かして表示させることができるので、門脈120や静脈130の3次元表面形状を鮮明に表示させることが可能になる。図8に示すように、仮に肝臓実質110の背後に隠れるように腫瘍140が存在する場合であっても、肝臓実質110を透明に表示させることで、腫瘍140を鮮明に表示させることが可能である。 As described above, in the medical image generation apparatus 1 according to the present embodiment, the opacity and the like are set for the surface shape model having only the signal value related to the surface shape without the signal value related to the internal structure. It is configured. Therefore, for example, when the liver parenchyma 110 is displayed in a transparent manner and the state of the portal vein 120 or vein 130 located inside or behind it is observed, the influence of noise components included in the signal value related to the internal structure of the liver parenchyma 110 And the liver parenchyma 110 located on the near side of the portal vein 120 and vein 130 can be displayed through the display setting as it is, so that the three-dimensional surface shape of the portal vein 120 and vein 130 can be displayed clearly. Is possible. As shown in FIG. 8, even when the tumor 140 exists so as to be hidden behind the liver parenchyma 110, the tumor 140 can be displayed clearly by displaying the liver parenchyma 110 transparently. is there.
また、本実施形態に係る医用画像生成装置1により生成された肝臓100の2次元可視画像は、マーチンキューブス法によって滑らかな面に生成された表面形状モデルを基にして生成される。そのため、2次元可視画像はノイズ成分の影響を受けにくく、例えば門脈120や静脈130の形状が複雑であっても2次元可視画像が極端に暗くなることがない。さらに、例えば肝臓実質110のように、視線6方向に奥行きの大きな物体の2次元可視画像を生成する場合であっても、ノイズ成分の影響を排除することで、門脈120のように視線6方向に奥行きの小さな物体の2次元可視画像を生成する場合と同様に、透かして表示させることが可能である。 In addition, the two-dimensional visible image of the liver 100 generated by the medical image generation apparatus 1 according to the present embodiment is generated based on a surface shape model generated on a smooth surface by the Martin Cubes method. Therefore, the two-dimensional visible image is not easily affected by noise components, and the two-dimensional visible image does not become extremely dark even if, for example, the portal vein 120 or the vein 130 has a complicated shape. Furthermore, even when generating a two-dimensional visible image of an object having a large depth in the direction of the line of sight 6 such as the liver parenchyma 110, the line of sight 6 as in the portal vein 120 is eliminated by eliminating the influence of the noise component. As in the case of generating a two-dimensional visible image of an object having a small depth in the direction, it is possible to display it in a watermark.
本発明に係る医用画像生成装置1により生成された肝臓100の2次元可視画像(図8参照)と、従来の医用画像生成装置により生成された肝臓500の2次元可視画像(図9参照)とは、シェーディングに関するパラメータを統一することで、比較参照しやすいように図示している。具体的には、図8および図9ではそれぞれ、物体に対して一様に光を与える環境光を0.0、物体の形状を考慮して影を与える拡散光を1.0、上記拡散光において考慮される反射光を計算するための鏡面光を0.0、物体を透かせて表示させるための不透明度を0.1に設定している。なお、環境光、拡散光、鏡面光および不透明度については、それぞれ0.0〜1.0の範囲で任意に設定可能である。 A two-dimensional visible image (see FIG. 8) of the liver 100 generated by the medical image generating apparatus 1 according to the present invention, and a two-dimensional visible image (see FIG. 9) of the liver 500 generated by the conventional medical image generating apparatus. Is shown for easy comparison and reference by unifying parameters related to shading. Specifically, in FIGS. 8 and 9, the ambient light that uniformly gives light to the object is 0.0, the diffused light that gives a shadow in consideration of the shape of the object is 1.0, and the diffused light is The specular light for calculating the reflected light taken into account in 0.0 is set to 0.0, and the opacity for displaying the object through is set to 0.1. The ambient light, diffused light, specular light, and opacity can be arbitrarily set in the range of 0.0 to 1.0, respectively.
上記シェーディングに関するパラメータのうちで、特に拡散光を高く設定するとノイズ成分の影響が顕著に現れやすい。そこで、図8と図9との間で、この拡散光の設定を統一することにより、表面形状モデルを基にして2次元可視画像を生成する本実施形態に係る医用画像生成装置1の効果が、分かりやすいように図示している。また、図8と図9とで不透明度の設定が異なる場合、2次元可視画像の明るさの違いが、ノイズ成分に起因するものなのか、または不透明度の差に起因するものなのかが分かりにくくなる虞がある。そこで、図8と図9との間で不透明度の設定を統一することで、ノイズ成分が2次元可視画像の明るさに与える影響を分かりやすく図示している。 Of the parameters relating to the shading, the influence of noise components tends to be noticeable particularly when the diffused light is set high. Therefore, the effect of the medical image generation apparatus 1 according to the present embodiment that generates a two-dimensional visible image based on the surface shape model by unifying the setting of the diffused light between FIGS. It is shown for easy understanding. In addition, when the opacity setting is different between FIG. 8 and FIG. 9, it can be understood whether the brightness difference of the two-dimensional visible image is caused by a noise component or opacity difference. May be difficult. Therefore, by unifying the setting of opacity between FIG. 8 and FIG. 9, the influence of the noise component on the brightness of the two-dimensional visible image is illustrated in an easy-to-understand manner.
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、種々に態様を変更することが可能である。 As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A mode can be changed variously.
上述の実施形態では、肝臓100の2次元可視画像を生成する場合を例示して説明しているが、本発明に係る医用画像生成装置1および医用画像生成プログラムを用いることで、他の表示対象物体、例えば心臓や肺等の2次元可視画像を生成することも可能である。 In the above-described embodiment, the case where a two-dimensional visible image of the liver 100 is generated has been described as an example. However, by using the medical image generation device 1 and the medical image generation program according to the present invention, other display objects are displayed. It is also possible to generate a two-dimensional visible image of an object such as a heart or lung.
1 医用画像生成装置
5 視点
6 視線
10 演算処理装置
11 医用画像データ記憶手段
12 物体抽出手段(データ抽出手段)
13 表面形状モデル生成手段
14 表示設定手段
14a 不透明度設定手段
14b シェーディング手段
14c レンダリング手段
15 画像生成手段
20 入力装置
30 出力装置
51〜54 第1頂点〜第4頂点
61〜64 第1頂点〜第4頂点
65 第1辺
65a 交差位置
67 第3辺
67a 交差位置
71〜74 第1頂点〜第4頂点
75 第1辺
75a 交差位置
78 第4辺
78a 交差位置
100 肝臓(被観察体)
110 肝臓実質
120 門脈
130 静脈
140 腫瘍
MS マスク領域表面
K2 2次元平面
K3 3次元空間DESCRIPTION OF SYMBOLS 1 Medical image production | generation apparatus 5 Viewpoint 6 Line of sight 10 Arithmetic processing apparatus 11 Medical image data storage means 12 Object extraction means (data extraction means)
DESCRIPTION OF SYMBOLS 13 Surface shape model production | generation means 14 Display setting means 14a Opacity setting means 14b Shading means 14c Rendering means 15 Image generation means 20 Input device 30 Output device 51-54 1st vertex-4th vertex 61-64 1st vertex-4th Vertex 65 First side 65a Crossing position 67 Third side 67a Crossing position 71-74 First vertex to fourth vertex 75 First side 75a Crossing position 78 Fourth side 78a Crossing position 100 Liver (observed object)
110 liver parenchyma 120 portal 130 vein 140 tumor MS mask region surface K2 2-dimensional plane K3 3-dimensional space
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011157112AJP2013022086A (en) | 2011-07-15 | 2011-07-15 | Medical image generation device and medical image generation program |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011157112AJP2013022086A (en) | 2011-07-15 | 2011-07-15 | Medical image generation device and medical image generation program |
| Publication Number | Publication Date |
|---|---|
| JP2013022086Atrue JP2013022086A (en) | 2013-02-04 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011157112APendingJP2013022086A (en) | 2011-07-15 | 2011-07-15 | Medical image generation device and medical image generation program |
| Country | Link |
|---|---|
| JP (1) | JP2013022086A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023501802A (en)* | 2019-11-15 | 2023-01-19 | ディジオル・リミテッド | Apparatus and method for providing extended two-dimensional image data |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05123327A (en)* | 1991-11-07 | 1993-05-21 | Toshiba Corp | Surgical simulation system |
| JPH05189543A (en)* | 1992-01-10 | 1993-07-30 | Hitachi Ltd | Three-dimensional image information presenting method |
| JPH10507954A (en)* | 1994-10-27 | 1998-08-04 | ウェイク フォレスト ユニバーシティ | Method and system for creating an interactive three-dimensional rendering that allows simulated movement within a lumen of a selected body organ having a hollow lumen |
| JP2002543918A (en)* | 1999-05-13 | 2002-12-24 | アライン テクノロジー, インコーポレイテッド | Tooth observation system |
| JP2008259697A (en)* | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image processing method, apparatus, and program |
| JP2010017421A (en)* | 2008-07-11 | 2010-01-28 | Mitsubishi Precision Co Ltd | Method for creating living body data model and its device and data structure of living body data model, and data storing device of living body data model and method for dispersing load of three-dimensional data model and its device |
| JP2010069018A (en)* | 2008-09-18 | 2010-04-02 | Olympus Medical Systems Corp | Medical guide system |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05123327A (en)* | 1991-11-07 | 1993-05-21 | Toshiba Corp | Surgical simulation system |
| JPH05189543A (en)* | 1992-01-10 | 1993-07-30 | Hitachi Ltd | Three-dimensional image information presenting method |
| JPH10507954A (en)* | 1994-10-27 | 1998-08-04 | ウェイク フォレスト ユニバーシティ | Method and system for creating an interactive three-dimensional rendering that allows simulated movement within a lumen of a selected body organ having a hollow lumen |
| JP2002543918A (en)* | 1999-05-13 | 2002-12-24 | アライン テクノロジー, インコーポレイテッド | Tooth observation system |
| JP2008259697A (en)* | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image processing method, apparatus, and program |
| JP2010017421A (en)* | 2008-07-11 | 2010-01-28 | Mitsubishi Precision Co Ltd | Method for creating living body data model and its device and data structure of living body data model, and data storing device of living body data model and method for dispersing load of three-dimensional data model and its device |
| JP2010069018A (en)* | 2008-09-18 | 2010-04-02 | Olympus Medical Systems Corp | Medical guide system |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023501802A (en)* | 2019-11-15 | 2023-01-19 | ディジオル・リミテッド | Apparatus and method for providing extended two-dimensional image data |
| US12141932B2 (en) | 2019-11-15 | 2024-11-12 | Disior Ltd. | Arrangement and method for provision of enhanced two-dimensional imaging data |
| JP7614196B2 (en) | 2019-11-15 | 2025-01-15 | ディジオル・リミテッド | Apparatus and method for providing enhanced two-dimensional image data - Patents.com |
| JP2025060905A (en)* | 2019-11-15 | 2025-04-10 | ディジオル・リミテッド | Apparatus and method for providing enhanced two-dimensional image data - Patents.com |
| Publication | Publication Date | Title |
|---|---|---|
| US8537159B2 (en) | Visualization of voxel data | |
| Burns et al. | Feature emphasis and contextual cutaways for multimodal medical visualization. | |
| CN101849843B (en) | Navigation method of three-dimensional cardiac ultrasonic virtual endoscope | |
| RU2419882C2 (en) | Method of visualising sectional planes for arched oblong structures | |
| JP2009034521A (en) | System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium | |
| JP2020506452A (en) | HMDS-based medical image forming apparatus | |
| US20110082667A1 (en) | System and method for view-dependent anatomic surface visualization | |
| US20100201683A1 (en) | Medical image display apparatus and medical image display method | |
| CN1135047A (en) | Virtual Cavity Inspection System | |
| KR101293744B1 (en) | The method and apparatus combining a plurality of 2-dimensional images with 3-dimensional model | |
| JP2009160306A (en) | Image display device, control method of image display device and control program of image display device | |
| JP6445784B2 (en) | Image diagnosis support apparatus, processing method thereof, and program | |
| US10891776B2 (en) | Imaging system and method | |
| JP4350226B2 (en) | 3D image processing device | |
| JP2009006086A (en) | Image processing method, image processing program, and image processing apparatus | |
| JP4122463B2 (en) | Method for generating medical visible image | |
| JP4394127B2 (en) | Area correction method | |
| US7424140B2 (en) | Method, computer program product, and apparatus for performing rendering | |
| JP4188900B2 (en) | Medical image processing program | |
| JP5289966B2 (en) | Image processing system and method for displaying silhouette rendering and images during interventional procedures | |
| JP4653324B2 (en) | Image display apparatus, image display program, image processing apparatus, and medical image diagnostic apparatus | |
| JP6533687B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM | |
| JP2010075549A (en) | Image processor | |
| JP2008086658A (en) | Image display device and image display program | |
| JP4010034B2 (en) | Image creation device |
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20140325 | |
| A977 | Report on retrieval | Free format text:JAPANESE INTERMEDIATE CODE: A971007 Effective date:20141119 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20141121 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20150120 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20150630 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20150821 | |
| RD03 | Notification of appointment of power of attorney | Free format text:JAPANESE INTERMEDIATE CODE: A7423 Effective date:20150831 | |
| RD04 | Notification of resignation of power of attorney | Free format text:JAPANESE INTERMEDIATE CODE: A7424 Effective date:20150902 | |
| A711 | Notification of change in applicant | Free format text:JAPANESE INTERMEDIATE CODE: A711 Effective date:20151117 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A821 Effective date:20151117 | |
| A02 | Decision of refusal | Free format text:JAPANESE INTERMEDIATE CODE: A02 Effective date:20160202 |