Movatterモバイル変換


[0]ホーム

URL:


JP7652526B2 - IMAGE PROCESSING APPARATUS, TRAINED MODEL, IMAGE PROCESSING METHOD, AND PROGRAM - Google Patents

IMAGE PROCESSING APPARATUS, TRAINED MODEL, IMAGE PROCESSING METHOD, AND PROGRAM
Download PDF

Info

Publication number
JP7652526B2
JP7652526B2JP2018191936AJP2018191936AJP7652526B2JP 7652526 B2JP7652526 B2JP 7652526B2JP 2018191936 AJP2018191936 AJP 2018191936AJP 2018191936 AJP2018191936 AJP 2018191936AJP 7652526 B2JP7652526 B2JP 7652526B2
Authority
JP
Japan
Prior art keywords
time
data
eye
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018191936A
Other languages
Japanese (ja)
Other versions
JP2020058615A (en
Inventor
好彦 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon IncfiledCriticalCanon Inc
Priority to JP2018191936ApriorityCriticalpatent/JP7652526B2/en
Publication of JP2020058615ApublicationCriticalpatent/JP2020058615A/en
Application grantedgrantedCritical
Publication of JP7652526B2publicationCriticalpatent/JP7652526B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Description

Translated fromJapanese

本発明は、画像処理装置、学習済モデル、画像処理方法およびプログラムに関する。The present invention relates to an image processing device, a trained model, an image processing method, and a program.

光干渉断層計(OCT;Optical Coherence Tomography)を用いた装置(OCT装置)等の眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。Tomographic imaging devices for the eye, such as devices using optical coherence tomography (OCT devices), are capable of observing the state of the inside of the retina in three dimensions. These tomographic imaging devices have been attracting attention in recent years because they are useful for more accurate diagnosis of diseases.

OCTの形態として、例えば、広帯域な光源とマイケルソン干渉計を組み合わせたTD-OCT(Time domain OCT)がある。これは、参照アームの遅延を走査することで、信号アームの後方散乱光との干渉光を計測し、深さ方向の情報を得るように構成されている。しかし、このようなTD-OCTでは高速な画像取得は難しい。One form of OCT is TD-OCT (Time Domain OCT), which combines a broadband light source with a Michelson interferometer. This is configured to obtain information in the depth direction by scanning the delay of the reference arm to measure the interference light with the backscattered light of the signal arm. However, it is difficult to obtain images at high speed with this type of TD-OCT.

これに対し、より高速に画像を取得する方法として、広帯域光源を用い、分光器でインターフェログラムを取得する手法によるSD-OCT(Spectral domain OCT)が知られている。また、光源として、高速波長掃引光源を用い、単一チャネル光検出器でスペクトル干渉を計測する手法によるSS-OCT(Swept Source OCT)が知られている。In response to this, a method for acquiring images at higher speeds is known called SD-OCT (Spectral domain OCT), which uses a broadband light source and acquires an interferogram with a spectrometer. Also known is SS-OCT (Swept Source OCT), which uses a high-speed wavelength swept light source as the light source and measures the spectral interference with a single channel photodetector.

OCTで撮影された断層画像を用い、神経線維層の厚みを計測することで、緑内障等の疾病の進行度や治療後の回復具合を定量的に診断することができる。眼底の断層画像より得られた膜厚等の解析値の時系列グラフを作成する眼科解析装置が、特許文献1に開示されている。この眼科解析装置では、時系列グラフから得た回帰直線から将来的な解析値を予測している。By using tomographic images taken by OCT to measure the thickness of the nerve fiber layer, it is possible to quantitatively diagnose the progression of diseases such as glaucoma and the state of recovery after treatment.Patent Document 1 discloses an ophthalmic analysis device that creates a time series graph of analytical values such as film thickness obtained from tomographic images of the fundus. This ophthalmic analysis device predicts future analytical values from a regression line obtained from the time series graph.

特開2017-170193号公報JP 2017-170193 A

しかしながら、眼に生じる病変や異常の態様によっては、眼には単一の特徴ではなく複合的な特徴が表れることがあり、特定の解析値からの予測では十分な診断補助を果たし得ない可能性がある。However, depending on the type of lesion or abnormality that occurs in the eye, the eye may display a combination of characteristics rather than a single characteristic, and predictions based on specific analytical values may not be sufficient to aid in diagnosis.

本発明の目的の一つは、上記課題に鑑みてなされたものであり、検者による眼の診断を補助する際に、従来よりも適した情報を提供する。One of the objectives of the present invention is to provide more suitable information than ever before when assisting examiners in eye diagnosis.

上記の目的を達成するための、本発明の一態様による画像処理装置は、
被検眼の複数種類の解析値を含む断層に関し、撮影部位を含む撮影条件が関連付けられているデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する取得手段と、
被検眼の断層に関するデータを取得するための複数の撮影条件のそれぞれに対応する学習済モデルのうち、前記複数の撮影条件の少なくとも前記撮影部位が同じである前記取得された第一の断層に関するデータおよび前記取得された第二の断層に関するデータの撮影条件に対応する学習済モデルを選択する選択手段と、
前記選択された学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する生成手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing device according to one aspect of the present invention comprises:
an acquisition means for acquiring datarelating to a slice including a plurality of types of analysis values of a subject's eye and associated with imaging conditions including an imaging site , the data including a first slice of the subject's eye associated with a first time and a second slice of the subject's eye associated with a second time after the first time;
A selection means for selecting a trained model corresponding to animaging conditionof the acquired first tomographic data and the acquired second tomographic data,in which at least the imaging site of the plurality of imaging conditions is the same , from among trained models corresponding to each of a plurality ofimaging conditions for acquiring data on a tomographic section of the subject's eye;
A generation means for generating at least one of a plurality of types of analysis values of the subject's eye at a third time after the second time from the acquired data on the first cross-section and the acquired data on the second cross-section by using the selected trained model;
The present invention is characterized by comprising:

本発明の一つによれば、検者による眼の診断を補助する際に、従来よりも適した情報を提供することができる。One aspect of the present invention is that it is possible to provide more appropriate information than ever before when assisting examiners in eye diagnosis.

実施例1に係る画像処理システムの概略的な構成の一例を示す。1 illustrates an example of a schematic configuration of an image processing system according to a first embodiment.眼部の構造と断層画像と眼底画像を説明するための図である。1A and 1B are diagrams for explaining the structure of an eye, a tomographic image, and a fundus image.実施例1に係る一連の処理を示すフローチャートである。3 is a flowchart showing a series of processes according to the first embodiment.学習データの例を説明するための図である。FIG. 11 is a diagram for explaining an example of learning data.機械学習モデルの例を説明するための図である。FIG. 1 is a diagram for explaining an example of a machine learning model.機械学習モデルの例を説明するための図である。FIG. 1 is a diagram for explaining an example of a machine learning model.実施例1に係る処理結果の表示画面を説明するための図である。FIG. 11 is a diagram for explaining a display screen of a processing result according to the first embodiment.実施例2に係る画像処理システムの概略的な構成の一例を示す。13 illustrates an example of a schematic configuration of an image processing system according to a second embodiment.実施例3に係る画像処理システムの概略的な構成の一例を示す。13 illustrates an example of a schematic configuration of an image processing system according to a third embodiment.実施例3に係る処理結果の表示画面を説明するための図である。FIG. 13 is a diagram for explaining a display screen of a processing result according to the third embodiment.

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、および構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。Below, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, and relative positions of components described in the following embodiments are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. In addition, the same reference numerals are used between the drawings to indicate elements that are identical or functionally similar.

(実施例1)
以下、図1乃至7を参照して、本発明の実施例1に係る、被検眼の診断補助となる情報を提示する画像処理システムについて説明する。本実施例では、機械学習モデルに関する学習済モデルを用いて、対象となる被検眼の将来的な解析値を生成する。具体的には、被検眼の断層画像から得られた複数種類の解析値を用いた学習により得た学習済モデルを用いて、将来の解析値を予測し、その結果を提示する。
Example 1
Hereinafter, an image processing system for presenting information that aids in diagnosis of a subject's eye according to a first embodiment of the present invention will be described with reference to Figs. 1 to 7. In this embodiment, a trained model related to a machine learning model is used to generate a future analysis value of the subject's eye. Specifically, a trained model obtained by learning using multiple types of analysis values obtained from a tomographic image of the subject's eye is used to predict a future analysis value and present the result.

ここで、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングすることで得られた(学習を行った)モデルである。ただし、学習済モデルは事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできる。Here, a machine learning model refers to a learning model based on a machine learning algorithm such as deep learning. Also, a trained model is a model that has been obtained (learned) by training a machine learning model based on an arbitrary machine learning algorithm using appropriate learning data in advance. However, although a trained model has been obtained in advance using appropriate learning data, this does not mean that no further learning is performed, and additional learning can also be performed.

図1は、本実施に係る画像処理装置300を備える画像処理システム1の概略的な構成の一例を示す。図1に示すように、画像処理システム1には、断層画像撮影装置の一例としてのOCT装置(以下OCT装置200)、画像処理装置300、眼底画像撮影装置400、外部記憶装置500、表示部600、および入力部700が設けられている。Figure 1 shows an example of a schematic configuration of animage processing system 1 including animage processing device 300 according to the present embodiment. As shown in Figure 1, theimage processing system 1 includes an OCT device (hereinafter, OCT device 200) as an example of a tomographic imaging device, animage processing device 300, afundus imaging device 400, anexternal storage device 500, adisplay unit 600, and aninput unit 700.

OCT装置200は、被検眼の断層画像を撮影する装置として用いられる。OCT装置としては、任意の種類のものを用いることができ、例えばSD-OCTやSS-OCTを用いることができる。TheOCT device 200 is used as a device for capturing tomographic images of the subject's eye. Any type of OCT device can be used, for example, an SD-OCT or SS-OCT.

画像処理装置300は、インタフェースを介してOCT装置200、眼底画像撮影装置400、外部記憶装置500、表示部600、および入力部700と接続されており、これらを制御することができる。画像処理装置300は、OCT装置200、眼底画像撮影装置400、および外部記憶装置500から取得する各種信号に基づいて、被検眼の断層画像やEn-Face画像(正面画像)等の各種画像を生成することができる。また、画像処理装置300は、これら画像について画像処理を施すことができる。なお、画像処理装置300は、汎用のコンピュータによって構成されてもよいし、画像処理システム1専用のコンピュータによって構成されてもよい。Theimage processing device 300 is connected to theOCT device 200, the fundus image capturingdevice 400, theexternal storage device 500, thedisplay unit 600, and theinput unit 700 via an interface, and can control these. Theimage processing device 300 can generate various images, such as a tomographic image of the subject's eye and an En-Face image (front image), based on various signals acquired from theOCT device 200, the fundus image capturingdevice 400, and theexternal storage device 500. Theimage processing device 300 can also perform image processing on these images. Theimage processing device 300 may be configured by a general-purpose computer, or may be configured by a computer dedicated to theimage processing system 1.

眼底画像撮影装置400は、被検眼の眼底画像を撮影するための装置であり、当該装置としては、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等を用いることができる。なお、OCT装置200と眼底画像撮影装置400の装置構成は、一体型でもよいし別体型でもよい。The fundus image capturingdevice 400 is a device for capturing a fundus image of the subject's eye, and may be, for example, a fundus camera or a scanning laser ophthalmoscope (SLO). TheOCT device 200 and the fundus image capturingdevice 400 may be integrated or separate.

外部記憶装置500は、被検眼に関する情報(患者の氏名、年齢、性別等)と、撮影した各種画像データ、撮影パラメータ、画像解析パラメータ、およびユーザによって設定されたパラメータをそれぞれ関連付けて保持している。外部記憶装置500は、任意の記憶装置によって構成されてよく、例えば、光学ディスクやメモリ等の記憶媒体によって構成されてよい。Theexternal storage device 500 stores information about the subject's eye (such as the patient's name, age, and sex), various captured image data, shooting parameters, image analysis parameters, and parameters set by the user, each associated with the other. Theexternal storage device 500 may be configured with any storage device, and may be configured with a storage medium such as an optical disk or memory.

表示部600は、任意のディスプレイによって構成され、画像処理装置300による制御に従い、被検眼に関する情報や各種画像を表示することができる。Thedisplay unit 600 is configured with any display and can display information about the subject's eye and various images under the control of theimage processing device 300.

入力部700は、例えば、マウス、キーボード、又はタッチ操作画面などで構成される。ユーザは、入力部700を介して、画像処理装置300やOCT装置200、眼底画像撮影装置400への指示を画像処理装置300に入力することができる。なお、入力部700をタッチ操作画面とする場合には、入力部700を表示部600と一体として構成することができる。Theinput unit 700 is composed of, for example, a mouse, a keyboard, or a touch operation screen. A user can input instructions to theimage processing device 300, theOCT device 200, and the fundus image capturingdevice 400 to theimage processing device 300 via theinput unit 700. When theinput unit 700 is a touch operation screen, theinput unit 700 can be configured as one unit with thedisplay unit 600.

なお、これら構成要素は、図1では別体として示されているが、これら構成要素の一部又は全部を一体として構成してもよい。Although these components are shown as separate entities in FIG. 1, some or all of these components may be configured as an integrated unit.

次にOCT装置200について説明する。OCT装置200には、ガルバノミラー201、駆動制御部202、フォーカスレンズステージ203、内部固視灯204、コヒーレンスゲートステージ205、光源206、およびディテクタ207が設けられている。なお、OCT装置200は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置300からの指示により行われる断層画像の撮影について説明を行う。Next, theOCT device 200 will be described. TheOCT device 200 is provided with agalvanometer mirror 201, adrive control unit 202, afocus lens stage 203, aninternal fixation light 204, acoherence gate stage 205, alight source 206, and adetector 207. Note that since theOCT device 200 is a known device, a detailed description will be omitted. Here, the capturing of a tomographic image performed in response to an instruction from theimage processing device 300 will be described.

画像処理装置300から撮影の指示が伝えられると、光源206が光を出射する。光源206からの光は不図示の分割部を用いて測定光と参照光に分割される。OCT装置200では、測定光を被検眼に照射し、被検体からの戻り光と、参照光との干渉光を検出することで、被検眼の断層情報を含む干渉信号を生成することができる。When an instruction to capture an image is transmitted from theimage processing device 300, thelight source 206 emits light. The light from thelight source 206 is split into measurement light and reference light using a splitting unit (not shown). TheOCT device 200 irradiates the test eye with the measurement light and detects the interference light between the return light from the subject and the reference light, thereby generating an interference signal containing tomographic information of the test eye.

ガルバノミラー201は、測定光を被検眼の眼底において走査するために用いられ、ガルバノミラー201による測定光の走査範囲により、断層画像撮影時の眼底の撮影範囲を規定することができる。画像処理装置300は、ガルバノミラー201の駆動範囲および速度を制御することで、眼底における平面方向の撮影範囲および走査線数(平面方向の走査速度)を規定することができる。図1では、説明を簡略化するため、ガルバノミラー201を1つのユニットとして示したが、ガルバノミラー201は、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上における所望の範囲を測定光で走査できる。なお、測定光を走査するための走査部の構成はガルバノミラーに限られず、他の任意の偏向ミラーを用いることができる。また、走査部として、例えば、MEMSミラー等の1枚で二次元方向に測定光を走査することができる偏向ミラーを用いてもよい。Thegalvanometer mirror 201 is used to scan the fundus of the subject's eye with the measurement light, and the scanning range of the measurement light by thegalvanometer mirror 201 can determine the imaging range of the fundus during tomographic image capture. Theimage processing device 300 can determine the imaging range in the planar direction and the number of scanning lines (scanning speed in the planar direction) on the fundus by controlling the driving range and speed of thegalvanometer mirror 201. In FIG. 1, thegalvanometer mirror 201 is shown as one unit for the sake of simplicity, but thegalvanometer mirror 201 is actually composed of two mirrors, one for X-scan and one for Y-scan, and can scan a desired range on the fundus with the measurement light. Note that the configuration of the scanning unit for scanning the measurement light is not limited to the galvanometer mirror, and any other deflection mirror can be used. In addition, as the scanning unit, for example, a deflection mirror that can scan the measurement light in a two-dimensional direction with a single MEMS mirror or the like may be used.

フォーカスレンズステージ203には不図示のフォーカスレンズが設けられている。フォーカスレンズステージ203を移動させることで、フォーカスレンズを測定光の光軸に沿って移動させることができる。このため、フォーカスレンズによって、被検眼の前眼部を介し、眼底の網膜層に測定光をフォーカスすることができる。眼底を照射した測定光は各網膜層で反射・散乱して戻り光として、光路を戻る。Thefocus lens stage 203 is provided with a focus lens (not shown). By moving thefocus lens stage 203, the focus lens can be moved along the optical axis of the measurement light. Therefore, the focus lens can focus the measurement light on the retinal layer of the fundus via the anterior segment of the test eye. The measurement light that illuminates the fundus is reflected and scattered at each retinal layer, and travels back along the optical path as return light.

コヒーレンスゲートステージ205は、被検眼の眼軸長の相違等に対応するため、参照光又は測定光の光路の長さを調整するために用いられる。本実施例では、コヒーレンスゲートステージ205は、ミラーが設けられたステージによって構成され、参照光の光路において光軸方向に移動することで参照光の光路長を測定光の光路長に対応させることができる。ここで、コヒーレンスゲートは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。コヒーレンスゲートステージ205は、画像処理装置300により制御されることができる。画像処理装置300は、コヒーレンスゲートステージ205によりコヒーレンスゲートの位置を制御することによって、被検眼の深さ方向の撮影範囲を制御することができ、網膜層側の撮影、又は網膜層より深部側の撮影等を制御することができる。Thecoherence gate stage 205 is used to adjust the length of the optical path of the reference light or the measurement light to accommodate differences in the axial length of the test eye. In this embodiment, thecoherence gate stage 205 is configured by a stage provided with a mirror, and by moving in the optical axis direction in the optical path of the reference light, the optical path length of the reference light can be made to correspond to the optical path length of the measurement light. Here, the coherence gate represents a position where the optical distances of the measurement light and the reference light in OCT are equal. Thecoherence gate stage 205 can be controlled by theimage processing device 300. By controlling the position of the coherence gate with thecoherence gate stage 205, theimage processing device 300 can control the imaging range in the depth direction of the test eye, and can control imaging of the retinal layer side or imaging deeper than the retinal layer, etc.

ディテクタ207は、不図示の干渉部において生じた、被検眼からの測定光の戻り光と参照光との干渉光を検出し、干渉信号を生成する。画像処理装置300は、ディテクタ207からの干渉信号を取得し、干渉信号に対してフーリエ変換等を行うことで被検眼の断層画像を生成することができる。Thedetector 207 detects the interference light between the return light of the measurement light from the test eye and the reference light, which occurs in an interference section (not shown), and generates an interference signal. Theimage processing device 300 acquires the interference signal from thedetector 207 and performs a Fourier transform or the like on the interference signal to generate a tomographic image of the test eye.

内部固視灯204には、表示部241、およびレンズ242が設けられている。本実施例では、表示部241の一例として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、画像処理装置300の制御により撮影したい部位に応じて変更される。表示部241からの光は、レンズ242を介し、被検眼に導かれる。表示部241から出射される光は、例えば520nmの波長を有し、画像処理装置300による制御により所望のパターンで表示される。Theinternal fixation light 204 is provided with adisplay unit 241 and alens 242. In this embodiment, adisplay unit 241 in which multiple light-emitting diodes (LDs) are arranged in a matrix is used as an example of thedisplay unit 241. The lighting positions of the light-emitting diodes are changed according to the area to be photographed under the control of theimage processing device 300. The light from thedisplay unit 241 is guided to the subject's eye via thelens 242. The light emitted from thedisplay unit 241 has a wavelength of, for example, 520 nm, and is displayed in a desired pattern under the control of theimage processing device 300.

駆動制御部202は、上述したガルバノミラー201、フォーカスレンズステージ203、内部固視灯204、コヒーレンスゲートステージ205、光源206、およびディテクタ207と接続される。駆動制御部202は、後述する指示部304を介した画像処理装置300による制御に基づいて、これら各構成要素の駆動を制御する。なお、この駆動制御部202を設けず、画像処理装置300が指示部304を用いて直接これら構成要素の駆動を制御することとしてもよい。Thedrive control unit 202 is connected to the above-mentionedgalvanometer mirror 201, focuslens stage 203,internal fixation light 204,coherence gate stage 205,light source 206, anddetector 207. Thedrive control unit 202 controls the drive of each of these components based on control by theimage processing device 300 via theinstruction unit 304 described below. Note that thedrive control unit 202 may not be provided, and theimage processing device 300 may directly control the drive of these components using theinstruction unit 304.

次に、図2(a)乃至(c)を参照して、画像処理システム1で取得する眼の構造と画像について説明する。図2(a)は眼球の模式図である。図2(a)には、角膜C、水晶体CL、硝子体V、黄斑部M(黄斑の中心部は中心窩を表す)、および視神経乳頭部Dが表されている。本実施例では、主に、硝子体V、黄斑部M、視神経乳頭部Dを含む網膜の後極部を撮影する場合について説明を行う。なお、以下では説明をしないが、OCT装置200は、角膜や水晶体等の前眼部を撮影することも可能である。Next, the structure of the eye and the images acquired by theimage processing system 1 will be described with reference to Figures 2(a) to (c). Figure 2(a) is a schematic diagram of an eyeball. Figure 2(a) shows the cornea C, lens CL, vitreous body V, macular region M (the center of the macula represents the fovea), and optic disc D. In this embodiment, the case of imaging the posterior pole of the retina including the vitreous body V, macular region M, and optic disc D will be mainly described. Although not described below, theOCT device 200 is also capable of imaging the anterior segment of the eye, such as the cornea and lens.

図2(b)は、OCT装置200を用いて網膜を撮影することで取得した断層画像の一例を示す。図2(b)において、ASは一回のAスキャンにより取得される画像単位を示す。ここで、Aスキャンとは、OCT装置200の一連の動作により、被検眼の一点における深さ方向の断層情報を取得することをいう。また、Aスキャンを任意の横断方向(主走査方向)において複数回行うことで被検眼の当該横断方向と深さ方向の二次元の断層情報を取得することをBスキャンという。Aスキャンによって取得されたAスキャン画像を複数集めることで、1つのBスキャン画像を構成することができる。以下、このBスキャン画像のことを、断層画像と呼ぶ。Figure 2(b) shows an example of a tomographic image obtained by photographing the retina using theOCT device 200. In Figure 2(b), AS indicates an image unit obtained by one A-scan. Here, an A-scan refers to obtaining tomographic information in the depth direction at one point of the test eye through a series of operations of theOCT device 200. In addition, performing an A-scan multiple times in any transverse direction (main scanning direction) to obtain two-dimensional tomographic information in the transverse direction and depth direction of the test eye is called a B-scan. A single B-scan image can be constructed by collecting multiple A-scan images obtained by A-scans. Hereinafter, this B-scan image will be referred to as a tomographic image.

図2(b)には、硝子体V、黄斑部M、視神経乳頭部D、および篩状板Laが表されている。また、境界線L1は内境界膜(ILM)と神経線維層(NFL)との境界、境界線L2は神経線維層と神経節細胞層(GCL)との境界、境界線L3は視細胞内節外節接合部(ISOS)を表す。さらに、境界線L4は網膜色素上皮層(RPE)、境界線L5はブルッフ膜(BM)、境界線L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(深さ方向)をz軸とする。Figure 2(b) shows the vitreous body V, macula M, optic disc D, and lamina cribrosa La. Boundary L1 represents the boundary between the internal limiting membrane (ILM) and nerve fiber layer (NFL), boundary L2 represents the boundary between the nerve fiber layer and ganglion cell layer (GCL), and boundary L3 represents the photoreceptor inner-outer segment junction (ISOS). Boundary L4 represents the retinal pigment epithelium layer (RPE), boundary L5 represents Bruch's membrane (BM), and boundary L6 represents the choroid. In the tomographic image, the horizontal axis (main scanning direction of OCT) is the x-axis, and the vertical axis (depth direction) is the z-axis.

図2(c)は、眼底画像撮影装置400を用いて被検眼の眼底を撮影することで取得した眼底画像の一例を示す。図2(c)には、黄斑部M、視神経乳頭部Dが表されており、網膜の血管が太い曲線で表されている。眼底画像において、横軸(OCT装置の主走査方向)をx軸とし、縦軸(OCT装置の副走査方向)をy軸とする。Figure 2(c) shows an example of a fundus image acquired by photographing the fundus of the test eye using the fundusimage photographing device 400. In Figure 2(c), the macular region M and optic disc D are shown, and the retinal blood vessels are shown with thick curves. In the fundus image, the horizontal axis (the main scanning direction of the OCT device) is the x-axis, and the vertical axis (the sub-scanning direction of the OCT device) is the y-axis.

次に、画像処理装置300について説明する。画像処理装置300には、取得部301、記憶部302、処理部303、指示部304、および表示制御部305が設けられている。Next, theimage processing device 300 will be described. Theimage processing device 300 includes anacquisition unit 301, astorage unit 302, aprocessing unit 303, aninstruction unit 304, and adisplay control unit 305.

取得部301は、OCT装置200から被検眼の干渉信号のデータを取得することができる。なお、取得部301が取得する干渉信号のデータは、アナログ信号でもデジタル信号でもよい。取得部301がアナログ信号を取得する場合には、画像処理装置300でアナログ信号をデジタル信号に変換することができる。また、取得部301は断層画像生成部311を有し、該断層画像生成部311で生成された断層データや断層画像およびEn-Face画像等の各種画像を取得することができる。ここで、断層データとは、被検体の断層に関する情報を含むデータであり、OCTによる干渉信号に基づくデータ、およびこれに高速フーリエ変換(FFT:Fast Fourier Transform)や任意の信号処理を行ったデータを含むものをいう。Theacquisition unit 301 can acquire data on the interference signal of the subject's eye from theOCT device 200. The interference signal data acquired by theacquisition unit 301 may be an analog signal or a digital signal. When theacquisition unit 301 acquires an analog signal, theimage processing device 300 can convert the analog signal into a digital signal. Theacquisition unit 301 also has a tomographicimage generation unit 311, and can acquire various images such as tomographic data, tomographic images, and En-Face images generated by the tomographicimage generation unit 311. Here, tomographic data refers to data that includes information on the tomography of the subject, and includes data based on the interference signal by OCT, and data that has been subjected to fast Fourier transform (FFT) or any signal processing.

断層画像生成部311は、取得部301で取得された干渉信号に対してフーリエ変換等の処理を施して断層データを生成し、断層データに基づいて断層画像を生成することができる。なお、断層画像の生成方法としては既知の任意の方法を採用してよく、詳細な説明は省略する。The tomographicimage generating unit 311 can generate tomographic data by performing processing such as Fourier transform on the interference signal acquired by the acquiringunit 301, and generate a tomographic image based on the tomographic data. Note that any known method may be used to generate the tomographic image, and detailed description thereof will be omitted.

さらに、取得部301は、画像処理すべき断層画像の撮影条件群(例えば、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式、画像の解像度や階調、画像の画素サイズ、画像フィルタ、および画像のデータ形式に関する情報など)を取得する。なお、撮影条件群については、例示したものに限られない。また、撮影条件群は、例示したもの全てを含む必要はなく、これらのうちの一部を含んでもよい。Furthermore, theacquisition unit 301 acquires a group of imaging conditions for the tomographic image to be processed (e.g., imaging date and time, name of imaging part, imaging area, imaging angle of view, imaging method, image resolution and gradation, image pixel size, image filter, information on the image data format, etc.). Note that the group of imaging conditions is not limited to those exemplified. Also, the group of imaging conditions does not need to include all of the exemplified ones, and may include some of them.

また、取得部301は、眼底画像撮影装置400で取得した眼底情報を含むデータ等を取得することができる。さらに、取得部301は、被検者識別番号等の被検眼を同定するための情報を入力部700等から取得することができる。取得部301は、取得した各種データや画像を記憶部302に記憶させることができる。Theacquisition unit 301 can also acquire data including fundus information acquired by the fundusimage capturing device 400. Furthermore, theacquisition unit 301 can acquire information for identifying the subject's eye, such as a subject identification number, from theinput unit 700, etc. Theacquisition unit 301 can store the acquired various data and images in thestorage unit 302.

次に、処理部303について説明する。処理部303には、画像処理部331、演算処理部322、撮影条件取得部333、および選択部334が設けられている。Next, theprocessing unit 303 will be described. Theprocessing unit 303 includes an image processing unit 331, a calculation processing unit 322, a shooting condition acquisition unit 333, and aselection unit 334.

画像処理部331は、取得部301で取得されたデータや記憶部302に記憶されたデータから、断層画像やEn-Face画像等を生成し、生成又は取得した画像から、後述する被検眼に関する複数種類の解析値を算出する。なお、複数種類の解析値は、予め算出されて記憶部302あるいは外部記憶装置500に記憶されていたものを取得してもよい。The image processing unit 331 generates tomographic images, En-Face images, and the like from the data acquired by theacquisition unit 301 and the data stored in thememory unit 302, and calculates multiple types of analytical values related to the subject's eye (described below) from the generated or acquired images. Note that the multiple types of analytical values may be acquired from values that have been calculated in advance and stored in thememory unit 302 or theexternal storage device 500.

演算処理部332は、ディープラーニング等の任意の機械学習モデルに対して学習データを与えて学習させることで作成された学習済モデルを含む。具体的な学習の内容に関しては後述する。演算処理部332は、この学習済モデルを用いて、例えば、第一の時間に被検眼を撮影することで得た断層データと、第一の時間の後の第二の時間に被検眼を撮影することで得た断層データとから、第二の時間より後の第三の時間で撮影される断層画像を生成する。生成された断層画像に対しては、画像処理部331において解析処理が行われ、該断層画像における複数種類の解析値が算出される。なお、この複数種類の解析値の算出は演算処理部332で行ってもよく、算出ではなく学習済モデルを用いて2つの断層データから直接的に生成することとしてもよい。The arithmetic processing unit 332 includes a trained model created by providing training data to an arbitrary machine learning model such as deep learning and having it train. The specific contents of the training will be described later. Using this trained model, the arithmetic processing unit 332 generates a tomographic image captured at a third time after the second time from, for example, tomographic data obtained by photographing the subject's eye at a first time and tomographic data obtained by photographing the subject's eye at a second time after the first time. The generated tomographic image is subjected to an analysis process in the image processing unit 331, and multiple types of analytical values for the tomographic image are calculated. The calculation of the multiple types of analytical values may be performed by the arithmetic processing unit 332, or may be generated directly from two types of tomographic data using the trained model instead of calculation.

撮影条件取得部333は、画像処理対象となる断層画像を撮影した際の撮影条件を、記憶部302から取得する。なお、取得対象となる撮影条件は、断層画像撮影時に取得部301で取得された上述した撮影条件であってもよく、以前に撮影された断層画像と関連付けられて記憶部302等に記憶された撮影条件であってもよい。The imaging condition acquisition unit 333 acquires the imaging conditions when the tomographic image to be subjected to image processing was captured from thestorage unit 302. The imaging conditions to be acquired may be the above-mentioned imaging conditions acquired by theacquisition unit 301 when the tomographic image was captured, or may be imaging conditions stored in thestorage unit 302 or the like in association with a previously captured tomographic image.

選択部334は、撮影条件取得部333が取得した撮影条件、あるいは前述した条件に加え例えば前眼部、後眼部等の撮影部位に応じて、適当な学習済モデルを選択する。学習済モデルは撮影条件に応じて予め複数生成されて記憶部302に記憶されており、演算処理部332は撮影条件に応じて選択部334が選択した学習済モデルを用いて断層画像やその解析値の生成を行う。Theselection unit 334 selects an appropriate trained model according to the imaging conditions acquired by the imaging condition acquisition unit 333, or the imaging site such as the anterior eye segment, the posterior eye segment, etc. in addition to the above-mentioned conditions. A plurality of trained models are generated in advance according to the imaging conditions and stored in thestorage unit 302, and the calculation processing unit 332 generates a tomographic image and its analysis value using the trained model selected by theselection unit 334 according to the imaging conditions.

指示部304は、OCT装置200や眼底画像撮影装置400の各構成要素の駆動を制御することができる。記憶部302は、取得部301で取得された断層データ、および処理部303で生成・処理された断層画像等の各種画像やデータ等を記憶することができる。また、記憶部302は、プロセッサーによって実行されることで画像処理装置300の各構成要素の機能を果たすためのプログラム等を記憶することもできる。Theinstruction unit 304 can control the driving of each component of theOCT device 200 and the fundusimage capturing device 400. Thememory unit 302 can store various images and data, such as the tomographic data acquired by theacquisition unit 301 and the tomographic images generated and processed by theprocessing unit 303. Thememory unit 302 can also store programs, etc., that are executed by the processor to perform the functions of each component of theimage processing device 300.

表示制御部305は、取得部301で取得された各種情報や処理部303で生成・処理された断層画像、およびユーザによって入力された情報等の表示部600における表示を制御することができる。Thedisplay control unit 305 can control the display on thedisplay unit 600 of various information acquired by theacquisition unit 301, tomographic images generated and processed by theprocessing unit 303, and information input by the user.

画像処理装置300の記憶部302以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部302は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。Each component of theimage processing device 300 other than thememory unit 302 may be configured by a software module executed by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Each component may also be configured by a circuit that performs a specific function such as an ASIC. Thememory unit 302 may be configured by any storage medium such as an optical disk or memory.

次に、図3を参照して本実施例に係る一連の処理について説明する。図3は、本実施例に係る一連の処理のフローチャートである。本実施例に係る一連の処理が開始される、処理はステップS301に移行する。Next, a series of processes according to this embodiment will be described with reference to FIG. 3. FIG. 3 is a flowchart of a series of processes according to this embodiment. The series of processes according to this embodiment starts, and the process proceeds to step S301.

ステップS301では、取得部301が、被検眼を同定する情報の一例である被検者識別番号を、入力部700等により画像処理装置300の外部から取得する。取得部301は、被検者識別番号に基づいて、外部記憶装置500が保持している当該被検眼に関する情報を取得して記憶部302に記憶する。In step S301, theacquisition unit 301 acquires a subject identification number, which is an example of information for identifying the subject's eye, from outside theimage processing device 300 via theinput unit 700 or the like. Theacquisition unit 301 acquires information about the subject's eye stored in theexternal storage device 500 based on the subject identification number, and stores the information in thestorage unit 302.

ステップS302では、駆動制御部202がOCT装置200を制御して被検眼を測定光で走査することで撮影を行い、取得部301がOCT装置200から被検眼の断層情報を含む干渉信号を取得する。測定光による走査は、ユーザによる走査開始の指示に応じて、指示部304がOCT装置200を制御し、光源206やガルバノミラー201等を動作させることで行われる。In step S302, thedrive control unit 202 controls theOCT device 200 to scan the test eye with measurement light to capture an image, and theacquisition unit 301 acquires an interference signal including tomographic information of the test eye from theOCT device 200. Scanning with the measurement light is performed by theinstruction unit 304 controlling theOCT device 200 to operate thelight source 206, thegalvanometer mirror 201, etc. in response to a user's instruction to start scanning.

ガルバノミラー201は、水平方向用のXスキャナと垂直方向用のYスキャナを含む。駆動制御部202は、これらのスキャナの向きをそれぞれ変更すると、装置座標系における水平方向(X)および垂直方向(Y)それぞれの方向に測定光を走査することができる。なお、駆動制御部202は、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向にも測定光を走査することができる。そのため、駆動制御部202は、眼底平面上の任意の方向に測定光を走査することができる。Thegalvanometer mirror 201 includes an X scanner for the horizontal direction and a Y scanner for the vertical direction. By changing the orientation of each of these scanners, thedrive control unit 202 can scan the measurement light in both the horizontal (X) and vertical (Y) directions in the device coordinate system. Note that thedrive control unit 202 can also scan the measurement light in a direction that combines the horizontal and vertical directions by simultaneously changing the orientation of these scanners. Therefore, thedrive control unit 202 can scan the measurement light in any direction on the fundus plane.

駆動制御部202は、撮影を行うにあたり各種撮影パラメータの調整を行う。具体的には、駆動制御部202は、内部固視灯204で表示するパターンの位置、ガルバノミラー201によるスキャン範囲やスキャンパターン、コヒーレンスゲート位置、およびフォーカスレンズ位置を少なくとも設定する。Thedrive control unit 202 adjusts various shooting parameters when shooting. Specifically, thedrive control unit 202 sets at least the position of the pattern displayed by theinternal fixation light 204, the scan range and scan pattern by thegalvanometer mirror 201, the coherence gate position, and the focus lens position.

駆動制御部202は、表示部241の発光ダイオードを制御して、例えば被検眼の黄斑部中心や視神経乳頭に撮影を行うように内部固視灯204で表示するパターンの位置を制御する。また、駆動制御部202は、ガルバノミラー201による走査パターンとして、三次元ボリュームを撮影するラスタスキャンや放射状スキャン、クロススキャン等の走査パターンを設定する。なお、どの走査パターンを選択したとしても、一つのライン上で走査が複数回繰り返され、複数回の(繰り返し回数は2枚以上)撮影が行われる。本実施例においては、走査パターンはクロススキャンとし、同一箇所を150枚繰り返し撮影する。これら撮影パラメータの調整終了後、ユーザによる撮影開始の指示に応じて、指示部304がOCT装置200を制御して被検眼の撮影を行う。Thedrive control unit 202 controls the light-emitting diodes of thedisplay unit 241 to control the position of the pattern displayed by theinternal fixation lamp 204 so that, for example, the center of the macula or the optic disc of the test eye is photographed. Thedrive control unit 202 also sets a scanning pattern such as a raster scan, radial scan, or cross scan for photographing a three-dimensional volume as a scanning pattern by thegalvanometer mirror 201. Note that, regardless of which scanning pattern is selected, scanning is repeated multiple times on one line, and multiple photographs (repetitions are two or more) are taken. In this embodiment, the scanning pattern is a cross scan, and 150 photographs of the same location are taken repeatedly. After these photographing parameters have been adjusted, theinstruction unit 304 controls theOCT device 200 to photograph the test eye in response to a user's instruction to start photographing.

なお、本開示においては説明を省略するが、OCT装置200は、加算平均用に同じ箇所を撮影するために、被検眼のトラッキングを行うことができる。これにより、OCT装置200は、固視微動の影響を少なくして被検眼のスキャンを行うことができる。Although not described in this disclosure, theOCT device 200 can track the subject's eye in order to capture the same location for averaging. This allows theOCT device 200 to scan the subject's eye while reducing the effects of fixational eye movement.

ステップS303では、断層画像生成部311が、取得部301によって取得された干渉信号に基づいて断層画像の生成を行う。断層画像生成部311は、それぞれの干渉信号に対して一般的な再構成処理を行うことで、断層画像を生成することができる。In step S303, the tomographicimage generating unit 311 generates a tomographic image based on the interference signals acquired by the acquiringunit 301. The tomographicimage generating unit 311 can generate a tomographic image by performing a general reconstruction process on each interference signal.

まず、断層画像生成部311は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は、取得した複数のAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。その後、断層画像生成部311は、有限区間でフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。断層画像生成部311は、窓関数処理を行った干渉信号に対して高速フーリエ変換(FFT)処理を行うことによって断層データを生成する。First, the tomographicimage generating unit 311 removes fixed pattern noise from the interference signal. Fixed pattern noise removal is performed by extracting fixed pattern noise by averaging multiple acquired A-scan signals and subtracting this from the input interference signal. After that, the tomographicimage generating unit 311 performs the desired window function processing to optimize the depth resolution and dynamic range, which are in a trade-off relationship when Fourier transform is performed over a finite interval. The tomographicimage generating unit 311 generates tomographic data by performing fast Fourier transform (FFT) processing on the interference signal that has been subjected to window function processing.

断層画像生成部311は、生成した断層データに基づいて断層画像の各画素値を求め、断層画像を生成する。なお、断層画像の生成方法はこれに限られず、既知の任意の方法で行われてよい。The tomographicimage generating unit 311 calculates the pixel values of the tomographic image based on the generated tomographic data, and generates a tomographic image. Note that the method of generating the tomographic image is not limited to this, and any known method may be used.

本実施例では、断層画像生成部311は、干渉光の強度に基づく所謂強度画像と称される断層画像を生成している。しかし、断層画像生成部311が生成する画像は強度画像に限られず、例えばモーションコントラスト画像であってもよい。モーションコントラスト画像あるいはこれを生成する際に用いるモーションコントラストデータも、上述した断層データの一態様に含まれる。また、モーションコントラストデータからは、血管径、血管密度等の血管に関する情報も得られるが、これら情報については本実施例における後述する断層に関するデータに含まれる。In this embodiment, the tomographicimage generating unit 311 generates a tomographic image, which is a so-called intensity image, based on the intensity of the interference light. However, the image generated by the tomographicimage generating unit 311 is not limited to an intensity image, and may be, for example, a motion contrast image. The motion contrast image or the motion contrast data used in generating the motion contrast image is also included as one aspect of the above-mentioned tomographic data. In addition, information regarding blood vessels, such as blood vessel diameter and blood vessel density, can also be obtained from the motion contrast data, and this information is included in the data regarding the tomography, which will be described later in this embodiment.

被検眼において極短時間に干渉光の強度等に揺らぎを生じさせる対象物として、血管内を流れる血球等が存在する。このような血球等の動きに基づくモーションコントラストデータを得ることにより、造影剤を用いることなく、血管の造影を行うことができる。被検眼の深さ情報に基づいて取得される三次元のモーションコントラストデータを深度方向に統合し、二次元平面上に投影することでOCTA画像と称される正面血管画像が生成できる。In the subject's eye, blood cells flowing through blood vessels are objects that cause fluctuations in the intensity of interference light for an extremely short period of time. By obtaining motion contrast data based on the movement of such blood cells, it is possible to image the blood vessels without using contrast agents. By integrating three-dimensional motion contrast data obtained based on the depth information of the subject's eye in the depth direction and projecting it onto a two-dimensional plane, a frontal blood vessel image called an OCTA image can be generated.

ここで、例えば断層画像生成部311でモーションコントラストデータを生成する場合に具体例について述べる。撮影時刻が互いに連続する略同一箇所を撮影して得た複数の断層画像であって、位置合わせが行われた複数の断層画像を取得する。なお、位置合わせは、種々の公知の方法を使用することができる。例えば、複数の断層画像のうちの1つを基準画像として選択し、基準画像の位置および角度を変更しながら、その他の断層画像との類似度が算出され、各断層画像の基準画像との位置ずれ量が算出される。算出結果に基づいて各断層画像を補正することで、複数の断層画像の位置合わせが行われる。なお、位置合わせの方法はこれに限られず、既知の任意の手法により行われてよい。Here, a specific example will be described in which motion contrast data is generated by the tomographicimage generating unit 311. A plurality of tomographic images are obtained by photographing substantially the same location at successive photographing times, and are aligned. Various known methods can be used for the alignment. For example, one of the plurality of tomographic images is selected as a reference image, and while changing the position and angle of the reference image, the similarity with the other tomographic images is calculated, and the amount of positional deviation of each tomographic image from the reference image is calculated. Each tomographic image is corrected based on the calculation result, and the alignment of the plurality of tomographic images is performed. The alignment method is not limited to this, and any known method may be used.

断層画像生成部311は、位置合わせが行われた複数の断層画像のうち撮影時刻が互いに連続する2枚の断層画像ずつについて、以下の数式1により脱相関値を算出する。

Figure 0007652526000001
The tomographicimage generating unit 311 calculates a decorrelation value for each pair of tomographic images captured at consecutive times among the plurality of aligned tomographic images, using the followingEquation 1.
Figure 0007652526000001

ここで、A(x,z)は断層画像Aの位置(x,z)における振幅、B(x,z)は断層画像Bの同一位置(x,z)における振幅を示している。結果として得られる脱相関値M(x,z)は0から1までの値を取り、二つの振幅値の差異が大きいほど1に近い値となる。なお、本実施例では、XZ平面の二次元の断層画像を用いる場合について述べたが、例えばYZ平面等の二次元断層画像を用いてもよい。この場合には、位置(x、z)を位置(y、z)等に置き換えてよい。なお、脱相関値は、断層画像の輝度値に基づいて求められてもよいし、断層画像に対応する断層信号の値に基づいて求められてもよい。Here, A(x,z) indicates the amplitude at position (x,z) of tomographic image A, and B(x,z) indicates the amplitude at the same position (x,z) of tomographic image B. The resulting decorrelation value M(x,z) ranges from 0 to 1, and the greater the difference between the two amplitude values, the closer the value is to 1. Note that in this embodiment, a two-dimensional tomographic image in the XZ plane is used, but a two-dimensional tomographic image in the YZ plane, for example, may also be used. In this case, the position (x,z) may be replaced with the position (y,z), etc. Note that the decorrelation value may be found based on the luminance value of the tomographic image, or may be found based on the value of the tomographic signal corresponding to the tomographic image.

断層画像生成部311は、各位置(画素位置)での脱相関値M(x、z)に基づいて、モーションコントラスト画像の画素値を決定し、モーションコントラスト画像を生成する。なお、本実施例では、断層画像生成部311は、撮影時刻が互いに連続する断層画像について脱相関値を算出したが、モーションコントラストデータの算出方法はこれに限定されない。脱相関値Mを求める2つの断層画像は、互いに対応する各断層画像に関する撮影時間が所定の時間間隔以内であればよく、撮影時間が連続していなくてもよい。そのため、例えば、時間的変化が少ない対象物の抽出を目的として、取得した複数の断層画像から撮影間隔が通常の規定時間より長くなるような2つの断層画像を抽出して脱相関値を算出してもよい。また、脱相関値に代えて、分散値や、最大値を最小値で割った値(最大値/最小値)等を求めてもよい。The tomographicimage generating unit 311 determines the pixel value of the motion contrast image based on the decorrelation value M (x, z) at each position (pixel position) and generates a motion contrast image. In this embodiment, the tomographicimage generating unit 311 calculates the decorrelation value for tomographic images whose shooting times are consecutive, but the calculation method of the motion contrast data is not limited to this. The two tomographic images for which the decorrelation value M is calculated may have corresponding shooting times within a predetermined time interval, and the shooting times may not be consecutive. Therefore, for example, in order to extract an object with little change over time, two tomographic images whose shooting interval is longer than a normal specified time may be extracted from the multiple tomographic images obtained and the decorrelation value may be calculated. In addition, instead of the decorrelation value, a variance value, a value obtained by dividing the maximum value by the minimum value (maximum value/minimum value), etc. may be calculated.

なお、モーションコントラスト画像の生成方法は、上述の方法に限られず、公知の他の任意の方法を用いてもよい。上述したように、モーションコントラストデータは、例えば略同一箇所を繰り返して撮影することで得られた複数の断層画像間における複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる。この場合、略同一箇所とは、モーションコントラストデータを生成するのに許容できる程度に同一である位置をいい、厳密に同一である箇所から僅かにずれた箇所も含むものをいう。The method of generating a motion contrast image is not limited to the above-mentioned method, and any other known method may be used. As described above, the motion contrast data is obtained by calculating the difference, ratio, correlation, or the like of the phase, vector, and temporal change in intensity of a complex OCT signal between multiple tomographic images obtained by repeatedly capturing images of, for example, approximately the same location. In this case, approximately the same location refers to a position that is the same to an extent that is acceptable for generating motion contrast data, and also includes a location that is slightly shifted from the strictly same location.

ステップS304では、画像処理部331が網膜層の検出を行うと共に、網膜層の厚さ、体積、曲率、形状に例示される複数の解析値を求める。初めに、網膜層の検出について説明をする。画像処理部331は、OCT装置200が撮影した複数の断層画像において網膜層の境界を検出する。In step S304, the image processing unit 331 detects the retinal layer and obtains multiple analytical values, such as the thickness, volume, curvature, and shape of the retinal layer. First, the detection of the retinal layer will be described. The image processing unit 331 detects the boundaries of the retinal layer in multiple tomographic images captured by theOCT device 200.

ここで、網膜層を検出する処理の詳細について説明する。画像処理部331は、処理の対象とする断層画像に対して、ノイズ除去とエッジ強調処理を行う。ノイズ除去処理としては、例えばメディアンフィルタやガウシアンフィルタを適用する。エッジ強調処理としては、SobelフィルタやHessianフィルタを適用する。Here, the details of the process for detecting the retinal layers will be described. The image processing unit 331 performs noise removal and edge enhancement processing on the tomographic image to be processed. For example, a median filter or a Gaussian filter is applied as the noise removal processing. For edge enhancement processing, a Sobel filter or a Hessian filter is applied.

二次元のHessianフィルタを用いた、二次元断層画像に対するエッジ強調処理について説明する。Hessianフィルタは、ヘッセ行列の2つの固有値(λ、λ)の関係に基づいて、二次元濃淡分布の二次局所構造を強調することができる。ヘッセ行列の固有値と固有ベクトル(e、e)の関係を用いて、二次元の線構造を強調する。被検眼についての二次元断層画像における線構造は網膜層に相当するため、当該Hessianフィルタの適用により、網膜層の構造を強調することができる。 The edge enhancement process for a two-dimensional tomographic image using a two-dimensional Hessian filter will be described. The Hessian filter can enhance the secondary local structure of a two-dimensional gray distribution based on the relationship between two eigenvalues (λ1 , λ2 ) of a Hessian matrix. The two-dimensional line structure is enhanced using the relationship between the eigenvalues and eigenvectors (e1 , e2 ) of the Hessian matrix. Since the line structure in the two-dimensional tomographic image of the subject's eye corresponds to the retinal layer, the structure of the retinal layer can be enhanced by applying the Hessian filter.

なお、厚みの異なる網膜層を検出するには、ヘッセ行列を計算する際に行うガウス関数による平滑化の解像度を変更すればよい。また、二次元のHessianフィルタを適用する際には、画像のXZの物理サイズを合わせるようにデータを変形した後に適用することができる。一般的なOCTの場合、XY方向とZ方向の物理サイズが異なる。そのため、画素毎の網膜層の物理サイズを合わせてフィルタを適用する。なお、XY方向とZ方向の物理サイズは、OCT装置200の設計/構成から把握できるため、当該物理サイズに基づいて、断層画像のデータを変形させることができる。また、物理サイズを正規化しない場合には、ガウス関数による平滑化の解像度を変更することでも近似的に対応できる。To detect retinal layers of different thicknesses, the resolution of the smoothing using the Gaussian function performed when calculating the Hessian matrix can be changed. When applying a two-dimensional Hessian filter, the data can be transformed to match the physical sizes of the X and Z images. In the case of general OCT, the physical sizes in the X, Y, and Z directions are different. Therefore, the filter is applied by matching the physical size of the retinal layer for each pixel. The physical sizes in the X, Y, and Z directions can be determined from the design/configuration of theOCT device 200, so the data of the tomographic image can be transformed based on the physical sizes. If the physical sizes are not normalized, the resolution of the smoothing using the Gaussian function can be changed to approximately accommodate the above.

上記では、二次元断層画像での処理について説明したが、Hessianフィルタを適用する対象はこれに限らない。断層画像を撮影した際のデータ構造がラスタスキャンによる三次元断層画像である場合、三次元のHessianフィルタを適用することも可能である。この場合、画像処理部331によって、隣接する断層画像間において、XZ方向の位置合わせ処理を行った後に、ヘッセ行列の3つの固有値(λ、λ、λ)の関係に基づいて、三次元濃淡分布の二次局所構造を強調することができる。そのため、ヘッセ行列の固有値と固有ベクトル(e、e、e)の関係を用いて三次元の層構造を強調することで、三次元的にエッジを強調することも可能である。なお、ここでは、Hessianフィルタを用いてエッジ強調処理を行う構成について説明したが、エッジ強調処理の処理方法はこれに限られず、既存の任意の方法によって行われてよい。 Although the processing of a two-dimensional tomographic image has been described above, the subject to which the Hessian filter is applied is not limited to this. When the data structure when the tomographic image is captured is a three-dimensional tomographic image by raster scanning, a three-dimensional Hessian filter can also be applied. In this case, the image processing unit 331 performs alignment processing in the XZ direction between adjacent tomographic images, and then the secondary local structure of the three-dimensional gray distribution can be emphasized based on the relationship between the three eigenvalues (λ1 , λ2 , λ3 ) of the Hessian matrix. Therefore, it is also possible to emphasize edges three-dimensionally by emphasizing the three-dimensional layer structure using the relationship between the eigenvalues and eigenvectors (e1 , e2 , e3 ) of the Hessian matrix. Note that, although the configuration for performing edge enhancement processing using a Hessian filter has been described here, the processing method for edge enhancement processing is not limited to this, and may be performed by any existing method.

画像処理部331は、エッジ強調処理をした断層画像からエッジ強調された境界を検出する。本実施例では、ILMとNFLとの境界、RPE、ISOS、NFLとGCL境界を検出する。なお、図示しないが、その他の境界として、外網状層(OPL)と外顆粒層(ONL)との境界、内網状層(IPL)と内顆粒層(INL)との境界、INLとOPLとの境界、GCLとIPLとの境界等も検出できる。The image processing unit 331 detects edge-enhanced boundaries from the tomographic image that has been subjected to edge enhancement processing. In this embodiment, the boundaries between the ILM and NFL, and the boundaries between the RPE, ISOS, NFL, and GCL are detected. Although not shown, other boundaries can also be detected, such as the boundary between the outer plexiform layer (OPL) and the outer nuclear layer (ONL), the boundary between the inner plexiform layer (IPL) and the inner nuclear layer (INL), the boundary between the INL and OPL, and the boundary between the GCL and IPL.

境界の検出方法としては、各Aスキャンにおいてエッジ強度が強い箇所を境界候補として複数検出し、隣接するAスキャンにおいて境界候補同士の連続性を基に、点(エッジ強度画強い箇所)を線としてつなげる処理を行う。また、画像処理部331は、点を線としてつなげた場合に、線の滑らかさを評価することで、深さ方向に位置がずれている外れ値を除去することができる。より具体的には、例えば、つなげた点同士のZ方向の位置を比較し、所定の閾値よりもZ方向の位置の差が大きい場合には、新しくつなげられた点を外れ値として判断し、つなげる処理から除外することができる。また、外れ値を除去した場合、除外した点のAスキャン位置に隣接するAスキャンにおける境界候補を線としてつなげてもよい。なお、外れ値の除去方法はこれに限られず、既存の任意の方法によって行われてよい。As a method of detecting the boundary, multiple points with strong edge strength are detected as boundary candidates in each A-scan, and points (points with strong edge strength) are connected as lines based on the continuity between the boundary candidates in adjacent A-scans. In addition, when points are connected as a line, the image processing unit 331 can remove outliers whose positions are shifted in the depth direction by evaluating the smoothness of the line. More specifically, for example, the Z-direction positions of the connected points are compared, and if the difference in the Z-direction positions is greater than a predetermined threshold, the newly connected point can be determined to be an outlier and excluded from the connecting process. In addition, when the outlier is removed, boundary candidates in the A-scan adjacent to the A-scan position of the excluded point may be connected as lines. Note that the method of removing outliers is not limited to this, and any existing method may be used.

画像処理部331は、点をつなげて形成した各線について、網膜層の境界のZ方向の上下の距離や位置関係に基づいて、対応する境界を決定する。なお、各Aスキャンにおいて外れ値を除去した結果として検出された境界がない場合には、周囲の境界から補間でこれを求めてもよい。また、周囲の境界からエッジを頼りに水平方向(X又はY方向)に境界候補を探索していき、周囲の境界から探索した境界候補を基にして再度、境界を決定するようにしてもよい。For each line formed by connecting the points, the image processing unit 331 determines the corresponding boundary based on the distance above and below the retinal layer boundary in the Z direction and the positional relationship. Note that if no boundary is detected as a result of removing outliers in each A-scan, it may be found by interpolation from surrounding boundaries. Alternatively, it may search for boundary candidates in the horizontal direction (X or Y direction) using edges from the surrounding boundaries, and the boundary may be determined again based on the boundary candidates found from the surrounding boundaries.

その後、画像処理部331は、検出した境界に対して、境界の形状を滑らかに補正する処理を実行する。例えば、SnakesやLevel Set法等の動的輪郭モデル等により、画像特徴と形状特徴とを用いて境界の形状を滑らかにしてもよい。また、境界形状の座標値を信号による時系列データとみなして、Savitzky-Golayフィルタや、単純移動平均、加重移動平均、指数移動平均等の平滑化処理で形状を滑らかにしてもよい。The image processing unit 331 then performs a process to smoothly correct the shape of the detected boundary. For example, the boundary shape may be smoothed using image features and shape features with an active contour model such as the Snakes or Level Set method. In addition, the coordinate values of the boundary shape may be treated as time-series data based on a signal, and the shape may be smoothed using a smoothing process such as a Savitzky-Golay filter, simple moving average, weighted moving average, or exponential moving average.

なお、網膜層の検出に関しても専用の学習済モデルを用いて行うようにしてもよい。その場合、事前に教師データとして作成したラベル画像と入力画像としてラベル画像の生成に用いた断層画像とをペアで学習した層検出用の学習済モデルを生成しておく。なお、ラベル画像とは、断層画像における画素毎に、当該画素に現れている(撮影されている)像に関するラベルが与えられた画像をいう。例えば網膜よりも浅層側(硝子体側)のラベル、網膜内層のラベル、および網膜よりも深層側(脈絡膜側)のラベルが、与えられるラベルとして例示できる。Note that detection of retinal layers may also be performed using a dedicated trained model. In this case, a trained model for layer detection is generated by training a pair of label images created in advance as training data and the tomographic image used to generate the label image as an input image. Note that a labeled image is an image in which a label is assigned to each pixel in the tomographic image, relating to the image appearing (captured) at that pixel. For example, labels that may be assigned include a label for the layer superficial to the retina (vitreous side), a label for the inner retina, and a label for the layer deeper to the retina (choroid side).

次に、画像処理部331は、複数の解析値を得るための計測処理を行う。解析値の例としては、境界検出で求めた任意の2本の境界で定義される網膜の厚みがある。例えば、緑内障においては網膜が菲薄化し、上下で層厚が非対称となる傾向がある。また、網膜静脈分子閉塞症等のように出血を伴う異常を被検眼が有する場合、出血により網膜全体が厚くなる。そのため、網膜の厚みを計測してその解析値を得ることで、病気によって現れる層厚変化の特徴を知ることができる。Next, the image processing unit 331 performs measurement processing to obtain multiple analytical values. An example of an analytical value is the thickness of the retina defined by any two boundaries obtained by boundary detection. For example, in glaucoma, the retina tends to thin and the layer thickness becomes asymmetric between the top and bottom. In addition, if the subject's eye has an abnormality accompanied by bleeding, such as retinal vein molecular occlusion, the entire retina thickens due to the bleeding. Therefore, by measuring the thickness of the retina and obtaining its analytical value, it is possible to know the characteristics of the layer thickness change that appears due to the disease.

また、網膜における層厚は、計測部位が黄斑部なのか、視神経乳頭部なのかによっても厚みの基準が異なる。このため、計測部位の位置情報と共に厚みを計測しておくとよい。また、撮影部位が視神経乳頭部の場合、CupとDiscの比であるC/D比も計測するとよい。その他に、境界検出で求めた任意の境界の形状特徴を計測するようにしてもよい。例えば、強度近視眼においては網膜が後方(下方向)に引き伸ばされたような形に変形する。また、加齢黄斑変性では、RPEが上に突出したような形に変形する。そのため、形の特徴として、RPEやブルッフ膜等の境界を用いて局所的な曲率を解析値として計測するとよい。このような解析値からは、病気によって現れる形の特徴を把握することができる。In addition, the standard thickness of the retina layer differs depending on whether the measurement site is the macula or the optic disc. For this reason, it is advisable to measure the thickness along with the position information of the measurement site. Furthermore, when the imaging site is the optic disc, it is advisable to also measure the C/D ratio, which is the ratio of Cup to Disc. In addition, it is possible to measure the shape characteristics of any boundary obtained by boundary detection. For example, in severe myopia, the retina is deformed into a shape that is stretched backward (downward). Furthermore, in age-related macular degeneration, the RPE is deformed into a shape that protrudes upward. Therefore, it is advisable to measure the local curvature as an analytical value using the boundaries of the RPE, Bruch's membrane, etc. as a shape characteristic. From such analytical values, it is possible to grasp the shape characteristics that appear due to the disease.

上述したように、病気によって層厚や網膜の形に特徴が表れる。さらに、一つの眼において、これらの特徴が一つ現れるだけではなく、複数の特徴が表れることがある。例えば、ある疾病によって特定の層の菲薄化が進行することに合わせて湾極度等の形状の変化も進行し、病状の進行によってある時点で湾曲の影響も加わって菲薄化が急激となることも起こり得る。このような場合、菲薄化の進行のみを解析値から想定していた場合には、急激な変化は想定し得ない。そのため、計測しておく解析値は、層厚や湾極度等の想定される複数種類ものを得ておくとよい。As mentioned above, different diseases have different characteristics in the layer thickness and shape of the retina. Furthermore, in one eye, not just one of these characteristics may appear, but multiple characteristics may appear. For example, as a certain disease causes the thinning of a specific layer to progress, changes in shape such as the curvature also progress, and as the disease progresses, the thinning may become rapid at some point due to the influence of the curvature. In such cases, if the analysis value only predicts the progression of thinning, it is not possible to predict a sudden change. For this reason, it is a good idea to measure multiple types of expected analysis values such as layer thickness and curvature.

また、上述したように、画像処理部331がモーションコントラストデータを生成することとしてもよい。この場合、画像処理部331は、モーションコントラストデータを平均値投影する(AIP)、あるいは最大値投影(MIP)することで得られるモーションコントラスト画像の正面画像であるOCTA画像を用いて解析値を得てもよい。例えば、OCTA画像を2値化、あるいは2値化画像を細線化した画像から、血管に相当する箇所の密度や血管の形状(長さや形)等特徴を求めてもよい。これら特徴も解析値として用いることができる。As described above, the image processing unit 331 may generate motion contrast data. In this case, the image processing unit 331 may obtain analytical values using an OCTA image, which is a front image of a motion contrast image obtained by performing average value projection (AIP) or maximum value projection (MIP) on the motion contrast data. For example, the OCTA image may be binarized, or the binarized image may be thinned to obtain characteristics such as the density of areas corresponding to blood vessels and the shape (length and shape) of blood vessels. These characteristics can also be used as analytical values.

ステップS304において、画像処理部331による解析値の計測処理が行われると、処理はステップS305に移行する。ステップS305では、検出した境界と断層画像とを表示部600に表示する。ここで、表示部600に画面を表示する際の処理について、図3(b)、および図4乃至図6を用いて説明をする。なお、図3(b)は、ステップS305の表示処理において実行される一連の処理のフローチャートである。本実施例に係る表示処理が開始されると、処理はステップS351に移行する。In step S304, when the image processing unit 331 performs the measurement process of the analytical values, the process proceeds to step S305. In step S305, the detected boundary and the tomographic image are displayed on thedisplay unit 600. Here, the process of displaying a screen on thedisplay unit 600 will be described with reference to FIG. 3(b) and FIGS. 4 to 6. Note that FIG. 3(b) is a flowchart of a series of processes executed in the display process of step S305. When the display process according to this embodiment is started, the process proceeds to step S351.

ステップS351では、撮影条件取得部333が、ステップS302で干渉信号を取得した際の撮影条件を記憶部302から取得する。また、撮影条件取得部333は、ステップS301で取得した被検眼情報も記憶部302から併せて取得する。In step S351, the imaging condition acquisition unit 333 acquires the imaging conditions used when the interference signal was acquired in step S302 from thestorage unit 302. The imaging condition acquisition unit 333 also acquires the subject's eye information acquired in step S301 from thestorage unit 302.

ステップS352では、ステップS351で取得した情報から、記憶部302又は外部記憶装置500が同一の被検眼において過去に同じ走査パターンで撮影して得た情報を記憶しているか否かが、選択部334により判定される。過去に同じ走査パターンで撮影されたデータがある場合には、処理はステップS353に移行する。また、このようなデータがない場合には、処理はステップS356に移行する。In step S352, theselection unit 334 determines, from the information acquired in step S351, whether thestorage unit 302 or theexternal storage device 500 stores information obtained by previously capturing an image of the same test eye using the same scanning pattern. If there is data captured previously using the same scanning pattern, the process proceeds to step S353. If there is no such data, the process proceeds to step S356.

なお、撮影されたデータの有無だけではなく、過去検査数に応じてフローを分けてもよい。例えば、過去に撮影されたデータ数が1だけの場合、現在のデータと合わせても2データ分しかないため、後述する学習済モデルを用いるには情報が少ない。そのため、過去検査数として閾値Th(例えば、Th>2)を設定し、過去検査数が一定数以上ある場合に、処理がステップS353に移行するようにしてもよい。The flow may be divided not only according to whether or not photographed data exists, but also according to the number of past examinations. For example, if only one piece of photographed data has been taken in the past, there will only be two pieces of data including the current data, and there will be insufficient information to use the trained model described below. For this reason, a threshold value Th (e.g., Th>2) may be set as the number of past examinations, and if there is a certain number or more of past examinations, the process may proceed to step S353.

ステップS353では、撮影条件取得部333が取得した撮影条件に基づいて、選択部334が使用する学習済モデルの選択を行う。撮影部位に関連した撮影条件としては、例えば撮影部位が被検眼の前眼部か後眼部かがある。前眼部と後眼部とでは、画像データから出力される解析値が異なるため、それぞれ別々の学習済モデルを得ておく。なお、本実施例では、前眼部と後眼部との何れを撮影するかによって用いる学習済モデルを選択する例について説明をした。しかし、参照する撮影部位はこれに限られず、後眼部においても、さらに黄斑部か視神経乳頭部かに応じて学習済モデルを選択するようにしてもよい。In step S353, theselection unit 334 selects the learned model to be used based on the shooting conditions acquired by the shooting condition acquisition unit 333. An example of a shooting condition related to the shooting part is whether the shooting part is the anterior segment or the posterior segment of the subject's eye. Since the analysis values output from the image data differ between the anterior segment and the posterior segment, separate learned models are obtained for each. Note that in this embodiment, an example has been described in which a learned model to be used is selected depending on whether the anterior segment or the posterior segment is to be shot. However, the shooting part to be referenced is not limited to this, and a learned model may also be selected for the posterior segment depending on whether it is the macula or the optic disc.

なお、例えば後眼部の学習済モデルがあり、前眼部の学習済モデルが存在しない場合において、入力するデータが前眼部の画像の場合、ステップS352の時点において、フローがステップS356に移行するようにしてもよい。このような処理により、初期は学習済モデルが対応していなくても、ソフトウェアのアップデートにより対応可能な学習済モデルを追加して、前眼部を撮影した場合にも対応することができるようになる。For example, if there is a trained model for the posterior segment but no trained model for the anterior segment, and the input data is an image of the anterior segment, the flow may proceed to step S356 at the time of step S352. With this type of processing, even if the trained model is not compatible initially, a trained model that can be compatible can be added by updating the software, making it possible to handle cases where the anterior segment is photographed.

ステップS354では、演算処理部332が、学習済モデルを用いて、将来的に当該被検眼を同じ撮影条件で撮影した場合に得られる可能性が高い断層画像を生成する。また、画像処理部331は、生成された断層画像を用いて、上述した複数種類の解析値を算出する。なお、本実施例では、演算処理部332が、学習済モデルを用いて断層画像を生成することとしている。しかし、演算処理部332は、上述した画像処理部331により求められた複数種類の解析値から、将来的に得られる可能性の高い各々の解析値を直接生成することとしてもよい。In step S354, the arithmetic processing unit 332 uses the learned model to generate a tomographic image that is likely to be obtained when the subject's eye is photographed under the same photographing conditions in the future. The image processing unit 331 also uses the generated tomographic image to calculate the above-mentioned multiple types of analytical values. Note that in this embodiment, the arithmetic processing unit 332 generates a tomographic image using the learned model. However, the arithmetic processing unit 332 may directly generate each analytical value that is likely to be obtained in the future from the multiple types of analytical values calculated by the image processing unit 331 described above.

なお、上述したように、本発明の説明における学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデル対して、事前に適切な学習データを用いてトレーニングしたモデルである。ここで、本実施例に係る学習済モデルを得る際のトレーニングに用いる学習データについて説明する。学習データは、実際に学習済モデルに入力されるデータに対応する入力データと、学習済モデルによって生成されるデータに対応する教師データとのペアからなる。本発明では、入力データとして、第一の時間と該第一の時間より後の第二の時間の少なくとも二つの時間に、同一被検眼を同じ撮影条件で撮影して得た二つの断層画像、あるいは該断層画像から得た複数種類の解析値からなる二つの検査結果を用いる。また、教師データとして、第二の時間よりもさらに後の第三の時間に、同一被検眼を同じ撮影条件で撮影して得た断層画像あるいは該断層画像から得た複数種類の解析値からなる検査結果を用いる。As described above, the trained model in the description of the present invention is a model trained in advance using appropriate training data for a machine learning model according to an arbitrary machine learning algorithm such as deep learning. Here, the training data used in training when obtaining the trained model of this embodiment will be described. The training data consists of a pair of input data corresponding to data actually input to the trained model and teacher data corresponding to data generated by the trained model. In the present invention, as input data, two tomographic images obtained by photographing the same test eye under the same shooting conditions at at least two times, a first time and a second time after the first time, or two test results consisting of multiple types of analysis values obtained from the tomographic images are used. In addition, as teacher data, tomographic images obtained by photographing the same test eye under the same shooting conditions at a third time further after the second time, or test results consisting of multiple types of analysis values obtained from the tomographic images are used.

学習済モデルを得る際には、ここで述べたように、過去の少なくとも三つの時点で予め得られている断層画像や検査結果を学習データに用いて学習を行う。そして、この学習済モデルを用いる際には、学習済モデルの生成時に用いた入力データに対応する過去の第一の時間と第二の時間との時間間隔と同じ時間間隔で得られている二つの検査結果を入力する。教師データは、学習済モデルから生成される解析値等と対応する。すなわち、学習済モデルを用いることで、上述した第二の時間と第三の時間との時間間隔と対応する数か月から数年先において、この被検眼から得られる可能性の高い解析値を得ることができる。When obtaining a trained model, as described here, training is performed using tomographic images and test results obtained in advance at least three points in time in the past as training data. Then, when using this trained model, two test results obtained at the same time interval as the first and second times in the past that correspond to the input data used when generating the trained model are input. The teacher data corresponds to the analysis values, etc. generated from the trained model. In other words, by using the trained model, it is possible to obtain analysis values that are likely to be obtained from the subject's eye several months to several years in the future that correspond to the time interval between the second and third times described above.

次に、複数種類の解析値を用いた場合の機械学習アルゴリズムについて図4を用いて説明をする。ここで、学習済モデルを得る際のトレーニングに用いる学習データについて説明する。上述したように、学習データは、過去の異なる時間において撮影した同じ被検眼から得られている、例えば複数種類の解析値からなる数値データを含む。学習データの一例を図4に示す。図4では、N個の計測パラメータ(Params1~ParamsN)の時系列上(日時T)の解析値(数値)の例を示している。ここで複数種類の解析値には、例えば撮影部位が後眼部画像の場合には、網膜全体の厚み、任意の層間の厚み、脈絡膜の厚み、網膜の形状特徴(例えばRPEやブルッフ膜等の曲率)等が含まれる。また、撮影部位が視神経乳頭部の場合には、網膜の厚みの他にCupとDiscの比であるC/D比等が複数種類の解析値に含まれる。なお、C/D比は断層画像からではなく、眼底画像撮影装置400から取得した眼底写真やSLO等の平面画像から求めてもよい。また、撮影部位が前眼部の場合には、角膜厚、角膜曲率、前房深度、水晶体全面曲率、水晶体後面曲率等が複数種類の解析値に含まれる。Next, the machine learning algorithm when multiple types of analytical values are used will be described with reference to FIG. 4. Here, the learning data used for training when obtaining a trained model will be described. As described above, the learning data includes, for example, numerical data consisting of multiple types of analytical values obtained from the same subject's eye photographed at different times in the past. An example of the learning data is shown in FIG. 4. FIG. 4 shows an example of analytical values (numerical values) on a time series (date and time T) of N measurement parameters (Params1 to ParamsN). Here, the multiple types of analytical values include, for example, the thickness of the entire retina, the thickness between any layers, the thickness of the choroid, and the shape characteristics of the retina (for example, the curvature of the RPE, Bruch's membrane, etc.) when the photographed part is the optic disc, in addition to the thickness of the retina, the C/D ratio, which is the ratio of Cup to Disc, etc., is included in the multiple types of analytical values. Note that the C/D ratio may be obtained not from a tomographic image but from a planar image such as a fundus photograph or SLO obtained from the fundusimage photographing device 400. In addition, when the imaging area is the anterior segment, multiple types of analysis values are included, including corneal thickness, corneal curvature, anterior chamber depth, total lens curvature, and posterior lens curvature.

図4は、撮影を行った日時を示す時間軸Tからなる横軸と、特定の計測パラメータの解析値からなる縦軸とからなる時系列グラフである。なお学習データとして、解析値の数値をそのまま用いてもよい。しかし、扱いやすくするために、前の時間の解析値との差分を求め、これを学習データとして用いてもよい。なお、上述した学習済モデルの生成時に用いる入力データとして時系列上の2つのデータを用い、学習済モデルに入力されるデータもこれに対応して2つのデータを用いる例について上では述べている。しかし、入力データおよび入力されるデータの数は2つに限られず、より多くのデータ数であってもよい。学習済モデルの生成時に時系列上の多くのデータを用いることで学習に要する時間が長くなる。しかし、入力データの間隔をこの時系列上の任意のデータの間隔とあわせることが可能となり、汎用性が高められる可能性が生まれる。Figure 4 is a time series graph consisting of a horizontal axis consisting of a time axis T indicating the date and time when the image was taken, and a vertical axis consisting of the analysis value of a specific measurement parameter. The numerical value of the analysis value may be used as is as the learning data. However, to make it easier to handle, the difference from the analysis value at the previous time may be calculated and used as the learning data. Note that the above describes an example in which two pieces of data on the time series are used as input data used when generating the above-mentioned trained model, and two pieces of data are also used correspondingly as data input to the trained model. However, the number of input data and input data is not limited to two, and may be a larger number of data. Using a large amount of data on the time series when generating the trained model increases the time required for learning. However, it becomes possible to match the interval of the input data to the interval of any data on this time series, which creates the possibility of improving versatility.

さらに、学習時にはこれら複数の解析値からなるデータをトータルして病気の進行が進んだか、進行していないか、止まったかという病気の進行度に関する情報を評価値として学習データに加えてもよい。この場合、病気の進行度は数値として定義しておく。例えば、医師等が解析値の時系列データや、断層画像を参照して病状を判断し、病気の進行が進んでいる場合は評価値100、変わっていない場合は評価値50、改善した場合は評価値0等とする。なお、この数値はあくまでも一例であり、この値に限るものではなく、病気の種類や判断対象とする項目に応じて、評価値は適宜定められる。なお、ここでは評価値を数値として扱う場合を例として説明しているが、例えば病気の進行状態や、眼の状態について良否をランク付けすることとしてもよい。即ち、ここで述べた評価値は、目の状態を医師等が評価して定め、データとして入力する評価情報の一例となる。Furthermore, during learning, the data consisting of these multiple analysis values may be added together to the learning data as an evaluation value, and information on the degree of progression of the disease, such as whether the disease has progressed, has not progressed, or has stopped. In this case, the degree of progression of the disease is defined as a numerical value. For example, a doctor or the like may judge the condition of the disease by referring to the time series data of the analysis values and tomographic images, and if the disease has progressed, the evaluation value may be 100, if there is no change, the evaluation value may be 50, and if there has been an improvement, the evaluation value may be 0, etc. Note that this numerical value is merely an example, and is not limited to this value, and the evaluation value may be appropriately determined depending on the type of disease and the item to be judged. Note that, although the evaluation value is treated as a numerical value here as an example, for example, the progress of the disease or the condition of the eyes may be ranked as good or bad. In other words, the evaluation value described here is an example of evaluation information that a doctor or the like evaluates the condition of the eyes and determines it, and enters it as data.

次に、本実施例に係る機械学習モデルの一例として、時系列情報を扱うニューラルネットワークであるRecurrent Neural Network(以下、RNN)に関して、図5を参照して説明する。また、RNNの一種であって、演算処理部332が用いるLong short-term memory(以下、LSTM)に関して、図6を参照して説明する。Next, as an example of a machine learning model according to the present embodiment, a recurrent neural network (hereinafter, RNN), which is a neural network that handles time-series information, will be described with reference to FIG. 5. In addition, a long short-term memory (hereinafter, LSTM), which is a type of RNN and is used by the calculation processing unit 332, will be described with reference to FIG. 6.

図5(a)は、演算処理部332における機械学習モデルであるRNNの構造を示す。図5に示すRNN520は、ネットワークにループ構造を持ち、時刻tにおいてデータx510を入力し、データh530を出力する。RNN520はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図5(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx510にはN個(Params1~ParamsN)の計測パラメータに関する解析値が含まれ。また、RNN520より出力されるデータh530には入力データに対応するN個(Params1~ParamsN)の解析値が含まれる。 FIG. 5(a) shows the structure of an RNN, which is a machine learning model in the arithmetic processing unit 332. TheRNN 520 shown in FIG. 5 has a loop structure in the network, inputs data xt 510 at time t, andoutputs data ht 530. Since theRNN 520 has a loop function in the network, it is possible to take over the current state to the next state, and therefore it is possible to handle time-series information. FIG. 5(b) shows an example of input and output of a parameter vector at time t. The data xt 510 includes analytical values related to N measurement parameters (Params1 to ParamsN). In addition, thedata ht 530 output from theRNN 520 includes N analytical values (Params1 to ParamsN) corresponding to the input data.

しかし、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができない。そのため、本実施例ではLSTMを用いることとする。LSTMは、忘却ゲート、入力ゲート、出力ゲートを備えることで長期時間の情報を学習することができる。ここで、図6(a)にLSTMの構造を示す。LSTM620において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct-1と出力データht-1である。なお、図の小文字(c、h、x)はベクトルを表している。本実施例において、このベクトルは、図4で示した解析値で構成される。 However, RNN cannot handle long-term information during error backpropagation. Therefore, in this embodiment, LSTM is used. LSTM can learn long-term information by providing a forget gate, an input gate, and an output gate. Here, FIG. 6(a) shows the structure of LSTM. InLSTM 620, the information that the network takes over at the next time t is the internal state ct-1 of the network called a cell and output data ht-1 . Note that the lowercase letters (c, h, x) in the figure represent vectors. In this embodiment, this vector is composed of the analytical values shown in FIG. 4.

次に、図6(b)にLSTM620の詳細を示す。図6(b)において、FGは忘却ゲートネットワーク、IGは入力ゲートネットワーク、OGは出力ゲートネットワークを示し、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。CUは、セル更新候補ネットワークであり、活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。Next, the details ofLSTM 620 are shown in Figure 6(b). In Figure 6(b), FG is the forget gate network, IG is the input gate network, and OG is the output gate network, each of which is a sigmoid layer. As such, it outputs a vector in which each element has a value between 0 and 1. The forget gate network FG decides how much past information to retain, and the input gate network IG decides which values to update. CU is the cell update candidate network, an activation function tanh layer. It creates a vector of new candidate values to be added to the cell. The output gate network OG selects the cell candidate elements and chooses how much information to pass on at the next time.

なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。ネットワーク間の結合を変更してもよい。LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習モデルはニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等の機械学習モデルを用いてもよい。また、ここに例示したRNNやLSTMではデータとして解析値に例示される数値を入力する場合について述べている。しかし、上述したように、断層画像等の断層データを入力し、断層データを出力するようにRNNやLSTMを構成してもよい。Note that the above-mentioned LSTM model is a basic form, and is not limited to the network shown here. The connections between networks may be changed. A QRNN (Quasi Recurrent Neural Network) may be used instead of an LSTM. Furthermore, the machine learning model is not limited to a neural network, and machine learning models such as boosting and support vector machines may be used. In addition, the RNN and LSTM exemplified here describe a case where a numerical value exemplified as an analysis value is input as data. However, as described above, the RNN and LSTM may be configured to input tomographic data such as a tomographic image and output tomographic data.

学習済モデルにデータを入力すると、学習済モデルの設計に従ったデータが出力される。例えば、学習データからトレーニングされた傾向に従って入力データに対応する可能性の高い出力データが出力される。例えば、上述した学習データによってトレーニングされた学習済モデルにOCTによって撮影された断層画像を入力すると、将来の撮影される可能性が高いと予測される断層画像が出力される。また、断層画像ではなく解析値を用いる学習済モデルを用いた場合であれば、該学習済モデルにOCTによって撮影された断層画像から得られた解析値を入力すると、将来撮影された断層画像から計測される可能性が高いと予測される解析値が出力される。When data is input into the trained model, data according to the design of the trained model is output. For example, output data that is likely to correspond to the input data according to the trained tendency from the training data is output. For example, when a tomographic image taken by OCT is input into a trained model trained by the above-mentioned training data, a tomographic image predicted to be likely to be taken in the future is output. In addition, when a trained model that uses analytical values instead of tomographic images is used, when analytical values obtained from a tomographic image taken by OCT are input into the trained model, analytical values predicted to be likely to be measured from a tomographic image taken in the future are output.

本実施例に係る演算処理部332の学習済モデルでは、データx510として断層画像が入力されると、学習データを用いて学習した傾向に従って、データh530として断層画像が出力される。また、データx510として複数の計測パラメータの解析値が入力されると、学習データを用いて学習した傾向に従って、データh530として対応する計測パラメータの解析値が複数出力される。 In the learned model of the arithmetic processing unit 332 according to this embodiment, when a tomographic image is input as data xt 510, a tomographic image is output asdata ht 530 according to the trend learned using the learning data. Furthermore, when analytic values of multiple measurement parameters are input as data xt 510, multiple analytic values of corresponding measurement parameters are output asdata ht 530 according to the trend learned using the learning data.

ステップS355あるいはS356では、表示制御部305からの指示に応じて、表示部600が解析結果を表示する。なお、ステップS355とステップS356では、演算処理部332により生成された結果の表示を行うか、ステップS351で取得した解析値等がそのまま表示されるかが異なるだけで、それ以外の表示情報は同じである。よって、表示部600に表示される画面については、以降でまとめて説明する。In step S355 or S356, thedisplay unit 600 displays the analysis results in response to an instruction from thedisplay control unit 305. Note that the only difference between step S355 and step S356 is whether the results generated by the calculation processing unit 332 are displayed or the analysis values etc. acquired in step S351 are displayed as is; otherwise, the display information is the same. Therefore, the screens displayed on thedisplay unit 600 will be explained below.

図7に表示部600に表示する画面の一例を示す。表示画面710には、患者タブ701、撮影タブ702、レポートタブ703、および設定タブ704が表示される。また、表示画面の左側には、過去に同一被検眼を撮影して得た断層画像群が、サムネイル画像705として表示される。なお、図ではレポートタブ703に斜線が加えられているが、この斜線はレポート画面がアクティブ状態であることを表している。以下、本実施例において、レポート画面を表示する場合について説明をする。なお、ここではアクティブ状態を示すために斜線を用いたが、例えば表示領域の着色は表示文字の色変更等によりアクティブ状態を示すこともできる。Figure 7 shows an example of a screen displayed on thedisplay unit 600. Apatient tab 701, animaging tab 702, areport tab 703, and asettings tab 704 are displayed on thedisplay screen 710. A group of tomographic images previously captured of the same examinee's eye are displayed asthumbnail images 705 on the left side of the display screen. Note that thereport tab 703 in the figure has a diagonal line added to it, which indicates that the report screen is in an active state. Below, a case where the report screen is displayed in this embodiment will be described. Note that diagonal lines are used here to indicate the active state, but the active state can also be indicated by, for example, changing the color of the displayed text by coloring the display area.

レポート画面には、被検眼を水平方向に走査して得られる断層画像711と、垂直方向に走査して得られる断層画像712とが示される。また、レポート画面には、眼底の正面像であるSLO画像713が表示される。この、SLO画像713には、例えば網膜の厚みを表現するカラーマップ714が重畳されている。また、SLO画像713に重畳表示されたセクターの各領域の網膜厚を表示するETDRSグリッド715と、ETDRSグリッド内の網膜厚を表わす表716も併せて表示される。The report screen displays atomographic image 711 obtained by scanning the subject's eye in the horizontal direction, and atomographic image 712 obtained by scanning the subject's eye in the vertical direction. The report screen also displays anSLO image 713, which is a frontal image of the fundus. Acolor map 714 representing, for example, the thickness of the retina is superimposed on thisSLO image 713. Also displayed are anETDRS grid 715 displaying the retinal thickness of each region of the sector superimposed on theSLO image 713, and a table 716 showing the retinal thickness within the ETDRS grid.

グラフ720は、断層画像711,712から求められる網膜の厚みについて、これを時系列で配置することで得られている。演算処理部332より生成された網膜の厚みについての予想解析値がある場合には、ここに表示をする。セレクタ721は、グラフ720に示している解析値を得ている計測パラメータを選択するために用いられる。ここでは網膜の厚さを計測パラメータとするParams1が選択されている。Graph 720 is obtained by arranging the retinal thickness calculated from thetomographic images 711 and 712 in a time series. If there is a predicted analysis value for the retinal thickness generated by the calculation processing unit 332, it is displayed here.Selector 721 is used to select the measurement parameter that has obtained the analysis value shown ingraph 720. Here, Params1, which uses the retinal thickness as a measurement parameter, is selected.

グラフ720において、複数の黒丸722は過去に撮影された断層画像から得た網膜厚の時系列の解析値を、白丸723は最新の解析値を示している。さらに、星印724は、演算処理部332が生成した将来の網膜厚の予測値を示している。確率725は、前述した医師等によって入力された評価値に対応する。過去の解析値に併せて評価値が入力されている場合には、演算処理部332はこの評価値を生成し、レポート画面にはこれが確率725として表示される。Ingraph 720, multipleblack circles 722 indicate the time series analysis values of retinal thickness obtained from tomographic images taken in the past, andwhite circles 723 indicate the latest analysis values. Furthermore, star marks 724 indicate future predicted values of retinal thickness generated by the calculation processing unit 332.Probability 725 corresponds to the evaluation value input by the doctor or the like as described above. If an evaluation value is input along with the past analysis value, the calculation processing unit 332 generates this evaluation value, and this is displayed asprobability 725 on the report screen.

なお、本実施例では、複数の計測パラメータの解析値を入力し、これらから演算処理部332が対応する進行予測値を解析値として出力し、その結果がグラフ720として表示される。そのため、グラフ720に表示される時系列の解析値は、セレクタ721で表示する計測パラメータを選択することによって変わり、これに応じて星印724で示される将来の予測値も変更される。しかし、確率725は、全体のパラメータを用いて医師等により総合的に入力された評価値に基づいて生成されるため、セレクタ721で表示する計測パラメータを変更しても結果は変わらない。In this embodiment, the analytical values of multiple measurement parameters are input, and the calculation processing unit 332 outputs the corresponding progress prediction value as the analytical value, and the result is displayed asgraph 720. Therefore, the time-series analytical value displayed ongraph 720 changes by selecting the measurement parameter to be displayed withselector 721, and the future prediction value indicated bystar 724 changes accordingly. However, sinceprobability 725 is generated based on the evaluation value input comprehensively by a doctor or the like using the overall parameters, the result does not change even if the measurement parameter displayed withselector 721 is changed.

また、ここでは確率725の進行予測値を単に数値表示する例を示している。しかし、他の表示例として、症状が改善する場合には青字や緑字、あまり変化がない場合は黒字、症状が悪化する可能性が高い場合には橙字や赤字など、視覚的に分かりやすいように数値の色を変えて表示するようにしてもよい。また、確率752として表示するのではなく、グラフ720に表示される各点について、これを上述した色表示することで検者に症状の進行状態を示すこととしてもよい。更に、ここでは医師等が被検眼を評価し、その評価結果を確率として数値化して入力することとしているが、評価結果は数値に限定されず、例えばランク付けすることで行ってもよい。即ち、ここで表示される対象は、医師等が被検眼の状態を評価することで得た評価情報であればよい。Here, an example is shown in which the predicted value of theprobability 725 is simply displayed as a numerical value. However, as another display example, the numerical values may be displayed in different colors to make them easier to understand visually, such as blue or green if the symptoms improve, black if there is little change, and orange or red if the symptoms are likely to worsen. In addition, instead of displaying as probability 752, each point displayed on thegraph 720 may be displayed in the above-mentioned color to show the examiner the progression of the symptoms. Furthermore, here, a doctor or the like evaluates the subject's eye and the evaluation result is quantified as a probability and input, but the evaluation result is not limited to a numerical value and may be, for example, ranked. In other words, the subject displayed here may be evaluation information obtained by a doctor or the like by evaluating the condition of the subject's eye.

ステップS355では、演算処理部332により生成された結果を含めたグラフ720と、確率725とを含めたレポート画面が表示画面710に表示される。表示後、フローはステップS306に移行する。ステップS356では、演算処理部332が解析値等を生成できないため、ステップS351で得られた結果がそのまま表示部600に表示される。この場合、グラフ720には星印724が表示されず、確率725も表示されない、あるいは空欄として表示される。表示後、フローはステップS306に移行する。なお、ステップS336における表示において、確率725として、入力部700を介して医師等が評価値を入力することもできる。In step S355, a report screen including thegraph 720 and theprobability 725, which include the results generated by the calculation processing unit 332, is displayed on thedisplay screen 710. After display, the flow proceeds to step S306. In step S356, since the calculation processing unit 332 cannot generate analysis values, etc., the results obtained in step S351 are displayed as is on thedisplay unit 600. In this case, thestar 724 is not displayed on thegraph 720, and theprobability 725 is not displayed or is displayed as a blank space. After display, the flow proceeds to step S306. Note that in the display in step S336, a doctor or the like can also input an evaluation value as theprobability 725 via theinput unit 700.

上述したように、本実施例では、レポート画面の表示を行う処理において演算処理部332により将来の断層画像や解析値を生成する形態について説明している。しかし、演算処理部332が将来の断層画像や解析値を生成するタイミングはこれに限られない。ステップS304における計測処理が終了した段階で、過去の検査がある場合に断層画像あるいは解析値の生成を行って外部記憶装置500にこれを保存することとしてもよい。この場合、ステップS305の表示処理においては、保存されている断層画像あるいは解析値を読みだして表示するようにしてもよい。As described above, in this embodiment, the arithmetic processing unit 332 generates future tomographic images and analytical values in the process of displaying the report screen. However, the timing at which the arithmetic processing unit 332 generates future tomographic images and analytical values is not limited to this. When the measurement process in step S304 is completed, if there is a past examination, a tomographic image or analytical value may be generated and stored in theexternal storage device 500. In this case, in the display process in step S305, the stored tomographic image or analytical value may be read out and displayed.

ステップS306では、取得部301は、画像処理システム1による断層画像の撮影に係る一連の処理を終了するか否かの指示を外部から取得する。この指示は、入力部700を用いて、ユーザによって入力されることができる。処理を終了する指示を取得した場合には、画像処理システム1は本実施例に係る一連の処理を終了する。一方、取得部301が処理を終了しない指示を取得した場合には、フローをステップS302に戻して撮影を続行する。In step S306, theacquisition unit 301 acquires from the outside an instruction as to whether or not to end the series of processes related to the capture of tomographic images by theimage processing system 1. This instruction can be input by the user using theinput unit 700. If an instruction to end the processes is acquired, theimage processing system 1 ends the series of processes related to this embodiment. On the other hand, if theacquisition unit 301 acquires an instruction not to end the processes, the flow returns to step S302 and capture is continued.

上述したように、本実施例に係る画像処理装置300は、取得手段(取得部301)と、生成手段(演算処理部332)とを備える。取得手段は、第一の時間に関連付いた被検眼の第一の断層に関するデータと、第一の時間より後の第二の時間に関連付いた被検眼の第二の断層に関するデータと、を取得する。第一の断層に関するデータは、第一の時間に被検眼を撮影して得た断層画像と、該断層画像から得られる複数種類の解析値(第一の解析値)とのうち少なくとも一つを含む。また、第二の断層に関するデータは、第二の時間に被検眼を撮影して得た断層画像と、該断層画像から得られる複数種類の解析値(第二の解析値)とのうち少なくとも一つを含む。As described above, theimage processing device 300 according to this embodiment includes an acquisition means (acquisition unit 301) and a generation means (arithmetic processing unit 332). The acquisition means acquires data on a first tomography of the subject's eye associated with a first time, and data on a second tomography of the subject's eye associated with a second time after the first time. The data on the first tomography includes at least one of a tomography image obtained by photographing the subject's eye at the first time and multiple types of analytic values (first analytic values) obtained from the tomography image. The data on the second tomography includes at least one of a tomography image obtained by photographing the subject's eye at the second time and multiple types of analytic values (second analytic values) obtained from the tomography image.

演算処理部332は、学習済モデルを用いて、取得部301により取得された第一の断層に関するデータと第二の断層に関するデータとから、第二の時間より後の第三の時間における被検眼の複数種類の解析値の少なくとも一つを生成する。このとき、断層に関するデータには、複数種類の解析値が含まれる。なお、断層に関するデータには、複数種類の解析値を1つのデータセットとして取り扱った場合だけでなく、複数種類の解析値それぞれのデータを別々に取り扱う場合も含まれる。また、少なくとも一つの解析値は、学習済モデルを用いて生成された被検眼の断層画像(第三の断層に関するデータ)から演算・生成されることもできる。即ち、断層に関するデータは、断層画像或いは断層データであってもよい。この場合、上述した第一の時間に関連付いた断層画像と、第二の時間に関連付いた断層画像とを取得し、学習済モデルを用いてこれら断層画像から断層画像を生成し、生成された断層画像から特定の解析値を得ることとなる。なお、異なる時間における同一被検眼の断層画像を比較した場合、例えば病気の進行によって、特性の層が菲薄化すると同時に、当該層或いは周囲の層において曲率も変化している場合がある。即ち、学習済モデルに入力するデータとして同一被検眼から異なる時間に取得した断層画像そのものを用いることで、被検眼についての複数種類の解析値の変化がまとめて勘案されたような将来の断層画像を得ることとなる。上述したように、本発明は目の複合的な特徴を用いた診断補助の提供を目的とし、被検眼の複数種類の解析値を含む断層に関するデータであって、異なる時間に関連付いた2つのデータから学習済モデルを用いて特定の解析値を得ることとしている。従って、異なる時間に被検眼を撮影して得た2つの断層画像から学習済モデルを用いて生成される断層画像を解析することにより特定の解析値を得ることは、上述した異なる時間に関連付いた2つの断層に関するデータから特定の解析値を得ることと、同様の効果を得ることができる。なお、ここでは、第一の時間に関連付いた断層画像と、第二の時間に関連付いた断層画像とを取得し、学習済モデルを用いてこれら断層画像から断層画像を生成し、生成された断層画像から特定の解析値を得る例について述べた。しかし、2つの断層画像から断層画像を生成する学習モデルを用いるのではなく、2つの断層画像から直接的に解析値を生成する学習済モデルを用いてもよい。この場合、第一の時間に関連付いた断層画像と、第二の時間に関連付いた断層画像とを取得し、学習済モデルを用いてこれら断層画像から直接的に特定の解析値を得ることとなる。The calculation processing unit 332 uses the learned model to generate at least one of the multiple types of analysis values of the test eye at a third time after the second time from the data on the first tomography and the data on the second tomography acquired by theacquisition unit 301. At this time, the data on the tomography includes multiple types of analysis values. Note that the data on the tomography includes not only the case where multiple types of analysis values are treated as one data set, but also the case where each data of the multiple types of analysis values is treated separately. In addition, at least one analysis value can be calculated and generated from a tomography image of the test eye (data on the third tomography) generated using the learned model. That is, the data on the tomography may be a tomography image or tomography data. In this case, a tomography image associated with the above-mentioned first time and a tomography image associated with the second time are acquired, a tomography image is generated from these tomography images using the learned model, and a specific analysis value is obtained from the generated tomography image. In addition, when comparing tomographic images of the same test eye at different times, for example, due to the progression of a disease, the characteristic layer may thin and the curvature may also change in the layer or surrounding layers. In other words, by using the tomographic images acquired at different times from the same test eye as data to be input into the trained model, a future tomographic image in which changes in multiple types of analytical values for the test eye are taken into consideration can be obtained. As described above, the present invention aims to provide diagnostic assistance using complex characteristics of the eye, and a specific analytical value is obtained using a trained model from two data related to a tomogram containing multiple types of analytical values of the test eye and associated with different times. Therefore, obtaining a specific analytical value by analyzing a tomogram generated using a trained model from two tomograms obtained by photographing the test eye at different times can achieve the same effect as obtaining a specific analytical value from the above-mentioned data related to two tomograms associated with different times. Note that, here, an example has been described in which a tomographic image associated with a first time and a tomographic image associated with a second time are acquired, a trained model is used to generate a tomographic image from these tomographic images, and a specific analytical value is obtained from the generated tomographic image. However, instead of using a trained model that generates a tomographic image from two tomographic images, a trained model that generates an analytical value directly from two tomographic images may be used. In this case, a tomographic image associated with a first time and a tomographic image associated with a second time are acquired, and a specific analytical value is obtained directly from these tomographic images using the trained model.

本実施例に係る学習済モデルは、入力データと教師データとからなる学習データを用いて得られる。入力データには、例えば第一の時間より前の第四の時間に被検眼を撮影して得た断層画像と、第一の時間より前で且つ該第四の時間より後の第五の時間に被検眼を撮影して得た断層画像とを用いる。また、教師データには、第一の時間より前で且つ第五の時間より後の第六の時間に被検眼を撮影して得た断層画像を用いる。The trained model according to this embodiment is obtained using training data consisting of input data and teacher data. For the input data, for example, a tomographic image obtained by photographing the subject's eye at a fourth time before the first time, and a tomographic image obtained by photographing the subject's eye at a fifth time before the first time and after the fourth time are used. For the teacher data, a tomographic image obtained by photographing the subject's eye at a sixth time before the first time and after the fifth time is used.

なお、演算処理部332において、学習済モデルに入力されるデータは、断層画像ではなく、被検眼の断層画像から得られる複数種類の解析値の各々であってもよい。この場合、学習済モデルにおける入力データの一つは、第一の時間より前の第四の時間に被検眼を撮影して得た断層画像から得られる複数種類の第四の解析値となる。また、もう一つの入力データは、第一の時間より前で且つ該第四の時間より後の第五の時間に被検眼を撮影して得た断層画像から得られる複数種類の第五の解析値となる。そして、教師データは、第一の時間より前で且つ第五の時間より後の第六の時間に被検眼を撮影して得た断層画像から得られる複数種類の第六の解析値となる。これら入力データおよび教師データを用いて学習すること、上述した学習済モデルが得られる。In addition, in the arithmetic processing unit 332, the data input to the trained model may not be a tomographic image, but each of multiple types of analytical values obtained from a tomographic image of the test eye. In this case, one of the input data in the trained model is multiple types of fourth analytical values obtained from a tomographic image obtained by photographing the test eye at a fourth time before the first time. In addition, the other input data is multiple types of fifth analytical values obtained from a tomographic image obtained by photographing the test eye at a fifth time before the first time and after the fourth time. And the teacher data is multiple types of sixth analytical values obtained from a tomographic image obtained by photographing the test eye at a sixth time before the first time and after the fifth time. By learning using these input data and teacher data, the trained model described above is obtained.

なお、上述した学習済モデルに入力されるデータと、学習済モデルを得るために用いる入力データとにおいて、第二の時間と第三の時間との間の経過時間と、第五の時間と第六の時間との間の経過時間とは略等しい。この場合、厳密に経過時間が同じである必要は無いが、例えば被検眼において注目する病状あるいは異常に応じて、ユーザが許容される相違量を適宜定めることができる。Note that, in the data input to the trained model described above and the input data used to obtain the trained model, the elapsed time between the second time and the third time, and the elapsed time between the fifth time and the sixth time are approximately equal. In this case, the elapsed times do not need to be exactly the same, but the user can appropriately determine the amount of difference that is acceptable depending on, for example, the pathology or abnormality of interest in the test eye.

また、本実施例に係る画像処理装置300の取得部301は、第一の時間および第二の時間における被検眼の状態に関する、上述した評価情報を取得できる。この場合、演算処理部332は、第三の時間における前記複数種類の解析値の少なくとも一つに併せて、第三の時間における評価情報を生成することができる。また、表示制御手段(表示制御部305)は、生成された評価情報を表示部600に表示させることができる。Theacquisition unit 301 of theimage processing device 300 according to this embodiment can acquire the above-mentioned evaluation information regarding the state of the subject's eye at the first time and the second time. In this case, the calculation processing unit 332 can generate evaluation information at the third time together with at least one of the multiple types of analysis values at the third time. Furthermore, the display control means (display control unit 305) can cause thedisplay unit 600 to display the generated evaluation information.

ここで、第一の断層に関するデータおよび第二の断層に関するデータが断層画像(断層データ)であった場合を考える。この場合、これら断層に関するデータからは、各々第一の時間に関連付いた第一の解析値および第二の時間に関連付いた第二の解析値が得られる。表示制御部305は、第三の時間における少なくとも一つの解析値と同じ種類の第一および第二の解析値、並びに前記第三の時間における少なくとも一つの解析値を用いてグラフ720を生成する。表示制御部305は、生成されたグラフ720を表示部600に表示させる。Now consider a case where the data on the first fault and the data on the second fault are tomographic images (tomographic data). In this case, a first analytic value associated with a first time and a second analytic value associated with a second time are obtained from the data on these faults. Thedisplay control unit 305 generates agraph 720 using the first and second analytic values of the same type as the at least one analytic value at the third time, and the at least one analytic value at the third time. Thedisplay control unit 305 causes thedisplay unit 600 to display the generatedgraph 720.

また、本実施例に係る画像処理装置300は、被検眼から第一の断層に関するデータおよび第二の断層に関するデータを取得する撮影条件に基づいて学習済モデルを選択する選択手段(選択部334)をさらに備える。この場合、撮影条件には、例えば撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式の少なくともいずれかが含まれる。 Theimage processing device 300 according to this embodiment further includes a selection unit (selection unit 334) for selecting a trained model based on theimaging conditions for acquiring data on the first slice and data on the second slice from the subject's eye. In this case,the imaging conditions include at least one of the imaging date and time, the imaging part name, the imaging area, the imaging angle of view, and the imaging method.

本実施例によれば、被検眼を、少なくとも二つの異なる時間に撮影することで得た断層データや該断層データから得た解析値から、学習済モデルを用いてこの被検眼を将来に撮影した場合に得られる可能性の高い断層データあるいは解析値を得ることができる。従って、この被検眼の診断に際して、経過観察や治療方針等に対して診断補助に有効な情報を提示することができる。According to this embodiment, the tomographic data obtained by photographing the subject's eye at least at two different times and the analytical values obtained from the tomographic data can be used to obtain tomographic data or analytical values that are likely to be obtained when the subject's eye is photographed in the future using a trained model. Therefore, when diagnosing the subject's eye, information that is effective in assisting diagnosis for follow-up observation, treatment plans, etc. can be presented.

(実施例2)
実施例1においては、被検眼の断層画像や、該断層画像や眼底平面画像から求めた様々な解析値を用いて、被検眼の計測パラメータ各々についての複数の解析値を生成する例について示した。しかし、被検眼を検査する際に用いる被検眼に関する数値は、上述した断層画像から計測される解析値等に限られない。また、これら以外に被検眼で計測される計測値によっても被検眼の病状等、状態の推移を知ることができる。実施例2においては、他の検査(例えば、眼軸長や眼圧など)結果も含めて入力できる、学習済モデルを用いることとし、これにより各種解析値や計測値、さらには上述した評価値を生成する。
Example 2
In the first embodiment, an example is shown in which a plurality of analytical values for each measurement parameter of the test eye is generated using a tomographic image of the test eye and various analytical values obtained from the tomographic image and the planar image of the fundus of the eye. However, the numerical values related to the test eye used when testing the test eye are not limited to the analytical values measured from the tomographic image described above. In addition, the progress of the condition of the test eye, such as the pathology of the test eye, can also be known from the measurement values measured on the test eye. In the second embodiment, a trained model is used that can also input the results of other tests (e.g., axial length, intraocular pressure, etc.), thereby generating various analytical values, measurement values, and the above-mentioned evaluation value.

以下、図8を参照して、本実施例に係る画像処理システム8について説明する。以下の説明においては、実施例1に係る画像処理システム1との違いを中心として説明する。なお、実施例1に係る画像処理システム1の構成および処理と同様である本実施例に係る画像処理システムの構成および処理については、同一の参照符号を用いて示し、ここでの説明を省略する。Theimage processing system 8 according to this embodiment will be described below with reference to FIG. 8. In the following description, the differences from theimage processing system 1 according to the first embodiment will be mainly described. Note that the configuration and processing of the image processing system according to this embodiment that are similar to those of theimage processing system 1 according to the first embodiment will be indicated by the same reference numerals, and the description thereof will be omitted here.

図8は、本実施例に係る画像処理システム8の概略的な構成の一例を示す。本実施例に係る画像処理システム8では、画像処理装置800の処理部803において、演算処理部332に変えた本実施例に係る演算処理部832と、新たに設けられた計測値取得部835とが配される。Figure 8 shows an example of a schematic configuration of animage processing system 8 according to this embodiment. In theimage processing system 8 according to this embodiment, a calculation processing unit 832 according to this embodiment, which replaces the calculation processing unit 332, and a newly provided measurement value acquisition unit 835 are arranged in aprocessing unit 803 of animage processing device 800.

計測値取得部835は、被検眼に関する他の検査情報を取得する。具体的には、計測値取得部835は、例えばユーザーインターフェイスにより、ユーザが入力した計測値を取得するよい。また、ネットワークを介して電子カルテシステムと連携し、電子カルテシステムに登録された数値データを取得してもよい。あるいは、バーコードリーダーやRFIDリーダー等、外部リーダーから情報を取得してもよい。The measurement value acquisition unit 835 acquires other examination information related to the subject's eye. Specifically, the measurement value acquisition unit 835 may acquire measurement values input by the user, for example, via a user interface. It may also link with an electronic medical record system via a network to acquire numerical data registered in the electronic medical record system. Alternatively, it may acquire information from an external reader, such as a barcode reader or an RFID reader.

本実施例においては、実施例1の図5および図6で示した入出力のパラメータベクトル(c、h、x)の中身が異なる。すなわち、演算処理部832に入出力されるデータが異なる。実施例1では、学習や解析値生成時に用いたベクトルの中身では、断層画像あるいは該断層画像から得られた解析値をParamsとして用いていた。これに対し、本実施例では、断層画像あるいは該断層画像から得られた解析値だけではなく、眼軸長検査や眼圧検査等、画像を用いない眼部に関する検査データを入出力のパラメータベクトルに追加をして解析値等の生成を行う。In this embodiment, the contents of the input/output parameter vectors (c, h, x) shown in Figures 5 and 6 of the first embodiment are different. That is, the data input and output to the calculation processing unit 832 is different. In the first embodiment, the contents of the vectors used during learning and analysis value generation used tomographic images or analysis values obtained from the tomographic images as Params. In contrast, in this embodiment, not only tomographic images or analysis values obtained from the tomographic images, but also test data related to the eye that does not use images, such as axial length tests and intraocular pressure tests, are added to the input/output parameter vectors to generate analysis values, etc.

例えば、実施例1ではParams1~ParamsNとして、N個の解析値を用いた例を示した。これに対し、本実施例では、計測値取得部835が取得する計測値がM個だとすると、Params1~ParamsNの解析値とParams1’~ParamsMの計測値とを用いて学習を行うこととなる。演算処理部832は、これらN個の解析値と、M個の計測値とから学習データを取得し、これら学習データを用いて得られた学習済モデルを用いる。For example, in the first embodiment, an example was shown in which N analytical values were used as Params1 to ParamsN. In contrast, in this embodiment, if the measurement value acquisition unit 835 acquires M measurement values, learning is performed using the analytical values of Params1 to ParamsN and the measurement values of Params1' to ParamsM. The calculation processing unit 832 acquires learning data from these N analytical values and M measurement values, and uses the trained model obtained using this learning data.

本実施例に係る演算処理部832は、ディープラーニング等の任意の機械学習モデルに対して学習データを与えて作成された学習済モデルを含む。演算処理部832は、この学習済モデルに対して、第一の時間に被検眼を撮影することで得た断層データおよび計測値と、第一の時間の後の第二の時間に被検眼を撮影することで得た断層データおよび計測値とを入力する。演算処理部832は、これら断層データおよび計測値から、学習済モデルを用いて断層画像および計測値を生成する。生成された断層画像に対しては、画像処理部331において解析処理が行われ、該断層画像における複数種類の解析値が算出される。なお、この複数種類の解析値の算出は上述したエッジ強調処理等を用いて演算処理部832で行ってもよく、算出ではなく学習モデル済みを用いて解析値から直接生成することとしてもよい。The arithmetic processing unit 832 according to this embodiment includes a learned model created by providing learning data to an arbitrary machine learning model such as deep learning. The arithmetic processing unit 832 inputs tomographic data and measurement values obtained by photographing the subject's eye at a first time, and tomographic data and measurement values obtained by photographing the subject's eye at a second time after the first time, to this learned model. The arithmetic processing unit 832 generates a tomographic image and measurement values from the tomographic data and measurement values using the learned model. The generated tomographic image is subjected to analysis processing in the image processing unit 331, and multiple types of analysis values in the tomographic image are calculated. The calculation of the multiple types of analysis values may be performed by the arithmetic processing unit 832 using the above-mentioned edge enhancement processing, or may be generated directly from the analysis values using the learned model instead of calculation.

ここで、本実施例における学習済モデルを得る際のトレーニングに用いる学習データについて説明する。学習データは、実際に学習済モデルに入力されるデータに対応する入力データと、学習済モデルによって生成されるデータに対応する教師データとからなる。実施例1では、入力データとして、第一の時間と該第一の時間より後の第二の時間の少なくとも二つの時間に、同一被検眼を同じ撮影条件で撮影して得た二つの断層画像、あるいは該断層画像から得た複数種類の解析値からなる二つの検査結果を用いる。本実施例では、さらに第一の時間に同一被検眼が計測されて得た計測値と、第二の時間に計測されて得た計測値とを、併せて入力データとする。また、教師データとして、第二の時間よりもさらに後の第三の時間に、同一被検眼を同じ撮影条件で撮影して得た断層画像あるいは該断層画像から得た複数種類の解析値からなる検査結果と、第三の時間に計測されて得た第三の計測値とを用いる。Here, the learning data used for training when obtaining the learned model in this embodiment will be described. The learning data consists of input data corresponding to the data actually input to the learned model and teacher data corresponding to the data generated by the learned model. In the first embodiment, as the input data, two tomographic images obtained by photographing the same test eye under the same shooting conditions at at least two times, a first time and a second time after the first time, or two test results consisting of multiple types of analysis values obtained from the tomographic images are used. In this embodiment, the input data includes a measurement value obtained by measuring the same test eye at the first time and a measurement value obtained by measuring the same test eye at the second time. In addition, as the teacher data, a tomographic image obtained by photographing the same test eye under the same shooting conditions at a third time after the second time, or a test result consisting of multiple types of analysis values obtained from the tomographic image, and a third measurement value obtained by measuring the same test eye at the third time are used.

学習済モデルを得る際には、ここで述べたように、過去の少なくとも三つの時点で予め得られている検査結果および計測結果を学習データに用いて学習を行う。そして、この学習済モデルを用いる際には、学習済モデルの生成時に用いた入力データに対応する過去の第一の時間と第二の時間との時間間隔で得られている二つの検査結果および計測結果を入力する。教師データは、学習済モデルから生成される解析値等および計測結果と対応する。すなわち、学習済モデルを用いることで、上述した第二の時間と第三の時間との時間間隔に対応する数か月から数年先において、この被検眼から得られる可能性の高い解析値と計測値とを得ることができる。When obtaining a trained model, as described here, test results and measurement results previously obtained at at least three points in time in the past are used as training data for training. Then, when using this trained model, two test results and measurement results obtained at a time interval between a first time and a second time in the past that correspond to the input data used when generating the trained model are input. The teacher data corresponds to the analysis values, etc. and measurement results generated from the trained model. In other words, by using the trained model, it is possible to obtain analysis values and measurement values that are likely to be obtained from the subject's eye several months to several years in the future, corresponding to the time interval between the second time and the third time described above.

なお、ここでは断層画像の取得時と計測値の取得時は例えば第一の時間で同じと称している。しかし、例えば緑内障等、病変が緩やかに進行する被検眼が対象となる場合であれば、断層画像と計測値との取得とは、厳密に同じ時間で無くともよい。例えば、数日の間隔があっても、病状の推移に鑑みて許容できる場合がある。Note that here, the time when the tomographic image is acquired and the time when the measurement value is acquired are said to be the same, for example, at the first time. However, when the subject's eye is one in which a lesion such as glaucoma progresses slowly, the tomographic image and the measurement value do not need to be acquired at exactly the same time. For example, an interval of several days may be acceptable in consideration of the progression of the disease condition.

例えば、緑内障についての検査では、断層画像からの解析値で得られる情報に加え、眼圧値や強度近視眼での眼軸長等が有効である。本実施例によれば、断層画像から得られる解析値だけではなく、被検眼に関する他の種類の計測パラメータについての計測値を用いて、将来的な被検眼についての解析値や計測値を生成することができる。また、医師等はこれら計測値も参照した上で上述した評価値を定め、演算処理部832は学習済モデルを用いて将来想定される評価値を生成する。従って、緑内障を例とした場合、その症状をより適切に判断できる計測値も参照することで、医師等の診断に際して、より確度の高い診断補助データを提供することができる。For example, in an examination for glaucoma, in addition to information obtained from analytical values from a tomographic image, intraocular pressure values and axial length in severe myopia are effective. According to this embodiment, future analytical values and measurement values for the test eye can be generated using not only analytical values obtained from a tomographic image, but also measurement values for other types of measurement parameters related to the test eye. In addition, a doctor or the like can determine the above-mentioned evaluation value by referring to these measurement values, and the calculation processing unit 832 generates an expected future evaluation value using the trained model. Therefore, in the case of glaucoma as an example, by referring to measurement values that can more appropriately judge the symptoms, more accurate diagnostic auxiliary data can be provided when a doctor or the like makes a diagnosis.

なお、計測値として、ここでは眼軸長や眼圧を例示した。しかし、本実施例において用いる計測値を得る計測パラメータはこれらに限らず、視野データや視力データ等を用いることもできる。また、ここでは、断層画像から得られた解析値と断層画像を解析する以外の手段によって得られた計測値との両方を入力データとする例について述べた。しかし、入力データあるいは入力されるデータはこれに限られない。例えば、演算処理部832が、断層画像から得た解析値を用いずに、計測値だけを用いて将来的に計測され得る計測値を生成することとしてもよい。Here, axial length and intraocular pressure are given as examples of measurement values. However, the measurement parameters for obtaining the measurement values used in this embodiment are not limited to these, and visual field data, visual acuity data, etc. can also be used. Also, here, an example has been described in which both analytical values obtained from a tomographic image and measurement values obtained by a means other than analyzing the tomographic image are used as input data. However, the input data or data to be input is not limited to these. For example, the calculation processing unit 832 may generate measurement values that can be measured in the future using only the measurement values, without using analytical values obtained from a tomographic image.

上述したように、本実施例に係る取得部301は、実施例1で述べた解析値等に加え、第一の時間に関連付いた被検眼の第一の計測値と、第二の時間に関連付いた被検眼の第二の計測値とをさらに取得する。演算処理部832は、第一の断層に関するデータと、第一の計測値と、第二の断層に関するデータと、第二の計測値とから、第三の時間における複数種類の解析値の少なくとも一つを生成する。なお、演算処理部832が少なくとも一つの計測値を生成することとしてもよい。また、実施例1と同様に、学習済モデルに入力するデータに評価情報を加え、演算処理部832が評価情報も併せて生成することとしてもよい。この場合、評価情報のみを生成、表示することもできる。As described above, theacquisition unit 301 according to this embodiment further acquires a first measurement value of the test eye associated with a first time and a second measurement value of the test eye associated with a second time, in addition to the analysis values and the like described in the first embodiment. The calculation processing unit 832 generates at least one of a plurality of types of analysis values at a third time from the data on the first tomography, the first measurement value, the data on the second tomography, and the second measurement value. Note that the calculation processing unit 832 may generate at least one measurement value. Also, similar to the first embodiment, evaluation information may be added to the data to be input to the trained model, and the calculation processing unit 832 may also generate the evaluation information. In this case, only the evaluation information may be generated and displayed.

あるいは、本実施例に係る取得部301は、第一の時間に関連付いた被検眼の第一の計測値と、第二の時間に関連付いた被検眼の第二の計測値とを取得する態様とすることもできる。この場合、演算処理部832は、計測値のみを用いた学習済モデルを予め得ておき、これに第一の計測値および第二の計測値を入力することで、第三の時間における複数種類の計測値の少なくとも一つを生成することもできる。この場合、さらに、入力するデータおよび生成されるデータとして評価情報を含めることもできる。また、ここでは入力するデータや学習済モデル生成のための入力データとして断層データ(断層画像)を用いる場合について述べているが、複数の解析値を用いることもできる。Alternatively, theacquisition unit 301 according to this embodiment can be configured to acquire a first measurement value of the test eye associated with a first time and a second measurement value of the test eye associated with a second time. In this case, the calculation processing unit 832 can generate at least one of the multiple types of measurement values at the third time by previously obtaining a trained model using only the measurement values and inputting the first measurement value and the second measurement value to this. In this case, evaluation information can also be included as the data to be input and the data to be generated. Also, although the case where tomographic data (tomographic images) is used as the data to be input and the input data for generating the trained model is described here, multiple analysis values can also be used.

本実施例によれば、実施例1で用いた断層データやその解析値だけなく、眼軸長や眼圧等の被検眼のその他の計測値も用いて、学習済モデルにより被検眼から将来に得られる可能性の高い断層データ、その解析値、および計測値を得ることができる。従って、この被検眼の診断に際して、経過観察や治療方針等にたいして診断補助にさらに有効な情報を提示することができる。According to this embodiment, not only the tomographic data and its analysis values used inembodiment 1, but also other measurement values of the test eye such as axial length and intraocular pressure can be used to obtain tomographic data, its analysis values, and measurement values that are likely to be obtained from the test eye in the future using a trained model. Therefore, when diagnosing this test eye, it is possible to present information that is even more useful for diagnostic assistance in terms of follow-up observation, treatment policy, etc.

(実施例3)
実施例1および実施例2においては、被検眼を撮影することで得た断層画像、該断層画像から得た解析値、および被検眼を計測して得た計測値を用いて、被検眼の診断の補助となる情報を提示する例について示した。しかし、実際に被検眼に病変や異常が存在する場合、医師等がこれをそのまま放置して経過を観察することはまれであり、状況に応じて投薬、手術等の治療を被検眼に施す。実施例3においては、治療の有無も含めて、学習済モデルを用いることとし、治療も参照して各種解析値を生成する。また、例えば治療の効果を確認する目的で、将来的な被検眼の病状等の状態に関する評価値を生成する。
Example 3
In the first and second embodiments, examples were shown in which information that aids in the diagnosis of the test eye is presented using a tomographic image obtained by photographing the test eye, an analysis value obtained from the tomographic image, and a measurement value obtained by measuring the test eye. However, when a lesion or abnormality actually exists in the test eye, it is rare for a doctor or the like to leave it as it is and observe the progress, and the test eye is treated with medication, surgery, or the like depending on the situation. In the third embodiment, a trained model is used, including the presence or absence of treatment, and various analysis values are generated with reference to the treatment. In addition, an evaluation value regarding the future condition of the test eye, such as the condition of the disease, is generated, for example, for the purpose of confirming the effect of the treatment.

以下、図9および図10を参照して、本実施例に係る画像処理システム9、および表示部に表示されるレポート画面について説明する。以下の説明においては、実施例1および実施例2に係る画像処理システムとの違いを中心として説明する。なお、実施例1および実施例2に係る画像処理システム1および8の構成および処理と同様である本実施例に係る画像処理システム9の構成および処理については、同一の参照符号を用いて示し、ここでの説明を省略する。Theimage processing system 9 according to this embodiment and the report screen displayed on the display unit will be described below with reference to Figures 9 and 10. In the following description, the differences from the image processing systems according to Examples 1 and 2 will be mainly described. Note that the configuration and processing of theimage processing system 9 according to this embodiment, which are similar to the configuration and processing of theimage processing systems 1 and 8 according to Examples 1 and 2, will be indicated with the same reference numerals and will not be described here.

図9に、本実施例に係る画像処理システム9の概略的な構成の一例を示す。本実施例に係る画像処理システム9では、画像処理装置900の処理部903において、演算処理部332に変えた本実施例に係る演算処理部932と、新たに設けられた治療情報取得部935とが配される。Figure 9 shows an example of a schematic configuration of animage processing system 9 according to this embodiment. In theimage processing system 9 according to this embodiment, a calculation processing unit 932 according to this embodiment, which replaces the calculation processing unit 332, and a newly provided treatment information acquisition unit 935 are arranged in theprocessing unit 903 of theimage processing device 900.

治療情報取得部935は、被検眼の治療に関する情報を取得する。具体的には、治療情報取得部935は、例えばユーザーインターフェイスにより、ユーザが入力した計測値を取得するとよい。また、ネットワークを介して電子カルテシステムと連携し、電子カルテシステムに登録された数値データを取得してもよい。あるいは、バーコードリーダーやRFIDリーダー等、外部リーダーから情報を取得してもよい。The treatment information acquisition unit 935 acquires information related to the treatment of the subject eye. Specifically, the treatment information acquisition unit 935 may acquire measurement values input by the user via a user interface, for example. It may also link with an electronic medical record system via a network to acquire numerical data registered in the electronic medical record system. Alternatively, it may acquire information from an external reader, such as a barcode reader or an RFID reader.

本実施例においては、実施例1の図5および図6で示した入出力のパラメータベクトル(c、h、x)の中身が異なる。すなわち、演算処理部932に入出力されるデータが異なる。実施例1では、学習や解析値生成時に用いたベクトルの中身では、断層画像あるいは該断層画像から得られた解析値をParamsとして用いていた。これに対し、本実施例では、断層画像あるいは該断層画像から得られた解析値だけではなく、医師等が規定した被検眼の状態に関する評価値、および治療方法を入出力のパラメータベクトルに追加をして解析値の生成を行う。In this embodiment, the contents of the input/output parameter vectors (c, h, x) shown in Figures 5 and 6 of Example 1 are different. That is, the data input/output to the calculation processing unit 932 is different. In Example 1, the contents of the vectors used during learning and analysis value generation used the tomographic image or the analysis value obtained from the tomographic image as Params. In contrast, in this embodiment, not only the tomographic image or the analysis value obtained from the tomographic image, but also an evaluation value regarding the condition of the subject's eye specified by a doctor or the like and a treatment method are added to the input/output parameter vector to generate the analysis value.

例えば、実施例1ではParams1~ParamsNとして、N個の解析値を用いた例を示した。これに対し、本実施例では、治療情報取得部935が取得する情報が、手術の手法や、投薬の種類等の治療の内容に関する情報Sだとすると、Params1~ParamsNの解析値とParamsSとを用いて学習を行うこととなる。演算処理部932は、これらN個の解析値と、治療に関する情報Sとから学習データを取得し、これら学習データを用いて得られた学習済モデルを用いる。For example, in the first embodiment, an example was shown in which N analytical values were used as Params1 to ParamsN. In contrast, in this embodiment, if the information acquired by the treatment information acquisition unit 935 is information S on the contents of treatment, such as the surgical technique and the type of medication, learning is performed using the analytical values of Params1 to ParamsN and ParamsS. The calculation processing unit 932 acquires learning data from these N analytical values and the treatment-related information S, and uses the trained model obtained using this learning data.

次に図10を参照して、本実施例に係る表示部600に表示する画面の一例を示す。本実施例において、表示画面1010には、第二のセレクタ1021がセレクタ721に併せて表示される。ここでは、Params1についての時系列のグラフ1020において、現時点で第二のセレクタ1021によって選択された治療1が被検眼に実施された場合の例を示している。グラフ720には、白丸1023に示される時点において治療1が被検眼に施された場合、将来の網膜厚の予測値は星印1024となることが示される。Next, referring to FIG. 10, an example of a screen displayed on thedisplay unit 600 according to this embodiment is shown. In this embodiment, asecond selector 1021 is displayed on thedisplay screen 1010 together with theselector 721. Here, an example is shown in whichtreatment 1 selected by thesecond selector 1021 at the current time point is performed on the test eye in atime series graph 1020 for Params1.Graph 720 shows that iftreatment 1 is performed on the test eye at the time point indicated by thewhite circle 1023, the predicted value of future retinal thickness will be thestar 1024.

本実施例において、例えば、被検眼に対してある治療(例えば投薬)を実施する場合、撮影によって得られた解析値に基づいて、選択している計測パラメータの将来的な解析値を得ることができる。さらに、第二のセレクタ1021を切り替えることで治療の種類が選択でき、選択した治療に応じて、星印1024として得られる解析値や進行予測値である確率1025が変化する。In this embodiment, for example, when a certain treatment (e.g., medication) is performed on the subject's eye, the future analysis value of the selected measurement parameter can be obtained based on the analysis value obtained by photographing. Furthermore, the type of treatment can be selected by switching thesecond selector 1021, and the analysis value obtained as thestar 1024 and theprobability 1025, which is the progression prediction value, change depending on the selected treatment.

本実施例において、演算処理部は、学習済モデルを用いて、第一の時間に被検眼を撮影することで得た断層データと、第一の時間の後の第二の時間に被検眼を撮影することで得た断層データとから、第二の時間より後の第三の時間で撮影される断層画像を生成する。その際、第一の時間および第二の時間の少なくともいずれかにおいて被検眼に治療が施された場合、断層データに併せてこの治療に関しても学習済モデルに入力される。生成された断層画像に対しては、画像処理部331において解析処理が行われ、該断層画像における複数種類の解析値が算出される。なお、この複数種類の解析値の算出は演算処理部332で行ってもよく、算出ではなく学習済モデルを用いて生成することとしてもよい。In this embodiment, the arithmetic processing unit uses the learned model to generate a tomographic image captured at a third time after the second time from tomographic data obtained by photographing the test eye at a first time and tomographic data obtained by photographing the test eye at a second time after the first time. In this case, if treatment is administered to the test eye at least at either the first time or the second time, this treatment is also input to the learned model together with the tomographic data. The image processing unit 331 performs an analysis process on the generated tomographic image, and multiple types of analytical values for the tomographic image are calculated. Note that the calculation of the multiple types of analytical values may be performed by the arithmetic processing unit 332, or the values may be generated using the learned model rather than calculated.

さらに、第一の時間および第二の時間の少なくともいずれかにおける被検眼の評価値も学習済モデルに入力されるとよい。これにより、被検眼に施した治療がどのような効果を発現させるかが、生成された評価値により数値的に把握することができる。なお、治療の有無を表すデータは、例えば、治療していない時は0、治療をした時には1等として学習済モデルに入力するとよい。さらにこの場合、治療をしたかしないかというだけではなく、治療の種類(例えば、投薬治療、手術等)に応じて、入力値を2や3とするようにしてもよい。Furthermore, the evaluation value of the subject's eye at at least one of the first time and the second time may also be input to the trained model. This allows the effect of the treatment administered to the subject's eye to be numerically understood from the generated evaluation value. Note that data indicating the presence or absence of treatment may be input to the trained model as, for example, 0 when no treatment was administered and 1 when treatment was administered. Furthermore, in this case, the input value may be set to 2 or 3 depending on the type of treatment (e.g., drug treatment, surgery, etc.) rather than just whether treatment was administered or not.

ここで、本実施例における学習済モデルを得る際のトレーニングに用いる学習データについて説明する。実施例1では、入力データとして、第一の時間と該第一の時間より後の第二の時間の少なくとも二つの時間に、同一被検眼を同じ撮影条件で撮影して得た二つの断層画像およびその評価情報を用いることができる。あるいは、二つの断層画像に変えて、該断層画像から得た複数種類の解析値からなる二つの検査結果およびその評価情報を用いることもできる。本実施例では、さらに第一の時間および第二の時間の少なくともいずれかにおいて被検眼に施された治療の内容を、併せて入力データとする。また、教師データとして、第二の時間よりもさらに後の第三の時間に、同一被検眼を同じ撮影条件で撮影して得た断層画像あるいは該断層画像から得た複数種類の解析値からなる検査結果と、第三の時間における被検眼の評価情報とを用いる。Here, the learning data used for training when obtaining the trained model in this embodiment will be described. In the first embodiment, as input data, two tomographic images obtained by photographing the same test eye under the same shooting conditions at at least two times, a first time and a second time after the first time, and their evaluation information can be used. Alternatively, instead of the two tomographic images, two test results consisting of multiple types of analysis values obtained from the tomographic images and their evaluation information can be used. In this embodiment, the contents of the treatment administered to the test eye at at least one of the first time and the second time are also used as input data. In addition, as teacher data, a tomographic image obtained by photographing the same test eye under the same shooting conditions at a third time after the second time, or an test result consisting of multiple types of analysis values obtained from the tomographic image, and the evaluation information of the test eye at the third time are used.

学習済モデルを得る際には、ここで述べたように、過去の少なくとも三つの時点で予め得られている検査結果およびその評価情報を学習データに用いて学習を行う。そして、この学習済モデルを用いる際には、学習済モデルの生成時に用いた入力データに対応する過去の第一の時間と第二の時間とで得られている二つの検査結果、およびいずれかの時間での被検眼の評価情報、および治療に関する情報を入力する。教師データは、学習済モデルから生成される解析値等および評価情報と対応する。すなわち、学習済モデルを用いることで、上述した第二の時間と第三の時間との時間間隔に対応する数か月から数年先において、この被検眼から得られる可能性の高い解析値とその際の被検眼の評価情報とを得ることができる。When obtaining a trained model, as described here, training is performed using test results and their evaluation information previously obtained at at least three points in time in the past as training data. When using this trained model, two test results obtained at a first time and a second time in the past corresponding to the input data used when generating the trained model, evaluation information of the test eye at either time, and information regarding treatment are input. The teacher data corresponds to the analysis values, etc. and evaluation information generated from the trained model. In other words, by using the trained model, it is possible to obtain analysis values that are likely to be obtained from the test eye several months to several years in the future corresponding to the time interval between the second time and the third time described above, and evaluation information of the test eye at that time.

より具体的には、例えば、上述した第一の時間にて緑内障を有する被検眼に対して特定の薬が与えられた場合、入力されるデータの一つはその際の被検眼の断層画像から得られる解析値と、その際の被検眼の評価情報と、投薬を示すフラグとなる。また、第二の時間では投薬がされなかった場合、入力されるデータのもう一つは、その際の被検眼の断層画像から得られる解析値と、その際の被検眼の評価情報となる。これに対し、学習済モデルを用いた結果、同一被検眼において、第二の時間の後の第三の時間に撮影された断層画像の解析値と、その際の被検眼の評価情報とが生成される。More specifically, for example, if a specific medication is administered to a subject eye with glaucoma at the first time described above, one piece of input data will be the analysis value obtained from the tomographic image of the subject eye at that time, evaluation information of the subject eye at that time, and a flag indicating medication. If medication is not administered at the second time, another piece of input data will be the analysis value obtained from the tomographic image of the subject eye at that time, and evaluation information of the subject eye at that time. In contrast, as a result of using the trained model, for the same subject eye, the analysis value of the tomographic image taken at a third time after the second time and the evaluation information of the subject eye at that time are generated.

この場合の学習済モデルの生成に用いる学習データには、上述した特定の薬が与えられたことがあり、且つ予め時系列の解析値が得られている被検眼についてのデータが用いられる。実際の入力データとしては、投薬時の解析値と評価情報が入力データの一つとなる。また入力データのもう一つには、投薬から、第一の時間と第二の時間との時間間隔と略等しい時間間隔を隔てて被検眼を撮影して得られた解析値、およびその際の評価情報となる。さらに、教師データには、第二の時間と第三の時間との時間間隔と略等しい時間間隔を隔てて被検眼を撮影して得られた解析値、およびその際の評価情報となる。なお、この時間間隔は厳密に一致する必要は無く、例えば病気の進行速度等に応じて、数日から数週間程度の誤差が有っても許容される場合がある。In this case, the learning data used to generate the trained model is data on the subject's eye that has been administered the specific drug described above and for which time-series analysis values have been obtained in advance. One of the actual input data is the analysis value and evaluation information at the time of drug administration. Another input data is the analysis value obtained by photographing the subject's eye at a time interval approximately equal to the time interval between the first time and the second time after drug administration, and the evaluation information at that time. Furthermore, the teacher data is the analysis value obtained by photographing the subject's eye at a time interval approximately equal to the time interval between the second time and the third time, and the evaluation information at that time. Note that this time interval does not need to be exactly the same, and an error of several days to several weeks may be acceptable depending on, for example, the progression rate of the disease.

なお、ここでは第一の時間において投薬が行われた場合を例として本実施例に係る学習済モデルを得る際に用いた学習データ、および該学習済モデルに入力するデータと生成される結果について述べた。しかし、投薬等、治療のタイミングはここで述べた例に限られず、第二の時間に行われてもよく、第一の時間および第二の時間の両方で行われてもよい。この場合、対応する学習済モデルを予め得ておくことにより、治療の結果得られる可能性の高い解析値と評価情報とを得ることができる。Here, the learning data used to obtain the trained model of this embodiment, the data input to the trained model, and the generated results are described using an example in which medication is administered at the first time. However, the timing of treatment, such as medication, is not limited to the example described here, and may be administered at the second time, or at both the first time and the second time. In this case, by obtaining the corresponding trained model in advance, it is possible to obtain analysis values and evaluation information that are likely to result from treatment.

上述したように、本実施例に治療情報取得部935は、被検眼に対して第一の時間および第二の時間の少なくともいずれかで行われた治療に関する情報を取得する。この場合の治療は、第一の断層に関するデータおよび第二の断層に関するデータの少なくともいずれかと関連付けられている。本実施例において、演算処理部932は、第一の断層に関するデータと、第二の断層に関するデータと、少なくともこれらデータのいずれかと関連付けられた治療に関する情報とから、第三の時間における複数種類の解析値の少なくとも一つを生成する。なお、ここで述べた断層に関するデータは、断層画像から得た上述した複数の解析値であってもよく、断層データ(断層画像)であってもよい。As described above, in this embodiment, the treatment information acquisition unit 935 acquires information regarding the treatment performed on the subject's eye at least at the first time and at least at the second time. In this case, the treatment is associated with at least one of the data regarding the first tomography and the data regarding the second tomography. In this embodiment, the calculation processing unit 932 generates at least one of the multiple types of analysis values at the third time from the data regarding the first tomography, the data regarding the second tomography, and information regarding the treatment associated with at least one of these data. Note that the data regarding the tomography described here may be the above-mentioned multiple analysis values obtained from a tomography image, or may be tomography data (tomography image).

なお、本実施例に係る画像処理装置900は、実施例1で述べた断層画像およびその解析値、並びに実施例2で述べた計測値を演算処理部に入力する態様に限られない。例えば、被検眼についての評価情報と、被検眼の状態を示す少なくとも一つの被検眼情報と、被検眼の治療に関する情報とを演算処理部932に入力する態様としてもよい。Theimage processing device 900 according to this embodiment is not limited to the mode in which the tomographic image and its analysis value described in the first embodiment, and the measurement value described in the second embodiment are input to the arithmetic processing unit. For example, theimage processing device 900 may be configured to input evaluation information about the subject eye, at least one piece of subject eye information indicating the condition of the subject eye, and information about the treatment of the subject eye to the arithmetic processing unit 932.

この場合、評価対象は、第一の時間および第一の時間よりも後の第二の時間の少なくともいずれかにおいて治療が施された被検眼となる。治療情報取得部935は、この治療に関する情報を取得する。演算処理部932は、第一の時間に関連付いた被検眼の第一の計測データと、第二の時間に関連付いた被検眼の第二の計測データと、を例えば断層画像から演算する。なお、ここでは、実施例1述べた被検眼の断層画像等の画像解析により得た解析値と、実施例2で述べた被検眼を計測することにより得た計測値とを含み、実際に被検眼から得たデータを計測データとする。演算処理部932は、第一の時間および第二の時間の少なくともいずれかに関連づいた評価情報を、これら第一および第二の計測データと、治療に関する情報とを、学習済モデルに入力する。学習済モデルは、これら入力された計測データ及び情報を用いて、被検眼の、第二の時間より後の第三の時間の評価情報を生成することもできる。In this case, the subject of evaluation is an eye treated at least at the first time and at a second time after the first time. The treatment information acquisition unit 935 acquires information related to this treatment. The calculation processing unit 932 calculates the first measurement data of the eye associated with the first time and the second measurement data of the eye associated with the second time, for example, from a tomographic image. Note that here, the measurement data includes the analysis value obtained by image analysis of the tomographic image of the eye described in Example 1 and the measurement value obtained by measuring the eye described in Example 2, and the data actually obtained from the eye is considered to be measurement data. The calculation processing unit 932 inputs the evaluation information associated with at least the first time and the second time, the first and second measurement data, and information related to the treatment, into the trained model. The trained model can also generate evaluation information of the eye at a third time after the second time using the input measurement data and information.

なお、この場合、表示制御部305は、演算処理部932は、学習済モデルを用いて生成した被検眼の第三の時間に得られるであろうと予測される計測データである、第三の時間における第三の計測データを生成する。表示制御部305は、この生成された第三の計測データと、第一の計測データおよび前記第二の計測データと、を用いてグラフ1020を生成する。表示制御部305はこのグラフ1020を表示部600における表示画面1010に表示させることができる。また、その際、表示制御部305は、この表示画面1010に生成された第三の時間の評価情報(確率1025)と、治療の種類(第二のセレクタ1021)と、を併せて表示させることができる。その際、治療の種類としては、手術および投薬の少なくともいずれかを含むことができる。また、被検眼の状態に関する評価情報は、断層画像、その解析値、上述した計測値、或いはその他の観察画像等に基づいて、医師等のユーザが被検眼の診断結果として提示する情報であって、ユーザによって入力される。In this case, thedisplay control unit 305 generates third measurement data at the third time, which is measurement data predicted to be obtained at the third time of the test eye generated using the learned model. Thedisplay control unit 305 generates agraph 1020 using the generated third measurement data, the first measurement data, and the second measurement data. Thedisplay control unit 305 can display thisgraph 1020 on thedisplay screen 1010 of thedisplay unit 600. In addition, at this time, thedisplay control unit 305 can display the generated evaluation information (probability 1025) at the third time and the type of treatment (second selector 1021) on thedisplay screen 1010. At this time, the type of treatment can include at least one of surgery and medication. In addition, the evaluation information regarding the condition of the test eye is information presented by a user such as a doctor as a diagnosis result of the test eye based on the tomographic image, its analysis value, the above-mentioned measurement value, or other observation images, and is input by the user.

本実施例によれば、実施例1で用いた断層データやその解析値だけでなく、被検眼に施した治療の有無も用いて、学習済モデルにより被検眼から将来に得られる可能性の高い断層データ、その解析値、および被検眼の状態を示す評価情報を得ることができる。従って、この被検眼の診断に際し、治療によって被検眼の状態がどのように推移するかについての可能性を医師等に提示できることとなり、経過観察や治療方針等に対して診断補助にさらに有効な情報を提示することができる。According to this embodiment, not only the tomographic data and its analysis values used in Example 1, but also the presence or absence of treatment performed on the test eye can be used to obtain, using a trained model, tomographic data that is likely to be obtained from the test eye in the future, its analysis values, and evaluation information indicating the condition of the test eye. Therefore, when diagnosing this test eye, it is possible to present to a doctor or the like the possibility of how the condition of the test eye will progress due to treatment, and it is possible to present information that is even more useful for assisting diagnosis in follow-up observation, treatment plans, etc.

(変形例1)
実施例1乃至3では、取得部301がOCT装置200で被検眼を撮影することで得た断層データを取得し、画像処理装置はこの断層データを用いて上述した解析値等の生成を行っている。しかし、取得部301がこれら断層データを取得する構成はこれに限られない。例えば、既に撮影がされており、外部記憶装置500等、画像処理装置とLAN、WAN、又はインターネット等を介して接続されるサーバに記憶されている断層データを取得部301が取得し、該断層データ用いて上述した一連の処理を行ってもよい。その場合、撮影に関する処理を省略し、その代わりに撮影済みの断層画像を取得する。そして、ステップS304で網膜層の検出と網膜厚の計測等を行う。これにより、撮影時に処理をしなくても、必要な時に網膜層の検出を実行することができ、撮影時には撮影だけに集中することができる。
(Variation 1)
In the first to third embodiments, theacquisition unit 301 acquires tomographic data obtained by photographing the subject's eye with theOCT device 200, and the image processing device uses the tomographic data to generate the above-mentioned analysis values, etc. However, the configuration in which theacquisition unit 301 acquires these tomographic data is not limited to this. For example, theacquisition unit 301 may acquire tomographic data that has already been photographed and stored in a server connected to the image processing device via a LAN, WAN, or the Internet, such as theexternal storage device 500, and perform the above-mentioned series of processes using the tomographic data. In this case, the process related to the photographing is omitted, and instead, a photographed tomographic image is acquired. Then, in step S304, the retinal layer is detected and the retinal thickness is measured. This allows the detection of the retinal layer to be performed when necessary without processing during the photographing, and allows the user to focus only on the photographing during the photographing.

(変形例2)
実施例1では、断層データあるいは該断層データから得られた解析値、さらには被検眼の評価情報を学習済モデルに入力することにより、将来得られる可能性の高い解析値および評価情報を得る画像処理装置について述べた。また、実施例2では、断層データあるいは該断層データから得られた解析値に併せて被検眼の計測値を学習済モデルに入力することにより、将来得られる可能性の高い解析値および計測値を得る画像処理装置について述べた。しかし、本発明の態様はこれら実施例に限定されず、例えば被検眼の計測値と該計測値を参照して得られた評価情報を学習済モデルに入力することにより、将来得られる可能性の高い計測値および評価情報を得ることとしてもよい。
(Variation 2)
In the first embodiment, an image processing device was described that obtains an analysis value and evaluation information that are likely to be obtained in the future by inputting tomographic data or an analysis value obtained from the tomographic data, and further, evaluation information of the subject's eye into a trained model. In the second embodiment, an image processing device was described that obtains an analysis value and measurement value that are likely to be obtained in the future by inputting tomographic data or a measurement value of the subject's eye together with the analysis value obtained from the tomographic data into a trained model. However, the aspects of the present invention are not limited to these embodiments, and for example, a measurement value of the subject's eye and evaluation information obtained by referring to the measurement value may be input into a trained model to obtain a measurement value and evaluation information that are likely to be obtained in the future.

さらに、実施例3において、治療に関するフラグと被検眼の計測値のみを学習済モデルに入力することにより、将来得られる可能性の高い計測値を得ることとしてもよい。また、さらに評価情報を併せて入力することにより、将来得られる可能性の高い評価情報を併せて得ることとしてもよい。また、上述した実施例では、入力するデータを第一の時間に関連付いたものと第二の時間に関連付いたものの2つの時間に得られたデータとし、これらデータから第三の時間に得られる可能性の高いデータ等を生成することとしている。しかし、入力するデータ、或いは学習済モデルの生成に際して用いる入力データの数は例示した2つに限られず、更に多くすることができる。入力するデータ及び入力データを増やすことにより、得られるであろうと予測するデータ(出力データ)の精度を高めることができる。また、学習済モデルの生成に際して用いた入力データの数より実際に入力するデータが少ない場合、例えば欠損するデータを適当な方法により補完することで、適切な出力データを得ることもできる。例えば実施例2において、時系列的に並ぶ5つの解析値及び計測値を入力データとして用いて得た学習済モデルを用いる場合、解析値が3つ或いは4つの場合であっても、足りない解析値を補完することで、データを出力することが可能となる。例えば、足りない解析値の前後の少なくとも2つの解析値を用いて足りない解析値を推定することが考えられる。このとき、少なくとも2つの解析値から求められる平均値や中央値等を足りない解析値として推定しても良い。また、少なくとも2つの解析値から求められる近似直線や近似曲線等を用いて足りない解析値を推定しても良い。また、第一の時間に関連付けられた複数種類の解析値と、第二の時間に関連付けられた複数種類の解析値とは、全く同じ種類である必要はなく、一部異なる種類があっても良いし、足りない種類があっても良い。また、上述した内容は、学習時においても、矛盾しない範囲で同様に適用することが可能である。Furthermore, in Example 3, only the flag related to treatment and the measurement value of the subject eye may be input into the trained model to obtain a measurement value that is likely to be obtained in the future. Furthermore, by further inputting evaluation information, evaluation information that is likely to be obtained in the future may also be obtained. Furthermore, in the above-mentioned embodiment, the input data is data obtained at two times, one associated with the first time and the other associated with the second time, and data that is likely to be obtained at the third time is generated from these data. However, the number of input data to be input or input data used in generating the trained model is not limited to the two exemplified, and can be further increased. By increasing the input data and input data, the accuracy of the data (output data) that is predicted to be obtained can be improved. Furthermore, when the number of data actually input is less than the number of input data used in generating the trained model, for example, appropriate output data can be obtained by complementing the missing data using an appropriate method. For example, in Example 2, when a trained model obtained by using five analysis values and measurement values arranged in a chronological order as input data is used, even if there are three or four analysis values, it is possible to output data by complementing the missing analysis values. For example, it is possible to estimate the missing analytic value using at least two analytic values before and after the missing analytic value. In this case, the missing analytic value may be estimated as an average value, median value, or the like obtained from at least two analytic values. The missing analytic value may also be estimated using an approximate line or an approximate curve obtained from at least two analytic values. Furthermore, the multiple types of analytic values associated with the first time and the multiple types of analytic values associated with the second time do not need to be exactly the same type, and some types may be different, or there may be missing types. Furthermore, the above content can be similarly applied during learning as long as there is no contradiction.

なお、学習済モデルは、上述したように、演算処理部332,832に設けられることができる。この場合、学習済モデルは、例えば、CPU等のプロセッサーによって実行されるソフトウェアモジュール等で構成されることができる。また、学習済モデルは、画像処理装置300,800と接続される別のサーバ等に設けられてもよい。この場合には、演算処理部332,832に接続できる、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバに接続することで、この学習済モデルを用いて解析値、計測値、評価情報等の生成を行うことができる。The trained model can be provided in the arithmetic processing unit 332, 832 as described above. In this case, the trained model can be configured, for example, as a software module executed by a processor such as a CPU. The trained model may also be provided in another server connected to theimage processing device 300, 800. In this case, by connecting to a server equipped with the trained model via any network such as the Internet that can be connected to the arithmetic processing unit 332, 832, it is possible to generate analytical values, measurement values, evaluation information, etc. using this trained model.

(その他の実施形態)
上述したそれぞれの実施例は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施例は画像処理装置或いは、実施例において述べた画像処理方法のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。また、画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現し、画像処理時に行われる各工程を実行することもできる。また、ボタン等のユーザーインターフェイスや表示のレイアウトは上述した態様に限定されるものではない。
Other Embodiments
Each of the above-mentioned embodiments is an embodiment of the present invention realized as an image processing device. However, the embodiments of the present invention are not limited to the image processing device or the image processing method described in the embodiments. The present invention can also be realized as software that runs on a computer. The CPU of the image processing device controls the entire computer using computer programs and data stored in the RAM and ROM. It can also control the execution of software corresponding to each part of the image processing device to realize the function of each part and execute each process performed during image processing. The user interface such as buttons and the display layout are not limited to the above-mentioned aspects.

さらに、本発明は、上述した実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、システム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。Furthermore, the present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors in a computer of the system or device read and execute the program. It can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.

以上、実施例および変形例を参照して本発明について説明したが、本発明は上記実施例および変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、および本発明と均等な発明も本発明に含まれる。また、上述の各実施例および変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。The present invention has been described above with reference to examples and modifications, but the present invention is not limited to the above examples and modifications. The present invention also includes inventions that have been modified without going against the spirit of the present invention, and inventions that are equivalent to the present invention. In addition, the above-mentioned examples and modifications can be combined as appropriate without going against the spirit of the present invention.

1、8:画像処理システム、200:断層画像撮影装置、300、800:画像処理装置、301:画像取得部、303:処理部、305:表示制御部、311:断層画像生成部、332、832:演算処理部、333:撮影条件取得部、334:選択部、835:計測値取得部1, 8: Image processing system, 200: Tomographic imaging device, 300, 800: Image processing device, 301: Image acquisition unit, 303: Processing unit, 305: Display control unit, 311: Tomographic image generation unit, 332, 832: Calculation processing unit, 333: Shooting condition acquisition unit, 334: Selection unit, 835: Measurement value acquisition unit

Claims (23)

Translated fromJapanese
被検眼の複数種類の解析値を含む断層に関し、撮影部位を含む撮影条件が関連付けられているデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する取得手段と、
被検眼の断層に関するデータを取得するための複数の撮影条件のそれぞれに対応する学習済モデルのうち、前記複数の撮影条件の少なくとも前記撮影部位が同じである前記取得された第一の断層に関するデータおよび前記取得された第二の断層に関するデータの撮影条件に対応する学習済モデルを選択する選択手段と、
前記選択された学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する生成手段と、
を備えることを特徴とする画像処理装置。
an acquisition means for acquiring data relating to a slice including a plurality of types of analysis values of a subject's eye and associated with imaging conditions including an imaging site, the data including a first slice of the subject's eye associated with a first time and a second slice of the subject's eye associated with a second time after the first time;
A selection means for selecting a trained model corresponding to an imaging condition of the acquired first tomographic data and the acquired second tomographic data, in which at least the imaging site of the plurality of imaging conditions is the same, from among trained models corresponding to each of a plurality of imaging conditions for acquiring data on a tomographic section of the subject's eye;
A generation means for generating at least one of a plurality of types of analysis values of the subject's eye at a third time after the second time from the acquired data on the first cross-section and the acquired data on the second cross-section by using the selected trained model;
An image processing device comprising:
前記第一の断層に関するデータは、前記第一の時間に撮影して得た断層画像を解析して得た複数種類の解析値であり、
前記第二の断層に関するデータは、前記第二の時間に撮影して得た断層画像を解析して得た複数種類の解析値であることを特徴とする請求項1に記載の画像処理装置。
the data on the first tomography is a plurality of types of analysis values obtained by analyzing the tomography image captured at the first time,
2. The image processing apparatus according to claim 1, wherein the data relating to the second tomography is a plurality of types of analysis values obtained by analyzing the tomography image captured at the second time.
前記学習済モデルは、前記第一の時間より前の第四の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値と、前記第一の時間より前で且つ前記第四の時間より後の第五の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値とを入力データとし、前記第一の時間より前で且つ前記第五の時間より後の第六の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値を教師データとする学習データを用いて得られることを特徴とする請求項1又は2に記載の画像処理装置。The image processing device according to claim 1 or 2, characterized in that the trained model is obtained using training data in which input data includes multiple types of analytical values obtained by analyzing a tomographic image obtained by photographing the subject's eye at a fourth time before the first time and multiple types of analytical values obtained by analyzing a tomographic image obtained by photographing the subject's eye at a fifth time before the first time and after the fourth time, and teacher data includes multiple types of analytical values obtained by analyzing a tomographic image obtained by photographing the subject's eye at a sixth time before the first time and after the fifth time. 被検眼を撮影して得た断層画像を含む断層に関し、撮影部位を含む撮影条件が関連付けられているデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する取得手段と、
被検眼の断層に関するデータを取得するための複数の撮影条件それぞれに対応する学習済モデルのうち、前記複数の撮影条件の少なくとも前記撮影部位が同じである前記取得された第一の断層に関するデータおよび前記取得された第二の断層に関するデータの撮影条件に対応する学習済モデルを選択する選択手段と、
前記選択された学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する生成手段と、
を備えることを特徴とする画像処理装置。
an acquisition means for acquiring data relating to a section including a tomographic image obtained by photographing a subject's eye, the data being associated with photographing conditions including an imaging site, the data relating to a first section of the subject's eye associated with a first time, and data relating to a second section of the subject's eye associated with a second time after the first time;
A selection means for selecting a trained model corresponding to an imaging condition of the acquired first tomographic data and the acquired second tomographic data, in which at least the imaging site of the plurality of imaging conditions is the same, from among trained models corresponding to each of a plurality of imaging conditions for acquiring data on a tomographic section of the subject's eye;
A generation means for generating at least one of a plurality of types of analysis values of the subject's eye at a third time after the second time from the acquired data on the first cross-section and the acquired data on the second cross-section by using the selected trained model;
An image processing device comprising:
前記生成手段は、前記被検眼を撮影して得た断層画像を含む断層に関するデータであって、前記被検眼の第三の断層に関するデータを、前記学習済モデルを用いて生成し、前記生成された第三の断層に関するデータを用いて前記複数種類の解析値の少なくとも一つを生成することを特徴とする請求項4に記載の画像処理装置。The image processing device according to claim 4, characterized in that the generating means generates data on a third tomography of the subject's eye using the trained model, the data being data on a tomography including a tomography image obtained by photographing the subject's eye, and generates at least one of the multiple types of analysis values using the generated data on the third tomography. 前記学習済モデルは、前記第一の時間より前の第四の時間に前記被検眼を撮影して得た断層画像と、前記第一の時間より前で且つ前記第四の時間より後の第五の時間に前記被検眼を撮影して得た断層画像とを入力データとし、前記第一の時間より前で且つ前記第五の時間より後の第六の時間に前記被検眼を撮影して得た断層画像を教師データとする学習データを用いて得られることを特徴とする請求項4又は5に記載の画像処理装置。The image processing device according to claim 4 or 5, characterized in that the trained model is obtained using training data in which a tomographic image obtained by photographing the subject's eye at a fourth time before the first time and a tomographic image obtained by photographing the subject's eye at a fifth time before the first time and after the fourth time are used as input data, and a tomographic image obtained by photographing the subject's eye at a sixth time before the first time and after the fifth time is used as teacher data. 前記第二の時間と前記第三の時間との間の経過時間と、前記第五の時間と前記第六の時間との間の経過時間とは略等しいことを特徴とする請求項3又は6に記載の画像処理装置。The image processing device according to claim 3 or 6, characterized in that the elapsed time between the second time and the third time and the elapsed time between the fifth time and the sixth time are approximately equal. 前記取得手段は、前記第一の時間に関連付いた前記被検眼の第一の計測値と、前記第二の時間に関連付いた前記被検眼の第二の計測値とをさらに取得し、
前記生成手段は、前記第一の断層に関するデータと、前記第一の計測値と、前記第二の断層に関するデータと、前記第二の計測値とから、前記第三の時間における前記複数種類の解析値の少なくとも一つを生成することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
The acquiring means further acquires a first measurement value of the subject's eye associated with the first time and a second measurement value of the subject's eye associated with the second time,
The image processing device according to any one of claims 1 to 7, characterized in that the generation means generates at least one of the multiple types of analysis values at the third time from data regarding the first fault, the first measurement value, data regarding the second fault, and the second measurement value.
前記取得手段は、前記第一の断層に関するデータおよび前記第二の断層に関するデータの少なくともいずれかと関連付けられた治療であって、前記被検眼に対して前記第一の時間又は前記第二の時間に行われた治療に関する情報を取得し、
前記生成手段は、前記第一の断層に関するデータと、前記第二の断層に関するデータと、前記治療に関する情報とから、前記第三の時間における前記複数種類の解析値の少なくとも一つを生成することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装
the acquiring means acquires information on a treatment associated with at least one of the data on the first cross-section and the data on the second cross-section, the treatment being performed on the subject's eye at the first time or the second time;
9. The image processing device according to claim 1, wherein the generating means generates at least one of the plurality of types of analysis values at the third time from data relating to the first slice, data relating to the second slice, and information relating to thetreatment .
前記取得手段は、前記第一の時間および前記第二の時間における前記被検眼の状態に関する評価情報を取得し、
前記生成手段は、前記第三の時間における前記複数種類の解析値の少なくとも一つに併せて、前記第三の時間における評価情報を生成することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
the acquiring means acquires evaluation information regarding a state of the subject's eye at the first time and the second time,
10. The image processing apparatus according to claim 1, wherein the generating means generates evaluation information at the third time in addition to at least one of the plurality of types of analysis values at the third time.
前記生成された評価情報を表示部に表示させる表示制御手段をさらに備えることを特徴とする請求項10に記載の画像処理装置。The image processing device according to claim 10, further comprising a display control means for displaying the generated evaluation information on a display unit. 前記第一の断層に関するデータおよび前記第二の断層に関するデータから得られる第一の解析値および第二の解析値であって、前記第三の時間における前記第一の解析値および前記第二の解析値の少なくとも一つの解析値と同じ種類の第一の解析値および第二の解析値、並びに前記第三の時間における前記少なくとも一つの解析値を用いて得られたグラフを表示部に表示させる表示制御手段をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。The image processing device according to any one of claims 1 to 11, further comprising a display control means for displaying on a display unit a graph obtained using a first analytical value and a second analytical value obtained from the data on the first fault and the data on the second fault, the first analytical value and the second analytical value being of the same type as at least one of the first analytical value and the second analytical value at the third time, and the at least one analytical value at the third time. 前記撮影条件は、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式の少なくともいずれかを含むことを特徴とする請求項1に記載の画像処理装置。The image processing device according to claim 1, characterized in that the imaging conditions include at least one of the imaging date and time, the name of the imaging part, the imaging area, the imaging angle of view, and the imaging method. 前記複数種類の解析値は、前記被検眼の後眼部における、網膜全体の厚み、任意の層間の厚み、脈絡膜の厚み、および網膜の形状特徴と、視神経乳頭部における、網膜の厚み、およびCupとDiscと、前眼部における、角膜厚、角膜曲率、前房深度、水晶体全面曲率、および水晶体後面曲率と、を含むことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。The image processing device according to any one of claims 1 to 13, characterized in that the multiple types of analysis values include the overall retinal thickness, thickness between any layers, choroidal thickness, and retinal shape characteristics in the posterior segment of the test eye, the retinal thickness and Cup and Disc in the optic disc, and the corneal thickness, corneal curvature, anterior chamber depth, total lens curvature, and posterior lens curvature in the anterior segment. 第一の時間および前記第一の時間よりも後の第二の時間の少なくともいずれかにおいて治療が施された被検眼の撮影部位を含むデータであって、前記第一の時間に関連付いた前記被検眼の前記撮影部位の第一の計測データと、前記第二の時間に関連付いた前記被検眼の前記撮影部位の第二の計測データと、前記第一の時間および前記第二の時間の少なくともいずれかと関連付けられた、前記被検眼の前記撮影部位の状態に関する評価情報と、を取得する取得手段と、
被検眼の計測データを取得するための複数の撮影条件それぞれに対応する学習済モデルのうち、前記撮影条件の少なくとも撮影部位が同じである前記取得された第一の計測データおよび前記取得された第二の計測データの前記撮影条件に対応する学習済モデルを選択する選択手段と、
前記選択された学習済モデルを用いて、前記治療に関する情報、前記第一の計測データ、前記第二の計測データ、および前記評価情報から、前記第二の時間より後の第三の時間における前記被検眼の前記撮影部位の状態に関する評価情報を生成する生成手段と、
を備えることを特徴とする画像処理装置。
an acquisition means for acquiring data including an imaging site of a subject's eye that has been treated at least at a first time and/or a second time subsequent to the first time, the acquisition means acquiring first measurement data of the imaging site of the subject's eye associated with the first time, second measurement data of the imaging site of the subject's eye associated with the second time, and evaluation information on a state of the imaging site of the subject's eye associated with at least one of the first time and the second time;
A selection means for selecting a trained model corresponding to the imaging conditions of the acquired first measurement data and the acquired second measurement data, in which at least the imaging site of the imaging conditions is the same, from among trained models corresponding to each of a plurality of imaging conditions for acquiring measurement data of the subject's eye;
a generating means for generating evaluation information regarding a state of the imaging site of the subject's eye at a third time after the second time from information regarding the treatment, the first measurement data, the second measurement data, and the evaluation information by using the selected trained model; and
An image processing device comprising:
前記生成手段は、前記選択された学習済モデルを用いて前記第三の時間における前記被検眼の前記撮影部位の第三の計測データを生成し、
前記生成された第三の計測データ、前記第一の計測データおよび前記第二の計測データを用いて得られたグラフと、前記生成された第三の時間における評価情報と、前記治療の種類と、を表示部に表示させる表示制御手段をさらに備えることを特徴とする請求項15に記載の画像処理装置。
The generating means generates third measurement data of the imaging site of the subject's eye at the third time by using the selected trained model,
The image processing device described in claim 15, further comprising a display control means for causing a display unit to display the generated third measurement data, a graph obtained using the first measurement data and the second measurement data, the generated evaluation information at the third time, and the type of treatment.
前記被検眼の前記撮影部位の状態に関する評価情報は、前記被検眼の診断結果としてユーザが入力する情報であることを特徴とする請求項15又は16に記載の画像処理装置。The image processing device according to claim 15 or 16, characterized in that the evaluation information regarding the state of the imaging part of the test eye is information input by a user as a diagnosis result of the test eye. 前記治療は、手術および投薬の少なくともいずれかを含むことを特徴とする請求項15乃至17のいずれか1項に記載の画像処理装置。The image processing device according to any one of claims 15 to 17, characterized in that the treatment includes at least one of surgery and medication. 前記第一の計測データは、前記第一の時間に前記被検眼を撮影して得た断層画像から得られ、
前記第二の計測データは、前記第二の時間に前記被検眼を撮影して得た断層画像から得られることを特徴とする請求項15乃至18のいずれか1項に記載の画像処理装置。
the first measurement data is obtained from a tomographic image obtained by photographing the subject's eye at the first time,
19. The image processing apparatus according to claim 15, wherein the second measurement data is obtained from a tomographic image obtained by photographing the subject's eye at the second time.
被検眼の複数種類の解析値を含む断層に関し、撮影部位を含む撮影条件が関連付けられているデータであって、第一の時間に関連付いた前記被検眼の撮影部位の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の前記撮影部位の第二の断層に関するデータと、を取得する取得工程と、
前記被検眼の複数の断層に関するデータそれぞれの解析値を用いて学習された学習済モデルから、前記第一の断層に関するデータおよび前記第二の断層に関するデータの撮影時の撮影条件に含まれる撮影部位に対応する学習済モデルを選択する選択工程と、
前記選択された学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の前記撮影部位の複数種類の解析値の少なくとも一つを生成する生成工程と、
を含むことを特徴とする画像処理方法。
an acquiring step of acquiring data relating to a slice including a plurality of types of analysis values of the subject's eye and associated with imaging conditions including an imaging site, the data including a first slice of the imaging site of the subject's eye associated with a first time and a second slice of the imaging site of the subject's eye associated with a second time after the first time;
A selection step of selecting a trained model corresponding to an imaging site included in imaging conditions at the time of imaging the data on the first tomography and the data on the second tomography from trained models trained using respective analysis values of the data on the multiple tomography of the subject's eye;
A generation process of generating at least one of a plurality of types of analysis values of the imaging site of the subject's eye at a third time after the second time from the acquired data on the first tomography and the acquired data on the second tomography using the selected trained model;
13. An image processing method comprising:
被検眼を撮影して得た断層画像を含む断層に関し、撮影部位を含む撮影条件が関連付けられているデータであって、第一の時間に関連付いた前記被検眼の撮影部位の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の前記撮影部位の第二の断層に関するデータと、を取得する取得工程と、
前記被検眼の断層に関するデータを取得するための複数の撮影条件それぞれに対応する学習済モデルのうち、前記第一の断層に関するデータおよび前記第二の断層に関するデータの撮影時の撮影条件に含まれる撮影部位に対応する学習済モデルを選択する選択工程と、
前記選択された学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の前記撮影部位の複数種類の解析値の少なくとも一つを生成する生成工程と、
を含むことを特徴とする画像処理方法。
an acquiring step of acquiring data relating to a section including a tomographic image obtained by photographing a subject's eye, the data being associated with photographing conditions including a photographing site, the data relating to a first section of the photographing site of the subject's eye associated with a first time, and data relating to a second section of the photographing site of the subject's eye associated with a second time after the first time;
A selection step of selecting a trained model corresponding to an imaging site included in the imaging conditions at the time of imaging the first tomographic data and the second tomographic data from among trained models corresponding to each of a plurality of imaging conditions for acquiring data related to a tomography of the subject's eye;
A generation process of generating at least one of a plurality of types of analysis values of the imaging site of the subject's eye at a third time after the second time from the acquired data on the first tomography and the acquired data on the second tomography using the selected trained model;
13. An image processing method comprising:
画像処理装置の作動方法であって、
第一の時間および前記第一の時間よりも後の第二の時間の少なくともいずれかにおいて治療が施された被検眼であって、前記第一の時間に関連付いた前記被検眼の撮影部位の第一の計測データと、前記第二の時間に関連付いた前記被検眼の前記撮影部位の第二の計測データと、前記第一の時間および前記第二の時間の少なくともいずれかと関連付けられた、前記被検眼の前記撮影部位の状態に関する評価情報と、を前記画像処理装置が取得する工程と、
被検眼の計測データを取得するための複数の撮影条件のそれぞれに対応する学習済モデルのうち、前記取得された第一の計測データおよび前記取得された第二の計測データの撮影条件に含まれる撮影部位に対応する学習済モデルを前記画像処理装置が選択する工程と、
前記選択された学習済モデルを用いて、前記治療に関する情報、前記第一の計測データ、前記第二の計測データ、および前記評価情報から、前記第二の時間より後の第三の時間における前記被検眼の前記撮影部位の状態に関する評価情報を前記画像処理装置が生成する工程と、
を含むことを特徴とする画像処理装置の作動方法。
1. A method of operating an image processing device, comprising:
A step of acquiring, by the image processing device, first measurement data of an imaging site of the test eye associated with the first time, second measurement data of the imaging site of the test eye associated with the second time, and evaluation information on a state of the imaging site of the test eye associated with at least one of the first time and the second time, for a test eye that has been treated at at least one of a first time anda second time after the first time ;
A step in which the image processing device selects, from among trained models corresponding to each of a plurality of shooting conditions for acquiring measurement data of the subject's eye, a trained model corresponding to an imaging site included in the shooting conditions of the acquiredfirst measurement data and the acquired second measurement data ;
A step of generating evaluation information regarding a state of the imaging site of the subject's eye at a third time after the second time from information regarding the treatment, the first measurement data, the second measurement data, and the evaluation informationby the image processing device using the selected trained model;
13. A methodfor operating an image processing device , comprising:
プロセッサーによって実行されると、該プロセッサーに請求項20又は21に記載の画像処理方法、又は請求項22に記載の画像処理装置の作動方法の各工程を実行させる、プログラム。 A program which, when executed by a processor, causes the processor to carry out each step of the image processing method according to claim 20or 21, or the method of operating an image processing device according to claim 22 .
JP2018191936A2018-10-102018-10-10 IMAGE PROCESSING APPARATUS, TRAINED MODEL, IMAGE PROCESSING METHOD, AND PROGRAMActiveJP7652526B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2018191936AJP7652526B2 (en)2018-10-102018-10-10 IMAGE PROCESSING APPARATUS, TRAINED MODEL, IMAGE PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2018191936AJP7652526B2 (en)2018-10-102018-10-10 IMAGE PROCESSING APPARATUS, TRAINED MODEL, IMAGE PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication NumberPublication Date
JP2020058615A JP2020058615A (en)2020-04-16
JP7652526B2true JP7652526B2 (en)2025-03-27

Family

ID=70219748

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2018191936AActiveJP7652526B2 (en)2018-10-102018-10-10 IMAGE PROCESSING APPARATUS, TRAINED MODEL, IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (1)

CountryLink
JP (1)JP7652526B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP7570208B2 (en)*2020-10-282024-10-21ライオン株式会社 Apparatus for inspecting tear fluid, cornea and conjunctiva condition, method for inspecting tear fluid, cornea and conjunctiva condition, and program
EP4241652A4 (en)*2020-11-042024-10-16Topcon Corporation DEVICE FOR PROCESSING OPHTHALMIC INFORMATION, OPHTHALMIC DEVICE, METHOD FOR PROCESSING OPHTHALMIC INFORMATION AND PROGRAM
CN116403717B (en)*2023-06-082023-09-05广州视景医疗软件有限公司Myopia prediction method and device based on deep learning, terminal equipment and medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20180132725A1 (en)2015-05-052018-05-17Medizinische Universität WienComputerized Device and Method for Processing Image Data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2006302222A (en)*2005-04-152006-11-02Toshihiro HandaCancer onset risk prediction system and method, and cancer derivative method
JP5842436B2 (en)*2011-07-262016-01-13株式会社ニデック Retina treatment schedule creation device, retinal treatment schedule creation program
JP6695171B2 (en)*2016-03-042020-05-20株式会社トプコン Eye drop container monitoring system
DE202017104953U1 (en)*2016-08-182017-12-04Google Inc. Processing fundus images using machine learning models
JP6569701B2 (en)*2017-06-122019-09-04株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20180132725A1 (en)2015-05-052018-05-17Medizinische Universität WienComputerized Device and Method for Processing Image Data

Also Published As

Publication numberPublication date
JP2020058615A (en)2020-04-16

Similar Documents

PublicationPublication DateTitle
US11935241B2 (en)Image processing apparatus, image processing method and computer-readable medium for improving image quality
US12094082B2 (en)Image processing apparatus, image processing method and computer-readable medium
JP7579372B2 (en) Medical image processing device, medical image processing system, medical image processing method and program
US12039704B2 (en)Image processing apparatus, image processing method and computer-readable medium
US12040079B2 (en)Medical image processing apparatus, medical image processing method and computer-readable medium
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US11922601B2 (en)Medical image processing apparatus, medical image processing method and computer-readable medium
US11887288B2 (en)Image processing apparatus, image processing method, and storage medium
JP7362403B2 (en) Image processing device and image processing method
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP2023076615A (en) Image processing device, method of operating image processing device, and program
JP7652526B2 (en) IMAGE PROCESSING APPARATUS, TRAINED MODEL, IMAGE PROCESSING METHOD, AND PROGRAM
WO2020138128A1 (en)Image processing device, image processing method, and program
JP7111874B2 (en) ophthalmic imaging equipment
JP2022121202A (en) Image processing device and image processing method
JP2024075911A (en) Ophthalmological image processing device, ophthalmological image processing method, and program
JP2019198383A (en)Image processing system, image processing method and program

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20210908

RD01Notification of change of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7421

Effective date:20220630

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20220831

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20221004

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20221202

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20230323

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20230519

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20230817

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20231117

A911Transfer to examiner for re-examination before appeal (zenchi)

Free format text:JAPANESE INTERMEDIATE CODE: A911

Effective date:20231127

A912Re-examination (zenchi) completed and case transferred to appeal board

Free format text:JAPANESE INTERMEDIATE CODE: A912

Effective date:20240202

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20241206

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20250314

R150Certificate of patent or registration of utility model

Ref document number:7652526

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150


[8]ページ先頭

©2009-2025 Movatter.jp