Movatterモバイル変換


[0]ホーム

URL:


WO2023032335A1 - Assistance system, assistance method, and program - Google Patents

Assistance system, assistance method, and program
Download PDF

Info

Publication number
WO2023032335A1
WO2023032335A1PCT/JP2022/016058JP2022016058WWO2023032335A1WO 2023032335 A1WO2023032335 A1WO 2023032335A1JP 2022016058 WJP2022016058 WJP 2022016058WWO 2023032335 A1WO2023032335 A1WO 2023032335A1
Authority
WO
WIPO (PCT)
Prior art keywords
concentration
subject
degree
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2022/016058
Other languages
French (fr)
Japanese (ja)
Inventor
史明 大林
徹 臼倉
はるか 天沼
文 衞藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co LtdfiledCriticalPanasonic Intellectual Property Management Co Ltd
Publication of WO2023032335A1publicationCriticalpatent/WO2023032335A1/en
Anticipated expirationlegal-statusCritical
Ceasedlegal-statusCriticalCurrent

Links

Images

Classifications

Definitions

Landscapes

Abstract

This assistance system (10) comprises: an acquisition unit (32a) that acquires a feature amount pertaining to a biological activity of a subject (U1) performing intellectual work; a calculation unit (32b) that calculates the degree of concentration of the subject (U1) on the intellectual work on the basis of the feature amount acquired by the acquisition unit (32a); and a presentation unit (45) that presents a user (U2) with information pertaining to the subject (U1) including the degree of concentration calculated by the calculation unit (32b).

Description

Translated fromJapanese
支援システム、支援方法、及び、プログラムSUPPORT SYSTEM, SUPPORT METHOD AND PROGRAM

 本発明は、支援システム、支援方法、及び、プログラムに関する。The present invention relates to a support system, support method, and program.

 特許文献1には、白色光を主体として照射する主光源と単波長光光源とを点灯させ、所望の覚醒水準が得られるように単波長光光源の光出力を制御することにより、作業者の覚醒水準を向上できる照明装置が開示されている。InPatent Document 1, a main light source that mainly emits white light and a single-wavelength light source are turned on, and the light output of the single-wavelength light source is controlled so that a desired arousal level is obtained. A lighting device is disclosed that can improve arousal levels.

特開2009-59677号公報JP 2009-59677 A

 本発明は、対象者の集中度を含む対象者に関する情報を把握することができるようにユーザを支援することができる支援システム、支援方法、及び、プログラムを提供する。The present invention provides a support system, a support method, and a program that can support a user to grasp information about a target person, including the degree of concentration of the target person.

 本発明の一態様に係る支援システムは、知的作業を行っている対象者の生体活動に関する特徴量を取得する取得部と、前記取得部により取得された前記特徴量に基づいて前記対象者の知的作業に対する集中度を算出する算出部と、前記算出部により算出された前記集中度を含む前記対象者に関する情報をユーザに提示する提示部と、を備える。A support system according to an aspect of the present invention includes an acquisition unit that acquires a feature amount related to biological activity of a subject who is performing intellectual work, and based on the feature amount acquired by the acquisition unit, A computing unit that computes a degree of concentration on intellectual work; and a presenting unit that presents information about the subject including the degree of concentration computed by the computing unit to the user.

 また、本発明の一態様に係る支援方法は、知的作業を行っている対象者の生体活動に関する特徴量を取得する取得ステップと、前記取得ステップで取得された前記特徴量に基づいて前記対象者の知的作業に対する集中度を算出する算出ステップと、前記算出ステップで算出された前記集中度を含む前記対象者に関する情報をユーザに提示する提示ステップと、を含む。Further, a support method according to an aspect of the present invention includes an acquisition step of acquiring a feature amount related to biological activity of a subject who is performing intellectual work; and a presenting step of presenting to the user information about the subject including the degree of concentration calculated in the calculating step.

 また、本発明の一態様は、上記支援方法をコンピュータに実行させるためのプログラムとして実現することができる。あるいは、当該プログラムを格納したコンピュータ読み取り可能な記録媒体として実現することもできる。Also, one aspect of the present invention can be implemented as a program for causing a computer to execute the above support method. Alternatively, it can be realized as a computer-readable recording medium storing the program.

 本発明の支援システム、支援方法、及び、プログラムは、対象者の集中度を含む対象者に関する情報を把握することができるようにユーザを支援することができる。The support system, support method, and program of the present invention can support the user to grasp information about the target person, including the target person's degree of concentration.

図1は、実施の形態に係る支援システムの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of a support system according to an embodiment.図2は、実施の形態に係る支援システムの機能構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the functional configuration of the support system according to the embodiment;図3は、実施の形態に係る支援システムの動作の第1の例を示すフローチャートである。FIG. 3 is a flow chart showing a first example of the operation of the support system according to the embodiment.図4は、対象者の集中度及び集中状態の判定結果の一例を示す図である。FIG. 4 is a diagram showing an example of determination results of a subject's degree of concentration and state of concentration.図5は、実施の形態に係る支援システムの動作の第2の例を示すフローチャートである。FIG. 5 is a flow chart showing a second example of the operation of the support system according to the embodiment.図6は、実施の形態に係る支援システムの動作の第3の例を示すフローチャートである。FIG. 6 is a flow chart showing a third example of the operation of the support system according to the embodiment.図7は、実施の形態に係る支援システムの動作の第3の例の変形例1を示すフローチャートである。FIG. 7 is a flowchart showing Modification 1 of the third example of the operation of the support system according to the embodiment.図8は、実施の形態に係る支援システムの動作の第3の例の変形例2を示すフローチャートである。FIG. 8 is a flowchart showing Modification 2 of the third example of the operation of the support system according to the embodiment.図9は、対象者に対して提案されるアドバイスの一例を示す図である。FIG. 9 is a diagram showing an example of advice proposed to the subject.図10は、ユーザに対して提示される対象者に関する情報の一例を示す図である。FIG. 10 is a diagram showing an example of information about the target person presented to the user.図11は、実施の形態の変形例に係る支援システムの機能構成の一例を示すブロック図である。11 is a block diagram illustrating an example of a functional configuration of a support system according to a modification of the embodiment; FIG.図12は、特徴量データベースに格納されている集中時の特徴量及び非集中時の特徴量の例を示す図である。FIG. 12 is a diagram showing an example of the feature amount during concentration and the feature amount during non-concentration stored in the feature amount database.図13は、特徴量データベースに格納されている非集中時の特徴量の他の例を示す図である。FIG. 13 is a diagram showing another example of non-concentration feature amounts stored in the feature amount database.

 以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。Hereinafter, embodiments will be specifically described with reference to the drawings. It should be noted that the embodiments described below are all comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples and are not intended to limit the present invention. Further, among the constituent elements in the following embodiments, constituent elements not described in independent claims will be described as optional constituent elements.

 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略又は簡略化される場合がある。It should be noted that each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code|symbol is attached|subjected with respect to substantially the same structure, and the overlapping description may be abbreviate|omitted or simplified.

 (実施の形態)
 [概要]
 まず、実施の形態に係る支援システムの概要について説明する。図1は、実施の形態に係る支援システム10の概要を説明するための図である。
(Embodiment)
[overview]
First, an overview of the support system according to the embodiment will be described. FIG. 1 is a diagram for explaining an overview of asupport system 10 according to an embodiment.

 支援システム10は、例えば、作業空間4で知的作業を行っている対象者U1の生体活動に関する特徴量に基づいて対象者U1の知的作業に対する集中度を算出し、算出された集中度を含む対象者U1に関する情報をユーザU2に提示する。これにより、支援システム10は、ユーザU2が対象者U1の集中度などの、知的作業を行っている対象者U1に関する情報を把握することを支援する。例えば、図1に示されるように、対象者U1の集中度は、ユーザU2が使用する第二端末装置40に表示されることにより、ユーザU2に提示されてもよい。対象者U1の集中度を含む対象者U1に関する情報は、例えば、対象者U1の集中度、対象者U1の集中状態、及び、対象者U1の知的作業の遂行を支援するための支援情報などである。当該情報の具体的な説明は後述される。For example, thesupport system 10 calculates the degree of concentration for the intellectual work of the subject U1 based on the feature amount related to the life activity of the subject U1 who is performing the intellectual work in thework space 4, and calculates the calculated degree of concentration. Presenting information about the subject U1, including to the user U2. Thereby, thesupport system 10 assists the user U2 in grasping information regarding the subject U1 who is performing intellectual work, such as the degree of concentration of the subject U1. For example, as shown in FIG. 1, the degree of concentration of the subject U1 may be presented to the user U2 by being displayed on thesecond terminal device 40 used by the user U2. The information about the subject U1 including the degree of concentration of the subject U1 is, for example, the degree of concentration of the subject U1, the state of concentration of the subject U1, support information for assisting the performance of the intellectual work of the subject U1, and the like. is. A specific description of the information will be given later.

 知的作業とは、対象者U1の知能(言い換えると、頭脳)を用いて行われる作業であって、例えば、認知(言い換えると、認識及び理解)、思考、判断、論理、計算、及び、創造などの作業である。具体的には、知的作業は、仕事、又は、学習などを含んでもよい。Intellectual work is work performed using the intelligence (in other words, brain) of subject U1, and includes, for example, cognition (in other words, recognition and understanding), thinking, judgment, logic, calculation, and creation. and so on. Specifically, intellectual work may include work, study, or the like.

 また、「集中」とは、知的作業対象に頭の中の認知資源を充分割り当てて物事に取り組むことを意味する。「集中状態」とは知的作業対象に認知資源を割り当てている状態であり、「集中度」はその度合いを意味する。すなわち、「集中度」とは、物事に取り組む際に、どの程度、知的作業対象に認知資源を集中しているかの度合いを意味する。集中度は、単位時間当たりの知的作業量(つまり、知的作業の作業量)に影響を与える。すなわち、集中度が高い程、単位時間当たりの知的作業量が大きくなり、集中度が低い程、単位時間当たりの知的作業量が小さくなる。In addition, "concentration" means working on things by allocating enough cognitive resources in the mind to the intellectual work target. A "concentration state" is a state in which cognitive resources are allocated to an intellectual work target, and a "concentration degree" means the degree. In other words, the "degree of concentration" means the degree to which cognitive resources are concentrated on the target of intellectual work when working on something. The degree of concentration affects the amount of intellectual work per unit time (that is, the amount of intellectual work). That is, the higher the degree of concentration, the greater the amount of intellectual work per unit time, and the lower the degree of concentration, the smaller the amount of intellectual work per unit time.

 知的作業を行っている対象者U1の生体活動に関する特徴量は、例えば、知的作業を行っている対象者U1の姿勢、手の動き、頭の動き、眼の動き、表情、及び、筆跡のうちの少なくとも1つの状態を示す情報であってもよい。特徴量は、例えば、後述する非接触デバイスにより取得されたデータに含まれてもよいし、接触デバイスにより取得されたデータに含まれてもよい。The feature values related to the bioactivity of the subject U1 who is performing intellectual work include, for example, the posture, hand movement, head movement, eye movement, facial expression, and handwriting of the subject U1 who is performing intellectual work. Information indicating at least one state of For example, the feature amount may be included in data acquired by a non-contact device, which will be described later, or may be included in data acquired by a contact device.

 例えば、対象者U1は、生徒、又は、作業者であり、ユーザU2は、生徒の教師、又は、作業者の管理者などである。図1では、見やすさの観点から、一人の対象者U1を示しているが、支援システム10は、例えば、複数の対象者U1の集中度を算出して、集中度を含む対象者U1に関する情報をユーザU2に提示してもよい。For example, the target person U1 is a student or worker, and the user U2 is a teacher of the student or a manager of the worker. In FIG. 1, one target person U1 is shown for ease of viewing, but thesupport system 10, for example, calculates the concentration levels of a plurality of target people U1, and collects information about the target person U1 including the concentration levels. may be presented to the user U2.

 作業空間4は、対象者U1が知的作業を行う空間であり、例えば、オフィスビル、自宅、学習塾、又は、学校などの一室であってもよく、当該一室内の局所的(部分的)なスペースであってもよい。複数の対象者U1は、一つの作業空間4に位置してもよいし、複数の対象者U1のそれぞれは、異なる作業空間4に位置してもよい。Thework space 4 is a space in which the subject U1 performs intellectual work. ) space. A plurality of subjects U1 may be located in onework space 4 , or each of the plurality of subjects U1 may be located in adifferent work space 4 .

 作業空間4には、対象者U1が知的作業を行うための作業机及び椅子が配置されている。作業机には、例えば、カメラ1及び人感センサ2などの非接触デバイスと、パーソナルコンピュータまたはタブレット端末などの第一端末装置20とが設置されている。なお、カメラ1は、第一端末装置20に備えられてもよい。In thework space 4, work desks and chairs are arranged for the subject U1 to perform intellectual work. The work desk is provided with, for example, a non-contact device such as acamera 1 and ahuman sensor 2, and afirst terminal device 20 such as a personal computer or a tablet terminal. Note that thecamera 1 may be provided in thefirst terminal device 20 .

 図1では図示を省略しているが、支援システム10は、例えば、サーバ装置(例えば、図2の情報処理装置30)を備えてもよい。サーバ装置(例えば、情報処理装置30)は、作業空間4又は作業空間4を備える建物(例えば、オフィスビル、自宅、学習塾、又は、学校など)内に設置されてもよいし、クラウドサーバのように当該建物の外部に設置されてもよい。なお、支援システム10は、ユーザU2が使用する第二端末装置40により実現されてもよい。Although not shown in FIG. 1, thesupport system 10 may include, for example, a server device (for example, theinformation processing device 30 in FIG. 2). The server device (for example, the information processing device 30) may be installed in thework space 4 or a building that includes the work space 4 (for example, an office building, a home, a cram school, or a school), or may be installed in a cloud server. may be installed outside the building. Thesupport system 10 may be realized by thesecond terminal device 40 used by the user U2.

 [構成]
 続いて、実施の形態に係る支援システム10の構成について説明する。図2は、実施の形態に係る支援システム10の機能構成の一例を示すブロック図である。
[composition]
Next, the configuration of thesupport system 10 according to the embodiment will be described. FIG. 2 is a block diagram showing an example of the functional configuration of thesupport system 10 according to the embodiment.

 図2に示されるように、支援システム10は、例えば、2以上の第一端末装置20と、情報処理装置30と、第二端末装置40とを備える。2以上の第一端末装置20のそれぞれは、例えば、カメラ1及び人感センサ2と通信可能に接続されている。As shown in FIG. 2, thesupport system 10 includes, for example, two or more firstterminal devices 20, aninformation processing device 30, and a secondterminal device 40. Each of the two or more firstterminal devices 20 is communicably connected to thecamera 1 and thehuman sensor 2, for example.

 [カメラ]
 カメラ1は、対象者U1が映る画像を撮影する。カメラ1は、少なくとも対象者U1の頭部を略正面から撮影可能な位置に設置されている。カメラ1は、例えば、作業机に設置されてもよく、対象者U1が使用する第一端末装置20に搭載されたカメラであってもよい。カメラ1は、可視光により対象者U1を撮影してもよいし、赤外線により対象者U1を撮影してもよい。カメラ1の撮像範囲は、対象者U1の頭部に限らず、対象者U1の上半身を含んでもよい。カメラ1で撮影された画像は、第一端末装置20へ送信される。カメラ1と第一端末装置20との通信は、有線通信であってもよいし、無線通信であってもよいし、通信規格も特に限定されない。
[camera]
Thecamera 1 captures an image of the subject U1. Thecamera 1 is installed at a position capable of photographing at least the head of the subject U1 substantially from the front. Thecamera 1 may be, for example, installed on a work desk, or may be a camera mounted on the firstterminal device 20 used by the subject U1. Thecamera 1 may photograph the subject U1 using visible light, or may photograph the subject U1 using infrared light. The imaging range of thecamera 1 is not limited to the head of the subject U1, and may include the upper body of the subject U1. Images captured by thecamera 1 are transmitted to the firstterminal device 20 . Communication between thecamera 1 and the firstterminal device 20 may be wired communication or wireless communication, and the communication standard is not particularly limited.

 [人感センサ]
 人感センサ2は、対象者U1の存在の有無を検知する。人感センサ2により検知された検知結果は、第一端末装置20へ送信される。人感センサ2と第一端末装置20との通信は、有線通信であってもよいし、無線通信であってもよいし、通信規格も特に限定されない。なお、図1及び図2では、対象者U1の存在の有無を検知するセンサとして、人感センサ2を例示したが、これに限定されず、例えば、対象者U1が押下できるように構成されたハードウェアボタンであってもよいし、第一端末装置20が備えるタッチパネル式のディスプレイに表示されたボタンであってもよい。あるいは、対象者U1が椅子に座っていることを検知する着座センサであってもよい。なお、対象者U1の存在の有無を検知する構成は、必ずしも備えられなくてもよい。
[Human sensor]
Thehuman sensor 2 detects the presence or absence of the target person U1. A detection result detected by thehuman sensor 2 is transmitted to the firstterminal device 20 . Communication between thehuman sensor 2 and the firstterminal device 20 may be wired communication or wireless communication, and the communication standard is not particularly limited. In FIGS. 1 and 2, themotion sensor 2 was exemplified as a sensor for detecting the presence or absence of the target person U1. A hardware button may be used, or a button displayed on a touch panel display provided in the firstterminal device 20 may be used. Alternatively, it may be a seating sensor that detects that the subject U1 is sitting on a chair. Note that the configuration for detecting the presence or absence of the target person U1 does not necessarily have to be provided.

 [第一端末装置]
 第一端末装置20は、カメラ1から送信された画像を取得し、取得された画像を情報処理装置30へ送信する。このとき、第一端末装置20は、人感センサ2から送信された検知結果に基づいて、対象者U1が存在する場合に、取得した画像を情報処理装置30へ送信してもよい。なお、第一端末装置20は、カメラ1から送信された画像と、人感センサ2から送信された対象者U1が存在するか否かに関する情報(いわゆる、検知結果)とを取得し、取得された画像と検知結果とを情報処理装置30へ送信してもよい。
[First terminal device]
The firstterminal device 20 acquires the image transmitted from thecamera 1 and transmits the acquired image to theinformation processing device 30 . At this time, the firstterminal device 20 may transmit the acquired image to theinformation processing device 30 based on the detection result transmitted from thehuman sensor 2 when the target person U1 is present. In addition, the firstterminal device 20 acquires the image transmitted from thecamera 1 and the information (so-called detection result) regarding whether or not the target person U1 is transmitted from thehuman sensor 2, and The obtained image and the detection result may be transmitted to theinformation processing device 30 .

 なお、第一端末装置20は、対象者U1の操作入力を受け付ける受付部(不図示)を備えてもよく、この場合、対象者U1はタッチパネル式のディスプレイに表示されたボタン(例えば、在席ボタン、退席ボタンなど)をタッチすることにより対象者U1の存在の有無を入力してもよい。Note that the firstterminal device 20 may include a reception unit (not shown) that receives an operation input from the subject U1. In this case, the subject U1 may use buttons (for example, presence button, leave button, etc.), the presence or absence of the target person U1 may be input.

 また、第一端末装置20は、情報処理装置30から出力された、対象者U1の知的作業の内容、知的作業を行うために使用するツール、及び、知的作業を行うための方法のうち少なくともいずれかに対するアドバイスを対象者U1に提示してもよい。例えば、対象者U1が生徒である場合、知的作業の内容は、例えば、対象者U1が学習している科目及び単元などであってもよい。知的作業を行うためのツールは、例えば、学習教材、学習動画、又は、アプリケーションなどであってもよい。また、知的作業を行うための方法は、例えば、科目ごとの時間配分、教材ごとの時間配分、又は、それらを学習する順番などであってもよい。In addition, the firstterminal device 20 receives the content of the intellectual work of the subject U1, the tools used for performing the intellectual work, and the method for performing the intellectual work output from theinformation processing device 30. Advice on at least one of them may be presented to the subject U1. For example, if the subject U1 is a student, the content of the intellectual work may be, for example, the subjects and units that the subject U1 is studying. A tool for performing intellectual work may be, for example, a learning material, a learning video, or an application. Also, the method for performing intellectual work may be, for example, time allocation for each subject, time allocation for each teaching material, or the order of learning them.

 [情報処理装置]
 情報処理装置30は、例えば、カメラ1で撮影された対象者U1の画像を取得し、取得された画像に含まれる特徴量に基づいて対象者U1の集中度を算出し、算出された集中度を含む対象者U1に関する情報をユーザU2の第二端末装置40へ出力することにより、ユーザU2に対象者U1の集中度を含む対象者U1に関する情報を提示する。情報処理装置30は、通信部31と、制御部32と、記憶部33とを備える。
[Information processing device]
For example, theinformation processing device 30 acquires an image of the subject U1 captured by thecamera 1, calculates the degree of concentration of the subject U1 based on the feature amount included in the acquired image, and calculates the calculated degree of concentration. is output to the secondterminal device 40 of the user U2, the information on the target person U1 including the degree of concentration of the target person U1 is presented to the user U2. Theinformation processing device 30 includes acommunication section 31 , acontrol section 32 and astorage section 33 .

 通信部31は、情報処理装置30が第一端末装置20及び第二端末装置40と通信を行うための通信回路(通信モジュール)である。通信部31は、広域通信ネットワークを介して通信を行うための通信回路と、局所通信ネットワークを介して通信を行うための通信回路とを備えてもよい。通信部31は、例えば、無線通信を行う無線通信回路であるが、有線通信を行う有線通信回路であってもよい。なお、通信部31が行う通信の通信規格については特に限定されない。Thecommunication unit 31 is a communication circuit (communication module) for theinformation processing device 30 to communicate with the firstterminal device 20 and the secondterminal device 40 . Thecommunication unit 31 may include a communication circuit for communicating via the wide area communication network and a communication circuit for communicating via the local communication network. Thecommunication unit 31 is, for example, a wireless communication circuit that performs wireless communication, but may be a wired communication circuit that performs wired communication. Note that the communication standard for communication performed by thecommunication unit 31 is not particularly limited.

 制御部32は、例えば、第一端末装置20から取得された画像に基づいて各種情報処理を行う。制御部32は、具体的には、取得部32aと、算出部32bと、判定部32cと、評価部32dと、出力部32eとを備える。取得部32a、算出部32b、判定部32c、評価部32d、及び、出力部32eの機能は、制御部32を構成するプロセッサ又はマイクロコンピュータが記憶部33に記憶されたコンピュータプログラムを実行することによって実現される。取得部32a、算出部32b、判定部32c、評価部32d、及び、出力部32eの機能の詳細については、動作例にて後述される。For example, thecontrol unit 32 performs various information processing based on the image acquired from the firstterminal device 20. Specifically, thecontrol unit 32 includes anacquisition unit 32a, acalculation unit 32b, adetermination unit 32c, anevaluation unit 32d, and anoutput unit 32e. The functions of theacquisition unit 32a, thecalculation unit 32b, thedetermination unit 32c, theevaluation unit 32d, and theoutput unit 32e are obtained by executing a computer program stored in thestorage unit 33 by the processor or microcomputer constituting thecontrol unit 32. Realized. Details of functions of theacquisition unit 32a, thecalculation unit 32b, thedetermination unit 32c, theevaluation unit 32d, and theoutput unit 32e will be described later in operation examples.

 記憶部33は、制御部32が実行するための専用のアプリケーションプログラムなどが記憶される記憶装置である。記憶部33には、機械学習モデル34と、データベース35とが格納されてもよい。機械学習モデル34は、集中度の算出処理に使用される。機械学習モデル34は、例えば、対象者U1の画像が入力されることにより、当該画像に含まれる特徴量から対象者U1の集中度を出力する。機械学習モデル34は、例えば、ニューラルネットワーク(NN)である。より具体的には、機械学習モデル34は、畳み込み層を有するものであってもよく、例えば、畳み込みニューラルネットワーク(CNN)であってもよい。上記の機械学習モデル34の例は、あくまでも一例であり、これに限定されない。機械学習モデル34は、例えば、教師データを用いて学習されてもよい。教師データは、例えば、入力データとして知的作業を行う対象者が映る画像と、出力データとして当該対象者の知的作業に対する集中度との組を含むデータセットであってもよい。機械学習モデル34は、学習済みの機械学習モデルであり、機械学習により調整された学習済みパラメータを含む。機械学習モデル34は、モデル生成部(不図示)で生成されてもよいし、例えばクラウドサーバなどの外部装置で生成されてもよい。例えば、モデル生成部は、プロセッサが記憶部33に格納されているプログラムを実行することで実現される。Thestorage unit 33 is a storage device that stores a dedicated application program and the like for thecontrol unit 32 to execute. Amachine learning model 34 and adatabase 35 may be stored in thestorage unit 33 . Themachine learning model 34 is used for concentration calculation processing. For example, when an image of the subject U1 is input, themachine learning model 34 outputs the degree of concentration of the subject U1 from the feature amount included in the image.Machine learning model 34 is, for example, a neural network (NN). More specifically, themachine learning model 34 may have convolutional layers, such as a convolutional neural network (CNN). The example of themachine learning model 34 described above is merely an example, and is not limited to this. Themachine learning model 34 may be learned using teacher data, for example. The teacher data may be, for example, a data set including a set of an image of a target person performing intellectual work as input data and a degree of concentration of the target person on the intellectual work as output data. Themachine learning model 34 is a trained machine learning model and includes learned parameters adjusted by machine learning. Themachine learning model 34 may be generated by a model generation unit (not shown), or may be generated by an external device such as a cloud server. For example, the model generation unit is realized by executing a program stored in thestorage unit 33 by the processor.

 データベース35は、対象者U1の識別情報と、対象者U1の過去の集中度(言い換えると、対象者U1の集中度の履歴)とが紐づけられて格納されている。Thedatabase 35 stores the identification information of the subject U1 and the past degree of concentration of the subject U1 (in other words, the history of the degree of concentration of the subject U1) in association with each other.

 [第二端末装置]
 第二端末装置40は、ユーザU2により使用される、パーソナルコンピュータ、タブレット端末、又は、スマートフォンなどの情報端末である。第二端末装置40は、例えば、通信部41と、制御部42と、記憶部43と、受付部44と、提示部45とを備える。
[Second terminal device]
The secondterminal device 40 is an information terminal such as a personal computer, a tablet terminal, or a smart phone used by the user U2. The secondterminal device 40 includes, for example, acommunication unit 41 , acontrol unit 42 , astorage unit 43 , a reception unit 44 and apresentation unit 45 .

 通信部41は、第二端末装置40が情報処理装置30と通信を行うための通信回路(通信モジュール)である。通信部41は、広域通信ネットワークを介して通信を行うための通信回路と、局所通信ネットワークを介して通信を行うための通信回路とを備えてもよい。通信部41は、例えば、無線通信を行う無線通信回路であるが、有線通信を行う有線通信回路であってもよい。なお、通信部41が行う通信の通信規格については特に限定されない。Thecommunication unit 41 is a communication circuit (communication module) for the secondterminal device 40 to communicate with theinformation processing device 30 . Thecommunication unit 41 may include a communication circuit for communicating via the wide area communication network and a communication circuit for communicating via the local communication network. Thecommunication unit 41 is, for example, a wireless communication circuit that performs wireless communication, but may be a wired communication circuit that performs wired communication. Note that the communication standard for communication performed by thecommunication unit 41 is not particularly limited.

 制御部42は、受付部44によって受け付けられた入力操作に基づいて、第二端末装置40に関する各種情報処理を行う。制御部42は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。Thecontrol unit 42 performs various information processing related to the secondterminal device 40 based on the input operation accepted by the accepting unit 44 . Thecontrol unit 42 is implemented by, for example, a microcomputer, but may be implemented by a processor.

 記憶部43は、制御部42によって実行される制御プログラムなどが記憶される記憶装置である。記憶部43は、例えば、半導体メモリによって実現される。Thestorage unit 43 is a storage device that stores control programs and the like executed by thecontrol unit 42 . Thestorage unit 43 is implemented by, for example, a semiconductor memory.

 受付部44は、ユーザU2の入力操作を受け付ける。受付部44は、例えば、タッチパネルによって実現されるが、マウス、キーボード、ハードウェアボタン、又は、マイクなどによって実現されてもよい。The reception unit 44 receives the input operation of the user U2. The reception unit 44 is implemented by, for example, a touch panel, but may be implemented by a mouse, keyboard, hardware buttons, microphone, or the like.

 提示部45は、情報処理装置30によって出力された対象者U1の集中度を含む対象者U1に関する情報が提示される。提示部45は、例えば、文字及び記号などを含む画像情報を表示する表示装置である。さらに、提示部45は、音声情報を出力する音声出力装置を備えてもよい。表示装置は、例えば、液晶(LC)パネル、又は、有機EL(Electro Luminescence)パネルなどを表示デバイスとして含むディスプレイである。また、音声出力装置は、例えば、スピーカである。例えば、提示部45は、対象者U1の集中度に関する情報の画像情報を表示装置に表示してもよく、対象者U1の集中度に関する情報の音声情報を音声出力装置により出力してもよく、画像情報及び音声情報の両方を提示してもよい。Thepresentation unit 45 presents information about the target person U1 including the degree of concentration of the target person U1 output by theinformation processing device 30 . Thepresentation unit 45 is, for example, a display device that displays image information including characters and symbols. Furthermore, thepresentation unit 45 may include an audio output device that outputs audio information. The display device is, for example, a display including a liquid crystal (LC) panel or an organic EL (Electro Luminescence) panel as a display device. Also, the audio output device is, for example, a speaker. For example, thepresentation unit 45 may display image information of information about the degree of concentration of the target person U1 on a display device, may output audio information of information about the degree of concentration of the target person U1 from an audio output device, Both image information and audio information may be presented.

 [動作]
 続いて、実施の形態に係る支援システム10の動作について図面を参照しながら具体的に説明する。
[motion]
Next, the operation of thesupport system 10 according to the embodiment will be specifically described with reference to the drawings.

 [第1の例]
 図3は、実施の形態に係る支援システム10の動作の第1の例を示すフローチャートである。
[First example]
FIG. 3 is a flow chart showing a first example of the operation of thesupport system 10 according to the embodiment.

 例えば、対象者U1は、知的作業を開始する際に、第一端末装置20のタッチパネルディスプレイに表示されたボタンをタッチすると、第一端末装置20は、カメラ1及び人感センサ2にセンシング開始の指示信号を送信する(不図示)。カメラ1及び人感センサ2は、当該指示信号を受信すると、センシングを開始し、センシングデータ(ここでは、画像データ及び人の存在の有無を示すデータ)を第一端末装置20へ送信する(不図示)。For example, when the subject U1 touches a button displayed on the touch panel display of the firstterminal device 20 when starting intellectual work, the firstterminal device 20 causes thecamera 1 and thehuman sensor 2 to start sensing. (not shown). Upon receiving the instruction signal, thecamera 1 and thehuman sensor 2 start sensing, and transmit sensing data (here, image data and data indicating the presence or absence of a person) to the first terminal device 20 (unnecessary). shown).

 次に、第一端末装置20は、カメラ1及び人感センサ2から取得したセンシングデータに基づいて、対象者U1が映る画像を情報処理装置30へ送信する(不図示)。具体的には、第一端末装置20は、人感センサ2によって人(ここでは、対象者U1)の存在が検知されたときにカメラ1によって撮影された画像を対象者U1の画像(より詳細には、対象者U1の頭部が映る画像)として情報処理装置30へ送信する。Next, the firstterminal device 20 transmits an image of the target person U1 to theinformation processing device 30 based on the sensing data acquired from thecamera 1 and the motion sensor 2 (not shown). Specifically, the firstterminal device 20 converts the image captured by thecamera 1 when thehuman sensor 2 detects the presence of a person (here, the target person U1) into an image of the target person U1 (more specifically, is transmitted to theinformation processing device 30 as an image showing the head of the subject U1).

 次に、情報処理装置30の取得部32aは、通信部31を介して、第一端末装置20から送信される対象者U1の画像を定期的に取得する。上述したように、対象者U1の画像には、少なくとも略正面から撮影された対象者U1の頭部が含まれている。対象者U1の頭部の画像には、対象者U1の頭の動きなどの状態、対象者U1の眼(目頭、虹彩、角膜反射、もしくは、瞳孔など)の状態、又は、対象者U1の表情などの情報が含まれている。これらの情報は、いわゆる、対象者U1の生体活動に関する特徴量である、と言える。つまり、取得部32aは、知的作業を行っている対象者U1の生体活動に関する特徴量を取得する(S11)。なお、ステップS11では、取得部32aは、対象者U1が存在するときの画像(特徴量)を取得しているが、カメラ1により撮影された画像と、人感センサ2により検知された対象者U1が存在するか否かを示す情報とを取得してもよい。Next, theacquisition unit 32 a of theinformation processing device 30 periodically acquires the image of the target person U1 transmitted from the firstterminal device 20 via thecommunication unit 31 . As described above, the image of the subject U1 includes at least the head of the subject U1 photographed substantially from the front. The image of the head of the subject U1 includes the movement of the head of the subject U1, the state of the eyes of the subject U1 (inner corner of the eye, iris, corneal reflex, or pupil), or the facial expression of the subject U1. It contains information such as It can be said that these pieces of information are so-called feature amounts related to the life activity of the subject U1. In other words, the acquiringunit 32a acquires the feature amount related to the biological activity of the subject U1 who is performing intellectual work (S11). In step S11, theacquisition unit 32a acquires an image (feature amount) when the subject U1 is present. and information indicating whether or not U1 exists.

 次に、算出部32bは、取得部32aにより取得された対象者U1の画像に基づいて、対象者U1の知的作業に対する集中度を算出する(S12)。上述したように、対象者U1の画像には、対象者U1の生体活動に関する特徴量が含まれている。つまり、算出部32bは、取得部により取得された特徴量に基づいて、対象者U1の知的作業に対する集中度を算出する。算出部32bは、取得部32aにより特徴量が取得されるごとに集中度を算出してもよいし、取得部32aにより特徴量の変化(差分)が取得されるごとに集中度を算出してもよい。Next, thecalculation unit 32b calculates the degree of concentration of the subject U1 on intellectual work based on the image of the subject U1 acquired by theacquisition unit 32a (S12). As described above, the image of the subject U1 includes feature amounts related to the life activity of the subject U1. That is, thecalculation unit 32b calculates the degree of concentration on the intellectual work of the subject U1 based on the feature amount acquired by the acquisition unit. Thecalculation unit 32b may calculate the degree of concentration each time theacquisition unit 32a acquires the feature amount, or may calculate the degree of concentration each time theacquisition unit 32a acquires a change (difference) in the feature amount. good too.

 例えば、算出部32bは、取得部32aにより取得された対象者U1の画像に対して適宜画像処理を実行することにより、1以上の特徴量を抽出する。そして、算出部32bは、抽出された各特徴量について、対応するテンプレート画像と比較することにより、各特徴量について集中度に関する点数を算出する。点数は、例えば、対応するテンプレート画像との一致度に応じて算出されてもよい。そして、算出部32bは、各特徴量について算出した点数を加算し、加算された点数に基づいて集中度を算出する。算出部32bは、点数を加算するにあたって、特徴量ごとに重み付けを行ってもよい。For example, thecalculation unit 32b extracts one or more feature amounts by appropriately performing image processing on the image of the subject U1 acquired by theacquisition unit 32a. Then, thecalculation unit 32b calculates a score related to the degree of concentration for each feature amount by comparing each extracted feature amount with the corresponding template image. The score may be calculated according to the degree of matching with the corresponding template image, for example. Then, thecalculation unit 32b adds the points calculated for each feature amount, and calculates the degree of concentration based on the added points. Thecalculation unit 32b may weight each feature amount when adding the points.

 なお、算出部32bは、取得部32aが画像と対象者U1が存在するか否かを示す情報とを取得した場合、当該情報に基づいて対象者U1が存在するときの画像(言い換えると、画像に含まれる特徴量)を抽出して、抽出された画像(言い換えると、画像に含まれる特徴量)を集中度の算出に使用してもよい。Note that when theacquisition unit 32a acquires the image and the information indicating whether or not the target person U1 exists, thecalculation unit 32b calculates the image when the target person U1 exists based on the information (in other words, the image when the target person U1 exists). ) may be extracted, and the extracted image (in other words, the feature amount included in the image) may be used to calculate the degree of concentration.

 次に、出力部32eは、ステップS12で算出部32bにより算出された対象者U1の集中度を含む対象者U1に関する情報を出力する(不図示)。出力部32eによって出力された集中度を含む対象者U1に関する情報は、通信部31を介して第二端末装置40へ送信される。第二端末装置40の制御部42は、情報処理装置30から送信された集中度を含む対象者U1に関する情報を、通信部41を介して取得すると、取得された集中度を含む対象者U1に関する情報を提示部45に提示させることにより、対象者U1の集中度を含む対象者U1に関する情報をユーザに提示する(S13)。提示部45に提示される集中度(より詳細には、集中度の時系列データ)は、例えば、図4に示されるようにグラフであってもよい。このとき、提示部45には、集中度(具体的には、集中度の時系列データ)と共に、対象者U1の集中状態を提示してもよい。Next, theoutput unit 32e outputs information about the target person U1 including the degree of concentration of the target person U1 calculated by thecalculation unit 32b in step S12 (not shown). Information about the subject U1 including the degree of concentration output by theoutput unit 32 e is transmitted to the secondterminal device 40 via thecommunication unit 31 . When thecontrol unit 42 of the secondterminal device 40 acquires the information regarding the target person U1 including the degree of concentration transmitted from theinformation processing device 30 via thecommunication unit 41, thecontrol unit 42 of the secondterminal device 40 acquires By causing thepresentation unit 45 to present the information, the information regarding the target person U1 including the degree of concentration of the target person U1 is presented to the user (S13). The degree of concentration (more specifically, time-series data of the degree of concentration) presented by thepresentation unit 45 may be, for example, a graph as shown in FIG. At this time, thepresentation unit 45 may present the concentration state of the subject U1 together with the degree of concentration (specifically, time-series data of the degree of concentration).

 対象者U1に関する情報は、例えば、対象者U1の集中度、集中状態、集中状態の持続性、及び、対象者U1の知的作業の遂行を支援するための支援情報(例えば、知的作業の効率化のアドバイスなど)の少なくともいずれかであってもよい。支援情報は、例えば、対象者U1及びユーザU2のそれぞれに対するアドバイスであり、より具体的には、対象者U1に対する知的作業の効率化のアドバイス、及び、ユーザU2に対する対象者U1の効果的な支援に関するアドバイスなどである。これらのアドバイスは、例えば、対象者U1の集中状態に応じて、対象者U1の知的作業の内容、当該知的作業を行うために使用するツール、及び、当該知的作業を行うための方法のうち少なくともいずれかに対するアドバイスであってもよい。Information about the subject U1 includes, for example, the degree of concentration, the state of concentration, the persistence of the state of concentration, and support information for supporting the performance of the intellectual work of the subject U1 (for example, the performance of the intellectual work). advice on efficiency improvement, etc.). The support information is, for example, advice for each of the subject U1 and the user U2. This includes advice on support. These advices are, for example, contents of the subject U1's intellectual work, tools used for performing the intellectual work, and methods for performing the intellectual work, depending on the concentration state of the subject U1. may be advice for at least one of

 図4は、対象者U1の集中度及び集中状態の判定結果の一例を示す図である。図4に示されるように、集中度は、最大値が1.0、最小値が0.0となるように割合で表されているが、最大値が100%、最小値が0%となるように百分率で表されてもよいし、レベル1、レベル2などの階級により表されてもよい。FIG. 4 is a diagram showing an example of determination results of the degree of concentration and concentration state of the subject U1. As shown in FIG. 4, the degree of concentration is expressed as a percentage so that the maximum value is 1.0 and the minimum value is 0.0, but the maximum value is 100% and the minimum value is 0%. It may be expressed as a percentage as shown in the figure, or as a rank such aslevel 1 orlevel 2.

 [第1の例の変形例]
 なお、第1の例では、一人の対象者U1の集中度を算出して当該一人の対象者U1の集中度(例えば、集中度の時系列データのグラフ)を対象者U1に関する情報としてユーザU2に提示したが、複数の対象者U1についても同様にそれぞれ集中度を算出してユーザU2に提示してもよい。例えば、ステップS11では、情報処理装置30の取得部32aは、複数の第一端末装置20から複数の対象者U1の画像(より詳細には、画像に含まれる特徴量)を取得してもよい。また、例えば、ステップS12では、算出部32bは、複数の特徴量に基づいて複数の対象者それぞれの集中度を算出してもよい。また、例えば、ステップS13では、提示部45は、複数の対象者U1それぞれの集中度を含む複数の対象者U1のそれぞれに関する情報をユーザU2に提示してもよい。
[Modification of the first example]
In the first example, the degree of concentration of one target person U1 is calculated, and the degree of concentration of the one target person U1 (for example, a graph of time-series data of the degree of concentration) is used as information about the target person U1 by the user U2. , the degree of concentration may be similarly calculated for each of the plurality of subjects U1 and presented to the user U2. For example, in step S11, theacquisition unit 32a of theinformation processing device 30 may acquire images (more specifically, feature amounts included in the images) of the plurality of subjects U1 from the plurality of firstterminal devices 20. . Further, for example, in step S12, thecalculation unit 32b may calculate the degree of concentration of each of the plurality of subjects based on the plurality of feature amounts. Further, for example, in step S13, thepresentation unit 45 may present information regarding each of the plurality of subjects U1, including the degree of concentration of each of the plurality of subjects U1, to the user U2.

 [第2の例]
 続いて、動作の第2の例について説明する。図5は、実施の形態に係る支援システム10の動作の第2の例を示すフローチャートである。図5では、図3に示されるステップと同一のステップについては同じステップ番号を付している。
[Second example]
Next, a second example of operation will be described. FIG. 5 is a flow chart showing a second example of the operation of thesupport system 10 according to the embodiment. In FIG. 5, steps that are the same as those shown in FIG. 3 are given the same step numbers.

 第1の例では、提示部45は、対象者U1に関する情報として、算出部32bにより算出された対象者U1の集中度をユーザU2に提示した。第2の例では、算出部32bにより算出された集中度の変化に基づいて対象者U1の集中状態を判定し、判定された集中状態をユーザU2に提示する点で第1の例と異なる。以下では、第1の例と同様の動作については説明を省略又は簡略化し、第1の例と異なる点を中心に説明する。In the first example, thepresentation unit 45 presented the user U2 with the degree of concentration of the target person U1 calculated by thecalculation unit 32b as information about the target person U1. The second example differs from the first example in that the concentration state of the subject U1 is determined based on the change in the degree of concentration calculated by thecalculation unit 32b, and the determined concentration state is presented to the user U2. In the following, the description of the same operations as in the first example will be omitted or simplified, and the differences from the first example will be mainly described.

 第一端末装置20から対象者U1の画像が送信されると、情報処理装置30の取得部32aは、対象者U1の画像を取得する。つまり、取得部32aは、知的作業を行っている対象者U1の生体活動に関する特徴量を取得する(S11)。When the image of the subject U1 is transmitted from the firstterminal device 20, theacquisition unit 32a of theinformation processing device 30 acquires the image of the subject U1. In other words, the acquiringunit 32a acquires the feature amount related to the biological activity of the subject U1 who is performing intellectual work (S11).

 次に、算出部32bは、取得部32aにより取得された対象者U1の画像に基づいて、対象者U1の知的作業に対する集中度を算出する(S12)。Next, thecalculation unit 32b calculates the degree of concentration of the subject U1 on intellectual work based on the image of the subject U1 acquired by theacquisition unit 32a (S12).

 次に、判定部32cは、ステップS12で算出部32bにより算出された集中度の変化に基づいて対象者U1の集中状態を判定する(S21)。具体的には、判定部32cは、閾値に基づいて対象者U1の集中状態を判定する。例えば、図4に示されるように、集中度の第一閾値(Th1)を0.5とし、第二閾値(Th2)を0.6とする。この場合、判定部32cは、集中度が第二閾値を上回る場合、対象者U1の集中状態が良い(例えば、〇又は良と提示される)と判定し、集中度が第一閾値を上回り、かつ、第二閾値よりも下回る場合、対象者U1の集中状態が普通(例えば、△又は可と提示される)と判定し、集中度が第一閾値を下回る場合、対象者U1の集中状態は悪い(例えば、×又は不可と提示される)と判定する。集中状態の意味については上述したためここでの説明を省略する。Next, thedetermination unit 32c determines the concentration state of the subject U1 based on the change in the degree of concentration calculated by thecalculation unit 32b in step S12 (S21). Specifically, thedetermination unit 32c determines the concentration state of the subject U1 based on the threshold. For example, as shown in FIG. 4, the first threshold (Th1) of the degree of concentration is set to 0.5, and the second threshold (Th2) is set to 0.6. In this case, when the degree of concentration exceeds the second threshold, thedetermination unit 32c determines that the concentration state of the subject U1 is good (for example, is presented as ◯ or good), the degree of concentration exceeds the first threshold, And if it is less than the second threshold, the concentration state of the subject U1 is determined to be normal (for example, △ or OK is presented), and if the degree of concentration is less than the first threshold, the concentration state of the subject U1 is Determined as bad (for example, presented as x or not acceptable). Since the meaning of the concentration state has been described above, the explanation is omitted here.

 次に、提示部45は、判定部32cにより判定された集中状態をユーザに提示する(S22)。例えば、図4に示されるように、提示部45は、集中度のグラフと、集中状態とを重畳させてディスプレイに表示してもよい。このとき、提示部45は、集中状態の判定結果を示す音声情報を出力してもよい。Next, thepresentation unit 45 presents the concentration state determined by thedetermination unit 32c to the user (S22). For example, as shown in FIG. 4, thepresentation unit 45 may superimpose a graph of the degree of concentration on the state of concentration and display them on the display. At this time, thepresentation unit 45 may output audio information indicating the determination result of the concentration state.

 [第2の例の変形例1]
 なお、第2の例では、集中度の変化に基づいて対象者U1の集中状態を判定し、判定された対象者U1の集中状態をユーザU2に提示したが、第2の例の変形例1では、対象者U1の集中状態が悪化したと判定された場合に、集中状態が悪化したことをユーザに提示する点で第2の例と異なる。
[Modification 1 of Second Example]
In the second example, the concentration state of the subject U1 is determined based on the change in concentration level, and the determined concentration state of the subject U1 is presented to the user U2. This is different from the second example in that, when it is determined that the concentration state of the subject U1 has deteriorated, the fact that the concentration state has deteriorated is presented to the user.

 例えば、判定部32cは、集中度が所定の割合を超えて低下したか否かに基づいて対象者U1の集中状態を判定してもよい。具体的には、例えば、判定部32cは、集中度が所定の割合を超えて低下した場合、対象者U1の集中状態が悪化したと判定してもよい。このとき、ステップS13で第二端末装置40の提示部45は、対象者U1の集中状態が悪化したことをユーザU2に提示する。For example, thedetermination unit 32c may determine the concentration state of the subject U1 based on whether or not the degree of concentration has decreased by exceeding a predetermined rate. Specifically, for example, thedetermination unit 32c may determine that the concentration state of the subject U1 has deteriorated when the degree of concentration has decreased by exceeding a predetermined rate. At this time, in step S13, thepresentation unit 45 of the secondterminal device 40 presents to the user U2 that the concentration state of the target person U1 has deteriorated.

 [第2の例の変形例2]
 第2の例の変形例2では、対象者U1の集中状態が悪化したことを判定する判定基準が第2の例の変形例1と異なる。
[Modification 2 of Second Example]
Modification 2 of the second example differs fromModification 1 of the second example in the determination criteria for determining that the concentration state of the subject U1 has deteriorated.

 例えば、判定部32cは、集中度が閾値(例えば、図4の第一閾値)を下回る状態が一定時間以上(例えば、5分以上)継続したか否かに基づいて、対象者U1の集中状態を判定してもよい。具体的には、例えば、判定部32cは、集中度が閾値(例えば、第一閾値)を下回る状態が一定時間以上継続した場合、対象者U1の集中状態が悪化したと判定してもよい。このとき、ステップS13で第二端末装置40の提示部45は、対象者U1の集中状態が悪化したことをユーザU2に提示する。For example, thedetermination unit 32c determines the concentration state of the subject U1 based on whether or not the degree of concentration has remained below a threshold value (eg, the first threshold value in FIG. 4) for a certain period of time or longer (eg, 5 minutes or longer). may be determined. Specifically, for example, thedetermination unit 32c may determine that the concentration state of the subject U1 has deteriorated when the degree of concentration has remained below a threshold value (for example, a first threshold value) for a certain period of time or longer. At this time, in step S13, thepresentation unit 45 of the secondterminal device 40 presents to the user U2 that the concentration state of the target person U1 has deteriorated.

 なお、判定部32cは、例えば、1週間から1か月の中長期的な期間で、対象者U1の集中度、及び、集中状態を観察することにより、対象者U1独自の集中度及び集中状態の特徴(言い換えると、パターン)を判定してもよい。さらに、判定部32cは、対象者U1独自の集中度及び集中状態の特徴に応じて、対象者U1の集中度が閾値(例えば、第一閾値)を下回る状態が継続する時間の閾値(上記一定時間)を設定してもよい。これにより、判定部32cは、対象者U1の集中状態が悪化したことを的確に判定して、ユーザU2に提示することができる。その結果、ユーザU2は、中長期的なデータに基づいて、対象者U1の集中度の変調、及び、変調の兆しを把握することができる。Note that thedetermination unit 32c observes the degree of concentration and the state of concentration of the subject U1 over a medium- to long-term period of, for example, one week to one month, and determines the degree of concentration and the state of concentration unique to the subject U1. (in other words, patterns) may be determined. Further, thedetermination unit 32c determines a threshold (the above constant time) can be set. Accordingly, thedetermination unit 32c can accurately determine that the concentration state of the subject person U1 has deteriorated and present it to the user U2. As a result, the user U2 can grasp the modulation of the degree of concentration of the target person U1 and the sign of the modulation based on the medium- to long-term data.

 [第2の例の変形例3]
 第2の例の変形例3では、上記の変形例1及び変形例2と対象者U1の集中状態が悪化したことを判定する判定基準が異なる。
[Modification 3 of Second Example]
Modification 3 of the second example differs fromModifications 1 and 2 in the determination criteria for determining that the concentration state of the subject U1 has deteriorated.

 例えば、判定部32cは、集中度が一定時間(例えば、30分)内に閾値(例えば、図4の第一閾値)を下回る回数が所定の回数(例えば、2回)を超えるか否かに基づいて、対象者U1の集中状態を判定してもよい。具体的には、例えば、判定部32cは、集中度が一定時間(例えば、30分)内に閾値(例えば、第一閾値)を下回る回数が所定の回数(例えば、2回)を超える場合、対象者U1の集中状態が悪化したと判定してもよい。このとき、ステップS13で第二端末装置40の提示部45は、対象者U1の集中状態が悪化したことをユーザU2に提示する。For example, thedetermination unit 32c determines whether the number of times the concentration level falls below a threshold value (eg, the first threshold value in FIG. 4) within a certain period of time (eg, 30 minutes) exceeds a predetermined number of times (eg, twice). Based on this, the concentration state of the subject U1 may be determined. Specifically, for example, the determiningunit 32c determines that the number of times the degree of concentration falls below a threshold value (eg, first threshold value) within a certain period of time (eg, 30 minutes) exceeds a predetermined number of times (eg, 2 times), It may be determined that the concentration state of the subject U1 has deteriorated. At this time, in step S13, thepresentation unit 45 of the secondterminal device 40 presents to the user U2 that the concentration state of the target person U1 has deteriorated.

 なお、判定部32cは、例えば、1週間から1か月の中長期的な期間で、対象者U1の集中度、及び、集中状態を観察することにより、対象者U1独自の集中度及び集中状態の特徴(言い換えると、パターン)を判定してもよい。さらに、判定部32cは、対象者U1独自の集中度及び集中状態の特徴に応じて、対象者U1の集中度が一定時間内に閾値(例えば、第一閾値)を下回る回数の閾値(上記所定の回数)を設定してもよい。これにより、判定部32cは、対象者U1の集中状態が悪化したことを的確に判定して、ユーザU2に提示することができる。その結果、ユーザU2は、中長期的なデータに基づいて、対象者U1の集中度の変調、及び、変調の兆しを把握することができる。Note that thedetermination unit 32c observes the degree of concentration and the state of concentration of the subject U1 over a medium- to long-term period of, for example, one week to one month, and determines the degree of concentration and the state of concentration unique to the subject U1. (in other words, patterns) may be determined. Furthermore, the determiningunit 32c determines a threshold (the above-mentioned predetermined number of times) may be set. Accordingly, thedetermination unit 32c can accurately determine that the concentration state of the subject person U1 has deteriorated and present it to the user U2. As a result, the user U2 can grasp the modulation of the degree of concentration of the target person U1 and the sign of the modulation based on the medium- to long-term data.

 [第2の例の変形例4]
 第2の例の変形例4では、上記の変形例1~変形例3と異なり、対象者U1が集中状態を維持できる状態であるか否かを判定する判定基準について説明する。
[Modification 4 of Second Example]
InModification 4 of the second example, unlikeModifications 1 to 3 described above, criteria for determining whether or not the target person U1 is in a state of being able to maintain concentration will be described.

 例えば、判定部32cは、集中度が閾値(例えば、図4の第一閾値)を下回る時間間隔に基づいて、対象者U1が集中状態を維持できる状態であるか否かを判定してもよい。具体的には、例えば、判定部32cは、集中度が閾値(例えば、第一閾値)を下回る時間間隔が所定の間隔(例えば、10分)よりも短い場合、対象者U1が集中状態を維持できる状態ではないと判定してもよい。このとき、ステップS13で第二端末装置40の提示部45は、対象者U1が集中状態を維持できる状態ではないことをユーザU2に提示する。なお、対象者U1が集中状態を維持できる状態ではないとは、対象者U1が知的作業に対して集中状態できてはいるが、集中状態を維持できなくなってきており、非集中状態に陥る可能性が高い状態であることをいう。For example, thedetermination unit 32c may determine whether or not the subject U1 is in a state of being able to maintain concentration, based on the time interval at which the degree of concentration falls below a threshold (eg, the first threshold in FIG. 4). . Specifically, for example, if the time interval at which the degree of concentration falls below a threshold (eg, the first threshold) is shorter than a predetermined interval (eg, 10 minutes), thedetermination unit 32c determines that the subject U1 maintains the state of concentration. It may be determined that it is not possible. At this time, in step S13, thepresentation unit 45 of the secondterminal device 40 presents to the user U2 that the target person U1 is not in a state of being able to maintain a concentrated state. Note that the target person U1 is not in a state of being able to maintain a concentrated state, which means that the target person U1 is in a state of concentrating on intellectual work, but is unable to maintain the state of concentration, and falls into a state of non-concentration. It means that the possibility is high.

 このように、第2の例の変形例では、対象者U1の集中状態が悪化する(例えば、非集中状態に陥る)可能性が高い状態であると判定した場合に、判定結果をユーザU2に提示することで、ユーザU2が対象者U1の集中状態が悪化する前に対象者U1を支援することが可能となる。As described above, in the modified example of the second example, when it is determined that there is a high possibility that the concentration state of the subject person U1 will deteriorate (for example, fall into a non-concentration state), the determination result is sent to the user U2. The presentation enables the user U2 to support the target person U1 before the target person U1's concentration state deteriorates.

 なお、判定部32cは、例えば、1週間から1か月の中長期的な期間で、対象者U1の集中度、及び、集中状態を観察することにより、対象者U1独自の集中度及び集中状態の特徴(言い換えると、パターン)を判定してもよい。さらに、判定部32cは、対象者U1独自の集中度及び集中状態の特徴に応じて、対象者U1の集中度が閾値(例えば、第一閾値)を下回る時間間隔の閾値(上記所定の間隔)を設定してもよい。これにより、判定部32cは、対象者U1の集中状態が悪化したことを的確に判定して、ユーザU2に提示することができる。その結果、ユーザU2は、中長期的なデータに基づいて、対象者U1の集中度の変調、及び、変調の兆しを把握することができる。Note that thedetermination unit 32c observes the degree of concentration and the state of concentration of the subject U1 over a medium- to long-term period of, for example, one week to one month, and determines the degree of concentration and the state of concentration unique to the subject U1. (in other words, patterns) may be determined. Further, thedetermination unit 32c determines the threshold value (the predetermined interval) of the time interval when the degree of concentration of the subject U1 falls below the threshold (for example, the first threshold) according to the characteristics of the degree of concentration and the state of concentration unique to the subject U1. may be set. Accordingly, thedetermination unit 32c can accurately determine that the concentration state of the subject person U1 has deteriorated and present it to the user U2. As a result, the user U2 can grasp the modulation of the degree of concentration of the target person U1 and the sign of the modulation based on the medium- to long-term data.

 [第3の例]
 続いて、動作の第3の例について説明する。図6は、実施の形態に係る支援システム10の動作の第3の例を示すフローチャートである。
[Third example]
Next, a third example of operation will be described. FIG. 6 is a flow chart showing a third example of the operation of thesupport system 10 according to the embodiment.

 第2の例では、一人の対象者U1について、算出部32bにより算出された集中度の変化に基づいて対象者U1の集中状態を判定し、判定された集中状態をユーザU2に提示した。第3の例では、複数の対象者U1のそれぞれについて、算出部32bにより算出された集中度を比較することにより、相対的な集中状態を評価する点で第2の例と異なる。以下では、第2の例と同様の動作については説明を省略又は簡略化し、第2の例と異なる点を中心に説明する。In the second example, for one target person U1, the concentration state of the target person U1 is determined based on the change in the degree of concentration calculated by thecalculation unit 32b, and the determined concentration state is presented to the user U2. The third example differs from the second example in that the relative concentration state is evaluated by comparing the degree of concentration calculated by thecalculation unit 32b for each of the plurality of subjects U1. In the following, the description of the same operations as in the second example will be omitted or simplified, and the differences from the second example will be mainly described.

 情報処理装置30の取得部32aは、複数の第一端末装置20から送信された複数の対象者U1の画像を取得する。つまり、取得部32aは、知的作業を行っている複数の対象者U1それぞれについて、生体活動に関する特徴量を取得する(S31)。Theacquisition unit 32a of theinformation processing device 30 acquires the images of the plurality of subjects U1 transmitted from the plurality of firstterminal devices 20. In other words, theacquisition unit 32a acquires the feature amount related to life activity for each of the plurality of subjects U1 who are performing intellectual work (S31).

 次に、算出部32bは、ステップS31で取得部32aにより取得された複数の対象者U1の特徴量に基づいて、複数の対象者U1のそれぞれの集中度を算出する(S32)。Next, thecalculation unit 32b calculates the degree of concentration of each of the plurality of subjects U1 based on the feature amounts of the plurality of subjects U1 acquired by theacquisition unit 32a in step S31 (S32).

 次に、評価部32dは、ステップS32で算出部32bにより算出された複数の対象者U1の集中度を比較することにより、複数の対象者U1それぞれの相対的な集中状態を評価する(S33)。Next, theevaluation unit 32d evaluates the relative concentration state of each of the plurality of subjects U1 by comparing the degrees of concentration of the plurality of subjects U1 calculated by thecalculation unit 32b in step S32 (S33). .

 次に、出力部32eは、ステップS33で評価部32dにより評価された複数の対象者U1それぞれの相対的な集中状態(以下、S33の評価結果ともいう)を出力する(不図示)。出力部32eによって出力された評価結果は、通信部31を介して第二端末装置40へ送信される。第二端末装置40の制御部42は、情報処理装置30から送信された評価結果を、通信部41を介して取得すると、取得されたS33の評価結果を提示部45に提示させる。つまり、提示部45は、S33の評価結果(より詳細には、複数の対象者U1それぞれの相対的な集中状態)をユーザに提示する(S34)。Next, theoutput unit 32e outputs the relative concentration state (hereinafter also referred to as the evaluation result of S33) of each of the plurality of subjects U1 evaluated by theevaluation unit 32d in step S33 (not shown). The evaluation result output by theoutput unit 32 e is transmitted to the secondterminal device 40 via thecommunication unit 31 . When thecontrol unit 42 of the secondterminal device 40 acquires the evaluation result transmitted from theinformation processing device 30 via thecommunication unit 41, it causes thepresentation unit 45 to present the acquired evaluation result of S33. That is, thepresentation unit 45 presents the evaluation result of S33 (more specifically, the relative concentration state of each of the plurality of subjects U1) to the user (S34).

 [第3の例の変形例1]
 なお、第3の例では、複数の対象者U1の集中度を比較することにより、複数の対象者U1それぞれの相対的な集中状態を評価してユーザU2に提示したが、第3の例の変形例1では、さらに、複数の対象者U1の集中度の低下率を比較することにより、低下率が基準値を上回る集中度がある場合に、当該集中度に対応する対象者をユーザU2に提示する。
[Modification 1 of the third example]
In the third example, by comparing the degree of concentration of the plurality of subjects U1, the relative concentration state of each of the plurality of subjects U1 is evaluated and presented to the user U2. In Modified Example 1, furthermore, by comparing the rate of decrease in the degree of concentration of a plurality of subjects U1, if there is a degree of concentration in which the rate of decrease exceeds a reference value, the subject corresponding to the degree of concentration is assigned to user U2. Present.

 図7は、実施の形態に係る支援システム10の動作の第3の例の変形例1を示すフローチャートである。図7では、図6に示されるステップと同一のステップについては同じステップ番号を付している。以下では、第3の例と異なる点を中心に説明する。FIG. 7 is aflowchart showing Modification 1 of the third example of the operation ofsupport system 10 according to the embodiment. In FIG. 7, steps that are the same as those shown in FIG. 6 are given the same step numbers. In the following, the points different from the third example will be mainly described.

 第3の例の変形例1では、ステップS31~ステップS33の後に、評価部32dは、さらに、複数の対象者U1の集中度の低下率を比較することにより、当該低下率が基準値を上回る集中度があるか否かを判定する(S41)。評価部32dは、低下率が基準値(例えば、複数の集中度の低下率の平均値又は中央値)を上回る集中度があると判定した場合(S41でYes)、当該集中度に対応する対象者U1を集中度の低下率が相対的に大きい対象者であると評価する(S42)。次に、提示部45は、ステップS33及びステップS42の評価結果をユーザU2に提示する(S43)。In Modified Example 1 of the third example, after steps S31 to S33, theevaluation unit 32d further compares the rate of decrease in the degree of concentration of a plurality of subjects U1 to determine whether the rate of decrease exceeds the reference value. It is determined whether or not there is a degree of concentration (S41). When theevaluation unit 32d determines that there is a degree of concentration in which the rate of decrease exceeds a reference value (for example, the average value or the median value of the rate of decrease in a plurality of degrees of concentration) (Yes in S41), the target corresponding to the degree of concentration The person U1 is evaluated as a subject with a relatively high rate of concentration decrease (S42). Next, thepresentation unit 45 presents the evaluation results of steps S33 and S42 to the user U2 (S43).

 一方、評価部32dにより低下率が基準値を上回る集中度がないと判定された場合(S41でNo)、提示部45は、ステップS33の評価結果をユーザU2に提示する(S34)。On the other hand, if theevaluation unit 32d determines that there is no degree of concentration in which the rate of decrease exceeds the reference value (No in S41), thepresentation unit 45 presents the evaluation result of step S33 to the user U2 (S34).

 [第3の例の変形例2]
 図8は、実施の形態に係る支援システム10の動作の第3の例の変形例2を示すフローチャートである。図8では、図6及び図7に示されるステップと同一のステップについては同じステップ番号を付している。以下では、第3の例及び第3の例の変形例1と異なる点を中心に説明する。
[Modification 2 of the third example]
FIG. 8 is a flowchart showing Modification 2 of the third example of the operation ofsupport system 10 according to the embodiment. In FIG. 8, steps that are the same as those shown in FIGS. 6 and 7 are given the same step numbers. Below, the third example and the differences from the first modification of the third example will be mainly described.

 第3の例の変形例2では、ステップS31~ステップS33の後に、評価部32dは、さらに、複数の対象者U1の集中度を基準値(例えば、複数の集中度の平均値又は中央値)と比較することにより、基準値を下回る状態が一定時間以上(例えば、5分以上)継続した集中度があるか否かを判定する(S51)。評価部32dは、基準値(例えば、複数の集中度の平均値又は中央値)を下回る状態が一定時間以上継続した集中度があると判定した場合(S51でYes)、当該集中度に対応する対象者U1を集中度が相対的に低い対象者であると評価する(S52)。次に、提示部45は、ステップS33及びステップS52の評価結果をユーザU2に提示する(S53)。InModification 2 of the third example, after steps S31 to S33, theevaluation unit 32d further sets the degree of concentration of the plurality of subjects U1 to a reference value (for example, the average value or median value of the plurality of degrees of concentration). , it is determined whether or not there is a degree of concentration that has remained below the reference value for a certain period of time or longer (for example, 5 minutes or longer) (S51). If theevaluation unit 32d determines that there is a degree of concentration that has been below a reference value (for example, the average value or median value of a plurality of degrees of concentration) for a certain period of time or longer (Yes in S51), The subject U1 is evaluated as having a relatively low degree of concentration (S52). Next, thepresentation unit 45 presents the evaluation results of steps S33 and S52 to the user U2 (S53).

 一方、評価部32dにより基準値を下回る状態が一定時間以上継続した集中度がないと判定された場合(S51でNo)、提示部45は、ステップS33の評価結果をユーザU2に提示する(S34)。On the other hand, when theevaluation unit 32d determines that the degree of concentration has not continued below the reference value for a certain period of time or more (No in S51), thepresentation unit 45 presents the evaluation result of step S33 to the user U2 (S34 ).

 [第4の例]
 続いて、動作の第4の例について説明する。第4の例では、第2の例と異なり、データベース35に格納された対象者U1の過去のデータに基づいて、対象者U1の集中状態を判定する。ここでは、対象者U1について説明するが、複数の対象者U1についても同様の方法で集中状態を判定してもよい。以下、第1の例及び第2の例と異なる点について図3を参照しながら説明する。
[Fourth example]
Next, a fourth example of operation will be described. In the fourth example, unlike the second example, the concentration state of the subject U1 is determined based on the past data of the subject U1 stored in thedatabase 35 . Here, the target person U1 will be described, but the concentration state of a plurality of target people U1 may be determined by the same method. Differences from the first example and the second example will be described below with reference to FIG.

 第4の例では、判定部32cは、図3のステップS12で算出された対象者U1の集中度と、データベース35に格納された対象者U1の過去の集中度とを比較することにより、対象者U1の集中状態を判定する(不図示)。そして、提示部45は、出力部32eにより出力された対象者U1の集中状態をユーザU2に提示してもよい。In a fourth example, thedetermination unit 32c compares the degree of concentration of the subject U1 calculated in step S12 of FIG. A concentration state of the person U1 is determined (not shown). Then, thepresentation unit 45 may present the user U2 with the concentration state of the subject U1 output by theoutput unit 32e.

 データベース35には、例えば、少なくとも、対象者U1の識別情報(例えば、ID番号など)と、対象者U1の過去の集中度とが紐づけられて格納されている。図4に示されるように、集中度は、集中度の時系列データである。Thedatabase 35 stores, for example, at least the identification information (for example, ID number) of the subject U1 and the past degree of concentration of the subject U1 in association with each other. As shown in FIG. 4, the degree of concentration is time-series data of the degree of concentration.

 例えば、判定部32cは、対象者U1の集中度の時系列データにおける代表値(例えば、平均値又は中央値)と、データベース35から読み出された対象者U1の過去の集中度の時系列データの代表値(例えば、平均値又は中央値)との差分値が正の閾値(例えば、0.2)を上回るか否かを判定する。そして、判定部32cは、差分値が正の閾値を上回る場合、対象者U1の集中状態が向上していると判定する。一方、判定部32cは、差分値が正の閾値を上回らない(つまり、下回る)場合、当該差分値が負の閾値(例えば、-0.2)を下回るか否かを判定する。判定部32cは、当該差分値が負の閾値を下回る場合、対象者U1の集中状態が悪化したと判定する。一方、判定部32cは、当該差分値が負の閾値を下回らない(つまり、上回る)場合、対象者U1の集中状態が安定している(つまり、大きな変化がない)と判定する。For example, thedetermination unit 32c determines the representative value (e.g., average value or median value) in the time-series data of the degree of concentration of the subject U1, and the time-series data of the past degree of concentration of the subject U1 read from thedatabase 35. is greater than a positive threshold value (eg, 0.2). Then, when the difference value exceeds the positive threshold, thedetermination unit 32c determines that the concentration state of the subject U1 is improving. On the other hand, when the difference value does not exceed (that is, falls below) the positive threshold value, thedetermination unit 32c determines whether or not the difference value falls below a negative threshold value (eg, −0.2). Thedetermination unit 32c determines that the concentration state of the subject U1 has deteriorated when the difference value is less than the negative threshold. On the other hand, the determiningunit 32c determines that the concentration state of the subject U1 is stable (that is, there is no significant change) when the difference value does not fall below (that is, exceeds) the negative threshold.

 [第4の例の変形例1]
 なお、第4の例では、算出部32bにより算出された対象者U1の集中度と、データベース35に格納された対象者U1の過去の集中度と比較することにより、対象者U1の集中状態を判定し、判定された対象者U1の集中状態をユーザU2に提示したが、第2の例の変形例1では、対象者U1の集中状態が悪化したと判定された場合に、集中状態が悪化したことをユーザに提示する点で第4の例と異なる。
[Modification 1 of the fourth example]
In the fourth example, by comparing the degree of concentration of the subject U1 calculated by thecalculation unit 32b with the degree of concentration of the subject U1 in the past stored in thedatabase 35, the state of concentration of the subject U1 is calculated. The determined concentration state of the subject U1 is presented to the user U2, but in the modified example 1 of the second example, when it is determined that the concentration state of the subject U1 has deteriorated, the concentration state deteriorates. This differs from the fourth example in that what has been done is presented to the user.

 例えば、データベース35には、さらに、対象者U1の過去の集中状態が紐づけられて格納されている。この場合、判定部32cは、データベース35に格納された対象者U1の過去の集中度と過去の集中状態とに基づいて、対象者U1の典型的な集中状態における集中度の基準値を導出してもよい。より具体的には、判定部32cは、典型的な集中状態における集中度の時系列データの平均値又は中央値を基準値として導出してもよい。For example, thedatabase 35 further stores the past concentration state of the subject U1 in association with it. In this case, thedetermination unit 32c derives a reference value of the degree of concentration in the typical state of concentration of the subject U1 based on the past degree of concentration and the past state of concentration of the subject U1 stored in thedatabase 35. may More specifically, thedetermination unit 32c may derive the average value or the median value of the time-series data of the degree of concentration in a typical state of concentration as the reference value.

 判定部32cは、例えば、算出部32bにより算出された対象者U1の集中度が上記の基準値を下回るか否かに基づいて、対象者U1の集中状態を判定してもよい。このとき、判定部32cは、対象者U1の集中度が基準値を下回る場合、対象者U1の集中状態が悪化したと判定してもよい。このとき、第二端末装置40の提示部45は、対象者U1の集中状態が悪化したことをユーザU2に提示する。Thedetermination unit 32c may determine the concentration state of the subject U1, for example, based on whether the degree of concentration of the subject U1 calculated by thecalculation unit 32b is below the reference value. At this time, thedetermination unit 32c may determine that the concentration state of the subject U1 has deteriorated when the degree of concentration of the subject U1 is below the reference value. At this time, thepresentation unit 45 of the secondterminal device 40 presents to the user U2 that the concentration state of the target person U1 has deteriorated.

 [第4の例の変形例2]
 第4の例の変形例2では、第4の例の変形例1と対象者U1の集中状態の判定基準が異なる。第4の例の変形例1では、数値に基づいて対象者U1の集中状態の悪化を判定したが、第4の例の変形例2では、集中度の時系列データのグラフの形に基づいて対象者U1の集中状態を判定する点で、変形例1と異なる。
[Modification 2 of the fourth example]
Modification 2 of the fourth example differs fromModification 1 of the fourth example in the determination criteria for the concentration state of the subject U1. InModification 1 of the fourth example, deterioration of the concentration state of the subject U1 is determined based on numerical values. This differs fromModification 1 in that the concentration state of the subject U1 is determined.

 例えば、データベース35には、さらに、対象者U1の過去の集中度の時系列データと、過去の集中度の時系列データに対応する集中パターンとが紐づけて格納されている。この場合、判定部32cは、データベース35に格納された過去の集中度の時系列データと集中パターンとに基づいて、対象者U1の典型的な集中パターンを導出してもよい。対象者U1の典型的な集中パターンは、例えば、類型I(集中度が高位一定)、類型II(集中度が低位一定)、類型III(集中度が高位から低位へ徐々に推移)、類型IV(集中度に波がある)のいずれかに分類されてもよい。For example, thedatabase 35 further stores the time-series data of the past degree of concentration of the subject U1 and the concentration pattern corresponding to the time-series data of the past degree of concentration in association with each other. In this case, thedetermination unit 32c may derive a typical concentration pattern of the subject U1 based on the past time-series data of the degree of concentration stored in thedatabase 35 and the concentration pattern. A typical concentration pattern of the subject U1 is, for example, type I (constantly high degree of concentration), type II (constantly low degree of concentration), type III (gradual transition from high to low concentration), and type IV. It may be classified as one of (waves in the degree of concentration).

 例えば、判定部32cは、算出部32bにより算出された対象者U1の集中度の時系列データに基づいて対象者U1の集中パターンを導出し、導出された対象者U1の集中パターンと対象者U1の典型的な集中パターンとを比較することにより、対象者U1の集中状態を判定する。より具体的には、例えば、対象者U1の典型的な集中パターンが類型I(集中度が高位一定)である場合に、対象者U1の集中パターンが類型II(集中度が低位一定)、類型III(高位から低位へ徐々に推移)、又は、類型IV(集中度に波がある)である場合、対象者U1の集中状態が悪化していると判定する。また、例えば、判定部32cは、対象者U1の典型的な集中パターンが類型IVである場合に、対象者U1の集中パターンが類型Iである場合、対象者U1の集中状態が向上していると判定する。For example, thedetermination unit 32c derives the concentration pattern of the subject U1 based on the time series data of the degree of concentration of the subject U1 calculated by thecalculation unit 32b, and the derived concentration pattern of the subject U1 and the concentration pattern of the subject U1 The concentration state of the subject U1 is determined by comparing with the typical concentration pattern of . More specifically, for example, when the typical concentration pattern of the subject U1 is type I (constantly high degree of concentration), the concentration pattern of the subject U1 is type II (constantly low degree of concentration), type In the case of III (gradual transition from high level to low level) or type IV (waves in concentration level), it is determined that the concentration state of subject U1 is deteriorating. Further, for example, when the typical concentration pattern of the subject U1 is type IV, the determiningunit 32c determines that the concentration state of the subject U1 is improving when the concentration pattern of the subject U1 is type I. I judge.

 出力部32eは、判定部32cにより判定された対象者U1の集中状態の判定結果を取得すると、取得された集中状態の判定結果を第二端末装置40へ出力する(不図示)。When theoutput unit 32e acquires the determination result of the concentration state of the subject U1 determined by thedetermination unit 32c, theoutput unit 32e outputs the acquired determination result of the concentration state to the second terminal device 40 (not shown).

 次に、第二端末装置40の提示部45は対象者U1の集中状態をユーザU2に提示する。Next, thepresentation unit 45 of the secondterminal device 40 presents the concentration state of the target person U1 to the user U2.

 なお、上記の動作例において、算出部32bは、ルールベースのアルゴリズムに基づく情報処理を行い、対象者U1の画像(より詳細には、画像に含まれる特徴量)から集中度を算出するが、これに限られない。例えば、算出部32bは、機械学習モデル34を用いて対象者U1の画像(画像に含まれる特徴量)から集中度を算出してもよい。機械学習モデル34については上述したためここでの説明を省略する。In the above operation example, thecalculation unit 32b performs information processing based on a rule-based algorithm, and calculates the degree of concentration from the image of the subject U1 (more specifically, the feature amount included in the image). It is not limited to this. For example, thecalculator 32b may use themachine learning model 34 to calculate the degree of concentration from the image of the subject U1 (feature amount included in the image). Since themachine learning model 34 has been described above, the description thereof is omitted here.

 なお、上記の動作例において、判定部32cは、さらに、対象者U1の集中状態に応じて、対象者U1の知的作業の内容、当該知的作業を行うために使用するツール、及び、当該知的作業を行うための方法のうち少なくともいずれかに対するアドバイスを決定し、対象者U1及びユーザU2の少なくとも一方に当該アドバイスを提案してもよい。当該アドバイスは、知的作業の効率化のアドバイスであり、対象者U1の知的作業の遂行を支援するための支援情報に含まれる。In the above operation example, the determiningunit 32c further determines the content of the intellectual work of the subject U1, the tool used for performing the intellectual work, and the Advice for at least one of the methods for performing intellectual work may be determined, and the advice may be offered to at least one of the subject U1 and the user U2. The advice is advice for improving the efficiency of intellectual work, and is included in the support information for supporting the target person U1 in performing the intellectual work.

 図9は、対象者U1に対して提案されるアドバイスの一例を示す図である。例えば、支援システム10は、対象者U1の集中状態に応じて、対象者U1が使用する第一端末装置20にアドバイスを提示してもよい。例えば、支援システム10は、判定部32cにより対象者U1の集中状態が悪化していると判定された場合、第一端末装置20に知的作業の内容に対するアドバイスを提示してもよい。例えば、図9に示されるように、第一端末装置20は、情報処理装置30からアドバイスを提示する指示を受け付けると、表示部(ディスプレイ)に学習科目を他の科目に切り替えるアドバイスが表示されてもよい。この時、対象者U1は、アドバイスに従って学習科目を数学に切り替える指示を入力してもよいし、アドバイス通りに学習科目を切り替えない場合は、「スキップ」ボタンをタッチすることで学習科目を切り替えない指示を入力してもよい。FIG. 9 is a diagram showing an example of advice proposed to the subject U1. For example, thesupport system 10 may present advice to the firstterminal device 20 used by the subject U1 according to the concentration state of the subject U1. For example, thesupport system 10 may present advice on the contents of the intellectual work to the firstterminal device 20 when thedetermination unit 32c determines that the concentration state of the subject U1 is deteriorating. For example, as shown in FIG. 9, when the firstterminal device 20 receives an instruction to present advice from theinformation processing device 30, an advice to switch the study subject to another subject is displayed on the display unit (display). good too. At this time, the subject U1 may input an instruction to switch the study subject to mathematics according to the advice, or if the subject U1 does not switch the study subject according to the advice, touch the "skip" button so that the study subject is not switched. You can enter instructions.

 例えば、対象者U1が第一端末装置20に学習科目を切り替える指示を入力すると、支援システム10は、対象者U1の学習科目が切り替えられたことをユーザU2に提示してもよい。For example, when the subject U1 inputs an instruction to switch the study subject to the firstterminal device 20, thesupport system 10 may present to the user U2 that the study subject of the subject U1 has been switched.

 図10は、ユーザU2に対して提案される対象者U1に関する情報の一例を示す図である。図10に示されるように、支援システム10は、対象者U1が学習科目を他の科目に切り替えた場合、第二端末装置40に対象者U1(例えば、S君)に関する情報を提示してもよい。ここでは、対象者U1に関する情報は、対象者U1の集中状態が低下していること、集中度の時系列データのグラフ、及び、学習科目を切り替えたことである。例えば、ユーザU2は、第二端末装置40の提示部45に提示された対象者U1に関する情報を確認し、提示部45に提示された「了解」ボタンをタッチすると、受付部44は提示を終了する指示を受け付ける。FIG. 10 is a diagram showing an example of information about the target person U1 proposed to the user U2. As shown in FIG. 10, thesupport system 10 presents information about the subject U1 (for example, Mr. S) to the secondterminal device 40 when the subject U1 switches the learning subject to another subject. good. Here, the information about the subject U1 is that the concentration state of the subject U1 is declining, the graph of the time-series data of the degree of concentration, and the switching of the learning subject. For example, when the user U2 confirms the information about the target person U1 presented on thepresentation unit 45 of the secondterminal device 40 and touches the "OK" button presented on thepresentation unit 45, the reception unit 44 terminates the presentation. accept instructions to

 [効果等]
 以上説明したように、支援システム10は、知的作業を行っている対象者U1の生体活動に関する特徴量を取得する取得部32aと、取得部32aにより取得された特徴量に基づいて対象者U1の知的作業に対する集中度を算出する算出部32bと、算出部32bにより算出された対象者U1の集中度を含む対象者U1に関する情報をユーザU2に提示する提示部45と、を備える。例えば、対象者U1は生徒又は作業者であり、ユーザU2は生徒の教師又は作業者の管理者である。
[Effects, etc.]
As described above, thesupport system 10 includes theacquisition unit 32a that acquires the feature amount related to the life activity of the subject U1 who is performing intellectual work, and the feature amount of the subject U1 based on the feature amount acquired by the acquisition unit 32a. and apresentation unit 45 for presenting the user U2 with information about the target person U1 including the concentration level of the target person U1 calculated by thecalculation unit 32b. For example, the subject U1 is a student or a worker, and the user U2 is a teacher of the student or a manager of the worker.

 このような支援システム10は、対象者U1の集中度を把握することができるように対象者U1の集中度を含む対象者U1に関する情報をユーザU2に提示することで、ユーザU2を支援することができる。これにより、ユーザU2は、対象者U1が知的作業に対して集中して取り組めているか否か把握することができる。Such asupport system 10 supports the user U2 by presenting information about the target person U1 including the concentration level of the target person U1 so that the user U1 can grasp the concentration level of the target person U1. can be done. Thereby, the user U2 can grasp whether or not the subject U1 is concentrating on the intellectual work.

 また、例えば、支援システム10は、さらに、算出部32bにより算出された集中度の変化に基づいて対象者U1の集中状態を判定する判定部32cを備え、提示部45は、判定部32cにより判定された対象者U1の集中状態をユーザU2に提示する。Further, for example, thesupport system 10 further includes adetermination unit 32c that determines the concentration state of the subject U1 based on changes in the degree of concentration calculated by thecalculation unit 32b. The user U2 is presented with the concentration state of the target person U1.

 このような支援システム10は、対象者U1の集中状態を把握できるようにユーザU2を支援することができる。これにより、ユーザU2は、対象者U1の知的作業に対して集中して取り組めているか否かを把握することができる。Such asupport system 10 can support the user U2 to grasp the concentration state of the target person U1. Thereby, the user U2 can grasp whether or not the target person U1 is concentrating on the intellectual work.

 また、例えば、支援システム10では、判定部32cは、集中度が所定の割合を超えて低下したか否かに基づいて対象者U1の集中状態を判定し、提示部45は、集中度が所定の割合を超えて低下した場合に、対象者U1の集中状態が悪化したことをユーザU2に提示する。Further, for example, in thesupport system 10, thedetermination unit 32c determines the concentration state of the subject U1 based on whether the degree of concentration has decreased by exceeding a predetermined rate, and thepresentation unit 45 determines whether the concentration degree , the user U2 is presented with the fact that the concentration state of the subject U1 has deteriorated.

 このような支援システム10は、対象者U1の集中状態が悪化したときにその旨をユーザU2に提示するため、ユーザU2は対象者U1の集中状態の悪化を逐次把握することができる。Such asupport system 10 presents the fact to the user U2 when the concentration state of the target person U1 has deteriorated, so the user U2 can sequentially grasp the deterioration of the concentration state of the target person U1.

 また、例えば、支援システム10では、判定部32cは、集中度が閾値(例えば、図4の第一閾値)を下回る状態が一定時間以上継続したか否かに基づいて対象者U1の集中状態を判定し、提示部45は、集中度が閾値(第一閾値)を下回る状態が一定時間以上継続した場合に、対象者U1の集中状態が悪化したことをユーザU2に提示する。Further, for example, in thesupport system 10, thedetermination unit 32c determines the concentration state of the subject U1 based on whether or not the degree of concentration has remained below a threshold value (for example, the first threshold value in FIG. 4) for a certain period of time or longer. Thepresentation unit 45 presents to the user U2 that the concentration state of the subject person U1 has deteriorated when the degree of concentration has remained below the threshold value (first threshold value) for a certain period of time or longer.

 このような支援システム10は、対象者U1の集中状態が悪化したことを正確に判定することができるため、ユーザU2は対象者U1の集中状態の悪化を正確に把握することができる。Since such asupport system 10 can accurately determine that the concentration state of the subject U1 has deteriorated, the user U2 can accurately grasp the deterioration of the concentration state of the subject U1.

 また、例えば、支援システム10では、判定部32cは、集中度が一定時間内に閾値(第一閾値)を下回る回数が所定の回数を超えるか否かに基づいて対象者U1の集中状態を判定し、提示部45は、集中度が一定時間内に閾値(第一閾値)を下回る回数が所定の回数を超える場合、対象者U1の集中状態が悪化したことをユーザU2に提示する。Further, for example, in thesupport system 10, thedetermination unit 32c determines the concentration state of the subject U1 based on whether the number of times the degree of concentration falls below a threshold (first threshold) within a certain period of time exceeds a predetermined number of times. If the number of times the degree of concentration falls below the threshold (first threshold) within a certain period of time exceeds a predetermined number of times, thepresentation unit 45 presents to the user U2 that the concentration state of the subject U1 has deteriorated.

 このような支援システム10は、対象者U1の集中状態が悪化したことを正確に判定することができるため、ユーザU2は対象者U1の集中状態の悪化を正確に把握することができる。Since such asupport system 10 can accurately determine that the concentration state of the subject U1 has deteriorated, the user U2 can accurately grasp the deterioration of the concentration state of the subject U1.

 また、例えば、支援システム10では、判定部32cは、算出部32bにより算出された集中度が閾値(第一閾値)を下回る時間間隔に基づいて対象者U1が集中状態を持続できる状態であるか否かを判定し、提示部45は、集中度が閾値(第一閾値)を下回る時間間隔が所定の間隔よりも短い場合、対象者U1が集中状態を維持できる状態ではないことをユーザU2に提示する。Further, for example, in thesupport system 10, thedetermination unit 32c determines whether the target person U1 can maintain a state of concentration based on the time interval when the degree of concentration calculated by thecalculation unit 32b falls below the threshold value (first threshold value). If the time interval at which the degree of concentration falls below the threshold value (first threshold value) is shorter than a predetermined interval, thepresentation unit 45 notifies the user U2 that the target person U1 is not in a state where the concentration state can be maintained. Present.

 このような支援システム10は、対象者U1が集中状態であっても、当該集中状態を維持できる状態ではないことを判定することができるため、ユーザU2は対象者U1が本調子ではないことを把握することができる。Even if the subject U1 is in a concentrated state, thesupport system 10 can determine that the subject U1 is not in a state of being able to maintain the state of concentration. can grasp.

 また、例えば、支援システム10は、さらに、対象者U1の識別情報と、対象者U1の過去の集中度とが紐づけられて格納されているデータベース35を備え、判定部32cは、算出部32bにより算出された対象者U1の集中度と、データベース35に格納された対象者U1の過去の集中度とを比較することにより、対象者U1の集中状態を判定する。Further, for example, thesupport system 10 further includes adatabase 35 in which the identification information of the target person U1 and the past degree of concentration of the target person U1 are linked and stored. The concentration level of the subject U1 is determined by comparing the degree of concentration of the subject U1 calculated by and the past degree of concentration of the subject U1 stored in thedatabase 35 .

 このような支援システム10は、過去の対象者U1の集中度が蓄積されたデータベース35を参照することにより、対象者U1の過去の集中度と比較して対象者U1の今の集中状態を判定することができる。これにより、ユーザU2は、対象者U1が通常よりも知的作業に集中できているかどうかを把握することができる。Such asupport system 10 determines the current concentration state of the subject U1 by referring to thedatabase 35 storing the past degree of concentration of the subject U1 and comparing it with the past degree of concentration of the subject U1. can do. Thereby, the user U2 can grasp whether the target person U1 is able to concentrate on intellectual work more than usual.

 また、例えば、データベース35には、さらに、対象者U1の過去の集中状態が紐づけられて格納されており、判定部32cは、データベース35に格納された対象者U1の過去の集中度と過去の集中状態とに基づいて、対象者U1の典型的な集中状態における集中度の基準値を導出し、算出部32bにより算出された集中度が基準値を下回るか否かに基づいて対象者U1の集中状態を判定し、提示部45は、集中度が基準値を下回る場合、対象者U1の集中状態が悪化したことをユーザU2に提示する。Further, for example, thedatabase 35 further stores the past concentration state of the subject U1 in a linked manner. and the reference value of the degree of concentration in the typical state of concentration of the subject U1, and based on whether the degree of concentration calculated by thecalculation unit 32b is below the reference value, the degree of concentration of the subject U1 If the degree of concentration is below the reference value, thepresentation unit 45 presents to the user U2 that the concentration state of the subject U1 has deteriorated.

 このような支援システム10は、対象者U1の集中度及び集中状態などの過去のデータに基づいて導出された対象者U1の典型的な集中状態における集中度の基準値を閾値として用いることで対象者U1の集中状態を判定することができる。したがって、支援システム10は、対象者U1の特性に応じて集中状態を判定することができるため、対象者U1の集中状態をより正確に判定することができる。Such asupport system 10 uses, as a threshold, a reference value of the degree of concentration in a typical state of concentration of the subject U1, which is derived based on past data such as the degree of concentration and the state of concentration of the subject U1. It is possible to determine the concentration state of the person U1. Therefore, since thesupport system 10 can determine the concentration state according to the characteristics of the subject U1, the concentration state of the subject U1 can be determined more accurately.

 また、例えば、上記集中度は、集中度の時系列データであり、データベース35には、さらに、対象者U1の過去の集中度の時系列データと、当該過去の集中度の時系列データに対応する集中パターンとが紐づけて格納されており、判定部32cは、データベース35に格納された過去の集中度の時系列データと集中パターンとに基づいて、対象者U1の典型的な集中パターンを導出し、算出部32bにより算出された集中度の時系列データに基づいて対象者U1の集中パターンを導出し、導出された対象者U1の集中パターンと対象者U1の典型的な集中パターンとを比較することにより、対象者U1の集中状態を判定する。Further, for example, the degree of concentration is time-series data of the degree of concentration, and thedatabase 35 further stores time-series data of the degree of concentration in the past of the subject U1 and time-series data of the degree of concentration in the past. Thedetermination unit 32c determines a typical concentration pattern of the subject U1 based on the time-series data of the past degree of concentration stored in thedatabase 35 and the concentration pattern. Then, the concentration pattern of the subject U1 is derived based on the time-series data of the degree of concentration calculated by thecalculation unit 32b, and the derived concentration pattern of the subject U1 and the typical concentration pattern of the subject U1 are calculated. The concentration state of the subject U1 is determined by the comparison.

 このような支援システム10は、対象者U1の集中パターンと対象者U1の典型的な集中パターンとを比較することにより、対象者U1の集中状態を判定することができる。また、例えば、支援システム10は、対象者U1の体調、季節、又は、対象者U1が取り組む知的作業の内容などに応じてそれぞれ対象者U1の典型的な集中パターンを導出してもよい。この場合、支援システム10は、対象者U1の集中パターンがどの典型的な集中パターンと類似するかによって、対象者U1の集中状態を正確に判定することができる。Such asupport system 10 can determine the concentration state of the subject U1 by comparing the concentration pattern of the subject U1 with the typical concentration pattern of the subject U1. Further, for example, thesupport system 10 may derive a typical concentration pattern of the subject U1 according to the physical condition of the subject U1, the season, or the content of the intellectual work that the subject U1 is working on. In this case, thesupport system 10 can accurately determine the concentration state of the subject U1 depending on which typical concentration pattern the subject U1's concentration pattern resembles.

 また、例えば、支援システム10では、取得部32aは、さらに、対象者U1が行っている知的作業の内容に関する情報、対象者U1による知的作業の進捗に関する情報、及び、対象者U1の周囲の環境に関する情報の少なくともいずれかの情報を取得し、判定部32cは、さらに、算出部32bにより算出された集中度と、取得部32aにより取得された情報との関連性を判定する。Further, for example, in thesupport system 10, theacquisition unit 32a further obtains information about the content of the intellectual work performed by the subject U1, information about the progress of the intellectual work by the subject U1, and information about the surroundings of the subject U1. Thedetermination unit 32c further determines the relationship between the degree of concentration calculated by thecalculation unit 32b and the information obtained by theacquisition unit 32a.

 このような支援システム10は、算出部32bにより算出された対象者U1の集中度と取得部32aにより取得された情報との関連性を考慮して、多角的に対象者U1の集中状態を判定することができる。Such asupport system 10 considers the relationship between the degree of concentration of the subject U1 calculated by thecalculation unit 32b and the information acquired by theacquisition unit 32a, and multilaterally determines the concentration state of the subject U1. can do.

 また、例えば、支援システム10では、取得部32aは、さらに、対象者U1が行っている知的作業の内容に関する情報、対象者U1による知的作業の進捗に関する情報、及び、対象者U1の周囲の環境に関する情報の少なくともいずれかの情報を取得し、判定部32cは、さらに、対象者U1の集中状態と、取得部32aにより取得された情報との関連性を判定する。Further, for example, in thesupport system 10, theacquisition unit 32a further obtains information about the content of the intellectual work performed by the subject U1, information about the progress of the intellectual work by the subject U1, and information about the surroundings of the subject U1. and thedetermination unit 32c further determines the relationship between the concentration state of the subject U1 and the information acquired by theacquisition unit 32a.

 このような支援システム10は、対象者U1の集中状態と取得部32aにより取得された情報との関連性を判定することができるため、多角的に対象者U1の集中状態を判定することができる。Sincesuch support system 10 can determine the relationship between the concentration state of the subject U1 and the information acquired by theacquisition unit 32a, it is possible to determine the concentration state of the subject U1 from multiple perspectives. .

 また、例えば、支援システム10では、取得部32aは、複数の対象者U1のそれぞれについて、当該対象者U1の生体活動に関する特徴量を取得し、算出部32bは、取得部32aにより取得された複数の特徴量に基づいて、複数の対象者U1のそれぞれの集中度を算出し、提示部45は、算出部32bにより算出された複数の対象者U1のそれぞれの集中度を含む複数の対象者U1のそれぞれに関する情報をユーザU2に提示する。Further, for example, in thesupport system 10, the acquiringunit 32a acquires the feature amount related to the bioactivity of the subject U1 for each of the plurality of subjects U1, and the calculatingunit 32b The presentingunit 45 calculates the degree of concentration of each of the plurality of subjects U1 based on the feature amount of the plurality of subjects U1 including the degree of concentration of each of the plurality of subjects U1 calculated by the calculation unit 32b. is presented to the user U2.

 このような支援システム10は、複数の対象者U1のそれぞれの集中度を把握できるようにユーザU2を支援することができる。これにより、ユーザU2は、複数の対象者U1について、各対象者U1が知的作業に対して集中して取り組めているか否か把握することができる。Such asupport system 10 can support the user U2 so that he/she can grasp the degree of concentration of each of the plurality of subjects U1. Thereby, the user U2 can grasp whether or not each subject U1 is concentrating on the intellectual work with respect to the plurality of subjects U1.

 また、例えば、支援システム10は、さらに、算出部32bにより算出された複数の対象者U1の集中度を比較することにより、複数の対象者U1それぞれの相対的な集中状態を評価する評価部32dを備え、提示部45は、評価部32dにより評価された複数の対象者U1それぞれの相対的な集中状態をユーザU2に提示する。Further, for example, thesupport system 10 further compares the degree of concentration of the plurality of subjects U1 calculated by thecalculation section 32b, thereby evaluating the relative concentration state of each of the plurality of subjects U1. , and thepresentation unit 45 presents to the user U2 the relative concentration state of each of the plurality of subjects U1 evaluated by theevaluation unit 32d.

 このような支援システム10は、複数の対象者U1それぞれの相対的な集中状態を把握できるようにユーザU2を支援することができる。これにより、ユーザU2は、相対的な集中状態に基づいて、指導又は教育の優先順位の高い対象者U1を把握することができる。Such asupport system 10 can support the user U2 to grasp the relative concentration state of each of the plurality of subjects U1. Thereby, the user U2 can grasp the target person U1 who has a high priority of guidance or education based on the relative concentration state.

 また、例えば、支援システム10では、評価部32dは、さらに、複数の対象者U1の集中度の低下率を比較することにより、当該低下率が基準値を上回る集中度がある場合に、当該集中度に対応する対象者U1を集中度の低下率が相対的に大きい対象者U1であると評価し、提示部45は、さらに、評価部32dにより評価された集中度の低下率が相対的に大きい対象者U1をユーザU2に提示する。Further, for example, in thesupport system 10, theevaluation unit 32d further compares the reduction rates of the concentration levels of the plurality of subjects U1. Thepresentation unit 45 further evaluates the target person U1 corresponding to the degree of concentration as the target person U1 whose rate of decrease in the degree of concentration is relatively large. A large subject U1 is presented to the user U2.

 このような支援システム10は、複数の対象者U1のうち集中度の低下率が相対的に大きい対象者U1を把握できるようにユーザU2を支援することができる。これにより、ユーザU2は、複数の対象者U1のうち集中度の低下率が相対的に大きい対象者U1を把握することができる。Such asupport system 10 can support the user U2 so that he/she can grasp the target person U1 whose degree of concentration decrease rate is relatively large among the plurality of target persons U1. Thereby, the user U2 can grasp the target person U1 whose degree of concentration decrease rate is relatively large among the plurality of target persons U1.

 また、例えば、支援システム10では、評価部32dは、さらに、複数の対象者U1の集中度を基準値と比較することにより、当該基準値を下回る状態が一定時間以上継続した集中度がある場合に、当該集中度に対応する対象者U1を集中度が相対的に低い対象者U1であると評価し、提示部45は、さらに、評価部32dにより評価された集中度が相対的に低い対象者U1をユーザU2に提示する。Further, for example, in thesupport system 10, theevaluation unit 32d further compares the concentration levels of the plurality of subjects U1 with a reference value, and if there is a concentration level that has been below the reference value for a certain period of time or more, Then, the subject U1 corresponding to the degree of concentration is evaluated as the subject U1 with the relatively low degree of concentration, and thepresentation unit 45 further evaluates the subject U1 with the relatively low degree of concentration evaluated by theevaluation unit 32d. Present person U1 to user U2.

 このような支援システム10は、複数の対象者U1のうち集中度が相対的に低い対象者U1を把握できるようにユーザU2を支援することができる。これにより、ユーザU2は、複数の対象者U1のうち集中度が相対的に低い対象者U1を把握することができる。Such asupport system 10 can support the user U2 so that he/she can grasp the target person U1 whose degree of concentration is relatively low among the plurality of target persons U1. Thereby, the user U2 can grasp the target person U1 whose degree of concentration is relatively low among the plurality of target people U1.

 また、例えば、基準値は、複数の集中度の平均値又は中央値である。Also, for example, the reference value is the average value or median value of a plurality of degrees of concentration.

 このような支援システム10は、複数の対象者U1の集中度の判定において、複数の対象者U1の集中度の平均値又は中央値を基準値として用いるため、複数の対象者U1について集中度及び集中状態を相対的に評価することができる。これにより、ユーザU2は、複数の対象者U1の集中度及び集中状態を相対的に把握することができる。そのため、ユーザU2は、複数の対象者U1の中から支援が必要な対象者U1を容易に把握することができる。Such asupport system 10 uses the average value or the median value of the concentration levels of the plurality of subjects U1 as a reference value in determining the concentration levels of the plurality of subjects U1. Concentration can be relatively evaluated. Thereby, the user U2 can relatively grasp the degree of concentration and the state of concentration of the plurality of subjects U1. Therefore, the user U2 can easily grasp the target person U1 who needs support from among the plurality of target people U1.

 また、例えば、支援システム10aは、さらに、集中状態の特徴量と、非集中状態の特徴量とが格納された特徴量データベース36を備え、判定部32cは、特徴量データベース36に基づいて、取得部32aにより取得された特徴量から対象者U1が集中状態であるか非集中状態であるかを判定し、提示部45は、判定部32cにより対象者U1が非集中状態であると判定された場合に、対象者U1が非集中状態であることをユーザU2に提示する。Further, for example, thesupport system 10a further includes afeature amount database 36 that stores the feature amount of the focused state and the feature amount of the non-concentrated state, and thedetermination unit 32c acquires Thepresentation unit 45 determines whether the subject U1 is in a concentrated state or a non-concentrated state from the feature amount acquired by theunit 32a. In this case, it is presented to the user U2 that the subject U1 is in a non-concentrated state.

 このような支援システム10aは、特徴量データベース36に格納された集中状態の特徴量及び非集中状態の特徴量に基づいて、知的作業を行っている対象者U1の生体活動に関する特徴量から対象者U1が集中状態であるか非集中状態であるかを判定することができる。したがって、支援システム10aは、対象者U1が集中状態であるか非集中状態であるかを効率よく判定することができる。Such asupport system 10a is based on the feature amount of the concentration state and the feature amount of the non-concentration state stored in thefeature amount database 36, and based on the feature amount related to the biological activity of the subject U1 who is performing intellectual work. It can be determined whether the person U1 is in a concentrated state or in a non-concentrated state. Therefore, thesupport system 10a can efficiently determine whether the target person U1 is in a concentrated state or in a non-concentrated state.

 また、例えば、特徴量は、対象者U1の姿勢、手の動き、頭の動き、眼の動き、表情、及び、筆跡のうちの少なくとも1つの状態を示す情報である。Also, for example, the feature amount is information indicating at least one state of the subject U1's posture, hand movement, head movement, eye movement, facial expression, and handwriting.

 このような支援システム10は、対象者U1の生体活動に関する特徴量として対象者U1の姿勢、手の動き、頭の動き、眼の動き、表情、及び、筆跡のうちの少なくとも1つの状態を示す情報を使用する。そのため、支援システム10は、少なくとも1つの情報に基づいて、対象者U1の集中度の算出及び集中状態の判定を行うことができるため、信頼性の高い算出結果及び判定結果を得ることができる。Such asupport system 10 indicates at least one state of the target person U1's posture, hand movement, head movement, eye movement, facial expression, and handwriting as a feature quantity related to the biological activity of the target person U1. use the information; Therefore, thesupport system 10 can calculate the degree of concentration and determine the state of concentration of the subject U1 based on at least one piece of information, so that highly reliable calculation results and determination results can be obtained.

 また、例えば、特徴量は、非接触デバイスにより取得されたデータに含まれる。Also, for example, the feature amount is included in the data acquired by the contactless device.

 このような支援システム10は、例えば、カメラなどの非接触デバイスを用いて対象者U1の生体活動に関する特徴量を取得することができるため、対象者U1の知的作業の実行を妨げにくい。そのため、支援システム10は、より正確に対象者U1の集中度を算出することができる。Such asupport system 10 can, for example, use a non-contact device such as a camera to acquire feature amounts related to the biological activities of the subject U1, so that it is difficult for the subject U1 to perform intellectual work. Therefore, thesupport system 10 can more accurately calculate the degree of concentration of the target person U1.

 また、例えば、支援システム10では、取得部32aは、さらに、対象者U1が存在するか否かを示す情報を取得し、算出部32bは、取得部32aにより取得された当該情報に基づいて、対象者U1が存在するときの特徴量を集中度の算出に使用する。Further, for example, in thesupport system 10, theacquisition unit 32a further acquires information indicating whether or not the subject U1 exists, and thecalculation unit 32b, based on the information acquired by theacquisition unit 32a, The feature amount when the target person U1 is present is used to calculate the degree of concentration.

 このような支援システム10は、例えば人感センサ2などの人の存在の有無を検知するセンサを用いることにより、対象者U1が存在するときの対象者U1の生体活動に関する特徴量を集中度の算出に使用することができる。これにより、支援システム10は、より正確に対象者U1の集中度を算出することができる。Such asupport system 10 uses a sensor for detecting the presence or absence of a person, such as thehuman sensor 2, so that the feature amount related to the biological activity of the subject U1 when the subject U1 is present is calculated as the degree of concentration. can be used for calculations. Accordingly, thesupport system 10 can more accurately calculate the degree of concentration of the target person U1.

 また、例えば、支援システム10では、算出部32bは、機械学習モデル34を用いて特徴量から集中度を算出する。例えば、支援システム10は、さらに、機械学習モデル34を生成するモデル生成部(図2で不図示)を備えてもよい。Also, for example, in thesupport system 10, thecalculator 32b uses themachine learning model 34 to calculate the degree of concentration from the feature amount. For example,assistance system 10 may further include a model generator (not shown in FIG. 2) that generatesmachine learning model 34 .

 このような支援システム10は、機械学習モデル34を用いることにより、より迅速に、かつ、精度よく対象者U1の集中度を算出することができる。By using themachine learning model 34, such asupport system 10 can more quickly and accurately calculate the degree of concentration of the subject U1.

 また、支援システム10などのコンピュータによって実行される支援方法は、知的作業を行っている対象者U1の生体活動に関する特徴量を取得する取得ステップ(S11)と、取得ステップ(S11)で取得された特徴量に基づいて対象者U1の知的作業に対する集中度を算出する算出ステップ(S12)と、算出ステップ(S12)で算出された集中度を含む対象者U1に関する情報をユーザU2に提示する提示ステップ(S13)と、を含む。Further, the support method executed by a computer such as thesupport system 10 includes an acquisition step (S11) of acquiring a feature amount related to the biological activity of the subject U1 who is performing intellectual work, and an acquisition step (S11). A calculating step (S12) for calculating the degree of concentration of the subject U1 on the intellectual work based on the feature amount obtained, and presenting information regarding the subject U1 including the degree of concentration calculated in the calculating step (S12) to the user U2. and a presentation step (S13).

 このような支援方法は、対象者U1の集中度を把握することができるように対象者U1の集中度を含む対象者U1に関する情報をユーザU2に提示することで、ユーザU2を支援することができる。これにより、ユーザU2は、対象者U1が知的作業に対して集中して取り組めているか否か把握することができる。Such a support method can support the user U2 by presenting information about the target person U1 including the concentration level of the target person U1 so that the user U1 can grasp the concentration level of the target person U1. can. Thereby, the user U2 can grasp whether or not the subject U1 is concentrating on the intellectual work.

 また、プログラムは、コンピュータに上記の支援方法を実行させる。In addition, the program causes the computer to execute the above support method.

 このようなプログラムによれば、対象者U1の集中度を把握することができるように対象者U1の集中度を含む対象者U1に関する情報をユーザU2に提示することで、ユーザU2を支援することができる。これにより、ユーザU2は、対象者U1が知的作業に対して集中して取り組めているか否か把握することができる。According to such a program, the user U2 is supported by presenting information about the target person U1 including the concentration level of the target person U1 so that the user U1 can grasp the concentration level of the target person U1. can be done. Thereby, the user U2 can grasp whether or not the subject U1 is concentrating on the intellectual work.

 (実施の形態の変形例)
 [構成]
 続いて、実施の形態の変形例に係る支援システムについて説明する。図11は、実施の形態の変形例に係る支援システムの機能構成の一例を示すブロック図である。
(Modification of Embodiment)
[composition]
Next, a support system according to a modified example of the embodiment will be described. 11 is a block diagram illustrating an example of a functional configuration of a support system according to a modification of the embodiment; FIG.

 変形例に係る支援システム10aは、さらに、特徴量データベース36に基づいて、取得部32aにより取得された特徴量から対象者U1が集中状態であるか非集中状態であるかを判定する点で、実施の形態に係る支援システム10と異なる。Thesupport system 10a according to the modification further determines whether the subject U1 is in a focused state or a non-concentrated state from the feature amount acquired by theacquisition unit 32a based on thefeature amount database 36. It differs from thesupport system 10 according to the embodiment.

 より具体的には、支援システム10aは、実施の形態に係る支援システム10の構成に加えて、さらに、特徴量データベース36を備える。支援システム10aは、特徴量データベース36に基づいて、作業空間4(図1参照)で知的作業を行っている対象者U1の生体活動に関する特徴量から対象者U1が集中状態であるか非集中状態であるかを判定し、判定結果をユーザU2に提示してもよい。例えば、支援システム10aは、判定部32cにより対象者U1が非集中状態であると判定された場合に、対象者U1が非集中状態であることをユーザU2に提示してもよい。More specifically, thesupport system 10a further includes afeature amount database 36 in addition to the configuration of thesupport system 10 according to the embodiment. Based on thefeature amount database 36, thesupport system 10a determines whether the subject U1 is in a concentrated state or not from the feature amounts related to the biological activity of the subject U1 who is performing intellectual work in the work space 4 (see FIG. 1). It may be determined whether or not it is in the state, and the determination result may be presented to the user U2. For example, thesupport system 10a may present to the user U2 that the target person U1 is in a non-concentrated state when thedetermination unit 32c determines that the target person U1 is in a non-concentrated state.

 例えば、図11に示されるように、支援システム10aは、2以上の第一端末装置20と、情報処理装置30aと、第二端末装置40とを備える。支援システム10aは、情報処理装置30aを備える点で、支援システム10と異なる。以下では、実施の形態に係る支援システム10と異なる点を中心に説明し、重複する内容は説明を省略又は簡略化する。For example, as shown in FIG. 11, thesupport system 10a includes two or more firstterminal devices 20, aninformation processing device 30a, and a secondterminal device 40. Thesupport system 10a differs from thesupport system 10 in that it includes aninformation processing device 30a. In the following, differences from thesupport system 10 according to the embodiment will be mainly described, and redundant descriptions will be omitted or simplified.

 [情報処理装置]
 情報処理装置30aは、例えば、カメラ1で撮影された対象者U1の画像を取得し、特徴量データベース36に基づいて、取得された画像に含まれる特徴量から対象者U1が集中状態であるか非集中状態であるかを判定し、判定結果に基づいて対象者U1に関する情報をユーザU2の第二端末装置40へ出力する。
[Information processing device]
For example, theinformation processing device 30a acquires an image of the subject U1 captured by thecamera 1, and based on thefeature amount database 36, determines whether the subject U1 is in a concentrated state based on the feature amount included in the acquired image. It determines whether or not the user is in a non-concentrated state, and outputs information about the subject U1 to the secondterminal device 40 of the user U2 based on the determination result.

 情報処理装置30aは、通信部31と、制御部32と、記憶部33と、モデル生成部37とを備える。制御部32に含まれる各構成の機能の詳細については、動作例にて後述される。Theinformation processing device 30a includes acommunication unit 31, acontrol unit 32, astorage unit 33, and amodel generation unit 37. Details of the function of each component included in thecontrol unit 32 will be described later in an operation example.

 特徴量データベース36は、例えば、記憶部33内に格納されている。特徴量データベース36は、例えば、複数の対象者U1の集中状態の特徴量と非集中状態の特徴量とが格納されている。特徴量は、例えば、対象者U1の姿勢、手の動き、頭の動き、眼の動き、表情、及び、筆跡のうちの少なくとも1つの状態を示す情報である。Thefeature database 36 is stored in thestorage unit 33, for example. Thefeature amount database 36 stores, for example, the feature amounts of the concentration state and the feature amounts of the non-concentration state of a plurality of subjects U1. The feature amount is, for example, information indicating at least one state of the subject U1's posture, hand movement, head movement, eye movement, facial expression, and handwriting.

 モデル生成部37は、機械学習モデル34を生成する。例えば、モデル生成部37は、特徴量と集中度との関係性を学習することにより、機械学習モデル34を生成してもよい。機械学習モデル34の学習については、上記の実施の形態で説明したため、ここでの説明を省略する。モデル生成部37は生成した機械学習モデル34を記憶部33内に格納する。Themodel generation unit 37 generates themachine learning model 34. For example, themodel generation unit 37 may generate themachine learning model 34 by learning the relationship between the feature amount and the degree of concentration. Since the learning of themachine learning model 34 has been described in the above embodiment, description thereof will be omitted here. Themodel generation unit 37 stores the generatedmachine learning model 34 in thestorage unit 33 .

 [動作]
 続いて、実施の形態の変形例に係る支援システム10aの動作について図面を参照しながら具体的に説明する。以下、実施の形態と異なる点を中心に説明する。
[motion]
Next, the operation of thesupport system 10a according to the modified example of the embodiment will be specifically described with reference to the drawings. The following description focuses on points that differ from the embodiment.

 [第1の例]
 例えば、対象者U1は、知的作業を開始する際に、第一端末装置20のタッチパネルディスプレイに表示されたボタンをタッチすると、第一端末装置20は、カメラ1及び人感センサ2にセンシング開始の指示信号を送信する。カメラ1及び人感センサ2は、当該指示信号を受信すると、センシングを開始し、センシングデータ(例えば、画像データ及び人の存在の有無を示すデータ)を第一端末装置20へ送信する。
[First example]
For example, when the subject U1 touches a button displayed on the touch panel display of the firstterminal device 20 when starting intellectual work, the firstterminal device 20 causes thecamera 1 and thehuman sensor 2 to start sensing. to send an instruction signal. Upon receiving the instruction signal, thecamera 1 and thehuman sensor 2 start sensing and transmit sensing data (for example, image data and data indicating the presence or absence of a person) to the firstterminal device 20 .

 次に、第一端末装置20は、カメラ1及び人感センサ2から取得したセンシングデータに基づいて、対象者U1が映る画像を情報処理装置30aへ送信する。具体的には、第一端末装置20は、人感センサ2によって人(ここでは、対象者U1)の存在が検知されたときにカメラ1によって撮影された画像を対象者U1の画像(より詳細には、対象者U1の頭部が映る画像)として情報処理装置30aへ送信する。Next, the firstterminal device 20 transmits an image of the target person U1 to theinformation processing device 30a based on the sensing data acquired from thecamera 1 and themotion sensor 2. Specifically, the firstterminal device 20 converts the image captured by thecamera 1 when thehuman sensor 2 detects the presence of a person (here, the target person U1) into an image of the target person U1 (more specifically, is transmitted to theinformation processing device 30a as an image in which the head of the subject U1 is reflected).

 次に、情報処理装置30aの取得部32aは、通信部31を介して、第一端末装置20から送信される対象者U1の画像を定期的に取得する。上述したように、対象者U1の画像には、少なくとも略正面から撮影された対象者U1の頭部が含まれている。対象者U1の頭部の画像には、対象者U1の頭の動きなどの状態、対象者U1の眼(目頭、虹彩、角膜反射、もしくは、瞳孔など)の状態、又は、対象者U1の表情などの情報が含まれている。これらの情報は、いわゆる、対象者U1の生体活動に関する特徴量である、と言える。つまり、取得部32aは、知的作業を行っている対象者U1の生体活動に関する特徴量を取得する。なお、取得部32aは、対象者U1が存在するときの画像(特徴量)を取得しているが、カメラ1により撮影された画像と、人感センサ2により検知された対象者U1が存在するか否かを示す情報とを取得してもよい。Next, theacquisition unit 32a of theinformation processing device 30a periodically acquires the image of the target person U1 transmitted from the firstterminal device 20 via thecommunication unit 31. As described above, the image of the subject U1 includes at least the head of the subject U1 photographed substantially from the front. The image of the head of the subject U1 includes the movement of the head of the subject U1, the state of the eyes of the subject U1 (inner corner of the eye, iris, corneal reflex, or pupil), or the facial expression of the subject U1. It contains information such as It can be said that these pieces of information are so-called feature amounts related to the life activity of the subject U1. In other words, the acquiringunit 32a acquires the feature amount related to the biological activity of the subject U1 who is performing intellectual work. Although theacquisition unit 32a acquires an image (feature amount) when the subject U1 exists, the image captured by thecamera 1 and the subject U1 detected by thehuman sensor 2 exist. You may acquire the information which shows whether it is.

 次に、判定部32cは、特徴量データベース36に基づいて、取得部32aにより取得された特徴量から対象者U1が集中状態であるか非集中状態であるかを判定する。より具体的には、例えば、判定部32cは、取得部32aにより取得された特徴量が特徴量データベース36に格納されている集中時及び非集中時の特徴量のいずれと一致するかによって、対象者U1が集中状態であるか非集中状態であるかを判定してもよい。例えば、判定部32cは、例えば、記憶部33内の特徴量データベース36に基づいて、取得部32aにより取得された特徴量から対象者U1が集中状態であるか非集中状態であるかを判定してもする。より具体的には、判定部32cは、取得部32aにより取得された対象者U1の特徴量(例えば、画像に含まれる特徴量)が特徴量データベース36に格納された集中時の特徴量と一致する場合、対象者U1は集中状態であると判定し、非集中時の特徴量と一致する場合、対象者U1は非集中状態であると判定してもよい。なお、一致するとは、完全に一致することに限られない。Next, based on thefeature amount database 36, thedetermination unit 32c determines whether the subject U1 is in a concentrated state or a non-concentrated state from the feature amount acquired by theacquisition unit 32a. More specifically, for example, thedetermination unit 32c determines whether the feature amount acquired by theacquisition unit 32a matches the feature amount during concentration or during non-concentration stored in thefeature amount database 36. It may be determined whether the person U1 is in a concentrated state or a non-concentrated state. For example, the determiningunit 32c determines whether the subject U1 is in a focused state or a non-concentrated state based on thefeature amount database 36 in thestorage unit 33, based on the feature amount acquired by theacquisition unit 32a. Even if More specifically, thedetermination unit 32c determines whether the feature amount of the subject U1 acquired by theacquisition unit 32a (for example, the feature amount included in the image) matches the feature amount during concentration stored in thefeature amount database 36. In this case, it may be determined that the subject U1 is in a state of concentration, and if the feature amount matches the non-concentration state, it may be determined that the subject U1 is in a state of non-concentration. Matching is not limited to complete matching.

 以下では、図12を参照しながら、特徴量データベース36について具体的に説明する。図12は、特徴量データベース36に格納されている集中時の特徴量及び非集中時の特徴量の例を示す図である。図12の例では、知的作業として学習を行っている対象者U1の集中時の特徴量及び非集中時の特徴量を示している。ここでは、特徴量は、例えば、画像に含まれる特徴量であり、知的作業を行っている人の姿勢、手の動き、頭の動き、及び、表情を示す情報であってもよい。なお、画像は、静止画像であってもよいし、動画像であってもよい。Thefeature amount database 36 will be specifically described below with reference to FIG. FIG. 12 is a diagram showing an example of the feature amount during concentration and the feature amount during non-concentration stored in thefeature amount database 36. As shown in FIG. In the example of FIG. 12, the feature amount during concentration and the feature amount during non-concentration of the subject U1 who is learning as intellectual work are shown. Here, the feature amount is, for example, a feature amount included in an image, and may be information indicating the posture, hand movement, head movement, and facial expression of a person performing intellectual work. Note that the image may be a still image or a moving image.

 図12の(a)及び図12の(b)は、画像に映る人が知的作業に集中している時の特徴量の例を示している。例えば、判定部32cは、取得部32aにより取得された特徴量が図12の(a)及び図12の(b)のいずれかと一致すると判定した場合、対象者U1は集中状態であると判定する。このとき、提示部45は、対象者U1が集中状態であることをユーザU2に提示してもよい。FIGS. 12(a) and 12(b) show examples of feature amounts when the person in the image is concentrating on intellectual work. For example, when thedetermination unit 32c determines that the feature amount acquired by theacquisition unit 32a matches either of (a) or (b) of FIG. 12, thedetermination unit 32c determines that the subject U1 is in a concentrated state. . At this time, thepresentation unit 45 may present to the user U2 that the target person U1 is in a concentrated state.

 図12の(c)、図12の(d)及び図12の(e)は、画像に映る人が知的作業に集中していないときの特徴量の例を示している。より具体的には、例えば、図12の(c)及び図12の(d)は、知的作業を行っている人の集中度が低下した状態(いわゆる、上の空の状態)の特徴量の例を示しており、図12の(e)は、知的作業を行うことができないほど人の集中度が低下した状態(いわゆる、居眠り状態)の特徴量の例を示している。例えば、判定部32cは、取得部32aにより取得された特徴量が図12の(c)~図12の(e)のいずれかと一致すると判定した場合、対象者U1は非集中状態であると判定する。このとき、提示部45は、対象者U1が非集中状態であることをユーザU2に提示してもよい。(c) of FIG. 12, (d) of FIG. 12, and (e) of FIG. 12 show examples of feature amounts when the person in the image is not concentrating on intellectual work. More specifically, for example, FIGS. 12(c) and 12(d) are examples of feature amounts in a state in which the degree of concentration of a person performing intellectual work has decreased (so-called empty state). , and (e) of FIG. 12 shows an example of the feature quantity in a state in which the degree of concentration of the person is so low that it is impossible to perform intellectual work (so-called dozing state). For example, when thedetermination unit 32c determines that the feature amount acquired by theacquisition unit 32a matches any of (c) to (e) of FIG. 12, it determines that the subject U1 is in a non-concentrated state. do. At this time, thepresentation unit 45 may present to the user U2 that the target person U1 is in a non-concentrated state.

 続いて、図13を参照しながら、特徴量データベース36に含まれる非集中時の特徴量の他の例について説明する。図13は、特徴量データベース36に格納されている非集中時の特徴量の他の例を示す図である。図13で示される特徴量は、例えば、筆跡である。Next, with reference to FIG. 13, another example of the non-concentration feature amount included in thefeature amount database 36 will be described. FIG. 13 is a diagram showing another example of the non-convergence feature amount stored in thefeature amount database 36. As shown in FIG. The feature quantity shown in FIG. 13 is handwriting, for example.

 図13の(a)は、対象者U1が眠気を感じている状態の筆跡の例を示し、図13の(b)及び(c)は、対象者U1が猛烈な眠気を感じている状態の筆跡の例を示し、図13の(d)は、対象者U1が居眠りしている状態の筆跡の例を示している。なお、特徴量データベース36には、対象者U1の集中時の筆跡も格納されてもよい。(a) of FIG. 13 shows an example of handwriting when the subject U1 is feeling sleepy, and (b) and (c) of FIG. An example of handwriting is shown, and (d) of FIG. 13 shows an example of handwriting in a state where the subject U1 is dozing off. Note that thefeature amount database 36 may also store the handwriting of the subject U1 when concentrating.

 判定部32cは、取得部32aにより取得された特徴量(ここでは、対象者U1の筆跡)が特徴量データベース36に格納されている集中時の特徴量(筆跡)と一致すると判定した場合、対象者U1は集中状態であると判定する。一方、判定部32cは、取得部32aにより取得された特徴量(対象者U1の筆跡)が特徴量データベース36に格納されている非集中時の特徴量(筆跡)と一致すると判定した場合、対象者U1は非集中状態であると判定する。このとき、提示部45は、判定結果をユーザU2に提示してもよい。If thedetermination unit 32c determines that the feature amount (here, the handwriting of the subject U1) acquired by theacquisition unit 32a matches the feature amount (handwriting) during concentration stored in thefeature amount database 36, the target It is determined that person U1 is in a concentrated state. On the other hand, if thedetermination unit 32c determines that the feature amount (handwriting of the subject U1) acquired by theacquisition unit 32a matches the feature amount (handwriting) during non-concentration stored in thefeature amount database 36, the target It is determined that the person U1 is in a non-concentrated state. At this time, thepresentation unit 45 may present the determination result to the user U2.

 なお、特徴量データベース36に格納される集中時の特徴量及び非集中時の特徴量は、上記の例に限られない。例えば、特徴量データベース36には、非集中時の人の身体の動き及び手の動きなどのいわゆる動作を非集中時の特徴量として格納されてもよい。例えば、非集中時の人の動きは、人がスマートフォンなどを操作する動作(例えば、メッセージのやり取り、ゲームで遊ぶ、動画を観るなどの動作)、ノートにイラストを描く動作、筆記具を指で回す動作、身体を前後左右に揺らす動作、口笛を吹く、又は、鼻歌を歌うなどの知的作業に関係のない動作であってもよい。Note that the feature amount during concentration and the feature amount during non-concentration stored in thefeature amount database 36 are not limited to the above examples. For example, thefeature amount database 36 may store so-called motions such as body movements and hand movements during non-concentration as feature amounts during non-concentration. For example, people's movements during non-concentration include the actions of operating a smartphone (e.g. exchanging messages, playing games, watching videos, etc.), drawing illustrations in a notebook, and turning a writing instrument with a finger. It may be a motion unrelated to intellectual work, such as a motion, a motion of rocking the body back and forth, whistling, or humming.

 例えば、取得部32aは、カメラ1により取得された画像に映る対象者U1の手の動きを特徴量として取得してもよい。この場合、判定部32cは、特徴量データベース36に格納されている集中時及び非集中時の手の動きに基づいて、対象者U1が集中状態であるか非集中状態であるかを判定してもよい。For example, theacquisition unit 32a may acquire the movement of the hand of the subject U1 appearing in the image acquired by thecamera 1 as a feature amount. In this case, thedetermination unit 32c determines whether the subject U1 is in a concentrated state or a non-concentrated state based on the hand movements during concentration and non-concentration stored in thefeature amount database 36. good too.

 [第1の例の変形例1]
 第1の例では、特徴量は画像に含まれるが、第1の例の変形例1では、特徴量は画像以外のセンシングデータに含まれる場合、取得部32aにより取得された特徴量が特徴量データベース36に格納されている集中時の特徴量を逸脱する場合に、対象者U1が非集中状態であると判定する。
[Modification 1 of the first example]
In the first example, the feature amount is included in the image, but inModification 1 of the first example, when the feature amount is included in sensing data other than the image, the feature amount acquired by theacquisition unit 32a is the feature amount. If the feature value for the time of concentration stored in thedatabase 36 is deviated, it is determined that the subject U1 is in a non-concentration state.

 図11に図示されていないが、支援システム10aは、カメラ1及び人感センサ2に加えて、赤外線センサ又は距離センサなどを備えてもよい。例えば、距離センサは、深度を可能なカメラであってもよい。Although not shown in FIG. 11, thesupport system 10a may include an infrared sensor, a distance sensor, etc. in addition to thecamera 1 and thehuman sensor 2. For example, the range sensor may be a depth-capable camera.

 例えば、距離センサは、少なくとも対象者U1の頭部が映る距離画像を撮像してもよいが、対象者U1の上半身が映る距離画像を取得してもよい。距離センサは、図1に示されるカメラ1の傍に配置されてもよいし、机の右側又は左側に配置されてもよい。例えば、距離センサ又は画像で対象者U1の頭の位置が所定の位置よりも下に検出される場合、又は、対象者U1の頭と首との角度が所定の角度を下回る場合、判定部32cは、特徴量データベース36に格納されている集中時及び非集中時の特徴量の閾値に基づいて、対象者U1は非集中状態であると判定してもよい。For example, the distance sensor may capture a distance image in which at least the subject's U1 head is captured, but may acquire a distance image in which the subject's U1 upper body is captured. The distance sensor may be placed beside thecamera 1 shown in FIG. 1, or it may be placed on the right or left side of the desk. For example, when the position of the head of the subject U1 is detected by the distance sensor or the image below a predetermined position, or when the angle between the head and neck of the subject U1 is less than a predetermined angle, thedetermination unit 32c may determine that the subject U1 is in a state of non-concentration based on the thresholds of the feature amounts during concentration and non-concentration stored in thefeature amount database 36 .

 また、例えば、赤外線センサは、図1に示される机の左右に設置されてもよい。例えば、机の右側及び左側の一方に赤外線を出射する出射部と、机の右側及び左側の他方に出射部から出射された赤外線を受光する受光部とが設置されてもよい。赤外線センサは、例えば、対象者U1の頭部の位置(例えば、知的作業を行うときの対象者U1の頭の位置)に合わせて、赤外線センサの出射部及び受光部の設置位置(机からの高さ、対象者U1からの距離など)が決定されてもよい。赤外線センサは、対象者U1の頭又は上半身がうつむくなどの行為により、対象者U1の身体(例えば、頭部、上半身など)で赤外線が遮られる時間が一定時間以上続くと、特徴量データベース36に格納されている集中時及び非集中時の特徴量の閾値(一定時間)に基づいて、判定部32cは、対象者U1が非集中状態であると判定してもよい。Also, for example, infrared sensors may be installed on the left and right sides of the desk shown in FIG. For example, an emitting part that emits infrared rays to one of the right and left sides of the desk and a light receiving part that receives the infrared rays emitted from the emitting part may be installed to the other of the right and left sides of the desk. For example, the infrared sensor is installed at the position of the infrared sensor emitting part and the light receiving part (from the desk height, distance from subject U1, etc.) may be determined. When the subject U1's body (e.g., head, upper body, etc.) blocks the infrared rays for a certain period of time or longer due to an action such as the subject U1's head or upper body bowing down, the infrared sensor stores the Thedetermination unit 32c may determine that the subject U1 is in a non-concentration state based on the stored threshold value (a certain period of time) of the feature amount during concentration and non-concentration.

 また、例えば、取得部32aは、カメラ1により取得された画像に映る対象者U1の手の動きを特徴量として取得してもよい。この場合、判定部32cは、特徴量データベース36に格納されている集中時及び非集中時の手の動きの閾値(例えば、静止時間)に基づいて、対象者U1が集中状態であるか非集中状態であるかを判定してもよい。Further, for example, theacquisition unit 32a may acquire the movement of the subject U1's hand appearing in the image acquired by thecamera 1 as a feature amount. In this case, thedetermination unit 32c determines whether the target person U1 is in a concentrated state or not, based on threshold values (for example, stationary time) of hand movements during concentration and non-concentration stored in thefeature amount database 36. state may be determined.

 [効果等]
 以上説明したように、支援システム10aは、さらに、集中状態の特徴量と、非集中状態の特徴量とが格納された特徴量データベース36を備え、判定部32cは、特徴量データベース36に基づいて、取得部32aにより取得された特徴量から対象者U1が集中状態であるか非集中状態であるかを判定し、提示部45は、判定部32cにより対象者U1が非集中状態であると判定された場合に、対象者U1が非集中状態であることをユーザU2に提示する。
[Effects, etc.]
As described above, thesupport system 10a further includes thefeature amount database 36 that stores the feature amount of the focused state and the feature amount of the non-concentrated state. , determines whether the subject U1 is in a concentrated state or a non-concentrated state from the feature amount acquired by theacquisition unit 32a, and thepresentation unit 45 determines that the subject U1 is in a non-concentrated state by thedetermination unit 32c. If so, it is presented to the user U2 that the subject U1 is in a non-concentrated state.

 このような支援システム10aは、特徴量データベース36に格納された集中状態の特徴量及び非集中状態の特徴量に基づいて、知的作業を行っている対象者U1の生体活動に関する特徴量から対象者U1が集中状態であるか非集中状態であるかを判定することができる。したがって、支援システム10aは、対象者U1が集中状態であるか非集中状態であるかを効率よく判定することができる。Such asupport system 10a is based on the feature amount of the concentration state and the feature amount of the non-concentration state stored in thefeature amount database 36, and based on the feature amount related to the biological activity of the subject U1 who is performing intellectual work. It can be determined whether the person U1 is in a concentrated state or in a non-concentrated state. Therefore, thesupport system 10a can efficiently determine whether the subject U1 is in a concentrated state or in a non-concentrated state.

 また、例えば、特徴量は、対象者U1の姿勢、手の動き、頭の動き、眼の動き、表情、及び、筆跡のうちの少なくとも1つの状態を示す情報である。Also, for example, the feature amount is information indicating at least one state of the subject U1's posture, hand movement, head movement, eye movement, facial expression, and handwriting.

 このような支援システム10aは、対象者U1の生体活動に関する特徴量として対象者U1の姿勢、手の動き、頭の動き、眼の動き、表情、及び、筆跡のうちの少なくとも1つの状態を示す情報を使用する。そのため、支援システム10aは、少なくとも1つの情報に基づいて、対象者U1の集中度の算出及び集中状態の判定を行うことができるため、信頼性の高い算出結果及び判定結果を得ることができる。Such asupport system 10a indicates at least one state of the target person U1's posture, hand movement, head movement, eye movement, facial expression, and handwriting as a feature amount related to the biological activity of the target person U1. use the information; Therefore, thesupport system 10a can calculate the degree of concentration and determine the state of concentration of the subject U1 based on at least one piece of information, so that highly reliable calculation results and determination results can be obtained.

 (その他の実施の形態)
 以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。以下、実施の形態の変形例について列挙する。以下に説明する変形例は、適宜組み合わせてもよい。
(Other embodiments)
Although the embodiments have been described above, the present invention is not limited to the above embodiments. Modifications of the embodiment are listed below. Modifications described below may be combined as appropriate.

 実施の形態では、算出部32bは、取得部32aにより取得された対象者U1の画像に基づいて集中度を算出しているが、この態様に限られない。例えば、算出部32bは、対象者U1の心拍、脈拍、呼吸数、又は、脳波等のバイタル情報に基づいて、集中度を算出してもよい。この態様では、取得部32aは、カメラ1から画像を取得する代わりに、バイタル情報を検知するセンサからバイタル情報を取得する。また、算出部32bは、対象者U1の音声(例えば、ため息、発語など)を取得して、集中度を算出してもよい。この場合、取得部32aは、例えば、マイクロフォンで収音された音情報を取得する。In the embodiment, thecalculation unit 32b calculates the degree of concentration based on the image of the subject U1 acquired by theacquisition unit 32a, but is not limited to this aspect. For example, thecalculator 32b may calculate the degree of concentration based on vital information such as heartbeat, pulse, respiratory rate, or electroencephalogram of the subject U1. In this aspect, instead of acquiring an image from thecamera 1, the acquiringunit 32a acquires vital information from a sensor that detects vital information. Further, thecalculation unit 32b may acquire the voice of the subject U1 (for example, a sigh, an utterance, etc.) and calculate the degree of concentration. In this case, the acquiringunit 32a acquires sound information picked up by a microphone, for example.

 なお、算出部32bは、画像情報に加え、上記のバイタル情報及び音情報などに基づいて複合的に対象者U1の集中度を算出してもよい。この場合、機械学習モデル34は、1つの機械学習モデルで構成されてもよいし、2つ以上の機械学習モデルで構成されてもよい。2つ以上の機械学習モデルで構成される場合、各機械学習モデルに入力される情報が同じものであってもよいし、それぞれ異なる情報であってもよい。各機械学習モデルは、例えば、上述した学習方法と同様に学習される。算出部32bは、各機械学習モデルから出力された集中度に基づいて、対象者U1の集中度を算出してもよい。例えば、算出部32bは、各機械学習モデルから出力される集中度の組み合わせと、対象者U1の集中度とが対応付けられたテーブル情報に基づいて、対象者U1の集中度を算出してもよい。Note that thecalculation unit 32b may calculate the degree of concentration of the subject U1 in a complex manner based on the above vital information, sound information, etc., in addition to the image information. In this case, themachine learning model 34 may be composed of one machine learning model, or may be composed of two or more machine learning models. When configured with two or more machine learning models, the information input to each machine learning model may be the same, or may be different. Each machine learning model is learned, for example, in the same manner as the learning method described above. Thecalculation unit 32b may calculate the degree of concentration of the subject U1 based on the degree of concentration output from each machine learning model. For example, thecalculation unit 32b may calculate the degree of concentration of the subject U1 based on table information in which combinations of degrees of concentration output from each machine learning model are associated with the degree of concentration of the subject U1. good.

 なお、機械学習モデル34は、AI(Artificial Intelligence)モデルであってもよい。Themachine learning model 34 may be an AI (Artificial Intelligence) model.

 実施の形態において、判定部32c及び評価部32dは、算出部32bにより算出された集中度のみならず、他のパラメータをさらに参照して集中状態を判定又は評価してもよい。例えば、判定部32c及び評価部32dは、対象者U1が行う知的作業の種類、対象者U1が知的作業を行う時間帯、又は、対象者U1が知的作業を行う場所等のパラメータをさらに参照してもよい。In the embodiment, thedetermination unit 32c and theevaluation unit 32d may determine or evaluate the state of concentration by referring not only to the degree of concentration calculated by thecalculation unit 32b, but also to other parameters. For example, thedetermination unit 32c and theevaluation unit 32d determine parameters such as the type of intellectual work performed by the subject U1, the time zone in which the subject U1 performs the intellectual work, or the place in which the subject U1 performs the intellectual work. You may refer further.

 実施の形態では、取得部32aにより取得される対象者U1の生体活動に関する特徴量は、主に、対象者U1の頭部に関する情報であるが、これに限らない。例えば、特徴量は、対象者U1の肩の動き等、対象者U1の頭部以外の部位に関する情報が含まれていてもよい。In the embodiment, the feature amount related to the biological activity of the subject U1 acquired by theacquisition unit 32a is mainly information related to the head of the subject U1, but is not limited to this. For example, the feature amount may include information related to parts other than the head of the subject U1, such as movement of the shoulders of the subject U1.

 実施の形態では、カメラ1及び人感センサ2は支援システム10、10aの構成要素に含まれていないが、カメラ1及び人感センサ2のうちの少なくとも一方が支援システム10の構成要素に含まれていてもよい。In the embodiment, thecamera 1 and thehuman sensor 2 are not included in thesupport systems 10 and 10a, but at least one of thecamera 1 and thehuman sensor 2 is included in thesupport system 10. may be

 また、例えば、上記実施の形態では、支援システム10、10aは、複数の装置により実現されたが、単一の装置によって実現されてもよい。支援システム10、10aが複数の装置によって実現される場合、支援システム10、10aが備える構成要素は、複数の装置にどのように振り分けられてもよい。例えば、上記実施の形態でサーバ装置(例えば、情報処理装置30)が備える構成要素は、閉空間に設置された情報端末に備えられてもよい。つまり、本発明は、クラウドコンピューティングによって実現されてもよいし、エッジコンピューティングによって実現されてもよい。Also, for example, in the above embodiments, thesupport systems 10 and 10a are implemented by a plurality of devices, but may be implemented by a single device. When thesupport systems 10 and 10a are realized by a plurality of devices, the components provided in thesupport systems 10 and 10a may be distributed to the plurality of devices in any way. For example, the components included in the server device (for example, the information processing device 30) in the above embodiments may be included in an information terminal installed in a closed space. That is, the present invention may be realized by cloud computing or by edge computing.

 例えば、上記実施の形態における装置間の通信方法については特に限定されるものではない。また、装置間の通信においては、図示されない中継装置が介在してもよい。For example, the communication method between devices in the above embodiment is not particularly limited. Further, a relay device (not shown) may intervene in communication between devices.

 また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。Also, in the above embodiments, each component may be realized by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.

 また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(又は集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。Also, each component may be realized by hardware. For example, each component may be a circuit (or integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits. These circuits may be general-purpose circuits or dedicated circuits.

 また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。In addition, general or specific aspects of the present invention may be implemented in a system, apparatus, method, integrated circuit, computer program, or recording medium such as a computer-readable CD-ROM. Also, any combination of systems, devices, methods, integrated circuits, computer programs and recording media may be implemented.

 例えば、本発明は、支援システム10、10a等のコンピュータが実行する支援方法として実現されてもよいし、このような支援方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。For example, the present invention may be realized as a support method executed by a computer such as thesupport systems 10 and 10a, or as a program for causing a computer to execute such a support method. It may be implemented as a computer-readable non-temporary recording medium on which a program is recorded.

 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、又は、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。In addition, forms obtained by applying various modifications to each embodiment that a person skilled in the art can think of, or realized by arbitrarily combining the constituent elements and functions of each embodiment without departing from the spirit of the present invention. Also included in the present invention.

 1 カメラ(非接触デバイス)
 10、10a 支援システム
 32a 取得部
 32b 算出部
 32c 判定部
 32d 評価部
 34 機械学習モデル
 35 データベース
 36 特徴量データベース
 37 モデル生成部
 45 提示部
 U1 対象者
 U2 ユーザ
1 Camera (contactless device)
10,10a support system32a acquisition unit32b calculation unit32c determination unit32d evaluation unit 34machine learning model 35database 36feature amount database 37model generation unit 45 presentation unit U1 subject person U2 user

Claims (24)

Translated fromJapanese
 知的作業を行っている対象者の生体活動に関する特徴量を取得する取得部と、
 前記取得部により取得された前記特徴量に基づいて前記対象者の知的作業に対する集中度を算出する算出部と、
 前記算出部により算出された前記集中度を含む前記対象者に関する情報をユーザに提示する提示部と、
 を備える、
 支援システム。
an acquisition unit that acquires a feature amount related to biological activity of a subject who is performing intellectual work;
a calculation unit that calculates a degree of concentration of the subject on intellectual work based on the feature amount acquired by the acquisition unit;
a presentation unit that presents to a user information about the target person including the degree of concentration calculated by the calculation unit;
comprising
support system.
 さらに、前記算出部により算出された前記集中度の変化に基づいて前記対象者の集中状態を判定する判定部を備え、
 前記提示部は、前記判定部により判定された前記集中状態を前記ユーザに提示する、
 請求項1に記載の支援システム。
Further comprising a determination unit that determines the concentration state of the subject based on the change in the degree of concentration calculated by the calculation unit,
The presentation unit presents the concentration state determined by the determination unit to the user.
The assistance system of claim 1.
 前記判定部は、前記集中度が所定の割合を超えて低下したか否かに基づいて前記対象者の前記集中状態を判定し、
 前記提示部は、前記集中度が前記所定の割合を超えて低下した場合に、前記集中状態が悪化したことを前記ユーザに提示する、
 請求項2に記載の支援システム。
The determination unit determines the concentration state of the subject based on whether or not the degree of concentration has decreased by exceeding a predetermined rate,
The presenting unit presents to the user that the state of concentration has deteriorated when the degree of concentration has decreased by exceeding the predetermined rate.
3. A support system according to claim 2.
 前記判定部は、前記集中度が閾値を下回る状態が一定時間以上継続したか否かに基づいて前記対象者の前記集中状態を判定し、
 前記提示部は、前記集中度が前記閾値を下回る状態が前記一定時間以上継続した場合に、前記集中状態が悪化したことを前記ユーザに提示する、
 請求項2に記載の支援システム。
The determination unit determines the concentration state of the subject based on whether or not the state in which the degree of concentration is below a threshold has continued for a certain period of time or longer,
The presenting unit presents to the user that the state of concentration has deteriorated when the state in which the degree of concentration is below the threshold has continued for the predetermined period of time or longer.
3. A support system according to claim 2.
 前記判定部は、前記集中度が一定時間内に閾値を下回る回数が所定の回数を超えるか否かに基づいて前記対象者の前記集中状態を判定し、
 前記提示部は、前記集中度が一定時間内に前記閾値を下回る回数が前記所定の回数を超える場合、前記集中状態が悪化したことを前記ユーザに提示する、
 請求項2に記載の支援システム。
The determination unit determines the concentration state of the subject based on whether the number of times the concentration degree falls below a threshold value within a certain period of time exceeds a predetermined number of times,
The presenting unit presents to the user that the state of concentration has deteriorated when the number of times the degree of concentration falls below the threshold within a certain period of time exceeds the predetermined number of times.
3. A support system according to claim 2.
 前記判定部は、前記算出部により算出された前記集中度が閾値を下回る時間間隔に基づいて前記対象者が前記集中状態を持続できる状態であるか否かを判定し、
 前記提示部は、前記集中度が前記閾値を下回る前記時間間隔が所定の間隔よりも短い場合、前記対象者が前記集中状態を維持できる状態ではないことを前記ユーザに提示する、
 請求項2に記載の支援システム。
The determination unit determines whether the subject is in a state of being able to maintain the concentration state based on the time interval in which the degree of concentration calculated by the calculation unit falls below a threshold;
The presentation unit presents to the user that the target person is not in a state where the concentration state can be maintained when the time interval in which the degree of concentration falls below the threshold value is shorter than a predetermined interval.
3. A support system according to claim 2.
 さらに、前記対象者の識別情報と、前記対象者の過去の集中度とが紐づけられて格納されているデータベースを備え、
 前記判定部は、前記算出部により算出された前記集中度と、前記データベースに格納された前記過去の集中度とを比較することにより、前記対象者の前記集中状態を判定する、
 請求項2に記載の支援システム。
Furthermore, comprising a database in which the identification information of the subject and the past degree of concentration of the subject are linked and stored,
The determination unit determines the concentration state of the subject by comparing the degree of concentration calculated by the calculation unit and the past degree of concentration stored in the database.
3. A support system according to claim 2.
 前記データベースには、さらに、前記対象者の過去の集中状態が紐づけられて格納されており、
 前記判定部は、
 前記データベースに格納された前記対象者の前記過去の集中度と前記過去の集中状態とに基づいて、前記対象者の典型的な集中状態における前記集中度の基準値を導出し、
 前記算出部により算出された前記集中度が前記基準値を下回るか否かに基づいて前記対象者の前記集中状態を判定し、
 前記提示部は、前記集中度が前記基準値を下回る場合、前記集中状態が悪化したことを前記ユーザに提示する、
 請求項7に記載の支援システム。
The database further stores the subject's past concentration state in association with each other,
The determination unit
Deriving a reference value of the degree of concentration in a typical state of concentration of the subject based on the past degree of concentration and the past state of concentration of the subject stored in the database;
determining the concentration state of the subject based on whether or not the degree of concentration calculated by the calculation unit is below the reference value;
The presenting unit presents to the user that the state of concentration has deteriorated when the degree of concentration is below the reference value.
8. A support system according to claim 7.
 前記集中度は、前記集中度の時系列データであり、
 前記データベースには、さらに、前記対象者の前記過去の集中度の時系列データと、前記過去の集中度の時系列データに対応する集中パターンとが紐づけて格納されており、
 前記判定部は、前記データベースに格納された前記過去の集中度の時系列データと前記集中パターンとに基づいて、前記対象者の典型的な集中パターンを導出し、
 前記算出部により算出された前記集中度の時系列データに基づいて前記対象者の集中パターンを導出し、
 導出された前記対象者の前記集中パターンと前記対象者の前記典型的な集中パターンとを比較することにより、前記対象者の前記集中状態を判定する、
 請求項7に記載の支援システム。
The degree of concentration is time-series data of the degree of concentration,
The database further stores time-series data of the past degree of concentration of the subject and a concentration pattern corresponding to the time-series data of the past degree of concentration in association with each other,
The determination unit derives a typical concentration pattern of the subject based on the time-series data of the past degree of concentration and the concentration pattern stored in the database,
deriving a concentration pattern of the subject based on the time-series data of the degree of concentration calculated by the calculating unit;
determining the concentration state of the subject by comparing the derived concentration pattern of the subject and the typical concentration pattern of the subject;
8. A support system according to claim 7.
 前記取得部は、さらに、前記対象者が行っている前記知的作業の内容に関する情報、前記対象者による前記知的作業の進捗に関する情報、及び、前記対象者の周囲の環境に関する情報の少なくともいずれかの情報を取得し、
 前記判定部は、さらに、前記対象者の集中状態と、前記取得部により取得された前記情報との関連性を判定する、
 請求項2~9のいずれか1項に記載の支援システム。
The acquisition unit further includes at least any of information regarding the content of the intellectual work being performed by the subject, information regarding the progress of the intellectual work performed by the subject, and information regarding the surrounding environment of the subject. get information about
The determination unit further determines the relevance between the subject's concentration state and the information acquired by the acquisition unit.
Support system according to any one of claims 2-9.
 前記判定部は、
 さらに、前記対象者の前記集中状態に応じて、前記対象者の前記知的作業の内容、前記知的作業を行うために使用するツール、及び、前記知的作業を行うための方法のうちの少なくともいずれかに対するアドバイスを決定し、
 前記対象者及び前記ユーザの少なくとも一方に前記アドバイスを提案する、
 請求項2~10のいずれか1項に記載の支援システム。
The determination unit
Furthermore, according to the concentration state of the subject, the content of the intellectual work of the subject, the tool used for performing the intellectual work, and the method for performing the intellectual work determine advice for at least one of
suggesting the advice to at least one of the subject and the user;
Support system according to any one of claims 2-10.
 前記取得部は、複数の前記対象者のそれぞれについて、当該対象者の生体活動に関する特徴量を取得し、
 前記算出部は、前記取得部により取得された複数の前記特徴量に基づいて、複数の前記対象者のそれぞれの集中度を算出し、
 前記提示部は、前記算出部により算出された複数の前記対象者のそれぞれの前記集中度を含む複数の前記対象者のそれぞれに関する情報を前記ユーザに提示する、
 請求項1~11のいずれか1項に記載の支援システム。
The acquisition unit acquires, for each of the plurality of subjects, a feature amount related to biological activity of the subject,
The calculating unit calculates the degree of concentration of each of the plurality of subjects based on the plurality of feature amounts acquired by the acquiring unit,
The presentation unit presents to the user information about each of the plurality of subjects, including the degree of concentration of each of the plurality of subjects calculated by the calculation unit.
Support system according to any one of claims 1-11.
 さらに、前記算出部により算出された複数の前記集中度を比較することにより、複数の前記対象者それぞれの相対的な集中状態を評価する評価部を備え、
 前記提示部は、前記評価部により評価された前記相対的な集中状態を前記ユーザに提示する、
 請求項12に記載の支援システム。
Furthermore, an evaluation unit that evaluates the relative concentration state of each of the plurality of subjects by comparing the plurality of degrees of concentration calculated by the calculation unit,
The presentation unit presents the relative state of concentration evaluated by the evaluation unit to the user.
13. A support system according to claim 12.
 前記評価部は、さらに、複数の前記集中度の低下率を比較することにより、前記低下率が基準値を上回る集中度がある場合に、当該集中度に対応する対象者を集中度の低下率が相対的に大きい対象者であると評価し、
 前記提示部は、さらに、前記評価部により評価された前記集中度の低下率が相対的に大きい対象者を前記ユーザに提示する、
 請求項13に記載の支援システム。
The evaluation unit further compares a plurality of concentration degree decrease rates, and if there is a degree of concentration in which the decrease rate exceeds a reference value, determines the target person corresponding to the concentration degree as the concentration decrease rate. is a relatively large target,
The presenting unit further presents to the user a target person with a relatively large decrease rate of the degree of concentration evaluated by the evaluating unit.
14. A support system according to claim 13.
 前記評価部は、さらに、複数の前記集中度を基準値と比較することにより、前記基準値を下回る状態が一定時間以上継続した集中度がある場合に、当該集中度に対応する対象者を集中度が相対的に低い対象者であると評価し、
 前記提示部は、さらに、前記評価部により評価された前記集中度が相対的に低い対象者を前記ユーザに提示する、
 請求項13に記載の支援システム。
The evaluation unit further compares a plurality of the concentration levels with a reference value, and if there is a concentration level that has continued below the reference value for a certain period of time or longer, the evaluation unit concentrates on the target person corresponding to the concentration level. Evaluate that the subject is relatively low degree,
The presenting unit further presents to the user the subject with the relatively low degree of concentration evaluated by the evaluating unit.
14. A support system according to claim 13.
 前記基準値は、複数の前記集中度の平均値又は中央値である、
 請求項14又は15に記載の支援システム。
The reference value is an average value or median value of a plurality of the degrees of concentration,
16. Support system according to claim 14 or 15.
 さらに、集中状態の特徴量と、非集中状態の特徴量とが格納された特徴量データベースを備え、
 前記判定部は、前記特徴量データベースに基づいて、前記取得部により取得された前記特徴量から前記対象者が前記集中状態であるか前記非集中状態であるかを判定し、
 前記提示部は、前記判定部により前記対象者が前記非集中状態であると判定された場合に、前記対象者が前記非集中状態であることを前記ユーザに提示する、
 請求項1に記載の支援システム。
Furthermore, a feature amount database storing the feature amount of the concentrated state and the feature amount of the non-concentrated state is provided,
The determination unit determines whether the subject is in the state of concentration or the state of non-concentration from the feature amount acquired by the acquisition unit based on the feature amount database;
The presentation unit presents to the user that the target person is in the non-concentration state when the determination unit determines that the target person is in the non-concentration state.
The assistance system of claim 1.
 前記特徴量は、前記対象者の姿勢、手の動き、頭の動き、眼の動き、表情、及び、筆跡のうちの少なくとも1つの状態を示す情報である、
 請求項1~17のいずれか1項に記載の支援システム。
The feature amount is information indicating at least one state of the subject's posture, hand movement, head movement, eye movement, facial expression, and handwriting,
Support system according to any one of claims 1-17.
 前記特徴量は、非接触デバイスにより取得されたデータに含まれる、
 請求項1~18のいずれか1項に記載の支援システム。
The feature amount is included in data acquired by a contactless device,
Support system according to any one of claims 1-18.
 前記取得部は、さらに、前記対象者が存在するか否かを示す情報を取得し、
 前記算出部は、前記取得部により取得された前記情報に基づいて、前記対象者が存在するときの前記特徴量を前記集中度の算出に使用する、
 請求項1~19のいずれか1項に記載の支援システム。
The acquisition unit further acquires information indicating whether or not the target person exists,
The calculation unit uses the feature amount when the target person is present to calculate the degree of concentration, based on the information acquired by the acquisition unit.
Support system according to any one of claims 1-19.
 前記算出部は、機械学習モデルを用いて前記特徴量から前記集中度を算出する、
 請求項1~20のいずれか1項に記載の支援システム。
The calculation unit calculates the degree of concentration from the feature amount using a machine learning model.
Support system according to any one of claims 1-20.
 さらに、前記機械学習モデルを生成するモデル生成部を備える、
 請求項21に記載の支援システム。
Furthermore, comprising a model generation unit that generates the machine learning model,
22. The assistance system of claim 21.
 知的作業を行っている対象者の生体活動に関する特徴量を取得する取得ステップと、
 前記取得ステップで取得された前記特徴量に基づいて前記対象者の知的作業に対する集中度を算出する算出ステップと、
 前記算出ステップで算出された前記集中度を含む前記対象者に関する情報をユーザに提示する提示ステップと、
 を含む、
 支援方法。
an acquiring step of acquiring a feature amount related to biological activity of a subject who is performing intellectual work;
a calculation step of calculating a degree of concentration of the subject on intellectual work based on the feature quantity acquired in the acquisition step;
a presenting step of presenting to a user information about the subject including the degree of concentration calculated in the calculating step;
including,
how to help.
 請求項23に記載の支援方法をコンピュータに実行させるための
 プログラム。
A program for causing a computer to execute the support method according to claim 23.
PCT/JP2022/0160582021-08-302022-03-30Assistance system, assistance method, and programCeasedWO2023032335A1 (en)

Applications Claiming Priority (2)

Application NumberPriority DateFiling DateTitle
JP2021-1401232021-08-30
JP20211401232021-08-30

Publications (1)

Publication NumberPublication Date
WO2023032335A1true WO2023032335A1 (en)2023-03-09

Family

ID=85412051

Family Applications (1)

Application NumberTitlePriority DateFiling Date
PCT/JP2022/016058CeasedWO2023032335A1 (en)2021-08-302022-03-30Assistance system, assistance method, and program

Country Status (1)

CountryLink
WO (1)WO2023032335A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN120469586A (en)*2025-07-112025-08-12芯知科技(江苏)有限公司 Companion robot intelligent processing method and equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20060064037A1 (en)*2004-09-222006-03-23Shalon Ventures Research, LlcSystems and methods for monitoring and modifying behavior
JP2010204926A (en)*2009-03-032010-09-16Softbank Bb CorpMonitoring system, monitoring method, and program
JP2015223224A (en)*2014-05-262015-12-14パナソニックIpマネジメント株式会社Degree-of-concentration evaluation device and program
JP2018140162A (en)*2017-02-282018-09-13パナソニックIpマネジメント株式会社Work appropriateness determination system
JP2018194292A (en)*2014-01-142018-12-06パナソニックIpマネジメント株式会社Environment control system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20060064037A1 (en)*2004-09-222006-03-23Shalon Ventures Research, LlcSystems and methods for monitoring and modifying behavior
JP2010204926A (en)*2009-03-032010-09-16Softbank Bb CorpMonitoring system, monitoring method, and program
JP2018194292A (en)*2014-01-142018-12-06パナソニックIpマネジメント株式会社Environment control system
JP2015223224A (en)*2014-05-262015-12-14パナソニックIpマネジメント株式会社Degree-of-concentration evaluation device and program
JP2018140162A (en)*2017-02-282018-09-13パナソニックIpマネジメント株式会社Work appropriateness determination system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN120469586A (en)*2025-07-112025-08-12芯知科技(江苏)有限公司 Companion robot intelligent processing method and equipment

Similar Documents

PublicationPublication DateTitle
US9800834B2 (en)Method and system of group interaction by user state detection
US8243132B2 (en)Image output apparatus, image output method and image output computer readable medium
Olugbade et al.How can affect be detected and represented in technological support for physical rehabilitation?
Wang et al.Automated student engagement monitoring and evaluation during learning in the wild
Fiorini et al.Daily gesture recognition during human-robot interaction combining vision and wearable systems
US9498123B2 (en)Image recording apparatus, image recording method and image recording program stored on a computer readable medium
Revadekar et al.Gauging attention of students in an e-learning environment
KR102515987B1 (en)Apparatus and method for detecting learners' participation in an untact online class
JP6787601B2 (en) Autism treatment support system, autism treatment support device, and program
Yu et al.Magic mirror table for social-emotion alleviation in the smart home
US20240379206A1 (en)Monitoring and optimization of human-device interactions
US20210202078A1 (en)Patient-Observer Monitoring
US20240004464A1 (en)Transmodal input fusion for multi-user group intent processing in virtual environments
JP2023160899A (en)Concentration degree measurement device, concentration degree measurement method, and program
Al-Btoush et al.New features for eye-tracking systems: Preliminary results
US10747308B2 (en)Line-of-sight operation apparatus, method, and medical device
WO2023032335A1 (en)Assistance system, assistance method, and program
JP7653607B2 (en) Concentration level estimation device, concentration level estimation method, and program
JP7607272B2 (en) Learning support device and learning support system
Gogia et al.Multi-modal affect detection for learning applications
Soyel et al.Towards an affect sensitive interactive companion
US11328174B2 (en)Cluster classification device, environment generation device, and environment generation system
WO2023032617A1 (en)Determination system, determination method, and program
Pangestu et al.The Heron Formula Approach for Head Movements Detection for Student Focus Detection during Pandemic Online Class
Behoora et al.Quantifying emotional states based on body language data using non invasive sensors

Legal Events

DateCodeTitleDescription
121Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number:22863925

Country of ref document:EP

Kind code of ref document:A1

NENPNon-entry into the national phase

Ref country code:DE

122Ep: pct application non-entry in european phase

Ref document number:22863925

Country of ref document:EP

Kind code of ref document:A1

NENPNon-entry into the national phase

Ref country code:JP


[8]ページ先頭

©2009-2025 Movatter.jp