













本発明は、映像や音声などの情報コンテンツの要約を作成する情報コンテンツの編集装置及び編集方法に関する。 The present invention relates to an information content editing apparatus and editing method for creating a summary of information content such as video and audio.
映像コンテンツの編集方法には、シーンの切り替わりや映像内のオブジェクトを追跡することによりコンテンツを分け、管理する方法がある。そこでは、コンテンツを分ける編集ポイントを音声情報による音圧レベルで検出したり、映像内容のキーワードに基づいて検出したりする。しかし、音声情報は必ずしも映像情報に対応しているとは限らず、また、説明の記述は、個人の体験映像のような場合にはシナリオが存在しないため、情報量が限られ、意図している場面を効率よく抽出できない。 The video content editing method includes a method of dividing and managing content by switching scenes and tracking objects in the video. There, an edit point that divides content is detected based on a sound pressure level based on audio information, or is detected based on a keyword of video content. However, audio information does not necessarily correspond to video information, and there is no scenario in the case of description of personal experience video, so the amount of information is limited and intentionally The scenes that are present cannot be extracted efficiently.
このような問題に対して、映像、音声、脳波を同時記録し、記録された脳波から体験時に興味のあった場面を検索する技術がある(例えば、特許文献1参照。)。しかし、この技術では、抽出結果として興味のある場面は得られるが、それ以外の感情を評価していないため、例えば喜怒哀楽などの感情における場面検索を行うことができない。 In order to solve such a problem, there is a technique for simultaneously recording video, audio, and brain waves, and searching for a scene of interest from the recorded brain waves during the experience (see, for example, Patent Document 1). However, with this technique, an interesting scene can be obtained as an extraction result, but since other emotions are not evaluated, it is not possible to perform a scene search for emotions such as emotions.
本発明は、上記問題点を解決するためになされたものであり、生体情報から解析された感情に基づいて映像や音声などの情報コンテンツの要約を作成する情報コンテンツの編集装置及び編集方法を提供することを目的とする。 The present invention has been made to solve the above problems, and provides an information content editing apparatus and editing method for creating a summary of information content such as video and audio based on emotions analyzed from biological information. The purpose is to do.
そこで、上述した目的を達成するために、本発明に係る情報コンテンツの編集装置は、 情報コンテンツデータを入力する情報コンテンツデータ入力手段と、生体情報を入力する生体情報入力手段と、生体情報に基づいて感情解析を行い感情パラメータを出力する感情解析手段と、生体情報又は感情解析手段からの感情パラメータを情報コンテンツデータと対応付けて記録する記録手段と、所望の感情状態を感情パラメータに基づいて検出するコマンドを少なくとも含むコマンド列を解釈し実行するコマンド解釈手段とを備える。 In order to achieve the above-described object, an information content editing apparatus according to the present invention is based on information content data input means for inputting information content data, biometric information input means for inputting biometric information, and biometric information. Emotion analysis means for performing emotion analysis and outputting emotion parameters, recording means for recording biometric information or emotion parameters from emotion analysis means in association with information content data, and detecting a desired emotion state based on the emotion parameters Command interpreting means for interpreting and executing a command string including at least a command to be executed.
また、本発明に係る情報コンテンツの編集方法は、情報コンテンツデータを入力する情報コンテンツデータ入力工程と、生体情報を入力する生体情報入力工程と、生体情報に基づいて感情解析を行い感情パラメータを出力する感情解析工程と、生体情報又は感情解析工程からの感情パラメータを情報コンテンツデータと対応付けて記録する記録工程と、所望の感情状態を感情パラメータに基づいて検出するコマンドを少なくとも含むコマンド列を解釈し実行するコマンド解釈工程とを備える。 The information content editing method according to the present invention includes an information content data input step for inputting information content data, a biometric information input step for inputting biometric information, and emotion analysis based on the biometric information and outputting emotion parameters. Interpreting a command sequence including at least a command for detecting a desired emotion state based on the emotion parameter, a recording step for recording the emotion information from the biological information or emotion analysis step in association with the information content data, and recording And a command interpretation step to be executed.
本発明によれば、情報コンテンツデータの要約作成を生体情報から求められた感情パラメータに応じて作成することにより、ユーザ固有の特徴的な要約コンテンツを簡単に作成することができる。 According to the present invention, it is possible to easily create a characteristic summary content unique to a user by creating a summary of information content data according to emotion parameters obtained from biometric information.
また、所望の感情状態を上記感情パラメータに基づいて検出する命令文を時系列に並べることにより、特徴ある場面を一覧表示させることができ、内容を効率よく把握することができる。 In addition, by arranging commands that detect a desired emotion state based on the emotion parameter in time series, a list of characteristic scenes can be displayed, and the contents can be efficiently grasped.
また、テンプレートは、XMLファイルで作成することにより、ネットワーク上での共有が可能となり互換性の高いアプリケーションを提供することができる。 Further, by creating a template as an XML file, it is possible to share on the network and provide a highly compatible application.
本発明の具体例として示す情報コンテンツの編集装置及び編集方法は、生体情報に基づく情報を用いて感情の度合いを示す感情パラメータを出力し、所望の感情状態を感情パラメータに基づいて検出するコマンドを用いて情報コンテンツデータの要約作成を行うものである。 An information content editing apparatus and editing method shown as a specific example of the present invention outputs an emotion parameter indicating the degree of emotion using information based on biological information, and a command for detecting a desired emotion state based on the emotion parameter. It is used to create a summary of information content data.
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
図1は、情報コンテンツの編集装置1の構成例を示す図である。映像・音声信号入力部2には、例えばCCD(Charge Coupled Device)のようなイメージセンサやマイクから得られた映像信号及び音声信号が入力される。ここで入力される映像・音声信号は、情報コンテンツであっても、感情パラメータを求めるための生体情報であってもよい。情報コンテンツは、ユーザの体験を記録した映像・音声データやユーザが視聴した映画、音楽等の映像・音声データなどである。入力された映像信号及び音声信号はA/Dコンバータ3によってディジタル信号に変換され、映像・音声信号入力部コントローラ4に送られる。送られたディジタル信号は、映像・音声信号入力部コントローラ4、RAM9及びCPU10によって、例えばMPEG(Moving Picture Experts Group)のような画像圧縮処理や音声信号の波形符号化などの信号処理が行われ、適切なフォーマットに変換される。 FIG. 1 is a diagram illustrating a configuration example of an information
生体信号入力部5には、人間が自発的・誘発的に発する生体信号、例えば脳波、心拍、血圧などの生体信号が入力される。入力された生体信号は増幅され、A/Dコンバータ6によってディジタル信号に変換され、生体信号入力部コントローラ7に送られる。生体信号入力部コントローラ7では、例えば、ニューラルネットやカオス解析をはじめとする非線形解析などの信号処理が行われる。 The biological
映像・音声信号入力部2及び生体信号入力部5に入力される生体情報としては、心拍、脈拍、血圧、脳波、呼吸、発汗、筋電位、皮膚温度、皮膚電気抵抗、顔の表情、声の韻律、瞬目、眼球運動、瞳孔径の大きさ、凝視時間などの少なくとも1つ又はこれらの組み合わせから得られる情報が用いられる。なお、これらの生体情報は腕時計などのような常に身に付けている機器によって、常時測定、記録されていることが好ましい。 The biological information input to the video / audio
感情解析処理部8は、映像・音声信号入力部2及び生体信号入力部5で入力され、適切なフォーマットに変換された生体情報に基づいて、後述する方法で感情パラメータを出力する。 The emotion
表示部11は、例えばLCD(Liquid Crystal Display:液晶表示装置)のようなディスプレイであって、表示部コントローラ12によって、映像データを出力する。 The display unit 11 is a display such as an LCD (Liquid Crystal Display), and the
また、情報コンテンツの編集装置1は、記録部13を備え、記録部コントローラ14を介して映像・音声信号入力部1及び生体信号入力部4に入力された信号を記録する。記録部13は、例えばHDDや、大容量記録型光ディスクであって、記録部コントローラ14により、そのデバイスに適切な信号フォーマットに変換されたデータを記録する。また、感情解析処理部8から出力された感情パラメータを記録する。なお、記録部13に記録されたデータは、ネットワークインターフェイス17を介して共有することができる。 The information
再生処理部15は、感情解析処理部8で出力された感情パラメータを数値化した感情レベルに応じて要約作成する命令文に基づいて情報コンテンツデータを表示部コントローラ12に出力する。命令文の1つであるテンプレートの内容は、記録部13に記録された映像・音声信号と関連付けられている。 The
入力部18は、ユーザからの入力を電気信号に変換する。入力部18は、例えば、キーボードであって、ユーザは、入力部18によりテンプレートに記述されたコマンドなどを定義することができる。 The
なお、CPU10は、作業領域としてのRAM9などを用いてプログラムを実行し、これら各部を制御する。 The
次に、感情解析処理部8における処理について説明する。感情解析処理部8は、映像・音声信号入力部2及び生体信号入力部5から入力された複数の生体情報に基づいて、例えば学習済み、或いはユーザ個別に再学習を行った3層バックプロパゲーション、自己組織化マップ(SOM)等のニューラルネットワークを利用して解析処理を行い、感情モデルで定義される複数の感情パラメータを求める。 Next, processing in the emotion
図2に示すようにして感情解析処理部8は、複数入力された生体情報から感情パラメータを出力する。感情パラメータとは、感情を数値化した値のことである。感情パラメータは、感情モデルを構成する軸に応じて算出される。感情モデルは、感情を基本要素に分解したものである。感情モデルの代表的なものには、2軸モデル、3軸モデル、4軸モデルなどがある。2軸モデルは、感情を快適(受け入れ)−不快(拒否)、興奮,緊張−リラックスの2つの軸に分解する。Wundtによる3軸モデルは、感情を快−不快、興奮−沈静、緊張−弛緩の3つの軸で表現する。また、Plutchikのモデルは、感情を憧憬−憎悪、歓喜−悲嘆、警戒−驚嘆、激怒−恐怖の4つの軸で表現する。ここでは感情モデルの例として、Wundtのモデルを用いて説明する。 As shown in FIG. 2, the emotion
感情解析処理部8は、生体情報をもとに快−不快、興奮−沈静、緊張−弛緩の3つの基本感情の感情パラメータを求める。例えば、心拍数は興奮−沈静、緊張−弛緩軸上では興奮、緊張のレベルとともに変化する。感情解析処理部8は、このような生体情報の変化を3層バックプロパゲーション、自己組織化マップ等のニューラルネットワークに当てはめ感情パラメータを求める。 The emotion
音声による感情解析では、例えば一般に興奮している場合は喉頭原音の振動を表す振動周波数が上がり、悲しみの表現や愛情の表現では低くなるなどの音声分析により感情パラメータを求める。 In the emotion analysis by voice, for example, the emotional parameter is obtained by voice analysis in which, for example, when the person is excited, the vibration frequency representing the vibration of the laryngeal original sound is increased, and the sadness expression or the love expression is decreased.
また、生体情報が画像による表情認識であれば、Ekmanらの怒り、恐れ、悲しみ、喜び、嫌悪、驚きの基本6表情を用いるとよい。例えば、驚きでは額に水平の皺ができ、眉は全体的に持ち上げられ、目は大きく見開かれるなどの表情により驚きの感情モデリングを行い、顔面の筋肉の伸縮などによって感情パラメータを求める。 If the biological information is facial expression recognition by an image, the basic six facial expressions of anger, fear, sadness, joy, disgust, and surprise of Ekman et al. For example, surprise emotions are modeled with facial expressions such as a horizontal wrinkle on the forehead, the eyebrows being lifted as a whole, and eyes wide open, and emotion parameters are obtained by stretching and contracting the facial muscles.
次に、要約作成アプリケーションについて説明する。要約作成アプリケーションは、XML(Extensible Markup Language)で記述されており、ユーザが撮り溜めた映像や音声の要約を作成するものである。要約作成アプリケーションでは、ユーザが映像を撮影したときの感情状態を基に必要な映像や音声を編集する。編集の処理単位をコマンドと呼び、<Command>タグの間に処理方法が記述される。そして、複数のコマンドを時系列配列し、このコマンド列の各コマンドを時系列に従って順次実行することにより、編集を行う。 Next, the summary creation application will be described. The summary creation application is described in XML (Extensible Markup Language) and creates a summary of video and audio collected by the user. In the summary creation application, necessary video and audio are edited based on the emotional state when the user takes a video. The editing processing unit is called a command, and the processing method is described between <Command> tags. Then, editing is performed by arranging a plurality of commands in time series and sequentially executing each command in the command sequence in time series.
図3(A)はタイトル挿入、図3(B)は体験映像からの喜び場面の抽出、図3(C)は画面のフェードアウト処理、図3(D)及び(E)は指定区間の映像及び音の切り出しをそれぞれ処理単位としてコマンドに割り当てたものである。 3A is a title insertion, FIG. 3B is a joy scene extraction from experience video, FIG. 3C is a screen fade-out process, and FIGS. 3D and 3E are images of a specified section and Sound cutouts are assigned to commands as processing units.
例えば図3(A)は、<Command>タグのname属性値として「タイトル」をとることでそのコマンドがタイトルコマンドであることを示す。<Proc>タグは、そのコマンドを実行するときに内部の処理プログラムがコールするAPI(Application Program Interface)の関数名である。<Param>タグは、コールする関数に渡す引数を表し、<Result>タグは、コールした関数の型を表している。 For example, FIG. 3A shows that the command is a title command by taking “title” as the name attribute value of the <Command> tag. The <Proc> tag is an API (Application Program Interface) function name that an internal processing program calls when executing the command. The <Param> tag represents an argument passed to the function to be called, and the <Result> tag represents the type of the called function.
ここで、<Param>タグや<Result>タグは、必要数だけ列挙して定義されていてもよい。例えば図3(B)のように、戻り値として抽出する場面の開始時刻と終了時刻の2つをとる定義がされていてもよい。また、必要のないタグについては省略されたコマンドを定義するようにしてもよい。 Here, <Param> tags and <Result> tags may be defined by enumerating as many as necessary. For example, as shown in FIG. 3B, a definition that takes two of a start time and an end time of a scene to be extracted as a return value may be defined. Further, omitted commands may be defined for unnecessary tags.
図3(B)には、<Level>タグがあるが、これは、上述した感情の度合いを示す感情レベル値をとるものであり、この値を調節することで、例えば大きな喜びや小さな喜びといった喜びの度合いによる処理の実行が可能となる。以降この値を抽出レベルと呼ぶ。この値はユーザが任意に設定できる。ユーザの指定した値による場面抽出が行われなかった場合は、場面抽出が行われるまでこの設定値を段階的に下げる。また、候補となる場面抽出の数が多い場合には、この値を段階的に上げながら候補を絞り込む。コマンドAPI関数は、要約作成アプリケーションとして記録部に記録される。 In FIG. 3B, there is a <Level> tag, which takes an emotion level value indicating the degree of emotion described above. By adjusting this value, for example, a big joy or a small joy. It is possible to execute processing according to the degree of joy. Hereinafter, this value is called an extraction level. This value can be arbitrarily set by the user. If the scene extraction based on the value designated by the user has not been performed, the set value is lowered step by step until the scene extraction is performed. If there are a large number of candidate scene extractions, the candidates are narrowed down while gradually increasing this value. The command API function is recorded in the recording unit as a summary creation application.
これらのコマンドは、ユーザが記述してもよいし、あらかじめ記述されているコマンドを用いてもよい。 These commands may be described by the user, or previously described commands may be used.
図4は、コマンドの実行シーケンスの例を示す図である。シーケンスは、コマンドを時系列に並べたものであり、処理したいコマンドを上から下に並べ、時間の流れに対応付けている。 FIG. 4 is a diagram illustrating an example of a command execution sequence. The sequence is a sequence of commands in time series, and commands to be processed are arranged from the top to the bottom and associated with the flow of time.
図4(A)は、タイトルコマンドを実行するシーケンスであり、<Sequence>タグのname属性値として「タイトル」をとることで、そのシーケンスがタイトルコマンドシーケンスであることを示す。<Title>タグは、<Command>タグで実行するコマンドに渡す引数であり、生成する要約につけるための任意の文字列をとる。 FIG. 4A shows a sequence for executing a title command. By taking “title” as the name attribute value of the <Sequence> tag, the sequence is a title command sequence. The <Title> tag is an argument passed to the command to be executed by the <Command> tag, and takes an arbitrary character string to be attached to the generated summary.
図4(B)は、2003年4月1日の要約作成を定義するシーケンスであり、<Date>タグで指定された日付(20030401)で、<Source>タグで管理されているソース(2003年4月4月1日の体験)に対して、不安コマンド、映像切り出しコマンドなどを実行することが定義されている。 FIG. 4B is a sequence for defining the creation of the summary on April 1, 2003. The source (2003) managed by the <Source> tag on the date (20030301) specified by the <Date> tag. It is defined that an anxiety command, a video cutout command, etc. are executed for the experience of April 1st April.
図4(C)は、図4(B)と同様に、2003年4月7日に起きた悲しみの場面と喜びの場面との要約を作成するシーケンスである。 FIG. 4C is a sequence for creating a summary of a scene of sadness and a scene of joy that occurred on April 7, 2003, as in FIG. 4B.
これらのシーケンスは、ユーザが作成してもよいし、あらかじめ作成されているシーケンスを用いてもよい。また、要約作成時に、日時情報が必要となる場合は、GUI(Graphical User Interface)などを介してユーザに設定させてもよい。 These sequences may be created by the user, or sequences created in advance may be used. In addition, when date and time information is necessary at the time of creating a summary, the user may set it via a GUI (Graphical User Interface) or the like.
図5は、シーケンスの集合であるテンプレート例を示す図である。例えば図5(A)に示すように、1週間の要約を作成する場合に、2003年4月1日から2003年4月7日までのシーケンスを上から並べて書くことで、1つのテンプレートが定義される。また、図5(B)に示すように、自動的な要約作成のためのテンプレートを定義することもできる。 FIG. 5 is a diagram illustrating an example of a template that is a set of sequences. For example, as shown in Fig. 5 (A), when creating a one-week summary, one template is defined by writing the sequence from April 1, 2003 to April 7, 2003 side by side. Is done. Further, as shown in FIG. 5B, a template for automatically creating a summary can be defined.
<Name>タグは、テンプレートの名称であり、GUIなどを介して設定される。<Type>タグは、作成する要約の時間範囲であり、1週間の要約を作成する場合はweekを、1ヶ月の要約を作成する場合はmonthを、1年の要約を作成する場合はyearを設定する。<Start>タグは、要約対象の開始日時情報であり、<End>タグは、要約対象の終了日時情報である。これらのタグはformat属性に対応した値を設定する。例えば、format属性値がyyyymmddであれば、値として20030401のような形式で設定する。また、時刻情報としてformat属性をhhmmssに、値を080000や200000とすることで、<Type>タグで指定された範囲内のすべての蓄積データに対して、08時00分00秒から20時00分00秒までを対象として要約を作成することができる。<TotalTime>タグは、要約されるコンテンツの再生時間長である。例えば、unit属性にminutesを指定し、値として60が設定されている場合、要約されたコンテンツの再生時間長は60分となる。unit属性は、hoursやsecondsなど他の指定をすることもできる。 The <Name> tag is the name of the template and is set via a GUI or the like. The <Type> tag is the time range of the summary to be created. Week is used to create a one-week summary, month is used to create a one-month summary, and year is used to create a one-year summary. Set. The <Start> tag is start date / time information to be summarized, and the <End> tag is end date / time information to be summarized. These tags set values corresponding to the format attribute. For example, if the format attribute value is yyyymmdd, the value is set in a format such as 20030401. Also, by setting the format attribute as hhmmss and the values as 080000 and 200000 as time information, all the accumulated data within the range specified by the <Type> tag is set from 08:00:00 to 20:00. Summaries can be created for minutes up to 00 seconds. The <TotalTime> tag is the playback time length of the content to be summarized. For example, if mines is specified in the unit attribute and 60 is set as the value, the playback time length of the summarized content is 60 minutes. In the unit attribute, other designations such as hours and seconds can be made.
なお、図5(B)のようにテンプレートに具体的な値が入力されていない場合、汎用的に使いまわせるため、後述のような方法でサーバ装置に登録しておき、必要時に参照したり、複数ユーザ間で共有したりすることができる。 If no specific value is entered in the template as shown in FIG. 5B, it is registered in the server device by a method as described below for general use. It can be shared among multiple users.
このように、感情情報を抽出条件に利用したテンプレートを用いることにより、ユーザ固有の要約コンテンツを簡単に作成することできる。 Thus, by using a template that uses emotion information as an extraction condition, user-specific summary content can be easily created.
次に、情報コンテンツの編集作業について図6〜8のフローチャートを用いて説明する。 Next, information content editing work will be described with reference to the flowcharts of FIGS.
図6は、生体情報の記録処理の手順を示すフローチャートである。記録処理では、映像・音声信号入力部2及び生体信号入力部5の初期化を実行する。また、初期化処理では、複合情報データベース114の初期化も行う。複合情報データベース114は、映像・音声データの記録時刻と、映像・音声データの記録アドレスとを格納したデータベースである。複合情報データベース114は、図10に示すように複合情報データベースのキーとなる複合情報ID、映像・音声信号が記録された日付、映像・音声信号の記録開始時刻、記録終了時刻、映像・音声信号が格納されたアドレスが記録されている。(ステップS6−1)。初期化が完了すると、生体信号入力部5は生体情報の入力を開始し、映像・音声信号入力部2は映像・音声信号の入力を開始する(ステップS6−2)。記録部コントローラ14は、生体信号入力部5から入力した生体情報と、映像・音声信号入力部2から入力した映像・音声データを記録部13に記録する。(ステップS6−3)。記録処理を継続する場合は、S6−2、S6−3を繰り返す(ステップS6−4)。記録を終了する場合は、終了処理を行う(ステップS6−5)。終了処理では、複合情報データベース114に記録終了時刻を記録する。なお、ここでは、入力された生体情報を記録するようにしたが、入力された生体情報に基づいて感情解析を行い、その結果を記録するようにしてもよい。 FIG. 6 is a flowchart showing the procedure of the biometric information recording process. In the recording process, the video / audio
図7は、感情解析処理の手順を示すフローチャートである。感情解析処理は、まず感情解析処理部8などの初期化を行う(ステップS7−1)。S7−2では感情解析を行う日時、時刻の設定を行い、設定された解析区間の生体情報を記録処理(図6)で記録された記録部13から読み出す(ステップS7−3)。読み出した生体情報は感情解析処理部8に入力され、上述した方法で感情パラメータを求める(ステップS7−4)。求められた感情パラメータは感情レベルとして数値化され、記録部13に記録される(ステップS7−5)。 FIG. 7 is a flowchart showing a procedure of emotion analysis processing. In the emotion analysis process, first, the emotion
図8は、テンプレートを用いた編集処理の手順を示すフローチャートである。まず、定義されたテンプレートを読み込み(ステップS8−1)、テンプレートに記述されたシーケンスを順次解析していく(ステップS8−2)。ステップS8−3において、要約を自動で作成する場合は、抽出レベルを初期値に設定する(ステップS8−4)。この初期値は、アプリケーションで設定されている値を用いても、ユーザが設定した値を用いてもよい。次に、各シーケンスに記述されたコマンドを順次解析し(ステップS8−5)、解析されたコマンドを実行する(ステップS8−6)。 FIG. 8 is a flowchart showing a procedure of editing processing using a template. First, the defined template is read (step S8-1), and the sequence described in the template is sequentially analyzed (step S8-2). In step S8-3, when the summary is automatically created, the extraction level is set to the initial value (step S8-4). The initial value may be a value set by the application or a value set by the user. Next, the commands described in each sequence are sequentially analyzed (step S8-5), and the analyzed commands are executed (step S8-6).
コマンド実行後、ステップS8−7にて抽出レベルが最小値に達し、場面抽出が行われなかった場合は、ステップS8−11に進む。また、ステップS8−8にて抽出された場面数が多かった場合は、抽出レベルを調整し(ステップS8−9)、コマンドを再解析して(ステップS8−10)、コマンドを実行する(ステップS8−5)。なお、抽出される場面数は、アプリケーションで設定されている値を用いても、ユーザが設定した値を用いてもよい。 After the command is executed, if the extraction level reaches the minimum value in step S8-7 and no scene extraction is performed, the process proceeds to step S8-11. If the number of scenes extracted in step S8-8 is large, the extraction level is adjusted (step S8-9), the command is reanalyzed (step S8-10), and the command is executed (step S8-8). S8-5). The number of scenes to be extracted may be a value set by the application or a value set by the user.
ステップS8−11にて継続してコマンドを処理する場合は、ステップS8−2〜S8−10を繰り返す。ステップS8−12にて継続してシーケンスを処理する場合は、ステップS8−3からS8−11を繰り返す。 When processing the command continuously in step S8-11, steps S8-2 to S8-10 are repeated. When processing the sequence continuously at step S8-12, steps S8-3 to S8-11 are repeated.
コマンド及びシーケンスが終了すると、抽出された場面が提示されるため、ユーザは必要な場面を選択し、要約コンテンツとする(S8−13)。 When the command and sequence are completed, the extracted scene is presented, so the user selects the necessary scene and sets it as summary content (S8-13).
本実施形態における情報コンテンツの編集装置によれば、感情抽出を定義した命令文を用意することで、情報コンテンツに対して容易に検索することができる。また、感情の度合いを数値でレベル付けすることにより、個人に応じた場面抽出を柔軟に行うことができる。 According to the information content editing apparatus of this embodiment, it is possible to easily search for information content by preparing a command statement defining emotion extraction. In addition, by leveling the degree of emotion numerically, it is possible to flexibly perform scene extraction according to the individual.
次に、感情抽出のための定義文を、ネットワークを介して複数のユーザで共有する例について説明する。 Next, an example in which a definition sentence for emotion extraction is shared by a plurality of users via a network will be described.
図9は、本実施形態におけるネットワークシステムを示す概略図である。情報コンテンツの編集装置1であるクライアント端末101は、クライアントアプリケーション105を実行するユーザにより使用され、ネットワーク104を介して、他のクライアント端末101a、101bやサーバ装置102と通信する。また、ネットワーク104には認証局103が存在する。認証局103はクライアント端末101とサーバ装置102との通信を制御する。なお、図9では認証局103とサーバ装置102とを別の構成として示したが、サーバ装置102に認証局103を備えるようにしてもよい。 FIG. 9 is a schematic diagram showing a network system in the present embodiment. The
クライアントアプリケーション105は、ユーザからの入力を受ける入力部106と、入力が生体信号である場合にそれらの生体信号の増幅やA/D変換、サンプリングを行う生体情報収集手段107と、生体信号を感情モデルに入力し感情解析を行う感情情報評価手段108と、感情情報評価手段の解析結果を表示するための表示部109と、インターネットを通じてサーバ装置との情報交換を行う通信部110と、撮像装置や再生装置といった機器などと接続する外部機器接続部111と、要約作成のためのコマンドを実行及び解釈するコマンド解析部112と、時系列に並んだコマンドの流れを処理するシーケンス制御部113とを制御する。 The
入力部106は、ユーザが設定する要約作成期間や表示形式情報などを入力するキーボードなどのインターフェイスであり、入力手段は文字入力やボタン選択などのGUIであることが好ましい。 The
生体情報収集手段107は、図1に示す情報コンテンツの編集装置1の映像信号入力部2や生体信号入力部5で実行され、それらを構成するA/Dコンバータ3、6や入力部コントローラ4、7などで脳波、心拍数、血圧、表情、姿勢などの情報を収集する。 The biological information collecting means 107 is executed by the video
感情情報評価手段108は、感情解析処理部8、RAM9、CPU10などで実行され、感情情報を求める。なお、視覚的、聴覚的情報については画像認識、音声認識などの認識処理により感情情報を求める。 The emotion information evaluation unit 108 is executed by the emotion
表示部109は、ユーザに対し必要な情報を表示する部分である。表示される情報は、例えば要約作成完了や作成時に発生したエラーなどの情報、作成された要約のプレビュー映像などであり、表示部11に表示される。 The
通信部110は、クライアント端末が発信する要求をサーバ装置102に送信し、サーバ装置102からの応答を受け付ける部分であり、ネットワークインターフェイス17で実行される。 The
外部機器接続部111は、撮像装置や再生装置などと接続する映像・音声信号入力部2や大容量の記録情報を格納するためのハードディスク、位置情報を検出するためのGPS(Global Positioning System)センサなどを接続するインターフェイス(図1に図示せず)である。 The external device connection unit 111 includes a video / audio
コマンド解析部112及びシーケンス制御部113は、上述したようにクライアントアプリケーション105に従い、CPU10などで実行される。 The command analysis unit 112 and the
また、クライアント端末101は、記録部13に複合情報データベース114を有しており、図10に示すように、複合情報ID、タイトル、日付、開始時刻、終了時刻及びデータ参照先が登録されている。 Further, the
複合情報IDは、クライアント端末101で記録され蓄積されるデータファイルに割り当てられる固有の識別子である。タイトルは、データファイルのタイトルを表すものであり、例えば再生時にユーザに対しデータの内容を示す場合などに用いられる。日付は、クライアント端末101が記録を開始した日付を表す。開始時刻は、クライアント端末101が記録を開始した時刻を表す。終了時刻は、クライアント端末101が記録を終了した時刻を表す。なお、日付と開始時刻、終了時刻がデータファイル内に記述されている場合はその値を用いてもよい。データ参照先は、クライアント端末101で記録され蓄積されているデータファイルのファイル名などの参照先を表す。 The composite information ID is a unique identifier assigned to a data file recorded and stored by the
サーバ装置102は、処理部116と通信部117とを制御するサーバアプリケーション115とユーザ情報データベース118を有する。 The
処理部116は、サーバ装置102側のサービスの制御や情報の処理を行う部分であり、通信部117は、クライアント端末101からの要求を受信し、要求処理を行ったあとにクライアント端末101に対し応答を送信する部分である。 The
ユーザ情報データベース118には、図10に示されるように、ユーザID、時刻、利用種別、バージョン及びユーザ拡張エリアが登録されている。 In the
ユーザIDは、ユーザに割り当てられた固有の識別子であり、アクセスしてきたクライアントアプリケーション105に登録されていたものである。時刻は、クライアント端末からのアクセスに応答した時刻である。利用種別は、例えばログイン、ログアウト、コマンド登録、コマンド検索などといったクライアントアプリケーション105の動作状態の識別子を格納するための領域である。この領域には、図11に示すような利用種別IDが記録される。バージョンは、ユーザが使用しているクライアントアプリケーション105のバージョン番号を表し、サーバ装置102がクライアント端末101に対しバージョンアップ通知を行うために用いられる。ユーザ拡張エリアは、ユーザが任意に使用可能な領域である。例えば、作成したテンプレート、シーケンス、コマンドをサーバ装置102に登録し、他のユーザと共有するためのものである。 The user ID is a unique identifier assigned to the user and is registered in the accessing
次に、クライアントアプリケーション105及びサーバアプリケーション115による初期化・記録時、要約処理時及び終了時の動作について説明する。ネットワーク104を介したクライアント端末101とサーバ装置102との動作は、図12〜図14に示すような手順で行われる。 Next, operations at the time of initialization / recording, summary processing, and termination by the
図12は、初期化・記録時における処理の流れを示す図である。まず、編集機器の日時、画質、音質などの初期化処理を行い、複合情報データベース114への記録準備を行う(ステップS12−1〜S12−5)。クライアントアプリケーション105は、クライアント端末101である情報コンテンツの編集装置1の記録部13に初期化を命じる。記録部13は、初期化の命令に対し応答し(ステップS12−2)、複合情報データベース114に記録要求する(ステップS12−3)。それに対し、複合情報データベース114は応答し(ステップS12−4)、空き容量不足などによりエラーが発生した場合には、記録部13はクライアントアプリケーション105に通知する(ステップS12−5)。 FIG. 12 is a diagram showing the flow of processing during initialization and recording. First, initialization processing such as date and time, image quality, and sound quality of the editing device is performed to prepare for recording in the composite information database 114 (steps S12-1 to S12-5). The
複合情報データベース114の初期化処理の終了後、クライアントアプリケーション105は、サーバ装置102に対し、ログインのためのサービス要求を送信する(ステップS12−6)。このとき同時にユーザIDを送信する。ログイン要求を受信したサーバ装置102は、認証局103でユーザ認証を行い(ステップS12−7)、その結果を受信する(ステップS12−8)。サーバ装置102は、ログインを許可しない場合はクライアントアプリケーション105に通知する(ステップS12−9)。ログインが成功した場合は、サーバアプリケーション115は、ユーザ情報データベース118に対しログインの履歴を残す(ステップS12−10)。このとき、図11に示す利用種別ID(ここでは、ログイン)が送信され、ユーザ情報データベース118に記録される。ログインIDを受信、記録したユーザ情報データベース118は、サーバアプリケーション115に応答送信し(ステップS12−11)、サーバアプリケーション115はクライアントアプリケーション105に応答送信する(ステップS12−12)。 After the initialization process of the composite information database 114 is completed, the
次に、要約処理時の動作について説明する。クライアントアプリケーション105は、コマンドの定義、コマンドを時系列に並べたシーケンス、シーケンスを時系列に並べたテンプレートを構成することで要約作成のための処理命令を定義する。ここで、ユーザはこれらの命令を図3〜図5に示したような形式で定義する。また、定義自体がサーバ装置に登録されている場合は、既存の定義を検索し、利用することができる。また、作成した定義はサーバ装置に登録することもできる。 Next, the operation during the summary process will be described. The
図13は、コマンド検索とシーケンス登録をサーバ装置102に対し行う場合における処理の流れを示す図である。クライアントアプリケーション105はサーバアプリケーション115に対し、コマンド検索のためのサービス要求を送信する(ステップS13−1)。コマンド検索要求を受信したサーバアプリケーション115は、ユーザ情報データベース118に対し登録されているコマンドを検索する(ステップS13−2)。検索結果は、サーバアプリケーション115を経て(ステップS13−3)、クライアントアプリケーション105に送信される(ステップS13−4)。また、クライアントアプリケーション105とサーバアプリケーション115との一連のやり取りは、ユーザ情報データベース118に履歴として記録される。 FIG. 13 is a diagram showing the flow of processing when command search and sequence registration are performed for the
コマンド検索によって得られたコマンド定義を用いてテンプレートを作成した後、クライアントアプリケーション105は、複合情報データベース114に登録されている体験記録に対し、要約作成処理を行う(ステップS13−5)。具体的には、クライアントアプリケーション105のシーケンス制御部113がテンプレート内のシーケンスを解析し、各シーケンスに対して、コマンド解析部112が逐次的に記述されているコマンドを解釈し処理する。 After creating a template using the command definition obtained by command search, the
また、図13には示していないが、クライアントアプリケーション105は、要約処理時にユーザに対して複数のシナリオを提示するようにしてもよい。例えば、自動処理で感情の度合いの大きい場面を複数種類抽出し、ユーザに対して好みの場面を選択させてもよい。また、ユーザが独自にテンプレートを記述した場合でも、ユーザの指定した要約と並行に自動処理をバックグラウンドで行い、ユーザの指定した処理結果の提示の際に、同時に自動処理結果の一覧を提示するようにしてもよい。このようにして作成された要約の中から、ユーザが必要な場面を選択することにより最終的な要約が作成される。 Although not shown in FIG. 13, the
また、作成した定義をサーバ装置102に登録するようにしてもよい。例えば図12に示すように、作成したシーケンスをサーバ装置102に登録する場合は、サーバアプリケーション115に対しシーケンス登録のためのサービス要求を送信し(ステップS13−7)、それを受信したサーバアプリケーション115は、ユーザ情報データベース118に対しシーケンスを登録する(ステップS13−8)。シーケンス及び利用種別IDを受信、記録したユーザ情報データベース118はサーバアプリケーション115に応答送信し(ステップS12−9)、サーバアプリケーション115はクライアントアプリケーション105に応答送信する(ステップS13−10)。 Further, the created definition may be registered in the
図14は、終了時における処理の流れを示す図である。クライアントアプリケーション105は、記録部13に対し記録終了処理を行う(ステップS14−1〜S14−5)。クライアントアプリケーション105は、情報コンテンツの編集装置1の記録部13に終了処理を命じる(ステップS14−1)。記録部13は、終了処理の命令に対し応答し(ステップS14−2)、複合情報データベース114に終了要求する(ステップS14−3)。それに対し、複合情報データベース114は応答し(ステップS14−4)、書き込み途中などによりエラーが発生した場合には、記録部13はクライアントアプリケーション105に通知する(ステップS14−5)。 FIG. 14 is a diagram showing the flow of processing at the end. The
記録終了処理が成功した場合には、クライアントアプリケーション105は、サーバ装置102に対し、ログアウトのためのサービス要求を送信する(ステップS14−6)。ログアウト要求を受信したサーバアプリケーション115は、ユーザ情報データベース118に対しログアウトの履歴を残す(ステップS14−7)。このとき、ログアウトを示す利用種別IDが送信され、ユーザ情報データベース118に記録される。ログアウトIDを受信、記録したユーザ情報データベース118は、サーバアプリケーション115に応答送信し(ステップS14−8)、サーバアプリケーション115はクライアントアプリケーション105に応答送信する(ステップS14−9)。 When the recording end process is successful, the
このように、ネットワークを介して共通に利用することが可能な記述形態をとることにより、例えば同じ情報コンテンツでも個人ごとに異なるポイントをもつ要約コンテンツを
テンプレートを交換することで容易に得ることができる。In this way, by adopting a description form that can be used in common via the network, for example, even the same information content can be easily obtained by exchanging templates with summary content having different points for each individual. .
また、配布された情報コンテンツの視聴時に生体情報を同時計測して、テンプレートを作成し、配布先に送信することで、配布先は視聴者の反応を知ることができる。 In addition, when the distributed information content is viewed, biometric information is simultaneously measured, a template is created, and transmitted to the distribution destination, so that the distribution destination can know the reaction of the viewer.
なお、上記一実施例では生体情報に基づく感情パラメータに基づいて、情報コンテンツの編集処理を行ったが、感情情報以外にも、位置情報や時間情報などによる場面抽出を行い、同位置、同時刻における要約コンテンツ集を作成することもできる。これにより例えば日々蓄積されている体験映像から、さまざま情報に基づく体験履歴を作成し、振り返ることができる。 In the above embodiment, information content editing processing is performed based on emotion parameters based on biometric information. However, in addition to emotion information, scene extraction based on position information and time information is performed, and the same position and same time A summary content collection can also be created. Thereby, for example, an experience history based on various information can be created from the experience videos accumulated every day and looked back.
また、コマンドは上記一実施形態に限定されるものではなく、ユーザが定義することができるので、感情的に大きく影響を受けた場面に特殊な再生効果を与えることができる。例えば、興味を持ったものが映っている場合にはズーム効果を与えたり、暗く落ち込んだ場面では画面のコントラストを落としたりする。 Further, the command is not limited to the above-described embodiment, and can be defined by the user, so that a special reproduction effect can be given to a scene that is greatly influenced emotionally. For example, if something interesting is shown, a zoom effect is applied, or the screen contrast is reduced in a darkened scene.
以上、本実施形態によれば、ユーザの生体情報に基づいて感情解析を行い、その感情パラメータを数値化した感情レベルに応じて要約を作成するようにすることにより、時間とともに変化する感情状態や記憶の風化などに制約されず、情報コンテンツを記録時又は視聴時の感情の状態に基づいた要約コンテンツを作成することができる。 As described above, according to the present embodiment, emotion analysis is performed based on the user's biometric information, and a summary is created according to the emotion level obtained by quantifying the emotion parameter. Without being restricted by weathering of memory or the like, it is possible to create summary content based on the emotional state at the time of recording or viewing information content.
また、例えば継続的に蓄積されている日常の体験映像に対し、コマンド、シーケンス、テンプレートを定義することで、或いはあらかじめ定義されたものを用いることで、簡単に要約を作成することができる。これにより、効率的な検索や情報の管理を行うことができる。 In addition, for example, a summary can be easily created by defining commands, sequences, and templates for daily experience videos that are continuously stored, or by using predefined ones. Thereby, efficient search and information management can be performed.
また、同じ体験でも個人により注目するポイントや興味を持つポイントは異なるが、生体情報に基づき要約を作成することで、個人ごとに異なるポイントでの要約作成ができる。 In addition, although the points of interest and points of interest differ among individuals even in the same experience, it is possible to create summaries at different points for each individual by creating summaries based on biological information.
また、関心を示した場面や驚いた場面などを一覧表示することが可能となり、例えば日々の体験でどのような印象深い場面があったかを簡単に把握することができる。 In addition, it is possible to display a list of scenes showing interest or surprised scenes, and for example, it is possible to easily grasp what impressive scenes existed in daily experiences.
1 情報コンテンツの編集装置、 2 映像・音声信号入力部、 3 A/Dコンバータ、 4 映像・音声信号入力部コントローラ、 5 生体信号入力部、 6 A/Dコンバータ、 7 生体信号入力部コントローラ、 8 感情解析処理部、 9 RAM、 10 CPU、 11 表示部、 12 表示部コントローラ、 13 記録部、 14 記録部コントローラ、 15 再生処理部、 16 Bus、 17 ネットワークインターフェイス、 18 入力部、 101 クライアント端末、 102 サーバ装置、 103 認証局、 104 ネットワーク、 105 クライアントアプリケーション、 106 入力部、 107 生体情報収集手段、 108 感情情報評価手段、 109 表示部、 110 通信部、 111 外部機器接続部、 112 コマンド解析部、 113 シーケンス制御部、 114 複合情報データベース、 115 サーバアプリケーション、 116 処理部、 117 通信部、 118 ユーザ情報データベース
1 information content editing device, 2 video / audio signal input unit, 3 A / D converter, 4 video / audio signal input unit controller, 5 biological signal input unit, 6 A / D converter, 7 biological signal input unit controller, 8 Emotion analysis processing unit, 9 RAM, 10 CPU, 11 display unit, 12 display unit controller, 13 recording unit, 14 recording unit controller, 15 playback processing unit, 16 Bus, 17 network interface, 18 input unit, 101 client terminal, 102 Server device, 103 certificate authority, 104 network, 105 client application, 106 input unit, 107 biometric information collection unit, 108 emotion information evaluation unit, 109 display unit, 110 communication unit, 111 external device connection unit, 112 command analysis unit, 113 Sequence system Control unit, 114 composite information database, 115 server application, 116 processing unit, 117 communication unit, 118 user information database
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003365081AJP2005128884A (en) | 2003-10-24 | 2003-10-24 | Device and method for editing information content |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003365081AJP2005128884A (en) | 2003-10-24 | 2003-10-24 | Device and method for editing information content |
| Publication Number | Publication Date |
|---|---|
| JP2005128884Atrue JP2005128884A (en) | 2005-05-19 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003365081AWithdrawnJP2005128884A (en) | 2003-10-24 | 2003-10-24 | Device and method for editing information content |
| Country | Link |
|---|---|
| JP (1) | JP2005128884A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005346471A (en)* | 2004-06-03 | 2005-12-15 | Canon Inc | Information processing method and information processing apparatus |
| KR100763236B1 (en) | 2006-05-09 | 2007-10-04 | 삼성전자주식회사 | Video editing device and method using bio signals |
| WO2007117019A1 (en)* | 2006-04-05 | 2007-10-18 | Sony Corporation | Recording device, reproducing device, recording/reproducing device, recording method, reproducing method, and recording/reproducing method, and recording medium |
| WO2010001512A1 (en)* | 2008-07-03 | 2010-01-07 | パナソニック株式会社 | Impression degree extraction apparatus and impression degree extraction method |
| JP2010520554A (en)* | 2007-03-06 | 2010-06-10 | エムセンス コーポレイション | Method and system for creating an aggregated view of user responses in time-varying media using physiological data |
| JP2010520017A (en)* | 2007-03-07 | 2010-06-10 | エムセンス コーポレイション | Method and system for measuring and evaluating "thinking" responses to audiovisual or interactive media, products or activities using physiological signals |
| JP2011120824A (en)* | 2009-12-14 | 2011-06-23 | Tokyo Univ Of Agriculture & Technology | Sensibility evaluation device, sensibility evaluation method, and sensibility evaluation program |
| KR20110091206A (en)* | 2010-02-05 | 2011-08-11 | 엘지전자 주식회사 | Electronic device and data management method of electronic device |
| US8046384B2 (en) | 2006-12-08 | 2011-10-25 | Sony Corporation | Information processing apparatus, information processing method and information processing program |
| US8125539B2 (en) | 2007-11-09 | 2012-02-28 | Sony Corporation | Information-processing apparatus and method detecting living-body information |
| JP2012244360A (en)* | 2011-05-18 | 2012-12-10 | Nippon Hoso Kyokai <Nhk> | Receiver and program |
| WO2013147522A1 (en)* | 2012-03-30 | 2013-10-03 | 단국대학교 산학협력단 | Audio-visual work story analysis system based on tense-relaxed emotional state measurement and analysis method |
| US8718447B2 (en) | 2005-10-17 | 2014-05-06 | Samsung Electronics Co., Ltd. | Method and apparatus for providing multimedia data using event index |
| EP2741293A1 (en)* | 2012-12-05 | 2014-06-11 | Samsung Electronics Co., Ltd | Video processing apparatus and method |
| KR101436908B1 (en)* | 2012-10-19 | 2014-09-11 | 경북대학교 산학협력단 | Image processing apparatus and method thereof |
| KR101453813B1 (en) | 2012-12-11 | 2014-10-23 | 박수조 | Smart-TV with time machine advertisement provision function based on logotional advertisement |
| WO2014199010A1 (en)* | 2013-06-11 | 2014-12-18 | Nokia Corporation | Method, apparatus and computer program product for gathering and presenting emotional response to an event |
| KR101497380B1 (en)* | 2013-10-16 | 2015-03-05 | 한양대학교 에리카산학협력단 | Advertising method using smart display having advertisement calling module |
| KR101510770B1 (en) | 2012-12-11 | 2015-04-10 | 박수조 | Method for providing time machine advertisement based on smart-TV with logotional advertisement function |
| JP2015109964A (en)* | 2013-11-11 | 2015-06-18 | 株式会社電通サイエンスジャム | Emotion estimation device, emotion estimation processing system, emotion estimation method, and emotion estimation program |
| JP2015207038A (en)* | 2014-04-17 | 2015-11-19 | 日本放送協会 | Video image evaluation device and program |
| KR101536262B1 (en)* | 2014-05-08 | 2015-11-23 | 한양대학교 에리카산학협력단 | Method for providing time machine advertisement based on smart-TV with logotional advertisement function |
| WO2016089047A1 (en)* | 2014-12-01 | 2016-06-09 | 삼성전자 주식회사 | Method and device for providing content |
| JP2016146075A (en)* | 2015-02-09 | 2016-08-12 | 日本放送協会 | Image evaluation apparatus and program thereof |
| WO2017048000A1 (en)* | 2015-09-18 | 2017-03-23 | Samsung Electronics Co., Ltd. | Method and electronic device for providing content |
| JP2018042240A (en)* | 2016-09-09 | 2018-03-15 | ソニー株式会社 | System and method for processing video content on the basis of affective state detection |
| JP2019054547A (en)* | 2018-12-03 | 2019-04-04 | 株式会社Jvcケンウッド | Digest creation device, digest creation system, digest creation method, and program |
| JP2019512822A (en)* | 2016-03-14 | 2019-05-16 | フヴィ・コグニティヴ・ネットワーク・コーポレーション | Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making |
| WO2019198913A1 (en)* | 2018-04-11 | 2019-10-17 | 삼성전자주식회사 | Electronic device and control method therefor |
| US10795988B2 (en) | 2015-04-16 | 2020-10-06 | Samsung Electronics Co., Ltd. | Device and method of requesting external device to execute task |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005346471A (en)* | 2004-06-03 | 2005-12-15 | Canon Inc | Information processing method and information processing apparatus |
| US8718447B2 (en) | 2005-10-17 | 2014-05-06 | Samsung Electronics Co., Ltd. | Method and apparatus for providing multimedia data using event index |
| WO2007117019A1 (en)* | 2006-04-05 | 2007-10-18 | Sony Corporation | Recording device, reproducing device, recording/reproducing device, recording method, reproducing method, and recording/reproducing method, and recording medium |
| US8945008B2 (en) | 2006-04-05 | 2015-02-03 | Sony Corporation | Recording apparatus, reproducing apparatus, recording and reproducing apparatus, recording method, reproducing method, recording and reproducing method, and record medium |
| US9654723B2 (en) | 2006-04-05 | 2017-05-16 | Sony Corporation | Recording apparatus, reproducing apparatus, recording and reproducing apparatus, recording method, reproducing method, recording and reproducing method, and record medium |
| KR100763236B1 (en) | 2006-05-09 | 2007-10-04 | 삼성전자주식회사 | Video editing device and method using bio signals |
| US8157729B2 (en) | 2006-05-09 | 2012-04-17 | Samsung Electronics Co., Ltd. | System, method and medium editing moving pictures using biometric signals |
| US8046384B2 (en) | 2006-12-08 | 2011-10-25 | Sony Corporation | Information processing apparatus, information processing method and information processing program |
| JP2010520554A (en)* | 2007-03-06 | 2010-06-10 | エムセンス コーポレイション | Method and system for creating an aggregated view of user responses in time-varying media using physiological data |
| JP2010520017A (en)* | 2007-03-07 | 2010-06-10 | エムセンス コーポレイション | Method and system for measuring and evaluating "thinking" responses to audiovisual or interactive media, products or activities using physiological signals |
| US8125539B2 (en) | 2007-11-09 | 2012-02-28 | Sony Corporation | Information-processing apparatus and method detecting living-body information |
| WO2010001512A1 (en)* | 2008-07-03 | 2010-01-07 | パナソニック株式会社 | Impression degree extraction apparatus and impression degree extraction method |
| JP2011120824A (en)* | 2009-12-14 | 2011-06-23 | Tokyo Univ Of Agriculture & Technology | Sensibility evaluation device, sensibility evaluation method, and sensibility evaluation program |
| KR101649568B1 (en)* | 2010-02-05 | 2016-08-30 | 엘지전자 주식회사 | Mobile terminal and data management method for mobile terminal |
| KR20110091206A (en)* | 2010-02-05 | 2011-08-11 | 엘지전자 주식회사 | Electronic device and data management method of electronic device |
| JP2012244360A (en)* | 2011-05-18 | 2012-12-10 | Nippon Hoso Kyokai <Nhk> | Receiver and program |
| WO2013147522A1 (en)* | 2012-03-30 | 2013-10-03 | 단국대학교 산학협력단 | Audio-visual work story analysis system based on tense-relaxed emotional state measurement and analysis method |
| KR101436908B1 (en)* | 2012-10-19 | 2014-09-11 | 경북대학교 산학협력단 | Image processing apparatus and method thereof |
| EP2741293A1 (en)* | 2012-12-05 | 2014-06-11 | Samsung Electronics Co., Ltd | Video processing apparatus and method |
| CN103856833A (en)* | 2012-12-05 | 2014-06-11 | 三星电子株式会社 | Video processing apparatus and method |
| KR101453813B1 (en) | 2012-12-11 | 2014-10-23 | 박수조 | Smart-TV with time machine advertisement provision function based on logotional advertisement |
| KR101510770B1 (en) | 2012-12-11 | 2015-04-10 | 박수조 | Method for providing time machine advertisement based on smart-TV with logotional advertisement function |
| WO2014199010A1 (en)* | 2013-06-11 | 2014-12-18 | Nokia Corporation | Method, apparatus and computer program product for gathering and presenting emotional response to an event |
| US9681186B2 (en) | 2013-06-11 | 2017-06-13 | Nokia Technologies Oy | Method, apparatus and computer program product for gathering and presenting emotional response to an event |
| KR101497380B1 (en)* | 2013-10-16 | 2015-03-05 | 한양대학교 에리카산학협력단 | Advertising method using smart display having advertisement calling module |
| JP2015109964A (en)* | 2013-11-11 | 2015-06-18 | 株式会社電通サイエンスジャム | Emotion estimation device, emotion estimation processing system, emotion estimation method, and emotion estimation program |
| JP2015207038A (en)* | 2014-04-17 | 2015-11-19 | 日本放送協会 | Video image evaluation device and program |
| KR101536262B1 (en)* | 2014-05-08 | 2015-11-23 | 한양대학교 에리카산학협력단 | Method for providing time machine advertisement based on smart-TV with logotional advertisement function |
| WO2016089047A1 (en)* | 2014-12-01 | 2016-06-09 | 삼성전자 주식회사 | Method and device for providing content |
| JP2016146075A (en)* | 2015-02-09 | 2016-08-12 | 日本放送協会 | Image evaluation apparatus and program thereof |
| US10795988B2 (en) | 2015-04-16 | 2020-10-06 | Samsung Electronics Co., Ltd. | Device and method of requesting external device to execute task |
| WO2017048000A1 (en)* | 2015-09-18 | 2017-03-23 | Samsung Electronics Co., Ltd. | Method and electronic device for providing content |
| US10062381B2 (en) | 2015-09-18 | 2018-08-28 | Samsung Electronics Co., Ltd | Method and electronic device for providing content |
| JP2019512822A (en)* | 2016-03-14 | 2019-05-16 | フヴィ・コグニティヴ・ネットワーク・コーポレーション | Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making |
| JP2018042240A (en)* | 2016-09-09 | 2018-03-15 | ソニー株式会社 | System and method for processing video content on the basis of affective state detection |
| US10529379B2 (en) | 2016-09-09 | 2020-01-07 | Sony Corporation | System and method for processing video content based on emotional state detection |
| WO2019198913A1 (en)* | 2018-04-11 | 2019-10-17 | 삼성전자주식회사 | Electronic device and control method therefor |
| JP2019054547A (en)* | 2018-12-03 | 2019-04-04 | 株式会社Jvcケンウッド | Digest creation device, digest creation system, digest creation method, and program |
| Publication | Publication Date | Title |
|---|---|---|
| JP2005128884A (en) | Device and method for editing information content | |
| US7233684B2 (en) | Imaging method and system using affective information | |
| KR101520524B1 (en) | Alzheimers cognitive enabler | |
| US8014573B2 (en) | Digital life recording and playback | |
| CN118964598B (en) | Agent-based psychological counseling strategy generation method, device, equipment and medium | |
| CN113764099A (en) | Psychological state analysis method, device, equipment and medium based on artificial intelligence | |
| JP2005124909A (en) | Method for presenting emotional information, emotional information display device, and method for retrieving information content | |
| US11163822B2 (en) | Emotional experience metadata on recorded images | |
| CN116665281B (en) | Key emotion extraction method based on doctor-patient interaction | |
| JP4608858B2 (en) | Emotion visualization device, emotion visualization method, and emotion visualization output | |
| CN103959756A (en) | Portable electronic device and method of recording media using portable electronic device | |
| CN118902458A (en) | Multimodal emotion recognition and consciousness detection method based on electroencephalogram and micro-expression | |
| JP4407198B2 (en) | Recording / reproducing apparatus, reproducing apparatus, recording / reproducing method, and reproducing method | |
| Kanna et al. | Detection of Emotion Employing Deep Learning Modelling Approach | |
| KR102111775B1 (en) | Medical practice data collection and management system and method | |
| CN117133399A (en) | Operation report generating system based on large language model and working method thereof | |
| KR102075506B1 (en) | A System Providing Matching Platform Of Specialists Based on Video | |
| JP4200370B2 (en) | Recording apparatus, recording / reproducing apparatus, reproducing apparatus, recording method, recording / reproducing method, and reproducing method | |
| CN118173292B (en) | AI self-training-based remote diagnosis and treatment system and method | |
| JP4264717B2 (en) | Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method | |
| JP7206741B2 (en) | HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM | |
| CN110046580A (en) | A kind of man-machine interaction method and system based on Emotion identification | |
| US12413844B2 (en) | Image capturing method | |
| JP6985767B1 (en) | Diagnostic equipment, diagnostic methods, diagnostic systems, and programs | |
| JP7306439B2 (en) | Information processing device, information processing method, information processing program and information processing system |
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed | Free format text:JAPANESE INTERMEDIATE CODE: A300 Effective date:20070109 |