Movatterモバイル変換


[0]ホーム

URL:


JP2007336344A - Information terminal device, driving method thereof, and program - Google Patents

Information terminal device, driving method thereof, and program
Download PDF

Info

Publication number
JP2007336344A
JP2007336344AJP2006167321AJP2006167321AJP2007336344AJP 2007336344 AJP2007336344 AJP 2007336344AJP 2006167321 AJP2006167321 AJP 2006167321AJP 2006167321 AJP2006167321 AJP 2006167321AJP 2007336344 AJP2007336344 AJP 2007336344A
Authority
JP
Japan
Prior art keywords
data
terminal device
information terminal
keyword
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006167321A
Other languages
Japanese (ja)
Inventor
Hideo Fushimoto
秀雄 伏本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon IncfiledCriticalCanon Inc
Priority to JP2006167321ApriorityCriticalpatent/JP2007336344A/en
Publication of JP2007336344ApublicationCriticalpatent/JP2007336344A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

Translated fromJapanese

【課題】連続的な会話を中断することなく、快適なTV電話システム、TV会議システムを実現する。
【解決手段】検索用のキーワードと関連付けられたデータを記憶する外部記憶部24と、自装置及び外部装置のうちの少なくとも何れか一方に対して発声された音声を音声データとして入力する音声入力部15と、前記音声データに基づいてキーワードを抽出し、抽出したキーワードに係るデータを外部記憶部24から読み出して、読み出したデータを表示出力部17に表示すると共に、当該データを通信ネットワーク23を介して前記外部装置に送信する制御を行う制御部11を具備する。
【選択図】図1
A comfortable TV phone system and a TV conference system are realized without interrupting continuous conversation.
An external storage unit that stores data associated with a search keyword, and a voice input unit that inputs voice uttered to at least one of the device and the external device as voice data 15 and a keyword is extracted based on the voice data, the data related to the extracted keyword is read from the external storage unit 24, the read data is displayed on the display output unit 17, and the data is transmitted via the communication network 23. And a control unit 11 that performs control of transmission to the external device.
[Selection] Figure 1

Description

Translated fromJapanese

本発明は、音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成された情報端末装置、その駆動方法、及び当該駆動方法をコンピュータに実行させるためのプログラムに関する。  The present invention relates to an information terminal device configured to be able to transmit and receive various types of data including audio data and image data to and from an external device via a transmission line, a driving method thereof, and a program for causing a computer to execute the driving method. .

従来より、画像データ、音声データ等の各種情報をネットワークを介して端末装置間で授受するTV電話/TV会議システムが提案されている(例えば、下記の特許文献1参照)。  2. Description of the Related Art Conventionally, there has been proposed a TV phone / TV conference system that exchanges various types of information such as image data and audio data between terminal devices via a network (for example, see Patent Document 1 below).

近年、TV電話では、画像データと音声データを端末装置間で送受信することにより、相手側の映像を見ながら会話ができるようになっている。更に、TV電話では、ネットワークの伝送路の大幅な伝送容量の増大に伴い、TV会議システムで提案されている、映像、音声を授受するだけではなく、ファイル転送、描画情報のやり取り、アプリケーションソフトの共有等を多地点間で行うことができるようになっている。これにより、効率的な会議を進めることが可能なシステムが提供されている。  In recent years, in videophones, conversations can be made while viewing images of the other party by transmitting and receiving image data and audio data between terminal devices. Furthermore, in the video phone, as the transmission capacity of the network transmission line is greatly increased, not only the video and audio, which are proposed in the TV conference system, but also file transfer, exchange of drawing information, application software, etc. Sharing, etc. can be performed between multiple points. Thereby, a system capable of proceeding with an efficient conference is provided.

上述したシステムでは、TV会議システムのみならず、個人のTV電話においても、端末装置内に記憶された画像データや各種ドキュメントデータ等をお互いの端末装置上に表示出力させて会話を行うことができるようになっている。これにより、遠隔地間で会話をしながら、各種情報を共有することが可能であり、よりリアルな会議の雰囲気での会話に近づけたシステムも実現されてきている。  In the above-described system, not only a TV conference system but also a personal TV phone can display and output image data, various document data, and the like stored in the terminal device on each other's terminal device. It is like that. As a result, various types of information can be shared while having a conversation between remote locations, and a system that is closer to a conversation in a more realistic conference atmosphere has been realized.

特開2003−224836号公報JP 2003-224836 A

上述したシステムにおいては、端末装置の表示画面を見ながら会話を行い、必要に応じて共有すべき情報を端末装置を操作することにより検索、出力して送信を行うことを実現している。  In the above-described system, it is realized that a conversation is performed while looking at the display screen of the terminal device, and information to be shared is searched for, output, and transmitted as needed by operating the terminal device.

しかしながら、上述したシステムでは、端末装置に設けられたキーボード等の入力手段を操作して所望のデータが格納されている記憶手段を特定し、その中から当該所望のデータを検索して、自装置の表示装置に表示すると共に、相手側の端末装置に対する送信指示を行うことが必要となり、連続的に会話をしている状態である場合、当該操作中は会話が中断してしまうといった問題があった。  However, in the above-described system, the storage unit in which desired data is stored is specified by operating an input unit such as a keyboard provided in the terminal device, and the desired data is retrieved from the storage unit. Display on the other display device and instructing transmission to the other terminal device, and in a state of continuous conversation, there is a problem that the conversation is interrupted during the operation. It was.

また、上述したシステムでは、表示装置に出力されている双方の映像を確認しながら会話が行われるため、通常、映像を撮影するカメラが表示装置上に配設されている関係上、会話者は、表示装置からある程度離れた位置で会話を行う必要がある。また、上述した操作を表示装置を含む端末装置で行う場合は、端末装置の傍に近づき操作を行うため、やはり、会話が一時的に中断されてしまうといった問題があった。  Further, in the above-described system, since the conversation is performed while confirming both images output to the display device, the conversation person is usually placed on the relationship that the camera for capturing the image is disposed on the display device. It is necessary to have a conversation at a position some distance away from the display device. Further, when the above-described operation is performed on a terminal device including a display device, there is a problem in that the conversation is temporarily interrupted because the operation is performed near the terminal device.

本発明は上述の問題点に鑑みてなされたものであり、連続的な会話を中断することなく、快適なTV電話システム、TV会議システムを実現する情報端末装置、その駆動方法及びプログラムを提供することを目的とする。  The present invention has been made in view of the above-described problems, and provides an information terminal device that realizes a comfortable TV telephone system and a TV conference system without interrupting continuous conversation, a driving method thereof, and a program. For the purpose.

本発明の情報端末装置は、音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成された情報端末装置であって、検索用のキーワードと関連付けられたデータを記憶する第1の記憶手段と、前記情報端末装置及び前記外部装置のうちの少なくとも何れか一方に対して発声された音声を音声データとして入力する音声入力手段と、前記音声入力手段により入力された音声データに基づいてキーワードを抽出する抽出手段と、前記抽出手段で抽出したキーワードに係るデータを前記第1の記憶手段から読み出す読み出し手段と、前記読み出し手段で読み出したデータを表示媒体に表示する表示手段と、前記読み出し手段で読み出したデータを前記伝送路を介して前記外部装置に送信する送信手段とを有する。  An information terminal device according to the present invention is an information terminal device configured to be able to transmit and receive various types of data including audio data and image data to and from an external device via a transmission line, and to store data associated with a search keyword. First storage means for storing, voice input means for inputting voice uttered to at least one of the information terminal device and the external device as voice data, and input by the voice input means Extraction means for extracting a keyword based on voice data, reading means for reading data relating to the keyword extracted by the extraction means from the first storage means, and display for displaying the data read by the reading means on a display medium And transmission means for transmitting the data read by the reading means to the external device via the transmission path.

本発明の情報端末装置の駆動方法は、音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成され、検索用のキーワードと関連付けられたデータを記憶する第1の記憶手段を具備する情報端末装置の駆動方法であって、前記情報端末装置及び前記外部装置のうちの少なくとも何れか一方に対して発声された音声を音声データとして入力する音声入力ステップと、前記音声入力ステップにより入力された音声データに基づいてキーワードを抽出する抽出ステップと、前記抽出ステップで抽出したキーワードに係るデータを前記第1の記憶手段から読み出す読み出しステップと、前記読み出しステップで読み出したデータを表示媒体に表示する表示ステップと、前記読み出しステップで読み出したデータを前記伝送路を介して前記外部装置に送信する送信ステップとを有する。  The information terminal device driving method of the present invention is configured to be capable of transmitting and receiving various types of data including audio data and image data to and from an external device via a transmission line, and stores data associated with a search keyword. A method for driving an information terminal device comprising the storage means, wherein the voice input step inputs voice uttered to at least one of the information terminal device and the external device as voice data; An extraction step for extracting a keyword based on the voice data input in the voice input step, a read step for reading data relating to the keyword extracted in the extraction step from the first storage means, and data read in the read step Display on the display medium, and the data read in the reading step And a transmission step of transmitting to the external device through the transmission path.

また、本発明のプログラムは、前記情報端末装置の駆動方法の各ステップをコンピュータに実行させるためのものである。  Moreover, the program of this invention is for making a computer perform each step of the drive method of the said information terminal device.

本発明によれば、連続的な会話を中断することなく、快適なTV電話システム、TV会議システムを実現することができる。  According to the present invention, a comfortable TV phone system and a TV conference system can be realized without interrupting continuous conversation.

以下、図面を参照して、本発明の実施形態について説明する。  Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る情報端末装置のハードウエア構成を示すブロック図である。
図1において、制御部11は、情報端末装置のシステム全体の制御を司るものであり、例えば、後述する情報検索出力制御及び情報送信制御等を実行する。ROM12は、制御部11で各種制御を行う際に必要なプログラムなどを格納する。RAM13は、入力データなどの情報やプログラム実行中のデータなどを一時的に記憶する。
(First embodiment)
FIG. 1 is a block diagram illustrating a hardware configuration of the information terminal device according to the first embodiment.
In FIG. 1, thecontrol unit 11 controls the entire system of the information terminal device, and executes, for example, information search output control and information transmission control described later. TheROM 12 stores a program necessary for performing various controls by thecontrol unit 11. TheRAM 13 temporarily stores information such as input data and data during program execution.

画像入力部14は、例えばカメラ装置等からなるものであり、TV電話/TV会議システムにおいて、撮影された映像(画像)を映像データ(画像データ)として入力を行う。音声入力部15は、例えばマイク装置等からなるものであり、TV電話/TV会議システムにおいて、発声された音声を音声データとして入力を行う。ここで、本実施形態の音声入力部15は、当該情報端末装置のみならず、相手側の情報端末装置に対して発声された音声を音声データとして入力するものとする。  Theimage input unit 14 is composed of, for example, a camera device or the like, and inputs a captured video (image) as video data (image data) in a TV phone / TV conference system. Thevoice input unit 15 is composed of, for example, a microphone device or the like, and inputs spoken voice as voice data in a TV phone / TV conference system. Here, it is assumed that thevoice input unit 15 of the present embodiment inputs voice uttered not only to the information terminal apparatus but also to the information terminal apparatus on the other side as voice data.

操作入力部16は、例えばキーボード装置等からなるものであり、情報端末装置における各種の設定、制御、データ入力手段として機能する。  Theoperation input unit 16 includes, for example, a keyboard device and functions as various settings, controls, and data input means in the information terminal device.

表示出力部17は、例えば液晶ディスプレイ端末装置やTV表示装置等からなるものであり、画像を出力する手段として機能する。また、音声出力部18は、例えばスピーカ装置等からなるものであり、音声を出力する手段として機能する。これらの表示出力部17及び音声出力部18により、当該情報端末装置と通信可能に構成された情報端末装置の使用者における双方の顔や、会話、共有データの出力再生がなされる。通常、表示出力部17は、同時に複数の情報の出力が可能であり、送信側の映像データや、相手側の映像データ、共有データ、及び各情報端末装置内の情報が同時に出力可能に構成されている。  Thedisplay output unit 17 includes, for example, a liquid crystal display terminal device or a TV display device, and functions as a means for outputting an image. Theaudio output unit 18 is constituted by a speaker device, for example, and functions as a means for outputting audio. Thedisplay output unit 17 and theaudio output unit 18 output and reproduce both faces, conversations, and shared data of the user of the information terminal device configured to be able to communicate with the information terminal device. Usually, thedisplay output unit 17 can output a plurality of information at the same time, and can be configured to simultaneously output video data on the transmission side, video data on the other side, shared data, and information in each information terminal device. ing.

画像符号化/復号化処理部19及び音声符号化/復号化処理部20は、送信側の情報端末装置と受信側の情報端末装置との間で、それぞれ、映像及び音声、並びにその他の情報を授受する際のこれらの各データの符号化/復号化処理を行なう。多重/分離処理部21は、画像データ、音声データを分離した後、回線インターフェース処理部22を介して、通信ネットワーク23に伝送可能な通信形態に所望の通信プロトコルに準じた変換を行う。これらの一連の処理により、送信側の情報端末装置と受信側の情報端末装置との間で、画像データ及び音声データを含む各種のデータの送受信が行なわれる。  The image encoding /decoding processing unit 19 and the audio encoding /decoding processing unit 20 respectively transmit video, audio, and other information between the transmitting-side information terminal device and the receiving-side information terminal device. Encoding / decoding processing of each of these data at the time of exchange is performed. The multiplexing / separation processing unit 21 separates image data and audio data, and then performs conversion according to a desired communication protocol into a communication form that can be transmitted to the communication network 23 via the lineinterface processing unit 22. Through a series of these processes, various types of data including image data and audio data are transmitted and received between the transmission-side information terminal device and the reception-side information terminal device.

外部記憶部24には、画像やドキュメント等の各種のデータが検索用のキーワードと関連付けられて記憶されている。音声認識処理部25は、音声入力部15より入力された音声データの中から従来より提案されている認識処理を用いてテキスト情報に変換するものであり、このテキスト情報は、キーワードとしてキーワード保持部26へ順次格納される。  Various data such as images and documents are stored in theexternal storage unit 24 in association with search keywords. The voice recognition processing unit 25 converts the voice data input from thevoice input unit 15 into text information using a conventionally proposed recognition process. The text information is a keyword holding unit as a keyword. 26 are sequentially stored.

制御部11は、キーワード保持部26に格納された各種キーワードを活用して、外部記憶部24内に予めキーワードと関連付けられて格納された画像データや各種のデータの検索を行う。そして、制御部11は、検索された各種のデータを外部記憶部24から読み出して、表示出力部17に表示出力したり、回線インターフェース処理部22を介して、相手の情報端末装置に送信したりする。  Thecontrol unit 11 uses various keywords stored in thekeyword holding unit 26 to search for image data and various data stored in theexternal storage unit 24 in association with the keywords in advance. Then, thecontrol unit 11 reads various types of searched data from theexternal storage unit 24 and outputs the data to thedisplay output unit 17 or transmits it to the partner information terminal device via the lineinterface processing unit 22. To do.

図2は、従来例における表示出力部17の出力表示の一例を示す図である。
図2に示す表示出力部17には、送信側の情報端末装置の画像入力部14で撮影された画像を表示する送信側映像部27と、相手側の情報端末装置で撮影され、通信ネットワーク23を介して伝送される画像を表示する相手側映像部28が設けられている。この場合、また、音声入力部15により音声データを送受信しながら、通信ネットワーク23を介して映像と音声による会話が実現されている。
FIG. 2 is a diagram illustrating an example of output display of thedisplay output unit 17 in the conventional example.
Thedisplay output unit 17 illustrated in FIG. 2 includes a transmission-side video unit 27 that displays an image captured by theimage input unit 14 of the transmission-side information terminal device, and a communication network 23 that is captured by the other-side information terminal device. There is provided acounterpart video unit 28 for displaying an image transmitted through the network. In this case, a conversation between video and audio is realized via the communication network 23 while audio data is transmitted and received by theaudio input unit 15.

上述のように、映像と音声で会話を行っている際、送信側の情報端末装置内の外部記憶部24に格納された画像やドキュメント等のデータに関して会話を行う場合、外部記憶部24内のデータの格納状態を示すデータ一覧29を表示出力部17の下部に表示させる。このデータ一覧29は、通常、階層構造になっている。  As described above, when a conversation is performed with respect to data such as an image or a document stored in theexternal storage unit 24 in the information terminal device on the transmission side when the conversation is performed with video and audio, Adata list 29 indicating the data storage state is displayed below thedisplay output unit 17. Thisdata list 29 usually has a hierarchical structure.

操作者は、会話をしながら操作入力部16の操作によりデータ一覧29の中から所望のデータ「001」30を送信指示することにより、通信ネットワーク23を介して相手側の情報端末装置の表示出力部に当該データ「001」が出力表示される。この際、送信側の情報端末装置では、送信するデータ「001」30を画像符号化/復号化処理部19で圧縮し、回線インターフェース処理部22を介して、相手側の情報端末装置に送信する。また、送信側の情報端末装置の表示出力部17には、送信指示したデータ「001」30がデータ表示部31に表示される。このようにして、送信側と相手側とが表示されたデータ「001」を確認しながら会話を行うことが可能となる。  The operator instructs the transmission of the desired data “001” 30 from thedata list 29 by operating theoperation input unit 16 while having a conversation. The data “001” is output and displayed on the part. At this time, in the information terminal device on the transmission side, the data “001” 30 to be transmitted is compressed by the image encoding /decoding processing unit 19 and transmitted to the information terminal device on the other side via the lineinterface processing unit 22. . Also, the data “001” 30 instructed to be transmitted is displayed on thedata display unit 31 on thedisplay output unit 17 of the information terminal device on the transmission side. In this way, it is possible to perform a conversation while confirming the data “001” displayed on the transmission side and the other side.

図3は、図2に示す従来例における表示出力部17の出力表示動作を示すフローチャートである。この図3に示す処理は、図1の制御部11で行われる。  FIG. 3 is a flowchart showing an output display operation of thedisplay output unit 17 in the conventional example shown in FIG. The processing shown in FIG. 3 is performed by thecontrol unit 11 shown in FIG.

まず、ステップS101では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。  First, in step S101, the transmission-side information terminal device and the counterpart (reception-side) information terminal device can transmit and receive various types of data including image data and audio data via the communication network 23. Performs communication start processing.

続いて、操作者が外部記憶部24内のデータを相手側の情報端末装置に送信する場合、ステップS102では、図2における表示出力部17の下段に示すデータ一覧29を表示出力させる。  Subsequently, when the operator transmits the data in theexternal storage unit 24 to the information terminal device on the other side, in step S102, thedata list 29 shown in the lower part of thedisplay output unit 17 in FIG.

続いて、ステップS103では、操作者によりデータ一覧29から相手側の情報端末装置に送信する所望のデータ(図2に示す例では、データ「001」30)が選択され、当該データの送信指示があるか否かを判断する。この判断の結果、データの送信指示がなかった場合には、ステップS107に進む。一方、ステップS103の判断の結果、データの送信指示があった場合には、ステップS104に進む。  Subsequently, in step S103, the operator selects desired data (data “001” 30 in the example shown in FIG. 2) to be transmitted from thedata list 29 to the partner information terminal device, and an instruction to transmit the data is issued. Judge whether there is. As a result of the determination, if there is no data transmission instruction, the process proceeds to step S107. On the other hand, as a result of the determination in step S103, if there is a data transmission instruction, the process proceeds to step S104.

ステップS104では、ステップS103で送信指示されたデータ「001」30の元データを外部記憶部24から読み出し、画像符号化/復号化処理部19で圧縮して通信ネットワーク23を介して相手側の情報端末装置に送信する。続いて、ステップS105では、図2に示すように、送信指示したデータ「001」30を当該表示出力部17のデータ表示部31に表示合成する。  In step S 104, the original data of the data “001” 30 instructed to be transmitted in step S 103 is read from theexternal storage unit 24, compressed by the image encoding /decoding processing unit 19, and information on the other party via the communication network 23. Send to terminal device. Subsequently, in step S105, as shown in FIG. 2, the transmission-designated data “001” 30 is displayed and synthesized on thedata display unit 31 of thedisplay output unit 17.

続いて、ステップS106では、操作者によりデータ一覧29から相手側の情報端末装置に送信する他のデータが選択され、当該データの送信指示があるか否かを判断する。この判断の結果、他のデータの送信指示があった場合には、ステップS104に戻り、ステップS104で改めて当該他のデータを読み出して、ステップS105で当該他のデータを表示しながら会話を継続することになる。一方、ステップS106の判断の結果、他のデータの送信指示がなかった場合には、ステップS107に進む。  Subsequently, in step S106, the operator selects other data to be transmitted from thedata list 29 to the partner information terminal device, and determines whether there is an instruction to transmit the data. If there is an instruction to transmit other data as a result of this determination, the process returns to step S104, the other data is read again in step S104, and the conversation is continued while displaying the other data in step S105. It will be. On the other hand, if it is determined in step S106 that there is no other data transmission instruction, the process proceeds to step S107.

続いて、ステップS107では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS101〜ステップS107までの処理を経ることにより、図2に示す表示出力部17の出力表示動作が行われる。  In step S107, a communication disconnection process is executed to end a series of conversations. The output display operation of thedisplay output unit 17 shown in FIG. 2 is performed through the processes from step S101 to step S107.

図2及び図3に示す従来例の場合、表示出力部17の相手側映像部28を確認しながら操作入力部16を操作して所望のデータを検索指示することが必要であった。このため、当該所望のデータが格納されている構成が複雑な場合、操作入力部16の操作に手間取り、会話が中断してしまうといった不都合が発生していた。そこで、この課題を解決するための本発明の第1の実施形態に係る情報端末装置の駆動方法を、図4乃至図6を用いて以下に説明する。  In the case of the conventional example shown in FIGS. 2 and 3, it is necessary to operate theoperation input unit 16 while checking thecounterpart video unit 28 of thedisplay output unit 17 to instruct search for desired data. For this reason, when the structure in which the desired data is stored is complicated, there is a problem that theoperation input unit 16 is troublesome and the conversation is interrupted. Therefore, a method for driving the information terminal device according to the first embodiment of the present invention for solving this problem will be described below with reference to FIGS.

図4は、第1の実施形態における表示出力部17の出力表示の一例を示す図である。
本実施形態では、図4に示す送信側映像部27と相手側映像部28を同一画面上に表示しながら会話を行っている時、会話における音声データを音声認識処理部25において順次認識して、キーワードを連続的に抽出する。
FIG. 4 is a diagram illustrating an example of the output display of thedisplay output unit 17 in the first embodiment.
In the present embodiment, when a conversation is performed while the transmission-side video unit 27 and the counterpart-side video unit 28 shown in FIG. 4 are displayed on the same screen, the voice recognition processing unit 25 sequentially recognizes voice data in the conversation. , Extract keywords continuously.

そして、連続的に抽出されるキーワードから、予め外部記憶部24内にキーワードと共に格納された複数のデータの中から、抽出されたキーワードと一致するキーワードに係るデータを順次読み出し、これを表示出力部17のデータ表示部33に順次表示する。  Then, from a plurality of continuously extracted keywords, data relating to the keyword that matches the extracted keyword is sequentially read out from a plurality of data stored together with the keyword in theexternal storage unit 24 in advance. The data are sequentially displayed on the 17 data displaysections 33.

これにより、会話を継続しながら、会話の中から関連する情報がデータ表示部33に順次表示されると共に、当該情報を共有させることにより、円滑で効率的なTV会議システムが実現される。  Thereby, while continuing the conversation, related information from the conversation is sequentially displayed on thedata display unit 33, and by sharing the information, a smooth and efficient TV conference system is realized.

図5は、第1の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。具体的に、図5は、図4に示す表示出力部17の出力表示動作を示すフローチャートである。この図5に示す処理は、図1の制御部11で行われる。  FIG. 5 is a flowchart showing a method of driving the information terminal device according to the first embodiment. Specifically, FIG. 5 is a flowchart showing an output display operation of thedisplay output unit 17 shown in FIG. The processing shown in FIG. 5 is performed by thecontrol unit 11 shown in FIG.

まず、ステップS201では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。  First, in step S201, a transmission-side information terminal device and a partner-side (reception-side) information terminal device can transmit and receive various types of data including image data and audio data via the communication network 23. Performs communication start processing.

続いて、ステップS202では、会話中の音声からデータ検索のキーワードを抽出する音声認識モードの設定がなされているか否かを判断する。この判断の結果、音声認識モードの設定がなされていない場合には、ステップS210に進む。一方、ステップS202の判断の結果、音声認識モードの設定がなされている場合には、ステップS203に進む。  Subsequently, in step S202, it is determined whether or not a voice recognition mode for extracting a data search keyword from the voice during conversation is set. As a result of the determination, if the voice recognition mode is not set, the process proceeds to step S210. On the other hand, if the result of determination in step S202 is that the voice recognition mode has been set, processing proceeds to step S203.

ステップS202で音声認識モードが設定されていると判断された場合、続いて、ステップS203では、送信者あるいは相手側の会話を音声認識処理部25で順次音声認識を行い、検索対象となるキーワードが発声されたか否かを判断する。この判断の結果、検索対象となるキーワードが発声されていない場合には、検索対象となるキーワードが発声されるまで、ステップS203で待機する。一方、ステップS203の判断の結果、検索対象となるキーワードが発声された場合には、ステップS204に進む。  If it is determined in step S202 that the voice recognition mode is set, then in step S203, the voice recognition processing unit 25 sequentially performs voice recognition on the conversation of the sender or the other party, and the keyword to be searched is determined. It is determined whether or not the voice is spoken. As a result of the determination, if the keyword to be searched is not uttered, the process waits in step S203 until the keyword to be searched is uttered. On the other hand, if the keyword to be searched is uttered as a result of the determination in step S203, the process proceeds to step S204.

ステップS204では、キーワードの認識処理を行う。続いて、ステップS205では、予め外部記憶部24にキーワードと共に格納されたデータの中から検索を行う。続いて、ステップS206では、外部記憶部24内に、ステップS204で認識されたキーワードと一致したキーワードに係る元データが存在するか否かを判断する。この判断の結果、ステップS204で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在しない場合には、ステップS203に戻る。一方、ステップS206の判断の結果、ステップS204で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在する場合には、ステップS207に進む。  In step S204, keyword recognition processing is performed. Subsequently, in step S205, a search is performed from data stored together with keywords in theexternal storage unit 24 in advance. Subsequently, in step S206, it is determined whether or not original data relating to the keyword that matches the keyword recognized in step S204 exists in theexternal storage unit 24. As a result of this determination, when the original data relating to the keyword that matches the keyword recognized in step S204 does not exist in theexternal storage unit 24, the process returns to step S203. On the other hand, as a result of the determination in step S206, if the original data relating to the keyword that matches the keyword recognized in step S204 exists in theexternal storage unit 24, the process proceeds to step S207.

ステップS207では、当該元データを読み出す。続いて、ステップS208では、ステップS207で読み出した元データを表示出力部17のデータ表示部33に表示する。さらに、相手側の情報端末装置にステップS207で読み出された元データを送信し、当該相手側の情報端末装置の表示出力部に当該元データを出力表示させる。  In step S207, the original data is read. Subsequently, in step S208, the original data read in step S207 is displayed on thedata display unit 33 of thedisplay output unit 17. Further, the original data read in step S207 is transmitted to the information terminal device on the other side, and the original data is output and displayed on the display output unit of the information terminal device on the other side.

続いて、ステップS209では、次なる検索キーワードが発声されたか否かを判断し、発声された場合には、ステップS204に戻って以降の処理を繰り返す。一方、ステップS209での判断の結果、次なる検索キーワードが発声されなかった場合には、ステップS210に進む。  Subsequently, in step S209, it is determined whether or not the next search keyword has been uttered, and if uttered, the process returns to step S204 to repeat the subsequent processing. On the other hand, as a result of the determination in step S209, if the next search keyword is not uttered, the process proceeds to step S210.

ステップS210では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS201〜ステップS210までの処理を経ることにより、図4に示す表示出力部17の出力表示動作が行われる。  In step S210, a communication disconnection process is executed to end a series of conversations. Through the processing from step S201 to step S210, the output display operation of thedisplay output unit 17 shown in FIG. 4 is performed.

図6は、第1の実施形態における表示出力部17の出力表示の他の一例を示す図である。即ち、図6には、図4に示す表示出力部17の出力表示における別のレイアウトを示したものである。  FIG. 6 is a diagram illustrating another example of the output display of thedisplay output unit 17 in the first embodiment. That is, FIG. 6 shows another layout in the output display of thedisplay output unit 17 shown in FIG.

図6において、表示出力部17の下段には、一連の会話で使用予定、もしくは、外部記憶部24内の一部のデータの縮小データ32が複数表示されている。図6に示す例では、この縮小データ32が複数表示されている状態の中で会話を行いながら、データを指定するものである。  In FIG. 6, a plurality of reduceddata 32 that are scheduled to be used in a series of conversations or part of data in theexternal storage unit 24 are displayed in the lower part of thedisplay output unit 17. In the example shown in FIG. 6, data is specified while performing conversation in a state where a plurality of the reduceddata 32 are displayed.

図6に示す例では、会話における音声認識により抽出されたキーワードに合致するデータ「a」34が強調されると共に、その元データ「A」が外部記憶部24から読み出されて、表示出力部17のデータ表示部33に表示される。また、指示部35a及び35bは、縮小データ32の候補の切替を指示する際に操作されるものである。  In the example shown in FIG. 6, the data “a” 34 matching the keyword extracted by voice recognition in conversation is emphasized, and the original data “A” is read from theexternal storage unit 24 and displayed in the display output unit. 17 is displayed on thedata display unit 33. Theinstruction units 35a and 35b are operated when instructing switching of candidates for the reduceddata 32.

第1の実施形態によれば、操作者は、予め会話に必要なデータ一覧を確認しながら会話を行うことができ、相手側にも同一表示状態を再現させることにより、より効果的な会話が実現可能となる。これにより、連続的な会話を中断することなく、快適なTV電話システム、TV会議システムを実現することが可能となる。  According to the first embodiment, the operator can perform a conversation while confirming a list of data necessary for the conversation in advance, and by reproducing the same display state on the other side, a more effective conversation can be performed. It becomes feasible. This makes it possible to realize a comfortable TV phone system and TV conference system without interrupting continuous conversation.

(第2の実施形態)
図7は、第2の実施形態における表示出力部17の出力表示の一例を示す図である。
第1の実施形態では、送信側の情報端末装置の外部記憶部(第1の記憶手段)24に格納されたデータのみを検索対象としていたが、第2の実施形態では、相手側の情報端末装置の外部記憶部(第2の記憶手段)に格納されたデータも検索対象とするものである。
(Second Embodiment)
FIG. 7 is a diagram illustrating an example of the output display of thedisplay output unit 17 in the second embodiment.
In the first embodiment, only the data stored in the external storage unit (first storage means) 24 of the transmission-side information terminal device is the search target. However, in the second embodiment, the counterpart information terminal Data stored in the external storage unit (second storage means) of the apparatus is also a search target.

図7において、送信側の情報端末装置における表示出力部17の下段には、当該情報端末装置に格納されている送信側の縮小データ(縮小画像データ)36と、相手側の情報端末装置に格納されている相手側の縮小データ(縮小画像データ)37が表示される。なお、この際、これらの縮小データがそれぞれ両者の情報端末装置に同時に通信ネットワーク23を介して表示されている。このため、会話において認識されたキーワードに合致するデータを、それぞれの情報端末装置内の外部記憶部から検索し、合致したデータ「b」38が強調されると共に、その元データ「B」が表示出力部17のデータ表示部33に表示される。  In FIG. 7, in the lower stage of thedisplay output unit 17 in the transmission-side information terminal device, the transmission-side reduced data (reduced image data) 36 stored in the information terminal device and the counterpart-side information terminal device are stored. The other party's reduced data (reduced image data) 37 is displayed. At this time, these reduced data are simultaneously displayed on both information terminal apparatuses via the communication network 23. Therefore, data that matches the keyword recognized in the conversation is searched from the external storage unit in each information terminal device, and the matched data “b” 38 is emphasized and the original data “B” is displayed. The data is displayed on thedata display unit 33 of theoutput unit 17.

(第3の実施形態)
図8は、第3の実施形態における表示出力部17の出力表示の一例を示す図である。第3の実施形態は、第2の実施形態の更なる応用を示すものである。
(Third embodiment)
FIG. 8 is a diagram illustrating an example of an output display of thedisplay output unit 17 in the third embodiment. The third embodiment shows a further application of the second embodiment.

第2の実施形態では、送信側及び相手側の情報端末装置の各外部記憶部内に格納された縮小データの一覧を、それぞれのデータ表示部に出力表示させていたが、各情報端末装置内に格納されたデータの中で、相手に見せたくないデータも含まれることがある。そこで、第3の実施形態では、図8に示すように、相手側の情報端末装置において送信側の情報端末装置に表示したくない禁止縮小データ40a及び40bは、送信側の情報端末装置からは視認できないように、データ表示部33に表示される。  In the second embodiment, the list of reduced data stored in each external storage unit of the information terminal device on the transmission side and the partner side is output and displayed on each data display unit. The stored data may include data that you do not want to show to the other party. Therefore, in the third embodiment, as shown in FIG. 8, the prohibited reduceddata 40a and 40b that are not desired to be displayed on the transmitting information terminal device in the partner information terminal device are transmitted from the transmitting information terminal device. It is displayed on the data displaypart 33 so that it cannot be visually recognized.

即ち、第3の実施形態では、それぞれの会話の中から認識されたキーワードに合致するデータが禁止縮小データ40aの場合は、当該データを格納している相手側の情報端末装置にはその元データが表示されるが、当該データを未格納な送信側の情報端末装置では、図8に示すように、元データがデータ表示部33に表示されない。  That is, in the third embodiment, when the data that matches the keyword recognized in each conversation is the prohibited reduceddata 40a, the original data is not sent to the counterpart information terminal device storing the data. However, in the information terminal device on the transmitting side that has not stored the data, the original data is not displayed on thedata display unit 33 as shown in FIG.

この第3の実施形態の具体的な形態としては、例えば、図5のステップS207において相手側の情報端末装置の外部記憶部(第2の記憶手段)から読み出したデータに対して表示禁止の設定がなされていた場合、ステップS208では、当該データの表示出力部17への表示を行わないようにする。また、例えば、ステップS207において自装置の外部記憶部(第1の記憶手段)24から読み出したデータに対して表示禁止の設定がなされていた場合、ステップS207では、当該データの相手側の情報端末装置への送信を行わないようにする。  As a specific form of the third embodiment, for example, display prohibition is set for the data read from the external storage unit (second storage unit) of the information terminal device on the other side in step S207 of FIG. If it is determined that the data is not displayed on thedisplay output unit 17 in step S208. Further, for example, when display prohibition is set for the data read from the external storage unit (first storage unit) 24 of the own apparatus in step S207, in step S207, the information terminal on the partner side of the data is displayed. Do not send to the device.

第3の実施形態によれば、一連の縮小データを基に会話をする際に、相手側に見られたくないデータを当該相手側に誤って見られてしまうということを回避でき、当該データを当該相手側に対して自動的に隠蔽することができる。なお、予め見れないように指示がされている場合でも、キーワード検索により一致した元データが自分の情報端末装置に表示された後、特定の操作処理を行って相手側に送信することにより、相手側で当該元データを表示可能とするように構成しても良い。  According to the third embodiment, when a conversation is performed based on a series of reduced data, it is possible to avoid that the other party erroneously sees data that the other party does not want to see. It can be automatically hidden from the other party. Even if the instruction is given so that it cannot be seen in advance, the original data matched by the keyword search is displayed on its own information terminal device, and then the specific data is processed and transmitted to the other party. The original data may be displayed on the side.

(第4の実施形態)
図9は、第4の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。具体的に、この図9に示す処理は、図1の制御部11で行われる。
(Fourth embodiment)
FIG. 9 is a flowchart showing a method of driving the information terminal device according to the fourth embodiment. Specifically, the process shown in FIG. 9 is performed by thecontrol unit 11 in FIG.

まず、ステップS201では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。  First, in step S201, a transmission-side information terminal device and a partner-side (reception-side) information terminal device can transmit and receive various types of data including image data and audio data via the communication network 23. Performs communication start processing.

続いて、ステップS302では、会話中の音声からデータ検索のキーワードを抽出する音声認識モードの設定がなされているか否かを判断する。この判断の結果、音声認識モードの設定がなされていない場合には、ステップS311に進む。一方、ステップS302の判断の結果、音声認識モードの設定がなされている場合には、ステップS303に進む。  Subsequently, in step S302, it is determined whether or not a voice recognition mode for extracting a data search keyword from the voice during conversation is set. As a result of this determination, if the voice recognition mode is not set, the process proceeds to step S311. On the other hand, if the result of determination in step S302 is that voice recognition mode has been set, processing proceeds to step S303.

ステップS302で音声認識モードが設定されていると判断された場合、続いて、ステップS303では、送信者あるいは相手側の会話を音声認識処理部25で順次音声認識を行い、検索対象となるキーワードが発声されたか否かを判断する。この判断の結果、検索対象となるキーワードが発声されていない場合には、検索対象となるキーワードが発声されるまで、ステップS303で待機する。一方、ステップS303の判断の結果、検索対象となるキーワードが発声された場合には、ステップS304に進む。  If it is determined in step S302 that the voice recognition mode is set, then in step S303, the voice recognition processing unit 25 sequentially performs voice recognition on the conversation of the sender or the other party, and the keyword to be searched is determined. It is determined whether or not the voice is spoken. As a result of the determination, if the keyword to be searched is not uttered, the process waits in step S303 until the keyword to be searched is uttered. On the other hand, as a result of the determination in step S303, if a keyword to be searched is uttered, the process proceeds to step S304.

ステップS304では、キーワードの認識処理を行う。そして、認識されたキーワードがキーワード保持部26にその認識回数と共に格納される。  In step S304, keyword recognition processing is performed. Then, the recognized keyword is stored in thekeyword holding unit 26 together with the number of times of recognition.

続いて、ステップS305では、キーワード保持部26に格納されたステップS304で認識されたキーワードがN回(Nは、自然数)以上発声されたか否かを判断する。この判断の結果、ステップS304で認識されたキーワードがN回以上発声されていない場合には、ステップS303に戻る。一方、ステップS305の判断の結果、ステップS304で認識されたキーワードがN回以上発声された場合には、ステップS306に進む。  Subsequently, in step S305, it is determined whether or not the keyword recognized in step S304 stored in thekeyword holding unit 26 has been uttered N times (N is a natural number). As a result of the determination, if the keyword recognized in step S304 has not been uttered N or more times, the process returns to step S303. On the other hand, as a result of the determination in step S305, if the keyword recognized in step S304 is uttered N or more times, the process proceeds to step S306.

ステップS306では、予め外部記憶部24にキーワードと共に格納されたデータの中から検索を行う。続いて、ステップS307では、外部記憶部24内に、ステップS304で認識されたキーワードと一致したキーワードに係る元データが存在するか否かを判断する。この判断の結果、ステップS304で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在しない場合には、ステップS303に戻る。一方、ステップS307の判断の結果、ステップS304で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在する場合には、ステップS308に進む。  In step S306, a search is performed from data stored together with keywords in theexternal storage unit 24 in advance. Subsequently, in step S307, it is determined whether or not the original data relating to the keyword that matches the keyword recognized in step S304 exists in theexternal storage unit 24. As a result of this determination, if the original data related to the keyword that matches the keyword recognized in step S304 does not exist in theexternal storage unit 24, the process returns to step S303. On the other hand, as a result of the determination in step S307, if the original data relating to the keyword that matches the keyword recognized in step S304 exists in theexternal storage unit 24, the process proceeds to step S308.

ステップS308では、当該元データを読み出す。続いて、ステップS309では、ステップS308で読み出した元データを表示出力部17のデータ表示部33に表示する。さらに、相手側の情報端末装置にステップS308で読み出された元データを送信し、当該相手側の情報端末装置の表示出力部に当該元データを出力表示させる。  In step S308, the original data is read out. Subsequently, in step S309, the original data read in step S308 is displayed on thedata display unit 33 of thedisplay output unit 17. Further, the original data read in step S308 is transmitted to the information terminal device on the other side, and the original data is output and displayed on the display output unit of the information terminal device on the other side.

続いて、ステップS310では、次なる検索キーワードが発声されたか否かを判断し、発声された場合には、ステップS304に戻って以降の処理を繰り返す。一方、ステップS310での判断の結果、次なる検索キーワードが発声されなかった場合には、ステップS311に進む。  Subsequently, in step S310, it is determined whether or not the next search keyword has been uttered, and if uttered, the process returns to step S304 and the subsequent processing is repeated. On the other hand, if the result of determination in step S310 is that the next search keyword has not been uttered, processing proceeds to step S311.

ステップS311では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS301〜ステップS311までの処理を経ることにより、第4の実施形態における表示出力部17の出力表示動作が行われる。  In step S311, a communication disconnection process is executed to end a series of conversations. By performing the processing from step S301 to step S311 described above, the output display operation of thedisplay output unit 17 in the fourth embodiment is performed.

第4の実施形態によれば、会話の中で連続的に発声される異なるキーワードに対して、所定回数(N回)発声されたキーワードの元データを検索することにより、処理が遅くなったり、不要な元データを読み出してしまうといった問題を回避することができる。これにより、検索する元データの精度を向上させることができる。なお、本実施形態において、当該キーワードの発声は、送信側、相手側のそれぞれの発声回数を計上する形態であっても良い。  According to the fourth embodiment, by searching the original data of a keyword uttered a predetermined number of times (N times) for different keywords uttered continuously in a conversation, the processing becomes slow, The problem of reading unnecessary original data can be avoided. Thereby, the accuracy of the original data to be searched can be improved. In the present embodiment, the utterance of the keyword may be in the form of counting the number of utterances on the transmission side and the other side.

(第5の実施形態)
図10は、第5の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。具体的に、この図5に示す処理は、図1の制御部11で行われる。
(Fifth embodiment)
FIG. 10 is a flowchart illustrating a method of driving the information terminal device according to the fifth embodiment. Specifically, the process shown in FIG. 5 is performed by thecontrol unit 11 in FIG.

図6で示した表示出力部17の表示例では、検索対象となる縮小データ群を予め指定して会話を行う必要があった。第5の実施形態では、検索対象となるデータ群に対して、予め話者を対応させて記憶させておく。そして、送信側の情報端末装置に対して、話者が会話を開始することにより、音声認識処理部25で話者が特定され、話者に対応したデータ群が呼び出されるように構成したものである。  In the display example of thedisplay output unit 17 shown in FIG. 6, it is necessary to perform a conversation by designating a reduced data group to be searched in advance. In the fifth embodiment, a speaker is stored in advance in association with a data group to be searched. Then, when the speaker starts a conversation with the information terminal device on the transmission side, the speaker is specified by the voice recognition processing unit 25, and a data group corresponding to the speaker is called. is there.

まず、ステップS401では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。  First, in step S401, the transmission-side information terminal device and the counterpart (reception-side) information terminal device are in a state in which various data including image data and audio data can be transmitted and received via the communication network 23. Performs communication start processing.

続いて、ステップS402では、会話中の音声からデータ検索のキーワードを抽出する音声認識モードの設定がなされているか否かを判断する。この判断の結果、音声認識モードの設定がなされていない場合には、ステップS411に進む。一方、ステップS402の判断の結果、音声認識モードの設定がなされている場合には、ステップS403に進む。  Subsequently, in step S402, it is determined whether or not a voice recognition mode for extracting a data search keyword from the voice during conversation is set. As a result of the determination, if the voice recognition mode is not set, the process proceeds to step S411. On the other hand, if the result of determination in step S402 is that voice recognition mode has been set, processing proceeds to step S403.

ステップS402で音声認識モードが設定されていると判断された場合、続いて、ステップS403では、送信者あるいは相手側の会話を音声認識処理部25で順次音声認識を行い、検索対象となるキーワードが発声されたか否かを判断する。この判断の結果、検索対象となるキーワードが発声されていない場合には、検索対象となるキーワードが発声されるまで、ステップS403で待機する。一方、ステップS403の判断の結果、検索対象となるキーワードが発声された場合には、ステップS404に進む。  If it is determined in step S402 that the voice recognition mode is set, then in step S403, the voice recognition processing unit 25 sequentially performs voice recognition on the conversation of the sender or the other party, and the keyword to be searched is determined. It is determined whether or not the voice is spoken. As a result of the determination, if the keyword to be searched is not uttered, the process waits in step S403 until the keyword to be searched is uttered. On the other hand, as a result of the determination in step S403, if a keyword to be searched is uttered, the process proceeds to step S404.

ステップS404では、キーワードが認識処理を行う。そして、認識されたキーワードがキーワード保持部26にその話者の情報と共に格納される。  In step S404, the keyword performs recognition processing. Then, the recognized keyword is stored in thekeyword holding unit 26 together with the speaker information.

続いて、ステップS405では、ステップS404で認識されたキーワードに基づいて、キーワード保持部26を参照することにより、話者を特定する。話者が特定されると、続いて、ステップS406では、外部記憶部24に予め話者と関連させて記憶させていたデータ群が検索され、図6に示す縮小データ32が表示される。  Subsequently, in step S405, the speaker is specified by referring to thekeyword holding unit 26 based on the keyword recognized in step S404. When the speaker is specified, subsequently, in step S406, a data group stored in advance in association with the speaker in theexternal storage unit 24 is searched, and reduceddata 32 shown in FIG. 6 is displayed.

続いて、ステップS407では、外部記憶部24内に、ステップS404で認識されたキーワードと一致したキーワードに係る元データが存在するか否かを判断する。この判断の結果、ステップS404で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在しない場合には、ステップS403に戻る。一方、ステップS407の判断の結果、ステップS404で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在する場合には、ステップS408に進む。  Subsequently, in step S407, it is determined whether or not original data relating to the keyword that matches the keyword recognized in step S404 exists in theexternal storage unit 24. As a result of this determination, when the original data relating to the keyword that matches the keyword recognized in step S404 does not exist in theexternal storage unit 24, the process returns to step S403. On the other hand, as a result of the determination in step S407, if the original data relating to the keyword that matches the keyword recognized in step S404 exists in theexternal storage unit 24, the process proceeds to step S408.

ステップS408では、当該元データを読み出す。続いて、ステップS409では、ステップS408で読み出した元データを表示出力部17のデータ表示部33に表示する。さらに、相手側の情報端末装置にステップS408で読み出された元データを送信し、当該相手側の情報端末装置の表示出力部に当該元データを出力表示させる。  In step S408, the original data is read out. Subsequently, in step S409, the original data read in step S408 is displayed on thedata display unit 33 of thedisplay output unit 17. Furthermore, the original data read in step S408 is transmitted to the information terminal device on the other side, and the original data is output and displayed on the display output unit of the information terminal device on the other side.

続いて、ステップS410では、次なる検索キーワードが発声されたか否かを判断し、発声された場合には、ステップS404に戻って以降の処理を繰り返す。一方、ステップS410での判断の結果、次なる検索キーワードが発声されなかった場合には、ステップS411に進む。  Subsequently, in step S410, it is determined whether or not the next search keyword has been uttered. If so, the process returns to step S404 and the subsequent processing is repeated. On the other hand, if the result of determination in step S410 is that the next search keyword has not been spoken, processing proceeds to step S411.

ステップS411では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS401〜ステップS411までの処理を経ることにより、第5の実施形態における表示出力部17の出力表示動作が行われる。  In step S411, a communication disconnection process is executed to end a series of conversations. By performing the processing from step S401 to step S411, the output display operation of thedisplay output unit 17 in the fifth embodiment is performed.

第5の実施形態によれば、音声認識処理部25の機能を利用して話者の特定をキーワードの認識と共に行うことにより、話者特定のデータを検索することができ、更なる会話の有効性が高められる。なお、本実施形態において、相手の話者を認識して、相手の話者と予め関連付けられたデータ群を読み出しても良いことは言うまでもない。  According to the fifth embodiment, by using the function of the speech recognition processing unit 25 to specify a speaker together with keyword recognition, it is possible to search for speaker-specific data, and to further improve the effectiveness of conversation. Sexuality is enhanced. In this embodiment, it is needless to say that the other party's speaker may be recognized and a data group previously associated with the other party's speaker may be read out.

前述した各実施形態に係る情報端末装置を構成する図1の各手段、並びに情報端末装置の駆動方法を示した図5、図9及び図10の各ステップは、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び当該プログラムを記録したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。  Each unit of FIG. 1 constituting the information terminal device according to each of the embodiments described above, and each step of FIGS. 5, 9, and 10 showing the driving method of the information terminal device is stored in a RAM or a ROM of a computer. It can be realized by operating the programmed program. This program and a computer-readable storage medium storing the program are included in the present invention.

具体的に、前記プログラムは、例えばCD−ROMのような記憶媒体に記録し、或いは各種伝送媒体を介し、コンピュータに提供される。前記プログラムを記録する記憶媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。他方、前記プログラムの伝送媒体としては、プログラム情報を搬送波として伝搬させて供給するためのコンピュータネットワーク(LAN、インターネットの等のWAN、無線通信ネットワーク等)システムにおける通信媒体を用いることができる。また、この際の通信媒体としては、光ファイバ等の有線回線や無線回線などが挙げられる。  Specifically, the program is recorded in a storage medium such as a CD-ROM, or provided to a computer via various transmission media. As a storage medium for recording the program, a flexible disk, a hard disk, a magnetic tape, a magneto-optical disk, a nonvolatile memory card, and the like can be used in addition to the CD-ROM. On the other hand, as the transmission medium of the program, a communication medium in a computer network (LAN, WAN such as the Internet, wireless communication network, etc.) system for propagating and supplying program information as a carrier wave can be used. In addition, examples of the communication medium at this time include a wired line such as an optical fiber, a wireless line, and the like.

また、コンピュータが供給されたプログラムを実行することにより各実施形態に係る情報端末装置の機能が実現されるだけでなく、そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)或いは他のアプリケーションソフト等と共同して各実施形態に係る情報端末装置の機能が実現される場合や、供給されたプログラムの処理の全て、或いは一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて各実施形態に係る情報端末装置の機能が実現される場合も、かかるプログラムは本発明に含まれる。  Moreover, not only the functions of the information terminal device according to each embodiment are realized by executing a program supplied by the computer, but also an OS (Operating System) or other application software in which the program is running on the computer. When the functions of the information terminal device according to each embodiment are realized in cooperation with the above, or all or part of the processing of the supplied program is performed by a function expansion board or a function expansion unit of the computer. Such a program is also included in the present invention when the function of the information terminal device according to the embodiment is realized.

第1の実施形態に係る情報端末装置のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information terminal device which concerns on 1st Embodiment.従来例における表示出力部の出力表示の一例を示す図である。It is a figure which shows an example of the output display of the display output part in a prior art example.図2に示す従来例における表示出力部の出力表示動作を示すフローチャートである。It is a flowchart which shows the output display operation | movement of the display output part in the prior art example shown in FIG.第1の実施形態における表示出力部の出力表示の一例を示す図である。It is a figure which shows an example of the output display of the display output part in 1st Embodiment.第1の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。It is a flowchart which shows the drive method of the information terminal device which concerns on 1st Embodiment.第1の実施形態における表示出力部の出力表示の他の一例を示す図である。It is a figure which shows another example of the output display of the display output part in 1st Embodiment.第2の実施形態における表示出力部の出力表示の一例を示す図である。It is a figure which shows an example of the output display of the display output part in 2nd Embodiment.第3の実施形態における表示出力部の出力表示の一例を示す図である。It is a figure which shows an example of the output display of the display output part in 3rd Embodiment.第4の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。It is a flowchart which shows the drive method of the information terminal device which concerns on 4th Embodiment.第5の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。It is a flowchart which shows the drive method of the information terminal device which concerns on 5th Embodiment.

符号の説明Explanation of symbols

11:制御部
12:ROM
13:RAM
14:画像入力部
15:音声入力部
16:操作入力部
17:表示出力部
18:音声出力部
19:画像符号化/復号化処理部
20:音声符号化/復号化処理部
21:多重/分離処理部
22:回線インターフェース処理部
23:通信ネットワーク
24:外部記憶部
25:音声認識処理部
26:キーワード保持部
27:送信側映像部
28:相手側映像部
29:データ一覧
30、34、38:データ
31、33:データ表示部
32:縮小データ
35a、35b:指示部
36:送信側の縮小データ
37:相手側の縮小データ
40a、40b:禁止縮小データ
11: Control unit 12: ROM
13: RAM
14: image input unit 15: audio input unit 16: operation input unit 17: display output unit 18: audio output unit 19: image encoding / decoding processing unit 20: audio encoding / decoding processing unit 21: multiplexing / separation Processing unit 22: Line interface processing unit 23: Communication network 24: External storage unit 25: Voice recognition processing unit 26: Keyword holding unit 27: Transmission side video unit 28: Opposite side video unit 29:Data list 30, 34, 38:Data 31, 33: Data display unit 32:Reduction data 35a, 35b: Instruction unit 36: Reduction data on transmission side 37:Reduction data 40a, 40b on the other side: prohibited reduction data

Claims (8)

Translated fromJapanese
音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成された情報端末装置であって、
検索用のキーワードと関連付けられたデータを記憶する第1の記憶手段と、
前記情報端末装置及び前記外部装置のうちの少なくとも何れか一方に対して発声された音声を音声データとして入力する音声入力手段と、
前記音声入力手段により入力された音声データに基づいてキーワードを抽出する抽出手段と、
前記抽出手段で抽出したキーワードに係るデータを前記第1の記憶手段から読み出す読み出し手段と、
前記読み出し手段で読み出したデータを表示媒体に表示する表示手段と、
前記読み出し手段で読み出したデータを前記伝送路を介して前記外部装置に送信する送信手段と
を有することを特徴とする情報端末装置。
An information terminal device configured to be able to send and receive various data including audio data and image data to and from an external device via a transmission line,
First storage means for storing data associated with search keywords;
Voice input means for inputting voice uttered to at least one of the information terminal device and the external device as voice data;
Extracting means for extracting a keyword based on voice data input by the voice input means;
Reading means for reading out data relating to the keyword extracted by the extracting means from the first storage means;
Display means for displaying data read by the reading means on a display medium;
An information terminal device comprising: a transmission unit configured to transmit data read by the reading unit to the external device via the transmission path.
前記外部装置には、検索用のキーワードと関連付けられたデータを記憶する第2の記憶手段が具備されており、
前記読み出し手段は、前記抽出手段で抽出したキーワードに係るデータを、前記第1の記憶手段及び前記第2の記憶手段から読み出すことを特徴とする請求項1に記載の情報端末装置。
The external device includes second storage means for storing data associated with a search keyword,
2. The information terminal device according to claim 1, wherein the reading unit reads data related to the keyword extracted by the extracting unit from the first storage unit and the second storage unit.
前記読み出し手段において前記第2の記憶手段から読み出したデータに対して表示禁止の設定がなされていた場合、前記表示手段は、当該データの前記表示媒体への表示を行わないことを特徴とする請求項2に記載の情報端末装置。  The display means does not display the data on the display medium when display prohibition is set for the data read from the second storage means in the reading means. Item 3. The information terminal device according to Item 2. 前記読み出し手段において前記第1の記憶手段から読み出したデータに対して表示禁止の設定がなされていた場合、前記送信手段は、当該データの前記外部装置への送信を行わないことを特徴とする請求項2又は3に記載の情報端末装置。  The transmission unit does not transmit the data to the external device when display prohibition is set for the data read from the first storage unit in the reading unit. Item 4. The information terminal device according to Item 2 or 3. 前記読み出し手段は、前記抽出手段により抽出された前記キーワードの回数が既定回数となった場合に、当該キーワードに係るデータを読み出すことを特徴とする請求項1乃至4の何れか1項に記載の情報端末装置。  The said reading means reads the data which concern on the said keyword, when the frequency | count of the said keyword extracted by the said extracting means turns into a predetermined number of times, The said any one of Claim 1 thru | or 4 characterized by the above-mentioned. Information terminal device. 前記第1の記憶手段及び前記第2の記憶手段に記憶されているデータには、話者に係る前記音声データの音声属性コードが関連付けられており、
前記抽出手段は、前記音声属性コードに対応したキーワードを抽出することを特徴とする請求項2乃至4の何れか1項に記載の情報端末装置。
The data stored in the first storage means and the second storage means is associated with a voice attribute code of the voice data relating to a speaker,
5. The information terminal device according to claim 2, wherein the extraction unit extracts a keyword corresponding to the voice attribute code. 6.
音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成され、検索用のキーワードと関連付けられたデータを記憶する第1の記憶手段を具備する情報端末装置の駆動方法であって、
前記情報端末装置及び前記外部装置のうちの少なくとも何れか一方に対して発声された音声を音声データとして入力する音声入力ステップと、
前記音声入力ステップにより入力された音声データに基づいてキーワードを抽出する抽出ステップと、
前記抽出ステップで抽出したキーワードに係るデータを前記第1の記憶手段から読み出す読み出しステップと、
前記読み出しステップで読み出したデータを表示媒体に表示する表示ステップと、
前記読み出しステップで読み出したデータを前記伝送路を介して前記外部装置に送信する送信ステップと
を有することを特徴とする情報端末装置の駆動方法。
Driving of an information terminal device comprising a first storage means configured to be able to transmit and receive various types of data including audio data and image data to / from an external device via a transmission path, and storing data associated with a search keyword A method,
A voice input step of inputting voice uttered to at least one of the information terminal device and the external device as voice data;
An extraction step of extracting a keyword based on the voice data input in the voice input step;
A reading step of reading data relating to the keyword extracted in the extraction step from the first storage means;
A display step of displaying the data read in the reading step on a display medium;
And a transmitting step of transmitting the data read in the reading step to the external device via the transmission path.
請求項7に記載の情報端末装置の駆動方法の各ステップをコンピュータに実行させるためのプログラム。  The program for making a computer perform each step of the drive method of the information terminal device of Claim 7.
JP2006167321A2006-06-162006-06-16 Information terminal device, driving method thereof, and programPendingJP2007336344A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2006167321AJP2007336344A (en)2006-06-162006-06-16 Information terminal device, driving method thereof, and program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2006167321AJP2007336344A (en)2006-06-162006-06-16 Information terminal device, driving method thereof, and program

Publications (1)

Publication NumberPublication Date
JP2007336344Atrue JP2007336344A (en)2007-12-27

Family

ID=38935377

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2006167321APendingJP2007336344A (en)2006-06-162006-06-16 Information terminal device, driving method thereof, and program

Country Status (1)

CountryLink
JP (1)JP2007336344A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2009171336A (en)*2008-01-172009-07-30Nec CorpMobile communication terminal
JP2009294237A (en)*2008-06-022009-12-17Konica Minolta Business Technologies IncConference system, data processing device, image transmission method and image transmission program
JP2010081016A (en)*2008-09-242010-04-08Fuji Xerox Co LtdImage transmission apparatus, image transmission program, and image communication system
JP2014518594A (en)*2011-03-292014-07-31ティーアイ スクエア テクノロジー リミテッド Method and system for providing multimedia content sharing service during communication service
JP2017091535A (en)*2015-11-102017-05-25株式会社リコーElectronic conference system
US10510051B2 (en)2016-10-112019-12-17Ricoh Company, Ltd.Real-time (intra-meeting) processing using artificial intelligence
US10552546B2 (en)2017-10-092020-02-04Ricoh Company, Ltd.Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
US10553208B2 (en)2017-10-092020-02-04Ricoh Company, Ltd.Speech-to-text conversion for interactive whiteboard appliances using multiple services
US10572858B2 (en)2016-10-112020-02-25Ricoh Company, Ltd.Managing electronic meetings using artificial intelligence and meeting rules templates
US10757148B2 (en)2018-03-022020-08-25Ricoh Company, Ltd.Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
US10860985B2 (en)2016-10-112020-12-08Ricoh Company, Ltd.Post-meeting processing using artificial intelligence
US10956875B2 (en)2017-10-092021-03-23Ricoh Company, Ltd.Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
US11030585B2 (en)2017-10-092021-06-08Ricoh Company, Ltd.Person detection, person identification and meeting start for interactive whiteboard appliances
US11062271B2 (en)2017-10-092021-07-13Ricoh Company, Ltd.Interactive whiteboard appliances with learning capabilities
US11080466B2 (en)2019-03-152021-08-03Ricoh Company, Ltd.Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
US11120342B2 (en)2015-11-102021-09-14Ricoh Company, Ltd.Electronic meeting intelligence
US11263384B2 (en)2019-03-152022-03-01Ricoh Company, Ltd.Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US11270060B2 (en)2019-03-152022-03-08Ricoh Company, Ltd.Generating suggested document edits from recorded media using artificial intelligence
US11307735B2 (en)2016-10-112022-04-19Ricoh Company, Ltd.Creating agendas for electronic meetings using artificial intelligence
US11392754B2 (en)2019-03-152022-07-19Ricoh Company, Ltd.Artificial intelligence assisted review of physical documents
US11573993B2 (en)2019-03-152023-02-07Ricoh Company, Ltd.Generating a meeting review document that includes links to the one or more documents reviewed
US11720741B2 (en)2019-03-152023-08-08Ricoh Company, Ltd.Artificial intelligence assisted review of electronic documents

Cited By (27)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2009171336A (en)*2008-01-172009-07-30Nec CorpMobile communication terminal
JP2009294237A (en)*2008-06-022009-12-17Konica Minolta Business Technologies IncConference system, data processing device, image transmission method and image transmission program
JP2010081016A (en)*2008-09-242010-04-08Fuji Xerox Co LtdImage transmission apparatus, image transmission program, and image communication system
JP2014518594A (en)*2011-03-292014-07-31ティーアイ スクエア テクノロジー リミテッド Method and system for providing multimedia content sharing service during communication service
US11120342B2 (en)2015-11-102021-09-14Ricoh Company, Ltd.Electronic meeting intelligence
US10062057B2 (en)2015-11-102018-08-28Ricoh Company, Ltd.Electronic meeting intelligence
US10268990B2 (en)2015-11-102019-04-23Ricoh Company, Ltd.Electronic meeting intelligence
US10445706B2 (en)2015-11-102019-10-15Ricoh Company, Ltd.Electronic meeting intelligence
US11983637B2 (en)2015-11-102024-05-14Ricoh Company, Ltd.Electronic meeting intelligence
JP2017091535A (en)*2015-11-102017-05-25株式会社リコーElectronic conference system
US10510051B2 (en)2016-10-112019-12-17Ricoh Company, Ltd.Real-time (intra-meeting) processing using artificial intelligence
US11307735B2 (en)2016-10-112022-04-19Ricoh Company, Ltd.Creating agendas for electronic meetings using artificial intelligence
US10572858B2 (en)2016-10-112020-02-25Ricoh Company, Ltd.Managing electronic meetings using artificial intelligence and meeting rules templates
US10860985B2 (en)2016-10-112020-12-08Ricoh Company, Ltd.Post-meeting processing using artificial intelligence
US11030585B2 (en)2017-10-092021-06-08Ricoh Company, Ltd.Person detection, person identification and meeting start for interactive whiteboard appliances
US10956875B2 (en)2017-10-092021-03-23Ricoh Company, Ltd.Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances
US11062271B2 (en)2017-10-092021-07-13Ricoh Company, Ltd.Interactive whiteboard appliances with learning capabilities
US10553208B2 (en)2017-10-092020-02-04Ricoh Company, Ltd.Speech-to-text conversion for interactive whiteboard appliances using multiple services
US11645630B2 (en)2017-10-092023-05-09Ricoh Company, Ltd.Person detection, person identification and meeting start for interactive whiteboard appliances
US10552546B2 (en)2017-10-092020-02-04Ricoh Company, Ltd.Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings
US10757148B2 (en)2018-03-022020-08-25Ricoh Company, Ltd.Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices
US11080466B2 (en)2019-03-152021-08-03Ricoh Company, Ltd.Updating existing content suggestion to include suggestions from recorded media using artificial intelligence
US11263384B2 (en)2019-03-152022-03-01Ricoh Company, Ltd.Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence
US11270060B2 (en)2019-03-152022-03-08Ricoh Company, Ltd.Generating suggested document edits from recorded media using artificial intelligence
US11392754B2 (en)2019-03-152022-07-19Ricoh Company, Ltd.Artificial intelligence assisted review of physical documents
US11573993B2 (en)2019-03-152023-02-07Ricoh Company, Ltd.Generating a meeting review document that includes links to the one or more documents reviewed
US11720741B2 (en)2019-03-152023-08-08Ricoh Company, Ltd.Artificial intelligence assisted review of electronic documents

Similar Documents

PublicationPublication DateTitle
JP2007336344A (en) Information terminal device, driving method thereof, and program
US9148586B2 (en)Terminal apparatus for combining images from two different cameras based on detected sound
EP1465423A1 (en)Videophone device and data transmitting/receiving method applied thereto
JP6374854B2 (en) Screen sharing system and screen sharing method
JP4973908B2 (en) Communication terminal and display method thereof
JP2008113331A (en) Telephone system, telephone, server device, and program
JP2010219969A (en)Call recording device with retrieving function, and telephone set
JP2008147950A (en) Information processing device
KR100380829B1 (en)System and method for managing conversation -type interface with agent and media for storing program source thereof
JPWO2003038759A1 (en) Portable terminal, animation creation method in portable terminal, program for creating animation using computer, recording medium recording the program, and animation creation system
JP2010193495A (en)Interpreting call system
JPH11355747A (en)Video/sound communication equipment and video conference equipment using the same equipment
JP2006074376A (en) Mobile phone device with broadcast receiving function, program, and recording medium
JP2010087950A (en)Thin client system, thin client terminal, thin client server and program
KR101355050B1 (en)Method for manufacturing video card
JP2006191436A (en) Mobile phone equipment
JP6387205B2 (en) Communication system, communication method and program
KR101364844B1 (en)Mobile communication terminal with video call function and method of controlling the same
JP2005277884A (en)Communication terminal device
JP4658569B2 (en) Information transmitting apparatus, information receiving apparatus, and information transmitting / receiving system
WO2006106671A1 (en)Image processing device, image display device, reception device, transmission device, communication system, image processing method, image processing program, and recording medium containing the image processing program
JP2003008747A (en)User support system and method of portable terminal
KR20050077682A (en)A managing apparatus of a name card
JPH09200712A (en) Audio / Video transmission device
JP2005157950A (en) Information processing device

[8]ページ先頭

©2009-2025 Movatter.jp