









本発明は、音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成された情報端末装置、その駆動方法、及び当該駆動方法をコンピュータに実行させるためのプログラムに関する。 The present invention relates to an information terminal device configured to be able to transmit and receive various types of data including audio data and image data to and from an external device via a transmission line, a driving method thereof, and a program for causing a computer to execute the driving method. .
従来より、画像データ、音声データ等の各種情報をネットワークを介して端末装置間で授受するTV電話/TV会議システムが提案されている(例えば、下記の特許文献1参照)。 2. Description of the Related Art Conventionally, there has been proposed a TV phone / TV conference system that exchanges various types of information such as image data and audio data between terminal devices via a network (for example, see Patent Document 1 below).
近年、TV電話では、画像データと音声データを端末装置間で送受信することにより、相手側の映像を見ながら会話ができるようになっている。更に、TV電話では、ネットワークの伝送路の大幅な伝送容量の増大に伴い、TV会議システムで提案されている、映像、音声を授受するだけではなく、ファイル転送、描画情報のやり取り、アプリケーションソフトの共有等を多地点間で行うことができるようになっている。これにより、効率的な会議を進めることが可能なシステムが提供されている。 In recent years, in videophones, conversations can be made while viewing images of the other party by transmitting and receiving image data and audio data between terminal devices. Furthermore, in the video phone, as the transmission capacity of the network transmission line is greatly increased, not only the video and audio, which are proposed in the TV conference system, but also file transfer, exchange of drawing information, application software, etc. Sharing, etc. can be performed between multiple points. Thereby, a system capable of proceeding with an efficient conference is provided.
上述したシステムでは、TV会議システムのみならず、個人のTV電話においても、端末装置内に記憶された画像データや各種ドキュメントデータ等をお互いの端末装置上に表示出力させて会話を行うことができるようになっている。これにより、遠隔地間で会話をしながら、各種情報を共有することが可能であり、よりリアルな会議の雰囲気での会話に近づけたシステムも実現されてきている。 In the above-described system, not only a TV conference system but also a personal TV phone can display and output image data, various document data, and the like stored in the terminal device on each other's terminal device. It is like that. As a result, various types of information can be shared while having a conversation between remote locations, and a system that is closer to a conversation in a more realistic conference atmosphere has been realized.
上述したシステムにおいては、端末装置の表示画面を見ながら会話を行い、必要に応じて共有すべき情報を端末装置を操作することにより検索、出力して送信を行うことを実現している。 In the above-described system, it is realized that a conversation is performed while looking at the display screen of the terminal device, and information to be shared is searched for, output, and transmitted as needed by operating the terminal device.
しかしながら、上述したシステムでは、端末装置に設けられたキーボード等の入力手段を操作して所望のデータが格納されている記憶手段を特定し、その中から当該所望のデータを検索して、自装置の表示装置に表示すると共に、相手側の端末装置に対する送信指示を行うことが必要となり、連続的に会話をしている状態である場合、当該操作中は会話が中断してしまうといった問題があった。 However, in the above-described system, the storage unit in which desired data is stored is specified by operating an input unit such as a keyboard provided in the terminal device, and the desired data is retrieved from the storage unit. Display on the other display device and instructing transmission to the other terminal device, and in a state of continuous conversation, there is a problem that the conversation is interrupted during the operation. It was.
また、上述したシステムでは、表示装置に出力されている双方の映像を確認しながら会話が行われるため、通常、映像を撮影するカメラが表示装置上に配設されている関係上、会話者は、表示装置からある程度離れた位置で会話を行う必要がある。また、上述した操作を表示装置を含む端末装置で行う場合は、端末装置の傍に近づき操作を行うため、やはり、会話が一時的に中断されてしまうといった問題があった。 Further, in the above-described system, since the conversation is performed while confirming both images output to the display device, the conversation person is usually placed on the relationship that the camera for capturing the image is disposed on the display device. It is necessary to have a conversation at a position some distance away from the display device. Further, when the above-described operation is performed on a terminal device including a display device, there is a problem in that the conversation is temporarily interrupted because the operation is performed near the terminal device.
本発明は上述の問題点に鑑みてなされたものであり、連続的な会話を中断することなく、快適なTV電話システム、TV会議システムを実現する情報端末装置、その駆動方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and provides an information terminal device that realizes a comfortable TV telephone system and a TV conference system without interrupting continuous conversation, a driving method thereof, and a program. For the purpose.
本発明の情報端末装置は、音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成された情報端末装置であって、検索用のキーワードと関連付けられたデータを記憶する第1の記憶手段と、前記情報端末装置及び前記外部装置のうちの少なくとも何れか一方に対して発声された音声を音声データとして入力する音声入力手段と、前記音声入力手段により入力された音声データに基づいてキーワードを抽出する抽出手段と、前記抽出手段で抽出したキーワードに係るデータを前記第1の記憶手段から読み出す読み出し手段と、前記読み出し手段で読み出したデータを表示媒体に表示する表示手段と、前記読み出し手段で読み出したデータを前記伝送路を介して前記外部装置に送信する送信手段とを有する。 An information terminal device according to the present invention is an information terminal device configured to be able to transmit and receive various types of data including audio data and image data to and from an external device via a transmission line, and to store data associated with a search keyword. First storage means for storing, voice input means for inputting voice uttered to at least one of the information terminal device and the external device as voice data, and input by the voice input means Extraction means for extracting a keyword based on voice data, reading means for reading data relating to the keyword extracted by the extraction means from the first storage means, and display for displaying the data read by the reading means on a display medium And transmission means for transmitting the data read by the reading means to the external device via the transmission path.
本発明の情報端末装置の駆動方法は、音声データ及び画像データを含む各種のデータを伝送路を介して外部装置と送受信可能に構成され、検索用のキーワードと関連付けられたデータを記憶する第1の記憶手段を具備する情報端末装置の駆動方法であって、前記情報端末装置及び前記外部装置のうちの少なくとも何れか一方に対して発声された音声を音声データとして入力する音声入力ステップと、前記音声入力ステップにより入力された音声データに基づいてキーワードを抽出する抽出ステップと、前記抽出ステップで抽出したキーワードに係るデータを前記第1の記憶手段から読み出す読み出しステップと、前記読み出しステップで読み出したデータを表示媒体に表示する表示ステップと、前記読み出しステップで読み出したデータを前記伝送路を介して前記外部装置に送信する送信ステップとを有する。 The information terminal device driving method of the present invention is configured to be capable of transmitting and receiving various types of data including audio data and image data to and from an external device via a transmission line, and stores data associated with a search keyword. A method for driving an information terminal device comprising the storage means, wherein the voice input step inputs voice uttered to at least one of the information terminal device and the external device as voice data; An extraction step for extracting a keyword based on the voice data input in the voice input step, a read step for reading data relating to the keyword extracted in the extraction step from the first storage means, and data read in the read step Display on the display medium, and the data read in the reading step And a transmission step of transmitting to the external device through the transmission path.
また、本発明のプログラムは、前記情報端末装置の駆動方法の各ステップをコンピュータに実行させるためのものである。 Moreover, the program of this invention is for making a computer perform each step of the drive method of the said information terminal device.
本発明によれば、連続的な会話を中断することなく、快適なTV電話システム、TV会議システムを実現することができる。 According to the present invention, a comfortable TV phone system and a TV conference system can be realized without interrupting continuous conversation.
以下、図面を参照して、本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1の実施形態)
図1は、第1の実施形態に係る情報端末装置のハードウエア構成を示すブロック図である。
図1において、制御部11は、情報端末装置のシステム全体の制御を司るものであり、例えば、後述する情報検索出力制御及び情報送信制御等を実行する。ROM12は、制御部11で各種制御を行う際に必要なプログラムなどを格納する。RAM13は、入力データなどの情報やプログラム実行中のデータなどを一時的に記憶する。(First embodiment)
FIG. 1 is a block diagram illustrating a hardware configuration of the information terminal device according to the first embodiment.
In FIG. 1, the
画像入力部14は、例えばカメラ装置等からなるものであり、TV電話/TV会議システムにおいて、撮影された映像(画像)を映像データ(画像データ)として入力を行う。音声入力部15は、例えばマイク装置等からなるものであり、TV電話/TV会議システムにおいて、発声された音声を音声データとして入力を行う。ここで、本実施形態の音声入力部15は、当該情報端末装置のみならず、相手側の情報端末装置に対して発声された音声を音声データとして入力するものとする。 The
操作入力部16は、例えばキーボード装置等からなるものであり、情報端末装置における各種の設定、制御、データ入力手段として機能する。 The
表示出力部17は、例えば液晶ディスプレイ端末装置やTV表示装置等からなるものであり、画像を出力する手段として機能する。また、音声出力部18は、例えばスピーカ装置等からなるものであり、音声を出力する手段として機能する。これらの表示出力部17及び音声出力部18により、当該情報端末装置と通信可能に構成された情報端末装置の使用者における双方の顔や、会話、共有データの出力再生がなされる。通常、表示出力部17は、同時に複数の情報の出力が可能であり、送信側の映像データや、相手側の映像データ、共有データ、及び各情報端末装置内の情報が同時に出力可能に構成されている。 The
画像符号化/復号化処理部19及び音声符号化/復号化処理部20は、送信側の情報端末装置と受信側の情報端末装置との間で、それぞれ、映像及び音声、並びにその他の情報を授受する際のこれらの各データの符号化/復号化処理を行なう。多重/分離処理部21は、画像データ、音声データを分離した後、回線インターフェース処理部22を介して、通信ネットワーク23に伝送可能な通信形態に所望の通信プロトコルに準じた変換を行う。これらの一連の処理により、送信側の情報端末装置と受信側の情報端末装置との間で、画像データ及び音声データを含む各種のデータの送受信が行なわれる。 The image encoding /
外部記憶部24には、画像やドキュメント等の各種のデータが検索用のキーワードと関連付けられて記憶されている。音声認識処理部25は、音声入力部15より入力された音声データの中から従来より提案されている認識処理を用いてテキスト情報に変換するものであり、このテキスト情報は、キーワードとしてキーワード保持部26へ順次格納される。 Various data such as images and documents are stored in the
制御部11は、キーワード保持部26に格納された各種キーワードを活用して、外部記憶部24内に予めキーワードと関連付けられて格納された画像データや各種のデータの検索を行う。そして、制御部11は、検索された各種のデータを外部記憶部24から読み出して、表示出力部17に表示出力したり、回線インターフェース処理部22を介して、相手の情報端末装置に送信したりする。 The
図2は、従来例における表示出力部17の出力表示の一例を示す図である。
図2に示す表示出力部17には、送信側の情報端末装置の画像入力部14で撮影された画像を表示する送信側映像部27と、相手側の情報端末装置で撮影され、通信ネットワーク23を介して伝送される画像を表示する相手側映像部28が設けられている。この場合、また、音声入力部15により音声データを送受信しながら、通信ネットワーク23を介して映像と音声による会話が実現されている。FIG. 2 is a diagram illustrating an example of output display of the
The
上述のように、映像と音声で会話を行っている際、送信側の情報端末装置内の外部記憶部24に格納された画像やドキュメント等のデータに関して会話を行う場合、外部記憶部24内のデータの格納状態を示すデータ一覧29を表示出力部17の下部に表示させる。このデータ一覧29は、通常、階層構造になっている。 As described above, when a conversation is performed with respect to data such as an image or a document stored in the
操作者は、会話をしながら操作入力部16の操作によりデータ一覧29の中から所望のデータ「001」30を送信指示することにより、通信ネットワーク23を介して相手側の情報端末装置の表示出力部に当該データ「001」が出力表示される。この際、送信側の情報端末装置では、送信するデータ「001」30を画像符号化/復号化処理部19で圧縮し、回線インターフェース処理部22を介して、相手側の情報端末装置に送信する。また、送信側の情報端末装置の表示出力部17には、送信指示したデータ「001」30がデータ表示部31に表示される。このようにして、送信側と相手側とが表示されたデータ「001」を確認しながら会話を行うことが可能となる。 The operator instructs the transmission of the desired data “001” 30 from the
図3は、図2に示す従来例における表示出力部17の出力表示動作を示すフローチャートである。この図3に示す処理は、図1の制御部11で行われる。 FIG. 3 is a flowchart showing an output display operation of the
まず、ステップS101では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。 First, in step S101, the transmission-side information terminal device and the counterpart (reception-side) information terminal device can transmit and receive various types of data including image data and audio data via the communication network 23. Performs communication start processing.
続いて、操作者が外部記憶部24内のデータを相手側の情報端末装置に送信する場合、ステップS102では、図2における表示出力部17の下段に示すデータ一覧29を表示出力させる。 Subsequently, when the operator transmits the data in the
続いて、ステップS103では、操作者によりデータ一覧29から相手側の情報端末装置に送信する所望のデータ(図2に示す例では、データ「001」30)が選択され、当該データの送信指示があるか否かを判断する。この判断の結果、データの送信指示がなかった場合には、ステップS107に進む。一方、ステップS103の判断の結果、データの送信指示があった場合には、ステップS104に進む。 Subsequently, in step S103, the operator selects desired data (data “001” 30 in the example shown in FIG. 2) to be transmitted from the
ステップS104では、ステップS103で送信指示されたデータ「001」30の元データを外部記憶部24から読み出し、画像符号化/復号化処理部19で圧縮して通信ネットワーク23を介して相手側の情報端末装置に送信する。続いて、ステップS105では、図2に示すように、送信指示したデータ「001」30を当該表示出力部17のデータ表示部31に表示合成する。 In step S 104, the original data of the data “001” 30 instructed to be transmitted in step S 103 is read from the
続いて、ステップS106では、操作者によりデータ一覧29から相手側の情報端末装置に送信する他のデータが選択され、当該データの送信指示があるか否かを判断する。この判断の結果、他のデータの送信指示があった場合には、ステップS104に戻り、ステップS104で改めて当該他のデータを読み出して、ステップS105で当該他のデータを表示しながら会話を継続することになる。一方、ステップS106の判断の結果、他のデータの送信指示がなかった場合には、ステップS107に進む。 Subsequently, in step S106, the operator selects other data to be transmitted from the
続いて、ステップS107では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS101〜ステップS107までの処理を経ることにより、図2に示す表示出力部17の出力表示動作が行われる。 In step S107, a communication disconnection process is executed to end a series of conversations. The output display operation of the
図2及び図3に示す従来例の場合、表示出力部17の相手側映像部28を確認しながら操作入力部16を操作して所望のデータを検索指示することが必要であった。このため、当該所望のデータが格納されている構成が複雑な場合、操作入力部16の操作に手間取り、会話が中断してしまうといった不都合が発生していた。そこで、この課題を解決するための本発明の第1の実施形態に係る情報端末装置の駆動方法を、図4乃至図6を用いて以下に説明する。 In the case of the conventional example shown in FIGS. 2 and 3, it is necessary to operate the
図4は、第1の実施形態における表示出力部17の出力表示の一例を示す図である。
本実施形態では、図4に示す送信側映像部27と相手側映像部28を同一画面上に表示しながら会話を行っている時、会話における音声データを音声認識処理部25において順次認識して、キーワードを連続的に抽出する。FIG. 4 is a diagram illustrating an example of the output display of the
In the present embodiment, when a conversation is performed while the transmission-
そして、連続的に抽出されるキーワードから、予め外部記憶部24内にキーワードと共に格納された複数のデータの中から、抽出されたキーワードと一致するキーワードに係るデータを順次読み出し、これを表示出力部17のデータ表示部33に順次表示する。 Then, from a plurality of continuously extracted keywords, data relating to the keyword that matches the extracted keyword is sequentially read out from a plurality of data stored together with the keyword in the
これにより、会話を継続しながら、会話の中から関連する情報がデータ表示部33に順次表示されると共に、当該情報を共有させることにより、円滑で効率的なTV会議システムが実現される。 Thereby, while continuing the conversation, related information from the conversation is sequentially displayed on the
図5は、第1の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。具体的に、図5は、図4に示す表示出力部17の出力表示動作を示すフローチャートである。この図5に示す処理は、図1の制御部11で行われる。 FIG. 5 is a flowchart showing a method of driving the information terminal device according to the first embodiment. Specifically, FIG. 5 is a flowchart showing an output display operation of the
まず、ステップS201では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。 First, in step S201, a transmission-side information terminal device and a partner-side (reception-side) information terminal device can transmit and receive various types of data including image data and audio data via the communication network 23. Performs communication start processing.
続いて、ステップS202では、会話中の音声からデータ検索のキーワードを抽出する音声認識モードの設定がなされているか否かを判断する。この判断の結果、音声認識モードの設定がなされていない場合には、ステップS210に進む。一方、ステップS202の判断の結果、音声認識モードの設定がなされている場合には、ステップS203に進む。 Subsequently, in step S202, it is determined whether or not a voice recognition mode for extracting a data search keyword from the voice during conversation is set. As a result of the determination, if the voice recognition mode is not set, the process proceeds to step S210. On the other hand, if the result of determination in step S202 is that the voice recognition mode has been set, processing proceeds to step S203.
ステップS202で音声認識モードが設定されていると判断された場合、続いて、ステップS203では、送信者あるいは相手側の会話を音声認識処理部25で順次音声認識を行い、検索対象となるキーワードが発声されたか否かを判断する。この判断の結果、検索対象となるキーワードが発声されていない場合には、検索対象となるキーワードが発声されるまで、ステップS203で待機する。一方、ステップS203の判断の結果、検索対象となるキーワードが発声された場合には、ステップS204に進む。 If it is determined in step S202 that the voice recognition mode is set, then in step S203, the voice recognition processing unit 25 sequentially performs voice recognition on the conversation of the sender or the other party, and the keyword to be searched is determined. It is determined whether or not the voice is spoken. As a result of the determination, if the keyword to be searched is not uttered, the process waits in step S203 until the keyword to be searched is uttered. On the other hand, if the keyword to be searched is uttered as a result of the determination in step S203, the process proceeds to step S204.
ステップS204では、キーワードの認識処理を行う。続いて、ステップS205では、予め外部記憶部24にキーワードと共に格納されたデータの中から検索を行う。続いて、ステップS206では、外部記憶部24内に、ステップS204で認識されたキーワードと一致したキーワードに係る元データが存在するか否かを判断する。この判断の結果、ステップS204で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在しない場合には、ステップS203に戻る。一方、ステップS206の判断の結果、ステップS204で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在する場合には、ステップS207に進む。 In step S204, keyword recognition processing is performed. Subsequently, in step S205, a search is performed from data stored together with keywords in the
ステップS207では、当該元データを読み出す。続いて、ステップS208では、ステップS207で読み出した元データを表示出力部17のデータ表示部33に表示する。さらに、相手側の情報端末装置にステップS207で読み出された元データを送信し、当該相手側の情報端末装置の表示出力部に当該元データを出力表示させる。 In step S207, the original data is read. Subsequently, in step S208, the original data read in step S207 is displayed on the
続いて、ステップS209では、次なる検索キーワードが発声されたか否かを判断し、発声された場合には、ステップS204に戻って以降の処理を繰り返す。一方、ステップS209での判断の結果、次なる検索キーワードが発声されなかった場合には、ステップS210に進む。 Subsequently, in step S209, it is determined whether or not the next search keyword has been uttered, and if uttered, the process returns to step S204 to repeat the subsequent processing. On the other hand, as a result of the determination in step S209, if the next search keyword is not uttered, the process proceeds to step S210.
ステップS210では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS201〜ステップS210までの処理を経ることにより、図4に示す表示出力部17の出力表示動作が行われる。 In step S210, a communication disconnection process is executed to end a series of conversations. Through the processing from step S201 to step S210, the output display operation of the
図6は、第1の実施形態における表示出力部17の出力表示の他の一例を示す図である。即ち、図6には、図4に示す表示出力部17の出力表示における別のレイアウトを示したものである。 FIG. 6 is a diagram illustrating another example of the output display of the
図6において、表示出力部17の下段には、一連の会話で使用予定、もしくは、外部記憶部24内の一部のデータの縮小データ32が複数表示されている。図6に示す例では、この縮小データ32が複数表示されている状態の中で会話を行いながら、データを指定するものである。 In FIG. 6, a plurality of reduced
図6に示す例では、会話における音声認識により抽出されたキーワードに合致するデータ「a」34が強調されると共に、その元データ「A」が外部記憶部24から読み出されて、表示出力部17のデータ表示部33に表示される。また、指示部35a及び35bは、縮小データ32の候補の切替を指示する際に操作されるものである。 In the example shown in FIG. 6, the data “a” 34 matching the keyword extracted by voice recognition in conversation is emphasized, and the original data “A” is read from the
第1の実施形態によれば、操作者は、予め会話に必要なデータ一覧を確認しながら会話を行うことができ、相手側にも同一表示状態を再現させることにより、より効果的な会話が実現可能となる。これにより、連続的な会話を中断することなく、快適なTV電話システム、TV会議システムを実現することが可能となる。 According to the first embodiment, the operator can perform a conversation while confirming a list of data necessary for the conversation in advance, and by reproducing the same display state on the other side, a more effective conversation can be performed. It becomes feasible. This makes it possible to realize a comfortable TV phone system and TV conference system without interrupting continuous conversation.
(第2の実施形態)
図7は、第2の実施形態における表示出力部17の出力表示の一例を示す図である。
第1の実施形態では、送信側の情報端末装置の外部記憶部(第1の記憶手段)24に格納されたデータのみを検索対象としていたが、第2の実施形態では、相手側の情報端末装置の外部記憶部(第2の記憶手段)に格納されたデータも検索対象とするものである。(Second Embodiment)
FIG. 7 is a diagram illustrating an example of the output display of the
In the first embodiment, only the data stored in the external storage unit (first storage means) 24 of the transmission-side information terminal device is the search target. However, in the second embodiment, the counterpart information terminal Data stored in the external storage unit (second storage means) of the apparatus is also a search target.
図7において、送信側の情報端末装置における表示出力部17の下段には、当該情報端末装置に格納されている送信側の縮小データ(縮小画像データ)36と、相手側の情報端末装置に格納されている相手側の縮小データ(縮小画像データ)37が表示される。なお、この際、これらの縮小データがそれぞれ両者の情報端末装置に同時に通信ネットワーク23を介して表示されている。このため、会話において認識されたキーワードに合致するデータを、それぞれの情報端末装置内の外部記憶部から検索し、合致したデータ「b」38が強調されると共に、その元データ「B」が表示出力部17のデータ表示部33に表示される。 In FIG. 7, in the lower stage of the
(第3の実施形態)
図8は、第3の実施形態における表示出力部17の出力表示の一例を示す図である。第3の実施形態は、第2の実施形態の更なる応用を示すものである。(Third embodiment)
FIG. 8 is a diagram illustrating an example of an output display of the
第2の実施形態では、送信側及び相手側の情報端末装置の各外部記憶部内に格納された縮小データの一覧を、それぞれのデータ表示部に出力表示させていたが、各情報端末装置内に格納されたデータの中で、相手に見せたくないデータも含まれることがある。そこで、第3の実施形態では、図8に示すように、相手側の情報端末装置において送信側の情報端末装置に表示したくない禁止縮小データ40a及び40bは、送信側の情報端末装置からは視認できないように、データ表示部33に表示される。 In the second embodiment, the list of reduced data stored in each external storage unit of the information terminal device on the transmission side and the partner side is output and displayed on each data display unit. The stored data may include data that you do not want to show to the other party. Therefore, in the third embodiment, as shown in FIG. 8, the prohibited reduced
即ち、第3の実施形態では、それぞれの会話の中から認識されたキーワードに合致するデータが禁止縮小データ40aの場合は、当該データを格納している相手側の情報端末装置にはその元データが表示されるが、当該データを未格納な送信側の情報端末装置では、図8に示すように、元データがデータ表示部33に表示されない。 That is, in the third embodiment, when the data that matches the keyword recognized in each conversation is the prohibited reduced
この第3の実施形態の具体的な形態としては、例えば、図5のステップS207において相手側の情報端末装置の外部記憶部(第2の記憶手段)から読み出したデータに対して表示禁止の設定がなされていた場合、ステップS208では、当該データの表示出力部17への表示を行わないようにする。また、例えば、ステップS207において自装置の外部記憶部(第1の記憶手段)24から読み出したデータに対して表示禁止の設定がなされていた場合、ステップS207では、当該データの相手側の情報端末装置への送信を行わないようにする。 As a specific form of the third embodiment, for example, display prohibition is set for the data read from the external storage unit (second storage unit) of the information terminal device on the other side in step S207 of FIG. If it is determined that the data is not displayed on the
第3の実施形態によれば、一連の縮小データを基に会話をする際に、相手側に見られたくないデータを当該相手側に誤って見られてしまうということを回避でき、当該データを当該相手側に対して自動的に隠蔽することができる。なお、予め見れないように指示がされている場合でも、キーワード検索により一致した元データが自分の情報端末装置に表示された後、特定の操作処理を行って相手側に送信することにより、相手側で当該元データを表示可能とするように構成しても良い。 According to the third embodiment, when a conversation is performed based on a series of reduced data, it is possible to avoid that the other party erroneously sees data that the other party does not want to see. It can be automatically hidden from the other party. Even if the instruction is given so that it cannot be seen in advance, the original data matched by the keyword search is displayed on its own information terminal device, and then the specific data is processed and transmitted to the other party. The original data may be displayed on the side.
(第4の実施形態)
図9は、第4の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。具体的に、この図9に示す処理は、図1の制御部11で行われる。(Fourth embodiment)
FIG. 9 is a flowchart showing a method of driving the information terminal device according to the fourth embodiment. Specifically, the process shown in FIG. 9 is performed by the
まず、ステップS201では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。 First, in step S201, a transmission-side information terminal device and a partner-side (reception-side) information terminal device can transmit and receive various types of data including image data and audio data via the communication network 23. Performs communication start processing.
続いて、ステップS302では、会話中の音声からデータ検索のキーワードを抽出する音声認識モードの設定がなされているか否かを判断する。この判断の結果、音声認識モードの設定がなされていない場合には、ステップS311に進む。一方、ステップS302の判断の結果、音声認識モードの設定がなされている場合には、ステップS303に進む。 Subsequently, in step S302, it is determined whether or not a voice recognition mode for extracting a data search keyword from the voice during conversation is set. As a result of this determination, if the voice recognition mode is not set, the process proceeds to step S311. On the other hand, if the result of determination in step S302 is that voice recognition mode has been set, processing proceeds to step S303.
ステップS302で音声認識モードが設定されていると判断された場合、続いて、ステップS303では、送信者あるいは相手側の会話を音声認識処理部25で順次音声認識を行い、検索対象となるキーワードが発声されたか否かを判断する。この判断の結果、検索対象となるキーワードが発声されていない場合には、検索対象となるキーワードが発声されるまで、ステップS303で待機する。一方、ステップS303の判断の結果、検索対象となるキーワードが発声された場合には、ステップS304に進む。 If it is determined in step S302 that the voice recognition mode is set, then in step S303, the voice recognition processing unit 25 sequentially performs voice recognition on the conversation of the sender or the other party, and the keyword to be searched is determined. It is determined whether or not the voice is spoken. As a result of the determination, if the keyword to be searched is not uttered, the process waits in step S303 until the keyword to be searched is uttered. On the other hand, as a result of the determination in step S303, if a keyword to be searched is uttered, the process proceeds to step S304.
ステップS304では、キーワードの認識処理を行う。そして、認識されたキーワードがキーワード保持部26にその認識回数と共に格納される。 In step S304, keyword recognition processing is performed. Then, the recognized keyword is stored in the
続いて、ステップS305では、キーワード保持部26に格納されたステップS304で認識されたキーワードがN回(Nは、自然数)以上発声されたか否かを判断する。この判断の結果、ステップS304で認識されたキーワードがN回以上発声されていない場合には、ステップS303に戻る。一方、ステップS305の判断の結果、ステップS304で認識されたキーワードがN回以上発声された場合には、ステップS306に進む。 Subsequently, in step S305, it is determined whether or not the keyword recognized in step S304 stored in the
ステップS306では、予め外部記憶部24にキーワードと共に格納されたデータの中から検索を行う。続いて、ステップS307では、外部記憶部24内に、ステップS304で認識されたキーワードと一致したキーワードに係る元データが存在するか否かを判断する。この判断の結果、ステップS304で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在しない場合には、ステップS303に戻る。一方、ステップS307の判断の結果、ステップS304で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在する場合には、ステップS308に進む。 In step S306, a search is performed from data stored together with keywords in the
ステップS308では、当該元データを読み出す。続いて、ステップS309では、ステップS308で読み出した元データを表示出力部17のデータ表示部33に表示する。さらに、相手側の情報端末装置にステップS308で読み出された元データを送信し、当該相手側の情報端末装置の表示出力部に当該元データを出力表示させる。 In step S308, the original data is read out. Subsequently, in step S309, the original data read in step S308 is displayed on the
続いて、ステップS310では、次なる検索キーワードが発声されたか否かを判断し、発声された場合には、ステップS304に戻って以降の処理を繰り返す。一方、ステップS310での判断の結果、次なる検索キーワードが発声されなかった場合には、ステップS311に進む。 Subsequently, in step S310, it is determined whether or not the next search keyword has been uttered, and if uttered, the process returns to step S304 and the subsequent processing is repeated. On the other hand, if the result of determination in step S310 is that the next search keyword has not been uttered, processing proceeds to step S311.
ステップS311では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS301〜ステップS311までの処理を経ることにより、第4の実施形態における表示出力部17の出力表示動作が行われる。 In step S311, a communication disconnection process is executed to end a series of conversations. By performing the processing from step S301 to step S311 described above, the output display operation of the
第4の実施形態によれば、会話の中で連続的に発声される異なるキーワードに対して、所定回数(N回)発声されたキーワードの元データを検索することにより、処理が遅くなったり、不要な元データを読み出してしまうといった問題を回避することができる。これにより、検索する元データの精度を向上させることができる。なお、本実施形態において、当該キーワードの発声は、送信側、相手側のそれぞれの発声回数を計上する形態であっても良い。 According to the fourth embodiment, by searching the original data of a keyword uttered a predetermined number of times (N times) for different keywords uttered continuously in a conversation, the processing becomes slow, The problem of reading unnecessary original data can be avoided. Thereby, the accuracy of the original data to be searched can be improved. In the present embodiment, the utterance of the keyword may be in the form of counting the number of utterances on the transmission side and the other side.
(第5の実施形態)
図10は、第5の実施形態に係る情報端末装置の駆動方法を示すフローチャートである。具体的に、この図5に示す処理は、図1の制御部11で行われる。(Fifth embodiment)
FIG. 10 is a flowchart illustrating a method of driving the information terminal device according to the fifth embodiment. Specifically, the process shown in FIG. 5 is performed by the
図6で示した表示出力部17の表示例では、検索対象となる縮小データ群を予め指定して会話を行う必要があった。第5の実施形態では、検索対象となるデータ群に対して、予め話者を対応させて記憶させておく。そして、送信側の情報端末装置に対して、話者が会話を開始することにより、音声認識処理部25で話者が特定され、話者に対応したデータ群が呼び出されるように構成したものである。 In the display example of the
まず、ステップS401では、送信側の情報端末装置と相手側(受信側)の情報端末装置とを、通信ネットワーク23を介して画像データや音声データを含む各種のデータの送受信が可能な状態として、通信開始の処理を行う。 First, in step S401, the transmission-side information terminal device and the counterpart (reception-side) information terminal device are in a state in which various data including image data and audio data can be transmitted and received via the communication network 23. Performs communication start processing.
続いて、ステップS402では、会話中の音声からデータ検索のキーワードを抽出する音声認識モードの設定がなされているか否かを判断する。この判断の結果、音声認識モードの設定がなされていない場合には、ステップS411に進む。一方、ステップS402の判断の結果、音声認識モードの設定がなされている場合には、ステップS403に進む。 Subsequently, in step S402, it is determined whether or not a voice recognition mode for extracting a data search keyword from the voice during conversation is set. As a result of the determination, if the voice recognition mode is not set, the process proceeds to step S411. On the other hand, if the result of determination in step S402 is that voice recognition mode has been set, processing proceeds to step S403.
ステップS402で音声認識モードが設定されていると判断された場合、続いて、ステップS403では、送信者あるいは相手側の会話を音声認識処理部25で順次音声認識を行い、検索対象となるキーワードが発声されたか否かを判断する。この判断の結果、検索対象となるキーワードが発声されていない場合には、検索対象となるキーワードが発声されるまで、ステップS403で待機する。一方、ステップS403の判断の結果、検索対象となるキーワードが発声された場合には、ステップS404に進む。 If it is determined in step S402 that the voice recognition mode is set, then in step S403, the voice recognition processing unit 25 sequentially performs voice recognition on the conversation of the sender or the other party, and the keyword to be searched is determined. It is determined whether or not the voice is spoken. As a result of the determination, if the keyword to be searched is not uttered, the process waits in step S403 until the keyword to be searched is uttered. On the other hand, as a result of the determination in step S403, if a keyword to be searched is uttered, the process proceeds to step S404.
ステップS404では、キーワードが認識処理を行う。そして、認識されたキーワードがキーワード保持部26にその話者の情報と共に格納される。 In step S404, the keyword performs recognition processing. Then, the recognized keyword is stored in the
続いて、ステップS405では、ステップS404で認識されたキーワードに基づいて、キーワード保持部26を参照することにより、話者を特定する。話者が特定されると、続いて、ステップS406では、外部記憶部24に予め話者と関連させて記憶させていたデータ群が検索され、図6に示す縮小データ32が表示される。 Subsequently, in step S405, the speaker is specified by referring to the
続いて、ステップS407では、外部記憶部24内に、ステップS404で認識されたキーワードと一致したキーワードに係る元データが存在するか否かを判断する。この判断の結果、ステップS404で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在しない場合には、ステップS403に戻る。一方、ステップS407の判断の結果、ステップS404で認識されたキーワードと一致したキーワードに係る元データが外部記憶部24内に存在する場合には、ステップS408に進む。 Subsequently, in step S407, it is determined whether or not original data relating to the keyword that matches the keyword recognized in step S404 exists in the
ステップS408では、当該元データを読み出す。続いて、ステップS409では、ステップS408で読み出した元データを表示出力部17のデータ表示部33に表示する。さらに、相手側の情報端末装置にステップS408で読み出された元データを送信し、当該相手側の情報端末装置の表示出力部に当該元データを出力表示させる。 In step S408, the original data is read out. Subsequently, in step S409, the original data read in step S408 is displayed on the
続いて、ステップS410では、次なる検索キーワードが発声されたか否かを判断し、発声された場合には、ステップS404に戻って以降の処理を繰り返す。一方、ステップS410での判断の結果、次なる検索キーワードが発声されなかった場合には、ステップS411に進む。 Subsequently, in step S410, it is determined whether or not the next search keyword has been uttered. If so, the process returns to step S404 and the subsequent processing is repeated. On the other hand, if the result of determination in step S410 is that the next search keyword has not been spoken, processing proceeds to step S411.
ステップS411では、一連の会話を終了させるために、通信の切断処理を実行する。以上のステップS401〜ステップS411までの処理を経ることにより、第5の実施形態における表示出力部17の出力表示動作が行われる。 In step S411, a communication disconnection process is executed to end a series of conversations. By performing the processing from step S401 to step S411, the output display operation of the
第5の実施形態によれば、音声認識処理部25の機能を利用して話者の特定をキーワードの認識と共に行うことにより、話者特定のデータを検索することができ、更なる会話の有効性が高められる。なお、本実施形態において、相手の話者を認識して、相手の話者と予め関連付けられたデータ群を読み出しても良いことは言うまでもない。 According to the fifth embodiment, by using the function of the speech recognition processing unit 25 to specify a speaker together with keyword recognition, it is possible to search for speaker-specific data, and to further improve the effectiveness of conversation. Sexuality is enhanced. In this embodiment, it is needless to say that the other party's speaker may be recognized and a data group previously associated with the other party's speaker may be read out.
前述した各実施形態に係る情報端末装置を構成する図1の各手段、並びに情報端末装置の駆動方法を示した図5、図9及び図10の各ステップは、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び当該プログラムを記録したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。 Each unit of FIG. 1 constituting the information terminal device according to each of the embodiments described above, and each step of FIGS. 5, 9, and 10 showing the driving method of the information terminal device is stored in a RAM or a ROM of a computer. It can be realized by operating the programmed program. This program and a computer-readable storage medium storing the program are included in the present invention.
具体的に、前記プログラムは、例えばCD−ROMのような記憶媒体に記録し、或いは各種伝送媒体を介し、コンピュータに提供される。前記プログラムを記録する記憶媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。他方、前記プログラムの伝送媒体としては、プログラム情報を搬送波として伝搬させて供給するためのコンピュータネットワーク(LAN、インターネットの等のWAN、無線通信ネットワーク等)システムにおける通信媒体を用いることができる。また、この際の通信媒体としては、光ファイバ等の有線回線や無線回線などが挙げられる。 Specifically, the program is recorded in a storage medium such as a CD-ROM, or provided to a computer via various transmission media. As a storage medium for recording the program, a flexible disk, a hard disk, a magnetic tape, a magneto-optical disk, a nonvolatile memory card, and the like can be used in addition to the CD-ROM. On the other hand, as the transmission medium of the program, a communication medium in a computer network (LAN, WAN such as the Internet, wireless communication network, etc.) system for propagating and supplying program information as a carrier wave can be used. In addition, examples of the communication medium at this time include a wired line such as an optical fiber, a wireless line, and the like.
また、コンピュータが供給されたプログラムを実行することにより各実施形態に係る情報端末装置の機能が実現されるだけでなく、そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)或いは他のアプリケーションソフト等と共同して各実施形態に係る情報端末装置の機能が実現される場合や、供給されたプログラムの処理の全て、或いは一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて各実施形態に係る情報端末装置の機能が実現される場合も、かかるプログラムは本発明に含まれる。 Moreover, not only the functions of the information terminal device according to each embodiment are realized by executing a program supplied by the computer, but also an OS (Operating System) or other application software in which the program is running on the computer. When the functions of the information terminal device according to each embodiment are realized in cooperation with the above, or all or part of the processing of the supplied program is performed by a function expansion board or a function expansion unit of the computer. Such a program is also included in the present invention when the function of the information terminal device according to the embodiment is realized.
11:制御部
12:ROM
13:RAM
14:画像入力部
15:音声入力部
16:操作入力部
17:表示出力部
18:音声出力部
19:画像符号化/復号化処理部
20:音声符号化/復号化処理部
21:多重/分離処理部
22:回線インターフェース処理部
23:通信ネットワーク
24:外部記憶部
25:音声認識処理部
26:キーワード保持部
27:送信側映像部
28:相手側映像部
29:データ一覧
30、34、38:データ
31、33:データ表示部
32:縮小データ
35a、35b:指示部
36:送信側の縮小データ
37:相手側の縮小データ
40a、40b:禁止縮小データ11: Control unit 12: ROM
13: RAM
14: image input unit 15: audio input unit 16: operation input unit 17: display output unit 18: audio output unit 19: image encoding / decoding processing unit 20: audio encoding / decoding processing unit 21: multiplexing / separation Processing unit 22: Line interface processing unit 23: Communication network 24: External storage unit 25: Voice recognition processing unit 26: Keyword holding unit 27: Transmission side video unit 28: Opposite side video unit 29:
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006167321AJP2007336344A (en) | 2006-06-16 | 2006-06-16 | Information terminal device, driving method thereof, and program |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006167321AJP2007336344A (en) | 2006-06-16 | 2006-06-16 | Information terminal device, driving method thereof, and program |
| Publication Number | Publication Date |
|---|---|
| JP2007336344Atrue JP2007336344A (en) | 2007-12-27 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006167321APendingJP2007336344A (en) | 2006-06-16 | 2006-06-16 | Information terminal device, driving method thereof, and program |
| Country | Link |
|---|---|
| JP (1) | JP2007336344A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009171336A (en)* | 2008-01-17 | 2009-07-30 | Nec Corp | Mobile communication terminal |
| JP2009294237A (en)* | 2008-06-02 | 2009-12-17 | Konica Minolta Business Technologies Inc | Conference system, data processing device, image transmission method and image transmission program |
| JP2010081016A (en)* | 2008-09-24 | 2010-04-08 | Fuji Xerox Co Ltd | Image transmission apparatus, image transmission program, and image communication system |
| JP2014518594A (en)* | 2011-03-29 | 2014-07-31 | ティーアイ スクエア テクノロジー リミテッド | Method and system for providing multimedia content sharing service during communication service |
| JP2017091535A (en)* | 2015-11-10 | 2017-05-25 | 株式会社リコー | Electronic conference system |
| US10510051B2 (en) | 2016-10-11 | 2019-12-17 | Ricoh Company, Ltd. | Real-time (intra-meeting) processing using artificial intelligence |
| US10552546B2 (en) | 2017-10-09 | 2020-02-04 | Ricoh Company, Ltd. | Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings |
| US10553208B2 (en) | 2017-10-09 | 2020-02-04 | Ricoh Company, Ltd. | Speech-to-text conversion for interactive whiteboard appliances using multiple services |
| US10572858B2 (en) | 2016-10-11 | 2020-02-25 | Ricoh Company, Ltd. | Managing electronic meetings using artificial intelligence and meeting rules templates |
| US10757148B2 (en) | 2018-03-02 | 2020-08-25 | Ricoh Company, Ltd. | Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices |
| US10860985B2 (en) | 2016-10-11 | 2020-12-08 | Ricoh Company, Ltd. | Post-meeting processing using artificial intelligence |
| US10956875B2 (en) | 2017-10-09 | 2021-03-23 | Ricoh Company, Ltd. | Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances |
| US11030585B2 (en) | 2017-10-09 | 2021-06-08 | Ricoh Company, Ltd. | Person detection, person identification and meeting start for interactive whiteboard appliances |
| US11062271B2 (en) | 2017-10-09 | 2021-07-13 | Ricoh Company, Ltd. | Interactive whiteboard appliances with learning capabilities |
| US11080466B2 (en) | 2019-03-15 | 2021-08-03 | Ricoh Company, Ltd. | Updating existing content suggestion to include suggestions from recorded media using artificial intelligence |
| US11120342B2 (en) | 2015-11-10 | 2021-09-14 | Ricoh Company, Ltd. | Electronic meeting intelligence |
| US11263384B2 (en) | 2019-03-15 | 2022-03-01 | Ricoh Company, Ltd. | Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence |
| US11270060B2 (en) | 2019-03-15 | 2022-03-08 | Ricoh Company, Ltd. | Generating suggested document edits from recorded media using artificial intelligence |
| US11307735B2 (en) | 2016-10-11 | 2022-04-19 | Ricoh Company, Ltd. | Creating agendas for electronic meetings using artificial intelligence |
| US11392754B2 (en) | 2019-03-15 | 2022-07-19 | Ricoh Company, Ltd. | Artificial intelligence assisted review of physical documents |
| US11573993B2 (en) | 2019-03-15 | 2023-02-07 | Ricoh Company, Ltd. | Generating a meeting review document that includes links to the one or more documents reviewed |
| US11720741B2 (en) | 2019-03-15 | 2023-08-08 | Ricoh Company, Ltd. | Artificial intelligence assisted review of electronic documents |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009171336A (en)* | 2008-01-17 | 2009-07-30 | Nec Corp | Mobile communication terminal |
| JP2009294237A (en)* | 2008-06-02 | 2009-12-17 | Konica Minolta Business Technologies Inc | Conference system, data processing device, image transmission method and image transmission program |
| JP2010081016A (en)* | 2008-09-24 | 2010-04-08 | Fuji Xerox Co Ltd | Image transmission apparatus, image transmission program, and image communication system |
| JP2014518594A (en)* | 2011-03-29 | 2014-07-31 | ティーアイ スクエア テクノロジー リミテッド | Method and system for providing multimedia content sharing service during communication service |
| US11120342B2 (en) | 2015-11-10 | 2021-09-14 | Ricoh Company, Ltd. | Electronic meeting intelligence |
| US10062057B2 (en) | 2015-11-10 | 2018-08-28 | Ricoh Company, Ltd. | Electronic meeting intelligence |
| US10268990B2 (en) | 2015-11-10 | 2019-04-23 | Ricoh Company, Ltd. | Electronic meeting intelligence |
| US10445706B2 (en) | 2015-11-10 | 2019-10-15 | Ricoh Company, Ltd. | Electronic meeting intelligence |
| US11983637B2 (en) | 2015-11-10 | 2024-05-14 | Ricoh Company, Ltd. | Electronic meeting intelligence |
| JP2017091535A (en)* | 2015-11-10 | 2017-05-25 | 株式会社リコー | Electronic conference system |
| US10510051B2 (en) | 2016-10-11 | 2019-12-17 | Ricoh Company, Ltd. | Real-time (intra-meeting) processing using artificial intelligence |
| US11307735B2 (en) | 2016-10-11 | 2022-04-19 | Ricoh Company, Ltd. | Creating agendas for electronic meetings using artificial intelligence |
| US10572858B2 (en) | 2016-10-11 | 2020-02-25 | Ricoh Company, Ltd. | Managing electronic meetings using artificial intelligence and meeting rules templates |
| US10860985B2 (en) | 2016-10-11 | 2020-12-08 | Ricoh Company, Ltd. | Post-meeting processing using artificial intelligence |
| US11030585B2 (en) | 2017-10-09 | 2021-06-08 | Ricoh Company, Ltd. | Person detection, person identification and meeting start for interactive whiteboard appliances |
| US10956875B2 (en) | 2017-10-09 | 2021-03-23 | Ricoh Company, Ltd. | Attendance tracking, presentation files, meeting services and agenda extraction for interactive whiteboard appliances |
| US11062271B2 (en) | 2017-10-09 | 2021-07-13 | Ricoh Company, Ltd. | Interactive whiteboard appliances with learning capabilities |
| US10553208B2 (en) | 2017-10-09 | 2020-02-04 | Ricoh Company, Ltd. | Speech-to-text conversion for interactive whiteboard appliances using multiple services |
| US11645630B2 (en) | 2017-10-09 | 2023-05-09 | Ricoh Company, Ltd. | Person detection, person identification and meeting start for interactive whiteboard appliances |
| US10552546B2 (en) | 2017-10-09 | 2020-02-04 | Ricoh Company, Ltd. | Speech-to-text conversion for interactive whiteboard appliances in multi-language electronic meetings |
| US10757148B2 (en) | 2018-03-02 | 2020-08-25 | Ricoh Company, Ltd. | Conducting electronic meetings over computer networks using interactive whiteboard appliances and mobile devices |
| US11080466B2 (en) | 2019-03-15 | 2021-08-03 | Ricoh Company, Ltd. | Updating existing content suggestion to include suggestions from recorded media using artificial intelligence |
| US11263384B2 (en) | 2019-03-15 | 2022-03-01 | Ricoh Company, Ltd. | Generating document edit requests for electronic documents managed by a third-party document management service using artificial intelligence |
| US11270060B2 (en) | 2019-03-15 | 2022-03-08 | Ricoh Company, Ltd. | Generating suggested document edits from recorded media using artificial intelligence |
| US11392754B2 (en) | 2019-03-15 | 2022-07-19 | Ricoh Company, Ltd. | Artificial intelligence assisted review of physical documents |
| US11573993B2 (en) | 2019-03-15 | 2023-02-07 | Ricoh Company, Ltd. | Generating a meeting review document that includes links to the one or more documents reviewed |
| US11720741B2 (en) | 2019-03-15 | 2023-08-08 | Ricoh Company, Ltd. | Artificial intelligence assisted review of electronic documents |
| Publication | Publication Date | Title |
|---|---|---|
| JP2007336344A (en) | Information terminal device, driving method thereof, and program | |
| US9148586B2 (en) | Terminal apparatus for combining images from two different cameras based on detected sound | |
| EP1465423A1 (en) | Videophone device and data transmitting/receiving method applied thereto | |
| JP6374854B2 (en) | Screen sharing system and screen sharing method | |
| JP4973908B2 (en) | Communication terminal and display method thereof | |
| JP2008113331A (en) | Telephone system, telephone, server device, and program | |
| JP2010219969A (en) | Call recording device with retrieving function, and telephone set | |
| JP2008147950A (en) | Information processing device | |
| KR100380829B1 (en) | System and method for managing conversation -type interface with agent and media for storing program source thereof | |
| JPWO2003038759A1 (en) | Portable terminal, animation creation method in portable terminal, program for creating animation using computer, recording medium recording the program, and animation creation system | |
| JP2010193495A (en) | Interpreting call system | |
| JPH11355747A (en) | Video/sound communication equipment and video conference equipment using the same equipment | |
| JP2006074376A (en) | Mobile phone device with broadcast receiving function, program, and recording medium | |
| JP2010087950A (en) | Thin client system, thin client terminal, thin client server and program | |
| KR101355050B1 (en) | Method for manufacturing video card | |
| JP2006191436A (en) | Mobile phone equipment | |
| JP6387205B2 (en) | Communication system, communication method and program | |
| KR101364844B1 (en) | Mobile communication terminal with video call function and method of controlling the same | |
| JP2005277884A (en) | Communication terminal device | |
| JP4658569B2 (en) | Information transmitting apparatus, information receiving apparatus, and information transmitting / receiving system | |
| WO2006106671A1 (en) | Image processing device, image display device, reception device, transmission device, communication system, image processing method, image processing program, and recording medium containing the image processing program | |
| JP2003008747A (en) | User support system and method of portable terminal | |
| KR20050077682A (en) | A managing apparatus of a name card | |
| JPH09200712A (en) | Audio / Video transmission device | |
| JP2005157950A (en) | Information processing device |