【0001】[0001]
【発明の属する技術分野】本発明は会議の議事録を自動
的に作成して会議の出席者の便宜を図るインテリジェン
ト会議サポートシステムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an intelligent conference support system which automatically prepares the minutes of a conference to facilitate attendees of the conference.
【0002】[0002]
【従来の技術】会議を行った後に発行される議事録の作
成について、従来では、会議に参加した者の一人が議事
録を作成して各参加者に回して承認を得た後正式な議事
録として発行しているが、正式議事録の発行までに、多
大の時間を必要とした。2. Description of the Related Art Conventionally, regarding the preparation of the minutes issued after a meeting, one of the participants of the meeting prepares the minutes, turns it to each participant, and obtains the formal minutes after approval. Although it is issued as a record, it took a lot of time before the formal minutes were published.
【0003】そこで、このような参加者の負担を軽減す
る目的で、会議の参加者の音声データをマイクで収集し
て、この収集した音声データを文字認識して自動的に会
議の議事録を作成する議事録作成装置が提唱されている
(特開平2―206825号公報)。また、自動作成さ
れた議事録を電子メールで送信する電子会議議事録自動
作成装置が提唱されている(特開平4−362769号
公報)。[0003] Therefore, in order to reduce such a burden on the participants, voice data of the conference participants is collected by a microphone, and the collected voice data is character-recognized and the minutes of the conference are automatically recorded. A minutes creating apparatus for creating minutes has been proposed (JP-A-2-206825). In addition, an electronic meeting minutes automatic creation device for transmitting automatically created minutes by electronic mail has been proposed (Japanese Patent Laid-Open No. 4-362770).
【0004】さらに、マイクを介して収集された音声デ
ータから議事録を作成するに際して、収集された音声デ
ータから雑音を除去する議事録作成装置及び多地点議事
録作成システムが提唱されている(特開平7−1916
90号公報)。また、会議による発言音声を入力して、
話し文章から議事録になる書き文章に変換する音声文書
作成装置が提唱されている(特開平5−12246号公
報)。[0004] Further, when creating minutes from audio data collected via a microphone, a minutes creating apparatus and a multipoint minutes creating system for removing noise from the collected audio data have been proposed (particularly). Kaihei 7-1916
No. 90). Also, input the speech from the meeting,
A voice document creation device for converting a spoken sentence into a written sentence to be the minutes of a meeting has been proposed (JP-A-5-12246).
【0005】[0005]
【発明が解決しようとする課題】しかし、上述した各議
事録作成装置においても、音声収集処理や、収集した音
声データをテキストデータに変換する処理や、テキスト
データから議事録に変換する時の処理や、作成された議
事録の承認等において、実際の使用段階においては、ま
だ改良すべき点が多々ある。However, in each of the above-described minutes creating apparatuses, the voice collecting process, the process of converting the collected voice data to text data, and the process of converting the text data to the minutes are also performed. In addition, there are still many points that need to be improved in the actual use stage, such as in the approval of prepared minutes.
【0006】本発明はこのような事情に鑑みてなされた
ものであり、会議の出席者に負担をかけることなく、発
言者の発言が誤りなく忠実に議事録に反映され、かつ作
成された議事録の承認も迅速に実施できるインテリジェ
ント会議サポートシステムを提供することを目的とす
る。[0006] The present invention has been made in view of such circumstances, and without imposing any burden on the attendees of the conference, the remarks of the speaker are accurately reflected in the minutes of the minutes without error, and the prepared minutes are prepared. The purpose of the present invention is to provide an intelligent conference support system that can promptly approve recordings.
【0007】[0007]
【課題を解決するための手段】本発明のインテリジェン
ト会議サポートシステムは、会議の各発言者の各音声デ
ータを収集する音声収集手段と、収集した各音声データ
を表音文字からなる音声テキストデータに変換する音声
テキスト変換手段と、この変換された各音声テキストデ
ータを発言者単位に時系列的にまとめた音声基礎データ
に変換する音声基礎データ作成手段と、この変換された
音声基礎データに含まれる各発言者単位の各音声テキス
トデータの意味解析を行いかな漢字混じりの文章に変換
する意味分析処理手段と、この変換された文章から前記
会議の議事録を作成する議事録作成手段とを備えてい
る。SUMMARY OF THE INVENTION An intelligent conference support system according to the present invention comprises a voice collecting means for collecting voice data of each speaker of a conference, and converts the collected voice data into voice text data composed of phonetic characters. Speech-to-text conversion means for conversion, speech-speech data creation means for converting the converted speech text data into speech-sound basic data compiled in chronological order for each speaker, and included in the converted speech-sound basic data It is provided with semantic analysis processing means for performing semantic analysis of each voice text data for each speaker unit and converting it into a sentence containing kana-kanji characters, and minutes creating means for creating the minutes of the meeting from the converted sentence. .
【0008】さらに、音声収集手段に対して、各音声デ
ータの区切を各会話の途切れから検出して、各音声デー
タ毎に会話開始時刻と発言者情報とを付加するようにし
ている。Further, the voice collecting means detects a break of each voice data from a break of each voice and adds a voice start time and speaker information to each voice data.
【0009】このように構成されたインテリジェント会
議サポートシステムにおいては、各発言者の各音声デー
タは収集されて音声テキストデータに変換されて、さら
に、発言者単位に時系列的にまとめた音声基礎データに
変換される。この音声基礎データはかな漢字混じりの文
章に変換される。そして、この変換された文章から会議
の議事録が作成される。In the intelligent conference support system configured as described above, each voice data of each speaker is collected and converted into voice text data, and further, voice basic data compiled in time series for each speaker. Is converted to This basic speech data is converted into a sentence containing kana-kanji characters. Then, the minutes of the meeting are created from the converted text.
【0010】そして、各音声データの区切を各会話の途
切れから検出して、各音声データ毎に、該当音声データ
に対して会話開始時刻と発言者情報とが付加される。[0010] Then, a section of each voice data is detected from a break in each conversation, and a conversation start time and speaker information are added to the corresponding voice data for each voice data.
【0011】したがって、それ以降、次々と変換されて
いく各音声データに個別情報が付されるので、最終に議
事録に収納された場合に各発言内容を示す文章に対して
発言者を示す情報が自動的に付される。[0011] Accordingly, since individual information is added to each voice data that is converted one after another, information indicating the speaker in the sentence indicating the content of each utterance when the voice data is finally stored in the minutes of the meeting. Is automatically added.
【0012】また別の発明においては、音声収集手段
は、会議の発言者より少ない数のマイクで各発言者の音
声データを収集して、予め収集された声紋で収集された
各音声データの発言者を特定するようにしている。[0012] In another aspect of the invention, the voice collecting means collects voice data of each speaker with a smaller number of microphones than the speakers of the conference, and outputs the voice data of each voice data collected by a voiceprint collected in advance. Try to identify the person.
【0013】このように予め収集された声紋で発言者を
特定することによって、マイクの本数を気にすることな
く、会議の参加者を簡単に増減できる。[0013] By specifying the speaker using the voiceprints collected in advance in this way, the number of participants in the conference can be easily increased or decreased without worrying about the number of microphones.
【0014】また別の発明においては、音声テキスト変
換手段は、区切られた各音声データを各音声テキストデ
ータに変換した後、各音声テキストデータの最終位置に
句読点を設定するようにしている。[0014] In another aspect of the invention, the speech-to-text conversion means converts each delimited speech data to each speech text data, and then sets a punctuation mark at the final position of each speech text data.
【0015】このように、高度な意味分析を使用せずに
句読点を自動的に挿入しているので、これ以降の変換処
理能率が向上する。As described above, since punctuation is automatically inserted without using advanced semantic analysis, the efficiency of conversion processing thereafter is improved.
【0016】また別の発明においては、音声基礎データ
作成手段は、同時に複数の発言者の音声テキストデータ
が発生した場合、会話開始時刻の速い順に並べる時系列
マージを行うようにしている。[0016] In another aspect of the invention, the voice basic data generating means performs time series merging when the voice text data of a plurality of speakers is generated at the same time in order of the conversation start time in ascending order.
【0017】このように構成されたインテリジェント会
議サポートシステムにおいては、たとえ複数の発言者が
同時に発言したとしても、議事録には、先に発言した順
に整理されて自動的に記載される。In the intelligent conference support system configured as described above, even if a plurality of speakers speak at the same time, the minutes are automatically recorded in the minutes in the order in which they spoke first.
【0018】さらに別の発明においては、作成された議
事録をハイパーリンク形式に変換してインターネットの
ホームページに自動掲載するウェブ掲載手段を備えてい
る。In still another invention, there is provided a web posting means for converting the created minutes into a hyperlink format and automatically posting the converted minutes on a home page on the Internet.
【0019】このように構成されたインテリジェント会
議サポートシステムにおいては、会議の出席者は会議終
了後に、議事録をインターネットのホームページ上で簡
単に確認できる。当然、インターネットのホームページ
における議事録に対する閲覧は、第3者の閲覧を防止す
るために、パスワードを用いて実施することも可能であ
る。In the intelligent conference support system configured as described above, the attendee of the conference can easily check the minutes on the Internet homepage after the conference. Naturally, browsing the minutes on the Internet homepage can be performed using a password in order to prevent a third party from browsing.
【0020】さらに別の発明においては、会議の各発言
者に対して、ホームページに掲載された議事録の承認情
報を該当ホームページに書込させる議事録承認手段を備
えている。Still another invention is provided with a minutes approval means for allowing each speaker of the meeting to write the approval information of the minutes posted on the homepage on the homepage.
【0021】このように構成されたインテリジェント会
議サポートシステムにおいては、会議の出席者は、ホー
ムページに掲載された議事録を見てその場で、承認を与
えることができる。したがって、承認に関する事務処理
を効率的に実施できる。In the intelligent conference support system configured as described above, the attendee of the conference can give approval on the spot by viewing the minutes posted on the homepage. Therefore, paperwork related to approval can be efficiently performed.
【0022】[0022]
【発明の実施の形態】以下、本発明の各実施形態を図面
を用いて説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0023】(第1実施形態)図1は、本発明の第1実
施形態に係わるインテリジェント会議サポートシステム
の概略図である。(First Embodiment) FIG. 1 is a schematic diagram of an intelligent conference support system according to a first embodiment of the present invention.
【0024】図示するように、この第1実施形態のイン
テリジェント会議サポートシステムは、大きく分けて、
会議の各発言者の音声データを各発言者に付されたマイ
ク2で収集して各種処理を実施する音声収集装置1と、
この音声収集装置1で処理された音声基礎データから議
事録を作成して、表示装置に表示したり、例えばインタ
ーネット4へ議事録データとして掲載する議事録作成装
置3とで構成されている。As shown in the figure, the intelligent conference support system according to the first embodiment is roughly divided into:
A voice collection device 1 that collects voice data of each speaker of the conference with a microphone 2 attached to each speaker and performs various processes;
The speech collection device 1 is composed of a minutes creation device 3 that creates minutes from the basic sound data processed and displays the minutes on a display device, or publishes the minutes on the Internet 4 as minutes data.
【0025】音声収集装置1内には、会議の各発言者に
取付けられた各マイク2で収集した音声データを取込む
ための音声収集I/F5、音声収集I/F5を介して取
込んだ音声データを記憶する音声データメモり6、各発
言者に取付けれた各マイク2のアドレスと各音声データ
との関係を示すアドレス−音声対応データを記憶するア
ドレス−音声対応データメモリ7、音声データを発言者
単位で時系列的にまとめた音声基礎データを記憶する音
声基礎データメモリ8、及び例えばパーソナルコンピユ
ータからなる議事録作成装置3へ音声基礎データを送出
するためのパソコンI/F9等が収納されている。In the voice collecting apparatus 1, voices are collected via voice collecting I / F5 and voice collecting I / F5 for capturing voice data collected by each microphone 2 attached to each speaker of the conference. Voice data memory 6 for storing voice data, address indicating the relationship between the address of each microphone 2 attached to each speaker and each voice data-address storing voice corresponding data-voice corresponding data memory 7, voice data And a personal computer I / F 9 for sending basic audio data to the minutes creating device 3 comprising, for example, a personal computer. Have been.
【0026】また、パーソナルコンピユータからなる議
事録作成装置3内には、音声収集装置1から音声基礎デ
ータを取込むための音声収集I/F10、プロジェクト
毎知識DB11、意味分析データメモリ12、議事録基
礎データメモリ13、最終添削データメモリ14、ハイ
パーリンクデータメモり15、最終議事録データメモり
16、承認管理データメモり17、及び前記インターネ
ット4に対して議事録データを送信するためのインター
ネットI/F18等が組込まれている。Also, in the minutes preparing device 3 composed of a personal computer, a voice collecting I / F 10 for taking in basic voice data from the voice collecting device 1, a project-specific knowledge DB 11, a semantic analysis data memory 12, a minutes A basic data memory 13, a final correction data memory 14, a hyperlink data memory 15, a final minutes data memory 16, an approval management data memory 17, and an Internet I for transmitting the minutes data to the Internet 4. / F18 and the like are incorporated.
【0027】前記プロジェクト毎知識DB11内には、
過去の会議における最終議事録までに至る過程におい
て、かな漢字変換時に同異語選択で選択された語句や、
操作者が最終添削時に校正した校正内容が各会議の議題
(プロジェクト)毎に記憶されている。In the knowledge DB 11 for each project,
In the process leading up to the final minutes of past meetings, the words and phrases selected in the same language selection during Kana-Kanji conversion,
The calibration contents calibrated by the operator at the time of final correction are stored for each agenda (project) of each meeting.
【0028】意味分析データメモリ12内には、音声収
集装置1から入力された音声基礎データの各音声テキス
トデータを前記プロジェクト毎知識DB11を用いてか
な漢字混じり文章に変換された後の文章(意味分析デー
タ)が記憶される。In the semantic analysis data memory 12, each sentence text data of the basic speech data input from the speech collection device 1 is converted into a sentence mixed with kana-kanji using the per-project knowledge DB 11 (semantic analysis). Data) is stored.
【0029】議事録基礎データメモリ13内には、かな
漢字混じり文章に変換された後の文章に対して、発言者
を付して、議事録にした議事録基礎データ(初稿)が記
憶されている。The minutes basic data memory 13 stores the minutes basic minutes (first draft) of the minutes converted into the kana-kanji mixed sentence with the speaker added. .
【0030】最終添削データメモり14内には、議事録
基礎データ(初稿)を人間系で、誤字、脱字、誤解釈、
誤変換等の最終添削が実施された後の最終添削データが
記憶されている。In the final corrected data memory 14, the basic minutes of the minutes (first draft) are erroneously written, spelled out, misinterpreted,
The final correction data after the final correction such as an erroneous conversion is performed is stored.
【0031】ハイパーリンクデータメモり15内には、
インターネット4のホームページ上に掲載する為のハイ
パーリンク形式に変換された後の議事録データが記憶さ
れている。In the hyperlink data memory 15,
The minutes data converted into a hyperlink format for posting on the homepage of the Internet 4 is stored.
【0032】最終議事録データメモり16内には、イン
ターネット4上で会議の各参加者の承認を得た後の最終
の正式議事録が記憶されている。The final minutes data memory 16 stores the final official minutes after approval of each participant of the conference on the Internet 4.
【0033】また、承認管理データメモり17内には承
認バージョン情報等の全般の管理情報が記憶されてい
る。The approval management data memory 17 stores general management information such as approval version information.
【0034】図2は、音声収集装置1のアプリケーショ
ンプログラム上に構成された各処理部を示す図である。
すなわち、この音声収集装置1は、初期データ取得部1
9,音声収集部20、音声テキスト変換部21、音声基
礎データ作成部22、音声基礎データ伝送部23で構成
されている。FIG. 2 is a diagram showing each processing unit configured on the application program of the voice collection device 1.
That is, the voice collection device 1 includes the initial data acquisition unit 1
9, a speech collection unit 20, a speech text conversion unit 21, a speech basic data creation unit 22, and a speech basic data transmission unit 23.
【0035】図3は、議事録作成装置3のアプリケーシ
ョンプログラム上に構成された各処理部を示す図であ
る。すなわち、この議事録作成装置3は、音声基礎デー
タ受取処理部24、知識DB参照/蓄積処理部25、意
味分析処理部26、議事録作成処理部27、議事録添削
処理部28、Web(ウェブ)掲載処理部29、議事録
管理承認処理部30、議事録印刷処理部31で構成され
ている。FIG. 3 is a diagram showing each processing unit configured on the application program of the minutes creating device 3. That is, the minutes creating device 3 includes a voice basic data reception processing unit 24, a knowledge DB reference / storage processing unit 25, a semantic analysis processing unit 26, a minutes creation processing unit 27, a minutes correction processing unit 28, a Web (Web ) Posting processing section 29, minutes management approval processing section 30, and minutes printing processing section 31.
【0036】以下、音声収集装置1及び議事録作成装置
3の各部19〜31の詳細動作を順を追って説明する。Hereinafter, detailed operations of the units 19 to 31 of the voice collecting apparatus 1 and the minutes creating apparatus 3 will be described in order.
【0037】(1) 初期設定データ取得部 音声収集装置1における初期設定データ取得部19は、
音声を機械に認識させる為のサンプル採取及びマイクア
ドレスとの対応付けを行う機能を有する。具体的には、
この初期設定データ取得部19は、図4に示すように、
音声情報取得部19a、マイクアドレス取得部19b、
アドレス−音声対応情報処理部19c、及び初期データ
取得部19dからなる。(1) Initial Setting Data Acquisition Unit The initial setting data acquisition unit 19 in the voice collection device 1
It has a function of collecting a sample for making a machine recognize voice and associating it with a microphone address. In particular,
This initial setting data acquisition unit 19, as shown in FIG.
A voice information acquisition unit 19a, a microphone address acquisition unit 19b,
It comprises an address-voice correspondence information processing section 19c and an initial data acquisition section 19d.
【0038】音声情報取得部19aは、会議の各出席者
に対して、試験音声の発生を行わせ、その音声の声紋を
瞬時に分析し、音声パターンを取得する機能を有する。
すなわち、図5の流れ図に示すように、各出席者(発言
者)に取付けられた各マイク2に付属する試験入力開始
ボタンを押下げることにより、それ以降の音声データの
取込を行い、取り込んだ音声データの声紋分析を行う。
具体的には、特定の発生音をサンプリングして、声紋の
音声パターンを決定して、決定した声紋の音声パターン
を基本パターンに展開して、メモリに記憶保持する。The voice information acquiring section 19a has a function of causing each attendee of the conference to generate a test voice, instantaneously analyzing the voiceprint of the voice, and acquiring a voice pattern.
That is, as shown in the flowchart of FIG. 5, by depressing the test input start button attached to each microphone 2 attached to each attendee (speaker), the subsequent voice data is captured and captured. Perform voiceprint analysis of the audio data.
Specifically, a specific generated sound is sampled, the voice pattern of the voiceprint is determined, and the determined voice pattern of the voiceprint is developed into a basic pattern and stored in a memory.
【0039】なお、この第1実施形態の会議サポートシ
ステムにおいては、各出席者(発言者)に個別のマイク
2を取付けているので、上記メモリに記憶した声紋の音
声パターンを使用しない。なお、出席者(発言者)の人
数よりマイク2の数が少ない場合は、マイクから得られ
た音声データの発言者を特定するために、メモリに記憶
保持している声紋の音声パターンを使用する。In the conference support system of the first embodiment, since the individual microphone 2 is attached to each attendee (speaker), the voice pattern of the voiceprint stored in the memory is not used. If the number of microphones 2 is smaller than the number of attendees (speakers), the voice pattern of the voiceprint stored and held in the memory is used to identify the speaker of the voice data obtained from the microphone. .
【0040】マイクアドレス取得部19は、図6に示す
ように、各マイク2に割付けられたアドレスを読出す。
また、アドレス−音声対応情報処理部19cは、音声が
入力されたマイク2のアドレスと各音声との対応付けを
行う為に、図7に示すように、声紋の音声パターン(声
紋パターン)をメモリから読出して、先に読出したアド
レスとの対応付けを示すアドレス−音声パターン関連付
けを行い、アドレス−音声対応データメモり7に記憶す
る。The microphone address acquisition section 19 reads the address assigned to each microphone 2 as shown in FIG.
The address-voice correspondence information processing unit 19c stores a voice pattern of a voiceprint (voiceprint pattern) as shown in FIG. 7 in order to associate the address of the microphone 2 to which the voice is input with each voice. , An address-voice pattern association indicating the correspondence with the previously read address is performed, and stored in the address-voice correspondence data memory 7.
【0041】初期データ取得部19dは、図8に示すよ
うに、音声収集装置1の付属のターミナルから入力され
た例えば会議の種別を示すプロジェクト番号を読取り、
設定ファイルに書込む。この書込まれたプロジェクト番
号は、作成された議事録に付されたり、各種のデータに
付される。As shown in FIG. 8, the initial data acquisition unit 19d reads, for example, a project number indicating the type of the conference input from a terminal attached to the voice collection device 1, and
Write to the configuration file. The written project number is added to the created minutes or various data.
【0042】(2) 音声収集部 音声収集部20は、各発言者(出席者)に取付けれた各
マイク2から入力した音声データを音声データメモり6
へ書込む機能を有し、図9に示すように、音声入力部2
0a、時刻取得部20b、WAVファイル変換部20c
とで構成されている。(2) Voice Collection Unit The voice collection unit 20 stores voice data input from each microphone 2 attached to each speaker (attendant) in a voice data memory 6.
To the voice input unit 2 as shown in FIG.
0a, time acquisition unit 20b, WAV file conversion unit 20c
It is composed of
【0043】音声入力部20aは、図10に示すよう
に、各マイク2から入力される各発言者の音声データに
おける、一定時間以上の無声時間を発言の区切と判断し
て、区切られた各音声データを個別に内部バッファに格
納する。時刻取得部20bは、図11に示すように、時
計回路から現在時刻をタイムスタンプとして読取り、先
に内部バッファに書込んだ各音声データの継続時間から
会話時間と開始時間とを決定する。As shown in FIG. 10, the voice input unit 20a determines that the unvoiced time longer than a certain time in the voice data of each speaker input from each microphone 2 is a voice delimiter, and Audio data is individually stored in an internal buffer. As shown in FIG. 11, the time acquisition unit 20b reads the current time from the clock circuit as a time stamp, and determines the conversation time and the start time from the duration of each audio data previously written to the internal buffer.
【0044】WAVファイル変換部20cは、図12に
示すように、先に内部バッファに書込んだ各音声データ
をWAVファイルに変換する。このとき、区分された各
音声データの先頭には、図13に示すように、プロジェ
クト番号、発言者を特定するマイクアドレス、会話の開
始時刻を示すタイムスタンプが設定される。As shown in FIG. 12, the WAV file converter 20c converts each audio data previously written in the internal buffer into a WAV file. At this time, as shown in FIG. 13, a project number, a microphone address for identifying a speaker, and a time stamp indicating a conversation start time are set at the head of each sectioned audio data.
【0045】(3)音声テキスト変換部 音声テキスト変換部21は、音声データメモリとしての
WAVファイルに変換された各音声データを表音文字の
みからなる各音声テキストデータに変換する機能を有
し、図14に示すように、ファイル取得部21a、テキ
スト変換処理部21b、テキスト出力部21cで構成さ
れている。(3) Speech-to-text conversion unit The speech-to-text conversion unit 21 has a function of converting each speech data converted into a WAV file as a speech data memory into each speech text data consisting only of phonetic characters. As shown in FIG. 14, it is composed of a file acquisition unit 21a, a text conversion processing unit 21b, and a text output unit 21c.
【0046】ファイル取得部21aは、未処理の一つの
WAVファイルを取出し、このWAVファイルの音声デ
ータを内部バッファに展開する。テキスト変換処理部2
1bは、図16に示すように、図示しない変換機構内に
あるROMに格納されている様々な音声パターンとのマ
ッチングで音声認識を行い、音声データを表音文字のみ
からなる各音声テキストデータに変換する。The file acquisition section 21a extracts one unprocessed WAV file and expands the audio data of this WAV file into an internal buffer. Text conversion processing unit 2
1b, as shown in FIG. 16, performs voice recognition by matching with various voice patterns stored in a ROM in a conversion mechanism (not shown), and converts the voice data into each voice text data consisting only of phonetic characters. Convert.
【0047】この場合、字句解析を行い、字句解析され
たデータを[ ] で括り、[ ] で括られた字句解析及
び音声データの区切りに基づいて、変換された音声テキ
ストデータに対して、句読点を挿入する。In this case, the lexical analysis is performed, the lexically analyzed data is enclosed in brackets [], and the punctuation mark is added to the converted speech text data based on the lexical analysis and the delimitation of the speech data enclosed in brackets []. Insert
【0048】テキスト出力部21cは、図17に示すよ
うに、変換された音声テキストデータに対して、音声テ
キストデータの先頭位置に対して、図18に示すよう
に、図13で説明したプロジェクト番号、マイクアドレ
ス、タイムスタンプを付して、該当マイク(発言者)に
対応するテキストデータファイルに書込む。As shown in FIG. 17, the text output unit 21c outputs the project number described in FIG. 13 to the head position of the converted voice text data, as shown in FIG. , A microphone address, and a time stamp, and write the text data file corresponding to the microphone (speaker).
【0049】(4)音声基礎データ作成部 音声基礎データ作成部22は、各発言者毎のテキストデ
ータファイルに記憶された各発言者毎の音声テキストデ
ータの時間的な並べ替え処理を実施する機能を有し、図
19に示すように、ファイル取得部22a、時系列マー
ジ処理部22b、基礎データ出力部22cで構成されて
いる。(4) Basic Voice Data Creation Unit The basic voice data creation unit 22 performs a function of temporally rearranging voice text data for each speaker stored in a text data file for each speaker. As shown in FIG. 19, it is composed of a file acquisition unit 22a, a time-series merge processing unit 22b, and a basic data output unit 22c.
【0050】ファイル取得部22aは、図20に示すよ
うに、各マイクに対応した各発言者毎のテキストデータ
ファイル内に記憶された音声テキストデータを一度に処
理する例えば10分等の基準時間を示す処理サイクル時
間を初期設定データ取得部19で設定した設定ファイル
から読出す。そして、指定された処理サイクル時間に対
応する各テキストデータファイル内の各音声テキストデ
ータを読出す。As shown in FIG. 20, the file acquisition unit 22a sets a reference time, such as 10 minutes, for simultaneously processing the voice text data stored in the text data file for each speaker corresponding to each microphone. The indicated processing cycle time is read from the setting file set by the initial setting data acquisition unit 19. Then, each voice text data in each text data file corresponding to the designated processing cycle time is read.
【0051】時系列マージ処理部22bは、図21に示
すように、各テキストデータファイルから読出した各発
言者(出席者)の各音声テキストデータを一つの音声基
礎データメモリ8に時系列的に格納するためのデータ分
析及びデータマージ処理を実施する。As shown in FIG. 21, the time-series merge processing section 22b stores each voice text data of each speaker (attendant) read from each text data file in one voice basic data memory 8 in a time-series manner. Perform data analysis and data merge processing for storage.
【0052】具体的には、各テキストデータファイルか
ら読出した各発言者(出席者)の各音声テキストデータ
が同一時間となる場合、すなわち、一人の発言者の発言
が終了しないうちに、次の発言者が発言を開始した場合
には、各音声テキストデータの先頭に付されたタイムス
タンプの早い順に並べる。More specifically, when the voice text data of each speaker (attendant) read from each text data file has the same time, that is, before one speaker finishes speaking, the next When the speaker starts speaking, the voice text data is arranged in the order of earliest time stamp added to the head of the text data.
【0053】基礎データ出力部22cは、図22に示す
ように、発言順に並べ替えられた1処理サイクル分の各
音声テキストデータに対して、図22に示すように、プ
ロジェクト番号とタイムスタンプからなるファイル名を
付して、音声基礎データとして、音声基礎データメモリ
(ファイル)8へ書込む。As shown in FIG. 22, the basic data output unit 22c includes a project number and a time stamp for each of the speech text data for one processing cycle rearranged in the utterance order, as shown in FIG. A file name is assigned and written as basic audio data in the basic audio data memory (file) 8.
【0054】図24は、声基礎データメモリ(ファイ
ル)8に書き込まれた音声基礎データの各音声テキスト
データを示す図である。図示するように、各音声テキス
トデータは、各字句毎に[ ]で括られたデータになっ
ている。さらに、各音声テキストデータの先頭には、発
言者を特定する[0001]等のマイクアドレスが設定
されている。FIG. 24 is a diagram showing each voice text data of the voice basic data written in the voice basic data memory (file) 8. As shown in the figure, each voice text data is data enclosed in [] for each lexical character. Further, a microphone address such as [0001] for specifying a speaker is set at the head of each voice text data.
【0055】(5)音声基礎データ伝送部 音声基礎データ伝送部23は、音声基礎データメモリ
(ファイル)8に記憶された音声基礎データを議事録作
成装置3へ送信する機能を有し、図25に示すように、
ファイル取得部23a、データ転送処理部23b、ログ
出力部23cで構成されている。(5) Basic Voice Data Transmitting Unit The basic voice data transmitting unit 23 has a function of transmitting the basic voice data stored in the basic voice data memory (file) 8 to the minutes creating device 3, and FIG. As shown in
It comprises a file acquisition unit 23a, a data transfer processing unit 23b, and a log output unit 23c.
【0056】ファイル取得部23aは、図26に示すよ
うに、音声基礎データメモリ(ファイル)6から未伝送
の音声基礎データを読出す。データ転送処理部23b
は、図27に示すように、パソコンI/F9を介して、
議事録作成装置3に対して、通信回線を形成(セッショ
ン確立)し、読出した音声基礎データを議事録作成装置
3へ送信する。そして、音声基礎データメモリ(ファイ
ル)8内のファイル単位に設定されている送信済みフラ
グを更新する。As shown in FIG. 26, the file acquisition section 23a reads out untransmitted basic audio data from the basic audio data memory (file) 6. Data transfer processing unit 23b
Is, as shown in FIG. 27, via the personal computer I / F 9
A communication line is formed (session establishment) with the minutes creating device 3 and the read voice basic data is transmitted to the minutes creating device 3. Then, the transmitted flag set for each file in the voice basic data memory (file) 8 is updated.
【0057】その後、ログ出力部23cは、図28に示
すように、音声基礎データが正常に送信されたか否かを
判断し、その結果を送信ステータスに設定する。そし
て、その送信ステータスをログファイルに登録する。Thereafter, as shown in FIG. 28, the log output unit 23c determines whether the basic audio data has been transmitted normally, and sets the result as a transmission status. Then, the transmission status is registered in the log file.
【0058】(6)音声基礎データ受取処理部 議事録作成処理装置3の音声基礎データ受取処理部24
は、音声収集装置1から伝送された音声基礎データを受
信する機能を有しており、図29に示すように、基礎デ
ータ受取部24a、基礎データ蓄積部24b、ログ出力
部24c、意味解析起動部24dで構成されている。(6) Basic Voice Data Receiving Processing Unit Basic voice data receiving processing unit 24 of minutes preparation processing device 3
Has a function of receiving the basic voice data transmitted from the voice collecting apparatus 1. As shown in FIG. 29, the basic data receiving unit 24a, the basic data accumulating unit 24b, the log output unit 24c, the semantic analysis activation It is composed of a part 24d.
【0059】基礎データ受取部24aは、図30に示す
ように、音声収集装置1から受信した音声基礎データを
感知し、受信した音声基礎データを一旦内部バッファに
書込む。また、基礎データ蓄積部24bは、図31に示
すように、一旦内部バッファに書込まれた各音声基礎デ
ータを読出してデータファイルに書込み、内部バッファ
をクリアする。As shown in FIG. 30, the basic data receiving section 24a senses the basic voice data received from the voice collecting apparatus 1 and temporarily writes the received basic voice data into an internal buffer. Further, as shown in FIG. 31, the basic data storage unit 24b reads out each audio basic data once written in the internal buffer, writes it in a data file, and clears the internal buffer.
【0060】ログ出力部24cは、図32に示すよう
に、音声基礎データが正常に受信されたか否かを判断
し、その結果を受信ステータスに設定する。そして、そ
の受信ステータスをログファイルに登録する。As shown in FIG. 32, the log output section 24c determines whether or not the basic audio data has been normally received, and sets the result as a reception status. Then, the reception status is registered in the log file.
【0061】さらに、意味解析起動部24dは、図33
に示すように、データファイルに蓄積された所定処理サ
イクル分の音声基礎データのファイル名を指定して、次
の知識DB参照/蓄積処理部25が接続された意味分析
処理部26を起動する。Further, the semantic analysis activation unit 24d operates as shown in FIG.
As shown in (2), the file name of the sound basic data for a predetermined processing cycle stored in the data file is designated, and the semantic analysis processing unit 26 to which the next knowledge DB reference / storage processing unit 25 is connected is started.
【0062】(7)意味分析処理部 意味分析処理部26は、音声基礎データに含まれる例え
ば図24に示す表音文字で示された音声テキストデータ
をかな漢字混じりの文章に変換する機能を有し、図34
に示すように、基礎データ取得部26a、意味分析部2
6b、変換結果出力部26c、知識DB参照部26dで
構成されている。(7) Semantic Analysis Processing Unit The semantic analysis processing unit 26 has a function of converting, for example, voice text data represented by phonograms shown in FIG. 24 contained in basic voice data into a sentence containing kana-kanji characters. 34
As shown in the figure, the basic data acquisition unit 26a, the semantic analysis unit 2
6b, a conversion result output unit 26c, and a knowledge DB reference unit 26d.
【0063】基礎データ取得部26aは、図35に示す
ように、データファイル内の先に指定されたファイル名
の音声基礎データの各音声テキストデータを内部バッフ
ァに展開する。As shown in FIG. 35, the basic data acquisition unit 26a develops each voice text data of the voice basic data having the previously specified file name in the data file into the internal buffer.
【0064】そして、意味分析部26bは、図36に示
すように、内部バッファに取込んだ音声テキストデータ
を例えば前述した[ ]で括った変換単位(トークン)
毎に取得して、プロジェクト毎知識DB11の対応する
プロジェクト番号のDBを参照して、該当トークンを意
味のある漢字に変換して、各音声テキストデータをかな
漢字混じりの文章に変換して内部バッファに出力する。Then, as shown in FIG. 36, the semantic analysis unit 26b converts the speech text data fetched into the internal buffer into a conversion unit (token) enclosed by, for example, [].
Each token is converted to a meaningful kanji by referring to the DB of the corresponding project number in the per-project knowledge DB 11, each voice text data is converted to a sentence containing kana kanji, and is stored in an internal buffer. Output.
【0065】変換結果出力部26cは、図37に示すよ
うに、内部バッファ上で作成されたかな漢字混じりの文
章を読出して意味分析データメモリ12としてのデータ
ファイルへ書込む。そして、ファイル名は、基礎データ
取得部26aで指定したファイル名と同一のファイル名
を付ける。但し、識別子を付加する。As shown in FIG. 37, the conversion result output unit 26c reads a sentence containing kana / kanji characters created on the internal buffer and writes the sentence into a data file as the semantic analysis data memory 12. The file name is given the same file name as the file name specified by the basic data acquisition unit 26a. However, an identifier is added.
【0066】さらに、知識DB参照部26dは、意味分
析部26bにおける実際のかな漢字変換を、図38に示
す流れ図に従って実施する。Further, the knowledge DB reference unit 26d performs the actual kana-kanji conversion in the semantic analysis unit 26b according to the flowchart shown in FIG.
【0067】意味分析部26bから変換単位(トーク
ン)を受取ると、該当プロジェクトのプロジェクト番号
より、過去の変換実績や分野等の情報をセットする。そ
の結果学習情報が提供される。次に、受領したトークン
でDBを検索する。そして、検索された漢字等のデータ
を意味分析部26bへ返却する。When the conversion unit (token) is received from the semantic analysis unit 26b, information such as past conversion results and fields is set based on the project number of the corresponding project. As a result, learning information is provided. Next, the DB is searched with the received token. Then, the searched data such as kanji is returned to the semantic analysis unit 26b.
【0068】(8)議事録作成処理部 議事録作成処理部27は、意味分析処理部26で変換さ
れたかな漢字混じりの文章を用いて議事録を作成する機
能を有し、図39に示すように、会議基礎データ入力部
27a、処理データ取込部27b、議事録作成部27c
で構成されている。(8) Minutes preparation processing unit The minutes preparation processing unit 27 has a function of preparing minutes using the kana-kanji mixed sentences converted by the semantic analysis processing unit 26, as shown in FIG. The conference basic data input unit 27a, the processed data capture unit 27b, the minutes creation unit 27c
It is composed of
【0069】会議基礎データ入力部27aは、図40に
示すように、操作者がGUIを用いて、議事録を作成し
たい会議を特定するプロジェクト番号を入力し、次に、
議事録を作成したい会議の会議開催日時、場所、会議名
等からなる会議基礎データを入力する。そして、この取
得した上述した各データを内部バッファに展開する。As shown in FIG. 40, the conference basic data input section 27a allows the operator to input a project number for specifying a conference for which the minutes are to be created using the GUI,
Enter basic meeting data including the date and time of the meeting, the location, the name of the meeting, etc. of the meeting for which the minutes are to be created. Then, the obtained respective data described above are developed in the internal buffer.
【0070】処理データ取込部27bは、図41に示す
ように、先ず、先に内部バッファに一時記憶した会議基
礎データを取得する。この会議基礎データに基づいて、
読出すべきデータ(かな漢字混じりの文章)のファイル
名を特定する。この場合、前述したように、一つの会議
における会話のデータが時間単位で複数のファイルに記
憶されているので、結果として、複数のファイルが指定
される。As shown in FIG. 41, the processing data fetching unit 27b first obtains the conference basic data temporarily stored in the internal buffer. Based on this meeting basic data,
Specify the file name of the data to be read (sentences containing kana-kanji characters). In this case, as described above, since the data of the conversation in one meeting is stored in a plurality of files on a time basis, a plurality of files are specified as a result.
【0071】そして、意味分析データメモリ12として
のデータファイルから、指定された各ファイルのかな漢
字混じりの文章のデータを読出して、ファイルの開始時
刻順にデータ(かな漢字混じりの文章)の結合を行い、
内部バッファに対して、各データ(かな漢字混じりの文
章)の展開を実施する。Then, from the data file as the semantic analysis data memory 12, the data of the sentence containing the kana-kanji characters of each designated file is read out, and the data (the sentence containing the kana-kanji characters) is combined in the order of the file start time.
Expands each data (text mixed with Kana-Kanji characters) into the internal buffer.
【0072】議事録作成部27cは、図42に示すよう
に、先に内部バッファに格納(展開)したかな漢字混じ
りの文章からなる各データで構成された議事録データを
取込み、議事録の定型フォーマットに変換する。なお、
その際に、再度各データに対して意味分析処理を行い、
データの自動添削を実施する。As shown in FIG. 42, the minutes preparing section 27c fetches the minutes data composed of the data composed of the texts containing the kana-kanji characters previously stored (developed) in the internal buffer, and forms the fixed format of the minutes. Convert to In addition,
At that time, perform semantic analysis processing on each data again,
Perform automatic data correction.
【0073】このようにして定型フォーマットに変換さ
れた議事録データを議事録基礎データメモリ(ファイ
ル)13に書込むとともに、図43に示すように、プロ
ジェクト番号、会議の開催日、SEQ(シーケンス番
号)からなるファイル名を付ける。The minutes data converted into the standard format as described above is written in the minutes basic data memory (file) 13 and, as shown in FIG. 43, the project number, the date of the meeting, the SEQ (sequence number) ).
【0074】以上の処理で議事録の初稿データが完成す
る。With the above processing, the first draft data of the minutes is completed.
【0075】(9)議事録添削処理部 議事録添削処理部28は、議事録作成処理部27で作成
された議事録の初稿データを人間系で添削する場合の支
援を行う機能を有し、図44に示すように、議事録デー
タ取組部28a、議事録データ添削部28b、議事録作
成部28c、知識DB参照部28dで構成されている。(9) Minutes Correction Processing Unit The minutes correction processing unit 28 has a function of supporting correction of the first draft data of the minutes created by the minutes creation processing unit 27 by a human system. As shown in FIG. 44, it is composed of a minutes data working unit 28a, minutes data correction unit 28b, minutes creating unit 28c, and knowledge DB reference unit 28d.
【0076】議事録データ取組部28aは、図45に示
すように、操作者がプロジェクト番号、開催日を入力す
ると、議事録基礎データメモリ(ファイル)13から該
当するファイルの議事録基礎データを読出して内部バッ
ファに書込むとともに表示装置に表示出力する。As shown in FIG. 45, when the operator inputs the project number and the date, the minutes data working unit 28a reads the minutes basic data of the corresponding file from the minutes basic data memory (file) 13. Write to the internal buffer and display output on the display device.
【0077】議事録データ添削部28bは、実際に人間
系が添削を実施する為のGUIであり、図46に示すよ
うに、先ず、表示された議事録基礎データ中で、変換さ
れた字句の部分を反転させる。反転した部分の添削を行
う為にフィールドを通過させる。この際、人間系が変換
結果を変更する場合は、再度知識DBが参照され、選択
となる。変換されたデータで内部バッファが更新される
とともに、知識DBに該当プロジェクトでの変更実績と
して、蓄積され、次回以降の学習機能で働く。The minutes data correction unit 28b is a GUI for actually performing correction by a human system. As shown in FIG. 46, first, the converted lexical data is displayed in the displayed minutes basic data. Invert the part. Pass through the field to correct the inverted part. At this time, if the human system changes the conversion result, the knowledge DB is referred to again to make a selection. The internal buffer is updated with the converted data, and is accumulated in the knowledge DB as a change record in the corresponding project, and works in the learning function for the next and subsequent times.
【0078】議事録作成部28cは、図48に示すよう
に、内部バッファに格納されている更新済みの議事録デ
ータ(会議基礎データ)を読取り、最終添削データメモ
リ(ファイル)14に書込む。ファイル名は先に設定し
たファイル名と同一である。そして、人間系で添削され
た議事録の承認待ち状態に移行する。The minutes creating unit 28c reads updated minutes data (meeting basic data) stored in the internal buffer and writes it into the final correction data memory (file) 14, as shown in FIG. The file name is the same as the previously set file name. Then, the state shifts to a state of waiting for approval of the minutes corrected in the human system.
【0079】知識DB参照部28dは、図49に示すよ
うに、議事録データ添削部28dから変換対象データを
受取ると、該当プロジェクトのプロジェクト番号より、
過去の変換実績や分野等の情報をセットする。その結果
学習情報が提供される。次に、受領したデータでDBを
検索する。そして、検索された漢字等のデータを議事録
データ添削部28bへ返却する。また、今回のデータ添
削で得られた変換の実績データでDBを学習する。As shown in FIG. 49, when the knowledge DB reference unit 28d receives the data to be converted from the minutes data correction unit 28d, the knowledge DB reference unit 28d calculates
Set information such as past conversion results and fields. As a result, learning information is provided. Next, the DB is searched with the received data. Then, the retrieved data such as kanji is returned to the minutes data correction unit 28b. Further, the DB is learned using the conversion result data obtained by the current data correction.
【0080】(10)Web掲載処理部 Web掲載処理部29は、議事録添削処理部28で作成
された添削済みの議事録最終添削データをインターネッ
ト4のホームページへ自動掲載する処理を実施する機能
を有し、図49に示すように、議事録データ取込部29
a、ハイパーリンク変換部29b、及びWeb掲載部2
9cで構成されている。(10) Web Posting Processing Section The web posting processing section 29 has a function of automatically posting the corrected minutes final correction data created by the minutes correction processing section 28 on the homepage of the Internet 4. 49, and as shown in FIG.
a, hyperlink conversion unit 29b, and web posting unit 2
9c.
【0081】議事録データ取込部29aは、図50に示
すように、操作者がプロジェクト番号、開催日を入力す
ると、最終添削データメモリ(ファイル)14から該当
するファイルの添削済みの議事録データを読出して内部
バッファに書込むとともに表示装置に表示出力する。As shown in FIG. 50, when the operator inputs a project number and a date, the minutes data taking-in unit 29a of the minutes file from the final correction data memory (file) 14 corrects the corrected minutes data of the corresponding file. Is read out, written into an internal buffer, and displayed on a display device.
【0082】ハイパーリンク変換部29bは、図51に
示すように、内部バッファに展開された添削済みの議事
録データを専用のバッファに書込む。そして、この専用
のバッファに書込まれた議事録データをハイパーリンク
形式に変換して、ハイパーリンク専用のデータファイル
に格納する。The hyperlink converter 29b writes the corrected minutes data developed in the internal buffer into a dedicated buffer as shown in FIG. Then, the minutes data written in the dedicated buffer is converted into a hyperlink format and stored in a hyperlink-dedicated data file.
【0083】Web掲載部29cは、図52に示すよう
に、先のハイパーリンク専用のデータファイルからハイ
パーリンク形式に変換された添削済みの議事録データを
読出す。次に、GUIで指摘されたWebサーバのハイ
パーテキスト格納ディレクトリを取得する。また、議事
録認証用の領域と、議事録データの修正用の領域とをW
ebサーバ上に確保する。その後、Webサーバ上に取
得したディレクトリにハイパーリンク形式に変換された
添削済みの議事録データをファイル転送する。As shown in FIG. 52, the Web publishing unit 29c reads the corrected minutes data converted into the hyperlink format from the data file dedicated to the hyperlink. Next, the hypertext storage directory of the Web server pointed out by the GUI is acquired. Also, the area for the minutes authentication and the area for the minutes data correction are W
Secure on the eb server. After that, the corrected minutes data converted into the hyperlink format is transferred to the directory acquired on the Web server by file.
【0084】その結果、添削済みの議事録データはイン
ターネット4のホームページに掲載されることになる。As a result, the corrected minutes data is posted on the Internet 4 homepage.
【0085】(11)議事録管理承認処理部 議事録管理承認処理部30は、会議の各参加者(各発言
者)に対して、ホームページに掲載された議事録を修正
させたり、承認させる機能を有し、図53に示すよう
に、承認データ確認部30a、議事内容修正部30b、
正式議事録発行及びハイパーリンク変換部30c、We
b掲載部30dで構成されている。(11) Minutes Management Approval Processing Unit The minutes management approval processing unit 30 allows each participant (each speaker) of the conference to correct or approve the minutes posted on the homepage. 53, as shown in FIG. 53, the approval data confirmation unit 30a, the
Formal minutes issue and hyperlink conversion unit 30c, We
b. It is composed of a posting section 30d.
【0086】承認データ確認部30aは、図54に示す
ように、ホームページに議事録データが表示された状態
において、各参加者(各発言者)がホームページ上に設
けられた議事録認証用の領域に書込んだ認証データを取
込む。そして、所定期間経過しても、会議の参加者全員
の認証データが得られない場合は、未承認者に対して、
承認催促の電子メールを送信する。なお、この場合、メ
ールはインターネットメールを用いる。As shown in FIG. 54, in the state where the minutes data is displayed on the homepage, the approval data confirmation unit 30a allows each participant (each speaker) to set an area for minutes authentication provided on the homepage. The authentication data written in is taken in. If the authentication data of all the participants of the conference is not obtained even after the predetermined period has elapsed,
Send e-mail for approval. In this case, Internet mail is used as the mail.
【0087】それでも、認証が得られない場合、例え
ば、会議の議長等の特定の権限を有した者が、未承認者
に対して、承認を省略(パス)させることが可能であ
る。If authentication is still not obtained, for example, a person having a specific authority, such as a meeting chairperson, can omit (pass) approval from an unapproved person.
【0088】議事内容修正部30bは、図55に示すよ
うに、ホームページに議事録データが表示された状態に
おいて、各参加者(各発言者)がホームページ上に設け
られた議事録データの修正用の領域に書込んだ修正デー
タを取込む。そして、ホームページで表示中の議事録デ
ータを修正する。As shown in FIG. 55, when the minutes data is displayed on the homepage, each participant (each speaker) corrects the minutes data provided on the homepage. The correction data written in the area is taken. Then, the minutes data displayed on the homepage is corrected.
【0089】さらに、修正データで内部バッファの議事
録データを更新するとともに、この修正データをログフ
ァイルに記憶保持する。このログファイルには、「い
つ」「誰が」「誰の依頼を受けて」「何を」「どう変更
したか」の情報が書込まれる。Further, the minutes data in the internal buffer is updated with the corrected data, and the corrected data is stored and held in the log file. In this log file, information of "when""who""who received the request""what""howchanged" is written.
【0090】正式議事録発行及びハイパーリンク変換部
30cは、図56に示すように、承認された修正済みの
正式議事録データをバッファから読出して、データファ
イルに書込み、さらに、この正式議事録データ、すなわ
ち閲覧用の正式議事録データをハイパーデータリンク形
式に変換して、前述と同様に、ハイパーデータリンク専
用のハイパーリンクデータメモり(ファイル)15に書
込む。As shown in FIG. 56, the formal minutes issuance and hyperlink conversion unit 30c reads the corrected and formal minutes data that has been approved from the buffer, writes it in the data file, and further writes the formal minutes data. That is, the formal minutes data for browsing is converted into the hyper data link format, and written in the hyper link data memory (file) 15 dedicated to the hyper data link in the same manner as described above.
【0091】Web掲載部30dは、図55に示すよう
に、先のハイパーリンク専用のデータメモリ(ファイ
ル)15からハイパーリンク形式に変換された正規の議
事録データを読出す。次に、GUIで指摘されたWeb
サーバのハイパーテキスト格納ディレクトリを取得す
る。その後、Webサーバ上に取得したディレクトリに
ハイパーリンク形式に変換された閲覧用の正式議事録デ
ータをファイル転送する。As shown in FIG. 55, the web posting section 30d reads the regular minutes data converted into the hyperlink format from the data memory (file) 15 dedicated to the hyperlink. Next, Web pointed out by GUI
Get the server's hypertext storage directory. Thereafter, the formal minutes data for browsing converted into the hyperlink format is transferred to the directory acquired on the Web server.
【0092】その結果、閲覧用の正式議事録データはイ
ンターネット4のホームページに掲載されることにな
る。As a result, the formal minutes data for viewing is posted on the homepage of the Internet 4.
【0093】(12)議事録印刷処理部 議事録印刷処理部31は、修正及び承認された正式議事
録データを印刷する機能を有し、図52に示すように、
印刷指示部31a、データ準備部31b、議事録印刷部
31cとで構成されている。(12) Minutes Print Processing Unit The minutes print processing unit 31 has a function of printing corrected and approved official minutes data, and as shown in FIG.
It comprises a print instruction section 31a, a data preparation section 31b, and a minutes printing section 31c.
【0094】印刷指示部31aは、図59に示すよう
に、操作者が入力した、会議のプロジェクト番号、開催
日を読取って、印刷すべき正式議事録データのファイル
を特定して、そのファイルの正式議事録データを読取
り、内部バッファに展開する。As shown in FIG. 59, the print instructing unit 31a reads the project number and the date of the conference input by the operator, specifies the file of the official minutes data to be printed, and Reads the official minutes data and expands it into an internal buffer.
【0095】データ準備部31bは、図60に示すよう
に、印刷端末装置を指定し、出力される議事録が(正)
か(写)かを判定して、その情報を議事録データに付加
する。さらに、議事録単位に正式出力回数を管理してい
る承認管理ファイルの正式出力回数を更新する。As shown in FIG. 60, the data preparation unit 31b designates a printing terminal device, and the minutes to be output are (correct)
Is determined, and the information is added to the minutes data. Further, the number of formal outputs of the approval management file that manages the number of formal outputs for each minutes is updated.
【0096】そして、議事録印刷部31cは、図61に
示すように、内部バッファに展開された正式議事録デー
タを指定された印字装置で印字出力する。Then, as shown in FIG. 61, the minutes printing section 31c prints out the official minutes data developed in the internal buffer by the designated printing device.
【0097】このように構成された第1実施形態のイン
テリジェント会議サポートシステムにおいては、各発言
者の各音声データは、各発言者に対してそれぞれ個別に
取付けられた各マイク2、または、各発言者の前に配設
された各マイク2で、各発言者毎に収集されてそれぞれ
音声テキストデータに変換される。In the intelligent conference support system of the first embodiment configured as described above, each voice data of each speaker is stored in each microphone 2 or each voice individually attached to each speaker. Each microphone 2 arranged in front of the speaker collects the information for each speaker and converts it into speech text data.
【0098】さらに、この発言者単位の各音声テキスト
データは、時系列的にまとめた音声基礎データに変換さ
れる。この音声基礎データはかな漢字混じりの文章に変
換される。そして、この変換された文章から会議の議事
録が作成される。Further, each voice text data for each speaker is converted into voice basic data compiled in time series. This basic speech data is converted into a sentence containing kana-kanji characters. Then, the minutes of the meeting are created from the converted text.
【0099】この場合、各音声データの区切を各会話の
途切れから検出して、各音声データ毎に、該当音声デー
タに対して会話開始時刻と発言者情報とが付加される。
したがって、それ以降、次々と変換されていく各音声デ
ータに個別情報が付されるので、最終的に議事録に収納
された場合に各発言内容を示す文章に対して発言者を示
す情報が自動的に付される。In this case, the division of each voice data is detected from the break of each conversation, and the conversation start time and the speaker information are added to the corresponding voice data for each voice data.
Therefore, after that, individual information is added to each audio data that is converted one after another, so that when the voice data is finally stored in the minutes of the meeting, the information indicating the speaker is automatically added to the text indicating the content of the statement. Is attached.
【0100】さらに、高度な意味分析を使用せずに句読
点を自動的に挿入しているので、これ以降の変換処理速
度が向上する。Furthermore, since punctuation is automatically inserted without using advanced semantic analysis, the speed of the subsequent conversion processing is improved.
【0101】また、会議で、同時に複数の発言者の音声
テキストデータが発生した場合、会話開始時刻の早い順
に並べる時系列マージを行うようにしている。したがっ
て、たとえ複数の発言者が同時に発言したとしても、議
事録には、先に発言した順に整理されて自動的に記載さ
れる。When voice text data of a plurality of speakers is generated at the same time in a conference, time-series merging for arranging the conversations in order of earliest conversation start time is performed. Therefore, even if a plurality of speakers speak simultaneously, the minutes are automatically arranged in the minutes in the order in which they spoke first.
【0102】また、作成された議事録をハイパーリンク
形式に変換してインターネットのホームページに自動掲
載するようにしている。したがって、会議の出席者は会
議終了後に、議事録をインターネットのホームページ上
で簡単に確認できる。当然、インターネットのホームペ
ージにおける議事録に対する閲覧は、第3者の閲覧を防
止するために、パスワードを用いて実施される。Further, the prepared minutes are converted into a hyperlink format and automatically posted on a homepage on the Internet. Therefore, the meeting attendees can easily check the minutes on the Internet homepage after the meeting. Obviously, viewing of the minutes on the Internet homepage is performed using a password in order to prevent viewing by a third party.
【0103】さらに、会議の出席者は、ホームページに
掲載された議事録を見てその場で、承認を与えることが
できる。したがって、事務処理を効率的に実施できる。Further, attendees of the conference can give approval on the spot by viewing the minutes posted on the homepage. Therefore, office work can be efficiently performed.
【0104】また、インターネットのホームページ上で
会議の参加者は、自己の発言内容を任意に変更できる。
さらに、発言内容の修正データは、修正ログファイルに
記憶されているので、たとえ正規の会議議事録データが
発行された後においても、修正ログファイル内を検索す
ることによって、会議の発言の詳細経過を確認できる。[0104] Also, on the Internet homepage, participants in the conference can arbitrarily change their remarks.
Furthermore, since the corrected data of the contents of the remark is stored in the corrected log file, even after the regular meeting minutes data is issued, the detailed history of the remarks of the meeting can be obtained by searching the corrected log file. Can be confirmed.
【0105】(第2実施形態)次に、本発明の第2実施
形態のインテリジェント会議サポートシステムを説明す
る。(Second Embodiment) Next, an intelligent conference support system according to a second embodiment of the present invention will be described.
【0106】この第2実施形態のインテリジェント会議
サポートシステムは、上述した第1実施形態のインテリ
ジェント会議サポートシステムとほぼ同一構成であるの
で、同一部分の説明を省略して、ここでは、相違する部
分のみを説明する。Since the intelligent conference support system according to the second embodiment has substantially the same configuration as the intelligent conference support system according to the first embodiment, the description of the same parts will be omitted, and only the different parts will be described. Will be described.
【0107】具体的には、音声収集装置1における初期
設定データ取得部19を、図62に示すように、音声情
報取得部19a、マイクアドレス取得部19b、アドレ
ス−音声対応情報処理部19c、及び初期データ取得部
19dの他に、ICカード情報取得部19eが設けられ
ている。More specifically, as shown in FIG. 62, the initial setting data acquisition section 19 in the audio collection apparatus 1 is composed of an audio information acquisition section 19a, a microphone address acquisition section 19b, an address-speech correspondence information processing section 19c, An IC card information acquisition unit 19e is provided in addition to the initial data acquisition unit 19d.
【0108】会議の参加者が所持するICカードには、
参加者自信の氏名や所属及びパスワードを示す通常の個
人情報の他に、参加者の声紋の音声パターンが記憶され
ている。The IC cards held by the participants of the conference include:
The voice pattern of the voiceprint of the participant is stored in addition to the usual personal information indicating the participant's own name, affiliation and password.
【0109】そして、ICカード情報取得部19eは、
図63に示すように、ICカードリーダに挿入されたI
Cカードに記憶されたICカード情報を読込み、このI
Cカード情報に含まれる音声パターンを内部バッファに
展開する。Then, the IC card information acquisition section 19e
As shown in FIG. 63, the I inserted into the IC card reader
The IC card information stored in the C card is read,
The voice pattern included in the C card information is developed in the internal buffer.
【0110】この内部バッファに記憶された音声パター
ンは、マイク2から入力された各音声データの発言者を
自動的に特定する場合に用いられる。The voice pattern stored in the internal buffer is used for automatically specifying the speaker of each voice data input from the microphone 2.
【0111】さらに、このICカードをインターネット
のホームページ上に掲載された修正済みの会議データを
ホームページ上で承認する図64に示す議事録承認処理
30eに使用する。Further, this IC card is used for a minutes approval process 30e shown in FIG. 64 for approving the corrected conference data posted on the Internet homepage on the homepage.
【0112】すなわち、議事録承認処理30eにおいて
は、ICカードリーダに挿入されたICカードに記憶さ
れたICカード情報を読込み、このICカード情報に含
まれるサインや氏名等の認証データを読取り、内部バッ
ファに展開する。さらに、この会議データの閲覧者が操
作入力するパスワードとICカード情報に含まれるパス
ワードとが一致すると、承認処理を実施する。具体的に
は、修正済みの会議データの承認欄に認証データを書込
む。That is, in the minutes approval processing 30e, the IC card information stored in the IC card inserted into the IC card reader is read, and the authentication data such as the signature and name included in the IC card information is read. Extract to buffer. Further, when the password input by the viewer of the conference data and the password included in the IC card information match, an approval process is performed. Specifically, the authentication data is written in the approval column of the corrected conference data.
【0113】さらに、このICカードをインターネット
のホームページ上に掲載された修正済みの会議データ、
又は承認済みの会議データをホームページ上で閲覧する
図65に示す議事録閲覧処理30fに使用する。Further, this IC card is used to modify the corrected conference data posted on the Internet homepage,
Alternatively, it is used in the minutes browsing process 30f shown in FIG. 65 for browsing approved meeting data on a homepage.
【0114】すなわち、議事録承認処理30eにおいて
は、ICカードリーダに挿入されたICカードに記憶さ
れたICカード情報を読込み、このICカード情報に含
まれるサインや氏名等の認証データを読取り、内部バッ
ファに展開する。さらに、この会議データの閲覧者が操
作入力するパスワードとICカード情報に含まれるパス
ワードとが一致すると、議事録回覧処理を実施する。具
体的には、議事録の各ページの回覧を可能とする。That is, in the minutes approval processing 30e, the IC card information stored in the IC card inserted into the IC card reader is read, and the authentication data such as the signature and name included in the IC card information is read. Extract to buffer. Further, when the password operated and input by the viewer of the conference data matches the password included in the IC card information, the minutes circulation processing is performed. Specifically, circulation of each page of the minutes is enabled.
【0115】このように構成された第2実施形態のイン
テリジェント会議サポートシステムにおいては、会議の
参加者を特定する声紋の音声データを含む各種の情報を
記憶するICカードを使用することにより、会議開始時
における種々の設定業務の省力化を図ることができる。In the intelligent conference support system according to the second embodiment configured as described above, the conference starts by using an IC card that stores various information including voice data of a voiceprint for identifying a participant of the conference. It is possible to save labor for various setting operations at the time.
【0116】また、ICカードを読取らすことによっ
て、簡単に会議の途中からの参加者の追加が可能とな
る。By reading the IC card, it is possible to easily add a participant from the middle of the conference.
【0117】さらに、このICカードを用いることによ
って、簡単にインターネットのホームページ上における
議事録の承認及び閲覧の安全性を確保できる。Further, by using this IC card, it is possible to easily secure the approval and reading of the minutes on the Internet homepage.
【0118】(第3実施形態)次に、本発明の第3実施
形態のインテリジェント会議サポートシステムを説明す
る。(Third Embodiment) Next, an intelligent conference support system according to a third embodiment of the present invention will be described.
【0119】この第3実施形態のインテリジェント会議
サポートシステムは、上述した第1実施形態のインテリ
ジェント会議サポートシステムとほぼ同一構成であるの
で、同一部分の説明を省略して、ここでは、相違する部
分のみを説明する。Since the intelligent conference support system according to the third embodiment has substantially the same configuration as the intelligent conference support system according to the above-described first embodiment, the description of the same parts is omitted, and only the different parts will be described. Will be described.
【0120】この第3実施形態のインテリジェント会議
サポートシステムにおいては、会議に対して電話を介し
て出席することが可能である。すなわち、各発言者の音
声をマイクの代わりに電話機から入力する。In the intelligent conference support system according to the third embodiment, it is possible to attend a conference via telephone. That is, the voice of each speaker is input from the telephone instead of the microphone.
【0121】音声入力部20dは、図66に示すよう
に、電話機から入力される発言者の音声データを会話の
区切で区切って、個別の音声データとして、内部バッフ
ァに記憶保持する。As shown in FIG. 66, the voice input section 20d divides the voice data of the speaker input from the telephone into sections of conversation, and stores and holds the individual voice data in an internal buffer.
【0122】さらに、音声入力部20eは、図67に示
すように、マイクや電話機の代わりに、インターネット
・チャットデータから取得することができる。この場
合、インターネット・チャットデータは既にテキストデ
ータ化されているので、流れ図に示すように、このイン
ターネット・チャットデータから直接音声基礎データを
作成して、音声基礎データメモリ8に書込む。Further, as shown in FIG. 67, the voice input section 20e can be obtained from Internet chat data instead of a microphone or a telephone. In this case, since the Internet chat data has already been converted into text data, as shown in the flow chart, the basic voice data is created directly from the Internet chat data and written into the basic voice data memory 8.
【0123】このように、TV会議等やインターネット
を介した会議においても、簡単に議事録を作成できる。As described above, the minutes of a meeting can be easily created even in a TV meeting or a meeting via the Internet.
【0124】(第4実施形態)次に、本発明の第4実施
形態のインテリジェント会議サポートシステムを説明す
る。(Fourth Embodiment) Next, an intelligent conference support system according to a fourth embodiment of the present invention will be described.
【0125】この第4実施形態のインテリジェント会議
サポートシステムは、上述した第1実施形態のインテリ
ジェント会議サポートシステムとほぼ同一構成であるの
で、同一部分の説明を省略して、ここでは、相違する部
分のみを説明する。Since the intelligent conference support system according to the fourth embodiment has substantially the same configuration as the intelligent conference support system according to the first embodiment, the description of the same parts will be omitted, and only the different parts will be described. Will be described.
【0126】この第4実施形態のインテリジェント会議
サポートシステムにおいては、会議の出席者数よりマイ
ク2の本数が少ない。この場合、前述したように、初期
設定データ取得部19で予め登録されている各出席者の
声紋の音声パターンを用いる。In the intelligent conference support system according to the fourth embodiment, the number of microphones 2 is smaller than the number of participants in the conference. In this case, as described above, the voice pattern of the voiceprint of each attendee registered in advance by the initial setting data acquisition unit 19 is used.
【0127】音声入力部20eは、図68に示すよう
に、マイク2から収集した各発言者の音声データに対し
て、予め登録されている各出席者の声紋の音声パターン
に対して、パターンマッチングを行い、発言者を特定す
る。As shown in FIG. 68, the voice input unit 20e performs pattern matching on the voice data of each speaker collected from the microphone 2 and the voice pattern of the voiceprint of each attendee registered in advance. To identify the speaker.
【0128】このように構成された第4実施形態のイン
テリジェント会議サポートシステムにおいては、出積者
個人個人に対して、マイクを割り振る必要がないので、
簡単に会議の出席者数を増減できる。In the intelligent conference support system according to the fourth embodiment configured as described above, since it is not necessary to allocate microphones to the individual passengers,
You can easily increase or decrease the number of attendees in the meeting.
【0129】[0129]
【発明の効果】以上説明したように、本発明のインテリ
ジェント会議サポートシステムにおいては、会議の出席
者に負担をかけることなく、発言者の発言が誤りなく忠
実に議事録に反映され、かつ作成された議事録の承認も
早急に実施できる。As described above, in the intelligent conference support system of the present invention, the speech of the speaker is faithfully reflected in the minutes of the meeting without any burden on the attendees of the conference, and is created. Approval of the minutes can be implemented immediately.
【0130】さらに、インターネットのホームページ上
で自動作成した議事録を承認したり、閲覧可能としてい
るので、各出席者の議事録の承認、閲覧作業の作業能率
を向上できる。Further, since the minutes automatically created on the Internet homepage can be approved or browsed, the work efficiency of approval and browsing of the minutes of each attendee can be improved.
【図1】本発明の第1実施形態のインテリジェント会議
サポートシステムの概略構成を示す模式図FIG. 1 is a schematic diagram showing a schematic configuration of an intelligent conference support system according to a first embodiment of the present invention;
【図2】同第1実施形態のインテリジェント会議サポー
トシステムにおける音声収集装置の概略構成を示すブロ
ック構成図FIG. 2 is a block diagram showing a schematic configuration of a voice collection device in the intelligent conference support system according to the first embodiment;
【図3】同第1実施形態のインテリジェント会議サポー
トシステムにおける議事録作成装置の概略構成を示すブ
ロック構成図FIG. 3 is a block diagram showing a schematic configuration of a minutes creating apparatus in the intelligent conference support system according to the first embodiment;
【図4】同インテリジェント会議サポートシステムにお
ける音声収集装置における初期設定データ取得部の詳細
構成を示すブロック構成図FIG. 4 is a block diagram showing a detailed configuration of an initial setting data acquisition unit in the voice collection device in the intelligent conference support system.
【図5】同初期設定データ取得部の動作を示す流れ図FIG. 5 is a flowchart showing the operation of the initial setting data acquisition unit.
【図6】同じく同初期設定データ取得部の動作を示す流
れ図FIG. 6 is a flowchart showing the operation of the same initial setting data acquisition unit.
【図7】同じく同初期設定データ取得部の動作を示す流
れ図FIG. 7 is a flowchart showing the operation of the same initial setting data acquisition unit.
【図8】同じく同初期設定データ取得部の動作を示す流
れ図FIG. 8 is a flowchart showing the operation of the same initial setting data acquisition unit.
【図9】同インテリジェント会議サポートシステムにお
ける音声収集装置における音声収集部の詳細構成を示す
ブロック構成図FIG. 9 is a block diagram showing a detailed configuration of a voice collection unit in the voice collection device in the intelligent conference support system.
【図10】同音声収集部の動作を示す流れ図FIG. 10 is a flowchart showing the operation of the voice collection unit.
【図11】同じく同音声収集部の動作を示す流れ図FIG. 11 is a flowchart showing the operation of the voice collection unit.
【図12】同じく同音声収集部の動作を示す流れ図FIG. 12 is a flowchart showing the operation of the voice collection unit.
【図13】同音声収集部におけるファイルアドレスの設
定法を示す図FIG. 13 is a view showing a method of setting a file address in the voice collecting unit.
【図14】同インテリジェント会議サポートシステムに
おける音声収集装置における音声テキスト変換部部の詳
細構成を示すブロック構成図FIG. 14 is a block diagram showing a detailed configuration of a voice-to-text converter in the voice collecting apparatus in the intelligent conference support system.
【図15】同音声テキスト変換部部の動作を示す流れ図FIG. 15 is a flowchart showing the operation of the speech-to-text converter.
【図16】同じく同音声テキスト変換部部の動作を示す
流れ図FIG. 16 is a flowchart showing the operation of the speech-to-text converter.
【図17】同じく同音声テキスト変換部部の動作を示す
流れ図FIG. 17 is a flowchart showing the operation of the voice / text converter.
【図18】同音声テキスト変換部部におけるファイルア
ドレスの設定法を示す図FIG. 18 is a view showing a method of setting a file address in the voice / text converter.
【図19】同インテリジェント会議サポートシステムに
おける音声収集装置における音声基礎データ作成部の詳
細構成を示すブロック構成図FIG. 19 is a block diagram showing a detailed configuration of a basic audio data creation unit in the audio collection device in the intelligent conference support system.
【図20】同音声基礎データ作成部の動作を示す流れ図FIG. 20 is a flowchart showing the operation of the basic voice data creating unit;
【図21】同じく同音声基礎データ作成部の動作を示す
流れ図FIG. 21 is a flowchart showing the operation of the same voice basic data creation unit.
【図22】同じく同音声基礎データ作成部の動作を示す
流れ図FIG. 22 is a flowchart showing the operation of the same voice basic data creation unit.
【図23】同音声基礎データ作成部におけるファイルア
ドレスの設定法を示す図FIG. 23 is a view showing a method of setting a file address in the voice basic data creation unit.
【図24】同音声基礎データ作成部で作成されたテキス
トデータを示す図FIG. 24 is a view showing text data created by the basic speech data creating unit.
【図25】同インテリジェント会議サポートシステムに
おける音声収集装置における音声基礎データ伝送部の詳
細構成を示すブロック構成図FIG. 25 is a block diagram showing a detailed configuration of a voice basic data transmission unit in the voice collection device in the intelligent conference support system.
【図26】同音声基礎データ伝送部の動作を示す図FIG. 26 is a view showing the operation of the voice basic data transmission unit.
【図27】同じく同音声基礎データ伝送部の動作を示す
図FIG. 27 is a diagram showing the operation of the same voice basic data transmission unit.
【図28】同じく同音声基礎データ伝送部の動作を示す
図FIG. 28 is a diagram showing the operation of the same voice basic data transmission unit.
【図29】同インテリジェント会議サポートシステムに
おける議事録作成装置における音声基礎データ受取処理
部の詳細構成を示すブロック構成図FIG. 29 is a block diagram showing a detailed configuration of a voice basic data reception processing unit in the minutes creating device in the intelligent conference support system.
【図30】同音声基礎データ受取処理部の動作を示す流
れ図FIG. 30 is a flowchart showing the operation of the voice basic data reception processing unit;
【図31】同じく同音声基礎データ受取処理部の動作を
示す流れ図FIG. 31 is a flowchart showing the operation of the same voice basic data reception processing unit.
【図32】同じく同音声基礎データ受取処理部の動作を
示す流れ図FIG. 32 is a flowchart showing the operation of the same voice basic data receiving processor;
【図33】同じく同音声基礎データ受取処理部の動作を
示す流れ図FIG. 33 is a flowchart showing the operation of the same voice basic data reception processing unit.
【図34】同インテリジェント会議サポートシステムの
議事録作成装置における意味分析処理部の詳細構成を示
すブロック構成図FIG. 34 is a block diagram showing a detailed configuration of a semantic analysis processing unit in the minutes creating device of the intelligent conference support system.
【図35】同意味分析処理部の動作を示す流れ図FIG. 35 is a flowchart showing the operation of the semantic analysis processing unit.
【図36】同じく同意味分析処理部の動作を示す流れ図FIG. 36 is a flowchart showing the operation of the same meaning analysis processing unit.
【図37】同じく同意味分析処理部の動作を示す流れ図FIG. 37 is a flowchart showing the operation of the same meaning analysis processing unit.
【図38】同じく同意味分析処理部の動作を示す流れ図FIG. 38 is a flowchart showing the operation of the same meaning analysis processing unit.
【図39】同インテリジェント会議サポートシステムの
議事録作成装置における議事録作成処理部の詳細構成を
示すブロック構成図FIG. 39 is a block diagram showing a detailed configuration of a minutes creation processing unit in the minutes creation device of the intelligent conference support system.
【図40】同議事録作成処理部の動作を示す流れ図FIG. 40 is a flowchart showing the operation of the minutes preparation processing unit;
【図41】同じく同議事録作成処理部の動作を示す流れ
図FIG. 41 is a flowchart showing the operation of the minutes creation processing unit;
【図42】同じく同議事録作成処理部の動作を示す流れ
図FIG. 42 is a flowchart showing the operation of the minutes creation processing unit;
【図43】同同議事録作成処理部におけるファイルアド
レスの設定法を示す図FIG. 43 is a view showing a setting method of a file address in the minutes creating section;
【図44】同インテリジェント会議サポートシステムの
議事録作成装置における議事録添削処理部の詳細構成を
示すブロック構成図FIG. 44 is a block diagram showing a detailed configuration of a minutes correction processing unit in the minutes creating device of the intelligent conference support system.
【図45】同議事録添削処理部の動作を示す流れ図FIG. 45 is a flowchart showing the operation of the minutes correction processing unit;
【図46】同じく同議事録添削処理部の動作を示す流れ
図FIG. 46 is a flowchart showing the operation of the same minutes correction processing unit.
【図47】同じく同議事録添削処理部の動作を示す流れ
図FIG. 47 is a flowchart showing the operation of the same minutes correction processing unit.
【図48】同じく同議事録添削処理部の動作を示す流れ
図FIG. 48 is a flowchart showing the operation of the minutes correction processing unit;
【図49】同インテリジェント会議サポートシステムの
議事録作成装置におけるWeb掲載処理部の詳細構成を
示すブロック構成図FIG. 49 is a block diagram showing a detailed configuration of a Web posting processing unit in the minutes creating device of the intelligent conference support system.
【図50】同Web掲載処理部の動作を示す流れ図FIG. 50 is a flowchart showing the operation of the web posting processing unit.
【図51】同じく同Web掲載処理部の動作を示す流れ
図FIG. 51 is a flowchart showing the operation of the same web posting processing unit.
【図52】同じく同Web掲載処理部の動作を示す流れ
図FIG. 52 is a flowchart showing the operation of the same web posting processing unit;
【図53】同インテリジェント会議サポートシステムの
議事録作成装置における議事録管理承認処理部の詳細構
成を示すブロック構成図FIG. 53 is a block configuration diagram showing a detailed configuration of a minutes management approval processing unit in the minutes creation device of the intelligent conference support system.
【図54】同議事録管理承認処理部の動作を示す流れ図FIG. 54 is a flowchart showing the operation of the minutes management approval processing unit;
【図55】同じく同議事録管理承認処理部の動作を示す
流れ図FIG. 55 is a flowchart showing the operation of the minutes management and approval processing unit;
【図56】同じく同議事録管理承認処理部の動作を示す
流れ図FIG. 56 is a flowchart showing the operation of the minutes management and approval processing unit;
【図57】同じく同議事録管理承認処理部の動作を示す
流れ図FIG. 57 is a flowchart showing the operation of the minutes management approval processing unit;
【図58】同インテリジェント会議サポートシステムの
議事録作成装置における議事録印刷処理部の詳細構成を
示すブロック構成図FIG. 58 is a block configuration diagram showing a detailed configuration of a minutes print processing unit in the minutes creation device of the intelligent conference support system.
【図59】同議事録印刷処理部の動作を示す流れ図FIG. 59 is a flowchart showing the operation of the minutes print processing unit;
【図60】同じく同議事録印刷処理部の動作を示す流れ
図FIG. 60 is a flowchart showing the operation of the same minutes print processing unit.
【図61】同じく同議事録印刷処理部の動作を示す流れ
図FIG. 61 is a flowchart showing the operation of the minutes print processing unit;
【図62】本発明の第2実施形態のインテリジェント会
議サポートシステムの音声収集装置における初期設定デ
ータ取得部の詳細構成を示すブロック構成図FIG. 62 is a block diagram showing a detailed configuration of an initial setting data acquisition unit in the voice collection device of the intelligent conference support system according to the second embodiment of the present invention.
【図63】同初期設定データ取得部の動作を示す流れ図FIG. 63 is a flowchart showing the operation of the initial setting data acquisition unit;
【図64】同じく同初期設定データ取得部の動作を示す
流れ図FIG. 64 is a flowchart showing the operation of the same initial setting data acquisition unit.
【図65】同じく同初期設定データ取得部の動作を示す
流れ図FIG. 65 is a flowchart showing the operation of the same initial setting data acquisition unit.
【図66】本発明の第3実施形態のインテリジェント会
議サポートシステムの音声収集装置における音声収集部
の動作を示す流れ図FIG. 66 is a flowchart showing the operation of the voice collection unit in the voice collection device of the intelligent conference support system according to the third embodiment of the present invention.
【図67】同じく同音声収集部の動作を示す流れ図FIG. 67 is a flowchart showing the operation of the voice collection unit.
【図68】本発明の第4実施形態のインテリジェント会
議サポートシステムの音声収集装置における音声収集部
の動作を示す流れ図FIG. 68 is a flowchart showing the operation of the voice collecting unit in the voice collecting device of the intelligent conference support system according to the fourth embodiment of the present invention.
1…音声収集装置 2…マイク 3…議事録作成装置 4…インターネット 5…音声収集I/F 6…音声データメモリ 7…アドレス−音声対応データメモリ 8…音声基礎データメモリ 10…音声収集I/F 11…プロジェクト毎知識DB 12…意味分析データメモリ 13…議事録基礎データメモリ 14…最終添削データメモリ 15…ハイパーリンクデータメモリ 16…最終議事録データメモリ 17…承認管理データメモリ 18…ンターネットI/F 19…初期データ取得部 20…音声収集部 21…音声テキスト変換部 22…音声基礎データ作成部 23…音声基礎データ伝送部 24…音声基礎データ受取処理部 25…知識DB参照/蓄積処理部 26…意味分析処理部 27…議事録作成処理部 28…議事録添削処理部 29…掲載処理部 30…議事録管理承認処理部 31…議事録印刷処理部 DESCRIPTION OF SYMBOLS 1 ... Voice collecting device 2 ... Microphone 3 ... Minutes preparation device 4 ... Internet 5 ... Voice collecting I / F 6 ... Voice data memory 7 ... Address-voice corresponding data memory 8 ... Voice basic data memory 10 ... Voice collecting I / F 11: Knowledge DB for each project 12: Semantic analysis data memory 13: Minutes basic data memory 14: Final correction data memory 15: Hyperlink data memory 16: Final minutes data memory 17: Approval management data memory 18: Internet I / F 19: Initial data acquisition unit 20: Voice collection unit 21: Voice text conversion unit 22: Voice basic data creation unit 23: Voice basic data transmission unit 24: Voice basic data reception processing unit 25: Knowledge DB reference / storage processing unit 26 ... Semantic analysis processing unit 27 ... Minute minutes creation processing unit 28 ... Minute minutes correction processing unit 29 ... Post processing 30 ... minutes management approval processing unit 31 ... minutes the print processing unit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/38 V──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl.7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/38 V
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10286506AJP2000112931A (en) | 1998-10-08 | 1998-10-08 | Intelligent conference support system |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10286506AJP2000112931A (en) | 1998-10-08 | 1998-10-08 | Intelligent conference support system |
| Publication Number | Publication Date |
|---|---|
| JP2000112931Atrue JP2000112931A (en) | 2000-04-21 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10286506APendingJP2000112931A (en) | 1998-10-08 | 1998-10-08 | Intelligent conference support system |
| Country | Link |
|---|---|
| JP (1) | JP2000112931A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002157112A (en)* | 2000-11-20 | 2002-05-31 | Teac Corp | Voice information converter |
| JP2008032825A (en)* | 2006-07-26 | 2008-02-14 | Fujitsu Fsas Inc | Speaker display system, speaker display method and speaker display program |
| JP2010009649A (en)* | 2008-06-25 | 2010-01-14 | Kenwood Corp | Sound-recording apparatus, method, and program |
| JP2010055147A (en)* | 2008-08-26 | 2010-03-11 | Universal Entertainment Corp | Internal regulation control system |
| JP2010079872A (en)* | 2008-02-12 | 2010-04-08 | Nippon Telegraph & Telephone West Corp | Retrieval support device and method, and computer program |
| US7734996B2 (en) | 2003-09-08 | 2010-06-08 | Nec Corporation | Documentation browsing method, documentation browsing apparatus, documentation browsing robot, and documentation browsing program |
| JP2013246501A (en)* | 2012-05-23 | 2013-12-09 | Ricoh Co Ltd | Conference support device, conference support system, conference support method and program |
| JP2015132902A (en)* | 2014-01-09 | 2015-07-23 | サクサ株式会社 | Electronic conference system and program of the same |
| WO2017115595A1 (en)* | 2015-12-30 | 2017-07-06 | 日立工機株式会社 | Method for managing centrifuge operation data using external terminal |
| JP2018106500A (en)* | 2016-12-27 | 2018-07-05 | 京セラドキュメントソリューションズ株式会社 | Minute book creation system |
| CN112861510A (en)* | 2021-02-08 | 2021-05-28 | 北京字跳网络技术有限公司 | Summary processing method, apparatus, device and storage medium |
| JP2021144218A (en)* | 2020-03-10 | 2021-09-24 | エル ソルー カンパニー, リミテッドLlsollu Co., Ltd. | Voice interaction reconstitution method and device |
| US11356492B2 (en) | 2020-09-16 | 2022-06-07 | Kyndryl, Inc. | Preventing audio dropout |
| JP2023109604A (en)* | 2022-01-27 | 2023-08-08 | 智 小松 | memorandum writing program |
| US12431150B2 (en) | 2020-03-10 | 2025-09-30 | Llsollu Co., Ltd. | Method and apparatus for reconstructing voice conversation |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002157112A (en)* | 2000-11-20 | 2002-05-31 | Teac Corp | Voice information converter |
| US7734996B2 (en) | 2003-09-08 | 2010-06-08 | Nec Corporation | Documentation browsing method, documentation browsing apparatus, documentation browsing robot, and documentation browsing program |
| JP2008032825A (en)* | 2006-07-26 | 2008-02-14 | Fujitsu Fsas Inc | Speaker display system, speaker display method and speaker display program |
| JP2010079872A (en)* | 2008-02-12 | 2010-04-08 | Nippon Telegraph & Telephone West Corp | Retrieval support device and method, and computer program |
| JP2010009649A (en)* | 2008-06-25 | 2010-01-14 | Kenwood Corp | Sound-recording apparatus, method, and program |
| JP2010055147A (en)* | 2008-08-26 | 2010-03-11 | Universal Entertainment Corp | Internal regulation control system |
| JP2013246501A (en)* | 2012-05-23 | 2013-12-09 | Ricoh Co Ltd | Conference support device, conference support system, conference support method and program |
| JP2015132902A (en)* | 2014-01-09 | 2015-07-23 | サクサ株式会社 | Electronic conference system and program of the same |
| WO2017115595A1 (en)* | 2015-12-30 | 2017-07-06 | 日立工機株式会社 | Method for managing centrifuge operation data using external terminal |
| JPWO2017115595A1 (en)* | 2015-12-30 | 2018-10-04 | 工機ホールディングス株式会社 | Centrifuge operation data management method using an external terminal |
| JP2018106500A (en)* | 2016-12-27 | 2018-07-05 | 京セラドキュメントソリューションズ株式会社 | Minute book creation system |
| JP2021144218A (en)* | 2020-03-10 | 2021-09-24 | エル ソルー カンパニー, リミテッドLlsollu Co., Ltd. | Voice interaction reconstitution method and device |
| JP7681266B2 (en) | 2020-03-10 | 2025-05-22 | エル ソルー カンパニー,リミテッド | Spoken dialogue reconstruction method, spoken dialogue reconstruction device, recording medium and computer program |
| US12431150B2 (en) | 2020-03-10 | 2025-09-30 | Llsollu Co., Ltd. | Method and apparatus for reconstructing voice conversation |
| US11356492B2 (en) | 2020-09-16 | 2022-06-07 | Kyndryl, Inc. | Preventing audio dropout |
| CN112861510A (en)* | 2021-02-08 | 2021-05-28 | 北京字跳网络技术有限公司 | Summary processing method, apparatus, device and storage medium |
| WO2022166962A1 (en)* | 2021-02-08 | 2022-08-11 | 北京字跳网络技术有限公司 | Method and apparatus for processing minutes, device, and storage medium |
| JP2023109604A (en)* | 2022-01-27 | 2023-08-08 | 智 小松 | memorandum writing program |
| Publication | Publication Date | Title |
|---|---|---|
| US7092496B1 (en) | Method and apparatus for processing information signals based on content | |
| JP2000112931A (en) | Intelligent conference support system | |
| JP4466666B2 (en) | Minutes creation method, apparatus and program thereof | |
| JP4466665B2 (en) | Minutes creation method, apparatus and program thereof | |
| US8527263B2 (en) | Method and system for automatically generating reminders in response to detecting key terms within a communication | |
| CN110751943A (en) | Voice emotion recognition method and device and related equipment | |
| JPWO2011093025A1 (en) | Input support system, method, and program | |
| US20060271365A1 (en) | Methods and apparatus for processing information signals based on content | |
| US20130253932A1 (en) | Conversation supporting device, conversation supporting method and conversation supporting program | |
| JP2009187349A (en) | Text correction support system, text correction support method and program for supporting text correction | |
| JP2000352995A (en) | Conference audio processing method, recording device, and information storage medium | |
| CN109785834B (en) | Voice data sample acquisition system and method based on verification code | |
| CN112997207A (en) | Report automatic generation system | |
| CN111914078B (en) | Data processing method and device | |
| JP7159576B2 (en) | Information presentation device, information presentation system, information presentation method and program | |
| CN110460798B (en) | Video interview service processing method, device, terminal and storage medium | |
| JP3234083B2 (en) | Search device | |
| EP2618545A1 (en) | Mobile terminal device | |
| JP7243145B2 (en) | Information processing device, information processing system and information processing method | |
| CN113822029A (en) | Customer service assistance method, device and system | |
| KR20130073709A (en) | Method and apparatus of recognizing business card using image and voice information | |
| JP2017167433A (en) | Summary generation device, summary generation method, and summary generation program | |
| US7353175B2 (en) | Apparatus, method, and program for speech synthesis with capability of providing word meaning immediately upon request by a user | |
| JP3469561B2 (en) | Search device | |
| JP2004020739A (en) | Minutes preparation device, minutes preparation method, minutes preparation program |