Movatterモバイル変換


[0]ホーム

URL:


JP2009171262A - Acoustic device, voice reproduction method, voice reproduction program, and recording medium - Google Patents

Acoustic device, voice reproduction method, voice reproduction program, and recording medium
Download PDF

Info

Publication number
JP2009171262A
JP2009171262AJP2008007522AJP2008007522AJP2009171262AJP 2009171262 AJP2009171262 AJP 2009171262AJP 2008007522 AJP2008007522 AJP 2008007522AJP 2008007522 AJP2008007522 AJP 2008007522AJP 2009171262 AJP2009171262 AJP 2009171262A
Authority
JP
Japan
Prior art keywords
channel
sound
unit
signal
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008007522A
Other languages
Japanese (ja)
Inventor
Takuya Tsuji
拓哉 辻
Kensaku Yoshida
健作 吉田
Yoshifumi Fujino
好文 藤野
Kenta Isozaki
賢太 磯崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic CorpfiledCriticalPioneer Electronic Corp
Priority to JP2008007522ApriorityCriticalpatent/JP2009171262A/en
Publication of JP2009171262ApublicationCriticalpatent/JP2009171262A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To generate a reproduction voice approximated to a real voice at a recording time of a voice content even if a plurality of channels different from a channel composition at the recording time of the voice content are composed. <P>SOLUTION: An extraction portion 210 extracts a voice component per voice source of a musical instrument or the like based on music information with respect to voice data recorded in a monaural form. A distribution portion 220 distributes the voice components to an L channel and an R channel based on the music information so that an audio image of the voice component extracted by the extraction portion 210 may move close to a sound image at a recording time. Then, an addition portion 230 adds a signal distributed to the L channel and adds the signal distributed to the R channel. A voice based on L channel processing data PCD<SB>L</SB>and a voice based on R channel processing data PCD<SB>R</SB>thus generated are reproduced and outputted from voice output units 130<SB>L</SB>and 130<SB>R</SB>. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

Translated fromJapanese

本発明は、音響装置、音声再生方法、音声再生プログラム、及び、当該音声再生プログラムが記録された記録媒体に関する。  The present invention relates to an audio device, an audio reproduction method, an audio reproduction program, and a recording medium on which the audio reproduction program is recorded.

従来から、CD(Compact Disk)やDVD(Digital Versatile Disk)等の普及に伴って、複数のスピーカを有する2チャンネルステレオ方式やマルチチャンネルサラウンド方式の音響装置が普及している。これにより、家庭内空間や車両内空間においても、臨場感溢れる再生音声を楽しむことができるようになってきている。  2. Description of the Related Art Conventionally, with the spread of CD (Compact Disk), DVD (Digital Versatile Disk), etc., 2-channel stereo type and multi-channel surround type audio devices having a plurality of speakers have become widespread. As a result, it has become possible to enjoy reproduced sound full of realism even in home spaces and vehicle spaces.

ところで、現存する音声コンテンツは、モノラル方式をはじめとして、様々なチャンネル構成のものが存在する。このため、再生しようとする音声コンテンツのチャンネル構成が再生用の音響装置のチャンネル構成と一致しない場合が発生する。このため、例えば、再生しようとする音声コンテンツがモノラル方式で収録されたものである場合に、複数のスピーカを有する音響装置の性能を活用して臨場感溢れる音声再生を行うため、様々な技術が提案されている。  By the way, the existing audio content includes various channel configurations including a monaural system. For this reason, the channel configuration of the audio content to be played may not match the channel configuration of the audio device for playback. For this reason, for example, when the audio content to be reproduced is recorded in monaural format, various technologies are used to perform audio reproduction with a sense of presence by utilizing the performance of an acoustic device having a plurality of speakers. Proposed.

こうした技術として、モノラル方式で収録された音声コンテンツを2チャンネル(左(L)チャンネル及び右(R)チャンネル)ステレオ方式で再生するものがある(特許文献1参照:以下、「従来例」という)。この従来例の技術では、モノラル方式の音声信号を複数の周波数帯域に分割し、周波数帯域ごとに予め定められたLチャンネル又はRチャンネルに分配する。そして、チャンネルごとに、分配された信号を加算した信号を各スピーカに供給するようになっている。  As such a technique, there is one that reproduces audio content recorded in a monaural system in a two-channel (left (L) channel and right (R) channel) stereo system (see Patent Document 1: hereinafter referred to as “conventional example”). . In this conventional technique, a monaural audio signal is divided into a plurality of frequency bands and distributed to L channels or R channels predetermined for each frequency band. For each channel, a signal obtained by adding the distributed signals is supplied to each speaker.

特表2000−504526号公報Special Table 2000-504526

上述した従来例の技術では、音の広がり感を聴取者に与えることはできるが、その音の広がり感は、収録時における実際の音源の位置を反映したものとはいえない。このため、従来例の技術では、収録時における楽曲演奏等による音声とは異なる態様の音声を再生することになる場合が多かった。  With the above-described conventional technology, it is possible to give a listener a sense of sound spread, but the sound spread cannot reflect the actual position of the sound source at the time of recording. For this reason, in the technology of the conventional example, there is often a case where a sound having a different form from a sound due to music performance at the time of recording is reproduced.

このため、音声コンテンツがモノラル方式であったとしても、音声コンテンツの収録時における実際の音声に近付けたものを複数のスピーカにより再生することができる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。  For this reason, even if the audio content is a monaural system, there is a need for a technology that can reproduce the sound close to the actual sound at the time of recording the audio content with a plurality of speakers. Meeting this requirement is one of the problems to be solved by the present invention.

本発明は、上記の事情を鑑みてなされたものであり、音声コンテンツのチャンネル構成と異なる複数のチャンネル構成であっても、音声コンテンツの収録時における実際の音声に近付けた再生音声を生成することができる音響装置及び音声再生方法を提供することを目的とする。  The present invention has been made in view of the above circumstances, and generates reproduced sound that is close to the actual sound at the time of recording audio content, even if the channel configuration is different from the channel configuration of the audio content. An object of the present invention is to provide an audio device and a sound reproduction method capable of performing the above.

請求項1に記載の発明は、複数のスピーカから音場空間へ向けて音声を出力する音響装置であって、前記スピーカの数とは異なる数のチャンネル構成で収録が行われた音声コンテンツについて、前記収録の時における複数の音声源のそれぞれの種類情報と位置情報とを反映した音声源情報に基づいて、前記収録の時におけるチャンネル構成の信号から前記複数の音声源のそれぞれが発生したと推定される音声を抽出する抽出手段と;前記音声源情報に基づいて、前記抽出結果のそれぞれについて、前記抽出結果のそれぞれが対応する音声源が前記収録の時に位置していたと推定される位置に音像を形成する比率で、前記複数のスピーカそれぞれに対応する信号チャンネルに分配する分配手段と;前記信号チャンネルごとに、前記分配手段による分配結果を加算する加算手段と;を備えることを特徴とする音響装置である。  The invention according toclaim 1 is an acoustic device that outputs sound from a plurality of speakers to a sound field space, and the sound content recorded with a channel configuration of a number different from the number of the speakers, Based on the sound source information reflecting the type information and position information of each of the plurality of sound sources at the time of recording, it is estimated that each of the plurality of sound sources has occurred from the signal of the channel configuration at the time of recording. Extraction means for extracting the sound to be generated; for each of the extraction results based on the sound source information, a sound image at a position where the sound source corresponding to each of the extraction results is estimated to have been located at the time of recording Distributing means for distributing to the signal channels corresponding to each of the plurality of speakers at a ratio of forming each of the plurality of speakers; An acoustic device, characterized in that it comprises: adding means for adding distribution results.

請求項8に記載の発明は、複数のスピーカから音場空間へ向けて音声を出力する音響装置において使用される音像再生方法であって、前記スピーカの数とは異なる数のチャンネル構成で収録が行われた音声コンテンツについて、前記収録の時における複数の音声源のそれぞれの種類情報と位置情報とを反映した音声源情報に基づいて、前記収録の時におけるチャンネル構成の信号から前記複数の音声源のそれぞれが発生したと推定される音声を抽出する抽出工程と;前記音声源情報に基づいて、前記抽出結果のそれぞれについて、前記抽出結果のそれぞれが対応する音声源が前記収録の時に位置していたと推定される位置に音像を形成する比率で、前記複数のスピーカそれぞれに対応する信号チャンネルに分配する分配工程と;前記信号チャンネルごとに、前記分配工程における分配結果を加算する加算工程と;を備えることを特徴とする音声再生方法である。  The invention according to claim 8 is a sound image reproduction method used in an acoustic device for outputting sound from a plurality of speakers to a sound field space, and recording is performed with a channel configuration of a number different from the number of the speakers. Based on the audio source information reflecting the type information and position information of each of the plurality of audio sources at the time of recording, the plurality of audio sources from the channel configuration signal at the time of recording. An extraction step of extracting the sound that is estimated to have occurred, and for each of the extraction results based on the sound source information, the sound source corresponding to each of the extraction results is located at the time of recording A distribution step of distributing to a signal channel corresponding to each of the plurality of speakers at a ratio of forming a sound image at an estimated position; For each channel, an adding step of adding the distribution result in the distribution step; an audio reproducing method characterized by comprising a.

請求項9に記載の発明は、請求項8に記載の音声再生方法を演算手段に実行させる、ことを特徴とする音声再生プログラムである。  A ninth aspect of the present invention is a voice reproduction program characterized by causing a calculation means to execute the voice reproduction method according to the eighth aspect.

請求項10に記載の発明は、請求項9に記載の音声再生プログラムが、演算手段により読み取り可能に記録されている、ことを特徴とする記録媒体である。  A tenth aspect of the present invention is a recording medium in which the sound reproduction program according to the ninth aspect is recorded so as to be readable by a calculation means.

以下、本発明の一実施形態を、図1〜図10を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素については同一の符号を付し、重複する説明を省略する。  Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

[構成]
図1には、一実施形態に係る音響装置100の概略的な構成がブロック図にて示されている。なお、本実施形態の音響装置100は、モノラル方式で収録された音声コンテンツを2チャンネルステレオ方式で再生する装置である。
[Constitution]
FIG. 1 is a block diagram illustrating a schematic configuration of anaudio device 100 according to an embodiment. Note that theaudio device 100 according to the present embodiment is a device that reproduces audio content recorded in a monaural format in a 2-channel stereo format.

この図1に示されるように、音響装置100は、制御ユニット110と、記憶ユニット120とを備えている。  As shown in FIG. 1, theacoustic device 100 includes acontrol unit 110 and astorage unit 120.

また、音響装置100は、音出力ユニット130Lと、音出力ユニット130Rとを備えている。ここで、音出力ユニット130Lはレフトスピーカ131Lを有し、音出力ユニット130Rはライトスピーカ131Rを有している。Theacoustic device 100 includes asound output unit 130L, and asound output unit 130R. Here, thesound output unit 130L has aleft speaker 131L , and thesound output unit 130R has aright speaker 131R.

さらに、音響装置100は、表示ユニット150と、操作入力ユニット160とを備えている。  Furthermore, theacoustic device 100 includes adisplay unit 150 and anoperation input unit 160.

なお、制御ユニット110以外の要素120,130L,130R,150,160は、制御ユニット110に接続されている。Theelements 120, 130L , 130R , 150 and 160 other than thecontrol unit 110 are connected to thecontrol unit 110.

制御ユニット110は、音響装置100の全体を統括制御する。この制御ユニット110の詳細については、後述する。  Thecontrol unit 110 performs overall control of theaudio device 100. Details of thecontrol unit 110 will be described later.

上記の記憶ユニット120は、音声コンテンツ情報121、抽出参照情報122等の様々なデータを記憶する。ここで、音声コンテンツ情報121には、図2に示されるように、音声源情報としての楽曲情報126と、音声データ127とを含んでいる。  Thestorage unit 120 stores various data such as theaudio content information 121 and theextraction reference information 122. Here, theaudio content information 121 includesmusic information 126 as audio source information andaudio data 127, as shown in FIG.

楽曲情報126には、楽曲名情報と、楽曲の演奏者を示す演奏者情報とが含まれる。また、楽曲情報126には、楽曲の演奏場所である演奏場所情報と、楽曲の演奏に使用された楽器の構成を示す演奏楽器情報とが含まれる。なお、楽曲情報126には、楽曲名情報、演奏者情報、演奏場所情報及び演奏楽器情報の全てが含まれていることが必須というわけではなく、演奏時における楽器種類や演奏位置等の推測の基礎となり得る情報として、少なくとも1つが含まれていればよい。  Themusic information 126 includes music name information and player information indicating the player of the music. Further, themusic information 126 includes performance place information that is a place where the music is played, and performance instrument information that indicates the configuration of the instrument used to play the music. Note that themusic information 126 does not necessarily include all the music name information, performer information, performance location information, and musical instrument information. It is sufficient that at least one information is included as information that can be a basis.

例えば、楽曲名情報として「弦楽四重奏」という情報が含まれていれば、当該楽曲名情報のみで、楽器構成や、楽器間の位置関係の推測の基礎となり得る情報といえる。また、演奏者情報として「弦楽四重奏団」という情報が含まれていれば、当該演奏者情報のみで、楽器構成や、楽器間の位置関係の推測の基礎となり得る情報といえる。  For example, if the information “string quartet” is included as music name information, it can be said that only the music name information is information that can serve as a basis for estimating the musical instrument configuration and the positional relationship between the musical instruments. Further, if the information “string quartet” is included as the player information, it can be said that the player information alone can be used as a basis for estimating the musical instrument configuration and the positional relationship between the musical instruments.

上記のような楽曲名情報又は演奏者情報に加えて、演奏場所情報として「〜ホール」との情報が含まれていれば、当該演奏場所情報は、楽器間の位置関係のより高い精度による推測の基礎となり得る。また、演奏楽器情報は、楽器構成の推測の基礎となり得る。  In addition to the music name information or performer information as described above, if the information “˜hole” is included as performance place information, the performance place information is estimated with higher accuracy of the positional relationship between the instruments. Can be the basis of The musical instrument information can be the basis for estimating the musical instrument configuration.

上記の音声データ127は、所定のチャンネル構成で収録された音に対応したデジタルデータである。なお、以下の説明においては、音声データ127はモノラル形式で収録されたデータであるものとする。  Theaudio data 127 is digital data corresponding to sound recorded in a predetermined channel configuration. In the following description, theaudio data 127 is assumed to be data recorded in monaural format.

上記の抽出参照情報122には、図3に示されるように、上記の音声コンテンツ情報121に対応して定まる音声源情報#1〜#Nが含まれている。音声源情報#1〜#N−1のそれぞれには、楽曲情報126から推測される楽器構成における楽器等(バイオリン、コントラバス、ボーカル等)それぞれの周波数帯域、及び、各楽器等の推測位置に対応して定まる設定音像位置が含まれている。また、音声源情報#Nには、観客のざわめきや残響音等の演奏音に対するノイズを抽出するためのノイズ判断レベル及び設定音像位置が含まれている。こうした抽出参照情報122は、音声コンテンツ情報121の入手時に、楽曲情報126により推測された演奏時における楽器種類や演奏位置等に基づいて、制御ユニット110により生成されるようになっている。  As shown in FIG. 3, theextraction reference information 122 includes audiosource information # 1 to #N determined in correspondence with theaudio content information 121. In each of the audiosource information # 1 to # N-1, the frequency band of each instrument or the like (violin, contrabass, vocal, etc.) in the instrument configuration estimated from themusic information 126, and the estimated position of each instrument, etc. The set sound image position determined correspondingly is included. The sound source information #N includes a noise judgment level and a set sound image position for extracting noise with respect to performance sounds such as spectator noise and reverberation. Suchextraction reference information 122 is generated by thecontrol unit 110 based on the musical instrument type, performance position, etc. at the time of performance estimated from themusic information 126 when theaudio content information 121 is obtained.

なお、上述のノイズ判断レベルは、実験、シミュレーション、経験等に基づいて定められる。  The above-described noise determination level is determined based on experiments, simulations, experiences, and the like.

図1に戻り、記憶ユニット120からは、制御ユニット110からの制御信号DVCに従って、データが読み出される。ここで、上述した音声データ127は、コンテンツデータCTDとして読み出され、抽出参照情報122は、抽出参照情報データRFDとして読み出される。  Returning to FIG. 1, data is read from thestorage unit 120 in accordance with the control signal DVC from thecontrol unit 110. Here, theaudio data 127 described above is read as content data CTD, and the extractedreference information 122 is read as extracted reference information data RFD.

なお、制御ユニット110は、制御信号DVCとしてデータ位置を指定した読出指令を発行することにより、音声データ127及び抽出参照情報122以外のデータも記憶ユニット120から読み出すことが可能となっている。また、制御ユニット110は、制御信号DVCとしてデータ位置を指定した書込指令を発行することにより、記憶ユニット120の任意の位置に所望の内容のデータを書き込むことが可能となっている。  Note that thecontrol unit 110 can read data other than theaudio data 127 and theextraction reference information 122 from thestorage unit 120 by issuing a read command specifying a data position as the control signal DVC. Further, thecontrol unit 110 can write data having a desired content at an arbitrary position in thestorage unit 120 by issuing a write command designating a data position as the control signal DVC.

上記の音出力ユニット130L,130Rのそれぞれは、上述したスピーカ131L,131Rの他に、制御ユニット110から受信した音声出力信号AOSL,AOSRを増幅する増幅器等を備えている。これらの音出力ユニット130L,130Rは、制御ユニット110から送られてきた音声出力信号AOSL,AOSRに従って、楽曲等の再生音声を出力する。Each of thesound output units 130L and 130R includes an amplifier that amplifies the sound output signals AOSL and AOSR received from thecontrol unit 110 in addition to thespeakers 131L and 131R described above. Thesesound output units 130L and 130R output reproduced sound such as music in accordance with the audio output signals AOSL and AOSR sent from thecontrol unit 110.

本実施形態では、図4に示されるように、音出力ユニット130Lのレフトスピーカ131Lは、助手席側の前方ドア筐体内に配置される。このレフトスピーカ131Lは、助手席側を向くように配設されている。また、音出力ユニット130Rのライトスピーカ131Rは、運転席側の前方ドア筐体内に配置される。このライトスピーカ131Rは、運転席側を向くように配設されている。In the present embodiment, as shown in FIG. 4, theleft speaker 131L of thesound output unit 130L is disposed in the front door housing on the passenger seat side. Theleft speaker 131L is disposed so as to face the passenger seat side. Thelight speaker 131R of thesound output unit 130R is disposed in the front door casing on the driver's seat side. Thelight speaker 131R is arranged to face the driver's seat side.

図1に戻り、上記の表示ユニット150は、例えば、(i)液晶パネル、有機EL(Electro Luminescence)パネル、PDP(Plasma Display Panel)等の表示デバイス151と、(ii)制御ユニット110から送出された表示制御データに基づいて、表示ユニット150全体の制御を行うグラフィックレンダラ等の表示コントローラと、(iii)表示画像データを記憶する表示画像メモリ等を備えて構成されている。この表示ユニット150は、制御ユニット110からの表示データIMDに従って、操作ガイダンス情報等を表示する。  Returning to FIG. 1, thedisplay unit 150 is transmitted from, for example, adisplay device 151 such as (i) a liquid crystal panel, an organic EL (Electro Luminescence) panel, or a PDP (Plasma Display Panel), and (ii) acontrol unit 110. And a display controller such as a graphic renderer for controlling theentire display unit 150 based on the display control data, and (iii) a display image memory for storing display image data. Thedisplay unit 150 displays operation guidance information and the like according to display data IMD from thecontrol unit 110.

上記の操作入力ユニット160は、音響装置100の本体部に設けられたキー部、及び/又はキー部を備えるリモート入力装置等により構成される。ここで、本体部に設けられたキー部としては、表示ユニット150の表示デバイス151に設けられたタッチパネルを用いることができる。なお、キー部を有する構成に代えて、又は併用して音声認識技術を利用して音声にて入力する構成を採用することもできる。  Theoperation input unit 160 includes a key unit provided in the main body of theacoustic device 100 and / or a remote input device including the key unit. Here, a touch panel provided on thedisplay device 151 of thedisplay unit 150 can be used as the key part provided on the main body. In addition, it can replace with the structure which has a key part, or can also employ | adopt the structure input with a sound using a voice recognition technique in combination.

この操作入力ユニット160を利用者が操作することにより、音響装置100において再生すべき音声コンテンツの指定等が行われる。こうした入力内容は、操作入力データIPDとして、操作入力ユニット160から制御ユニット110へ向けて送られる。  When the user operates theoperation input unit 160, the audio content to be reproduced in theacoustic device 100 is designated. Such input contents are sent from theoperation input unit 160 to thecontrol unit 110 as operation input data IPD.

次に、上記の制御ユニット110について説明する。上述したように、制御ユニット110は、音響装置100の全体を統括制御する。この制御ユニット110は、図5に示されるように、チャンネル信号処理部111と、アナログ変換部112とを備えている。また、制御ユニット110は、音量調整部113と、制御処理部119とを備えている。  Next, thecontrol unit 110 will be described. As described above, thecontrol unit 110 performs overall control of theaudio device 100. As illustrated in FIG. 5, thecontrol unit 110 includes a channelsignal processing unit 111 and ananalog conversion unit 112. Thecontrol unit 110 also includes avolume adjustment unit 113 and acontrol processing unit 119.

上記のチャンネル信号処理部111は、記憶ユニット120からのコンテンツデータCTDを処理し、スピーカ131L,131Rに対応するチャンネル処理データPCDL,PCDRを生成する。かかる機能を有するチャンネル信号処理部111は、図6に示されるように、抽出手段としての抽出部210と、分配手段としての分配部220と、加算手段としての加算部230とを備えている。The channelsignal processing unit 111 processes the content data CTD from thestorage unit 120 and generates channel processing data PCDL and PCDR corresponding to thespeakers 131L and 131R. As shown in FIG. 6, the channelsignal processing unit 111 having such a function includes anextraction unit 210 as an extraction unit, adistribution unit 220 as a distribution unit, and anaddition unit 230 as an addition unit.

上記の抽出部210は、記憶ユニット120からのコンテンツデータCTDを受ける。そして、抽出部210は、制御処理部119からの抽出制御信号EXCに従って、N個の音声源ごとの音声成分を抽出する。かかる機能を有する抽出部210は、図7に示されるように、バンドパスフィルタ(BPF)2111〜211N-1と、ノイズゲート212とを備えている。Theextraction unit 210 receives the content data CTD from thestorage unit 120. Then, theextraction unit 210 extracts audio components for each of N audio sources in accordance with the extraction control signal EXC from thecontrol processing unit 119. As illustrated in FIG. 7, theextraction unit 210 having such a function includes band pass filters (BPF) 2111 to 211N−1 and anoise gate 212.

上記のBPF211j(j=1〜N−1)のそれぞれは、記憶ユニット120からコンテンツデータCTDを受ける。そして、BPF211jのそれぞれは、制御処理部119からの抽出制御信号EXCにおける抽出指令信号EXCjにより指定された通過帯域に属する周波数の信号成分を選択的に通過させる。こうしてBPF211jを通過した信号は、抽出信号EXDjとして、分配部220へ送られる。Each of the BPFs 211j (j = 1 to N−1) receives the content data CTD from thestorage unit 120. EachBPF 211j selectively allows a signal component of a frequency belonging to the pass band specified by the extraction command signal EXCj in the extraction control signal EXC from thecontrol processing unit 119 to pass therethrough. The signal that has passed throughBPF 211j in this way is sent todistribution section 220 as extraction signal EXDj .

上記のノイズゲート212は、記憶ユニット120からコンテンツデータCTDを受ける。そして、ノイズゲート212は、制御処理部119からの抽出制御信号EXCにおける抽出指令信号EXCNにより指定されたノイズ判断レベル以下の音に対応する信号のみを通過させる。こうしてノイズゲート212を通過した信号は、抽出信号EXDNとして、分配部220へ送られる。Thenoise gate 212 receives the content data CTD from thestorage unit 120. Thenoise gate 212 passes only the signal corresponding to the specified noise judgment levels following sound by extracting command signal EXCN in the extraction control signal EXC from thecontrol processor 119. Signal that has passed through thenoise gate 212 thus, as the extraction signal EXDN, is sent to thedivider 220.

図6に戻り、上記の分配部220は、抽出部210からの抽出信号EXDk(k=1〜N)を受ける。そして、分配部220は、制御処理部119からの分配制御信号DSCに従って、抽出信号EXDkのそれぞれからLチャンネル分配信号DCLkとRチャンネル分配信号DCRkとを生成する。かかる機能を有する分配部220は、図8に示されるように、個別分配部2211〜221Nを備えている。Returning to FIG. 6, thedistribution unit 220 receives the extraction signal EXDk (k = 1 to N) from theextraction unit 210.Distribution unit 220 then generates L channel distribution signal DCLk and R channel distribution signal DCRk from each of extracted signals EXDk in accordance with distribution control signal DSC fromcontrol processing unit 119. Thedistribution unit 220 having such a function includesindividual distribution units 2211 to 221N as shown in FIG.

個別分配部221kは、抽出部210からの抽出信号EXDkを受ける。そして、個別分配部221kは、制御処理部119からの分配制御信号DSCにおける分配指令信号DSCkに従って、Lチャンネル分配信号DCLkとRチャンネル分配信号DCRkとを生成する。かかる機能を有する個別分配部221kは、図9に示されるように、オールパスフィルタ(APF)226L,226Rと、可変減衰部227L,227Rとを備えている。Theindividual distribution unit 221k receives the extraction signal EXDk from theextraction unit 210. Then, theindividual distribution unit 221k generates an L channel distribution signal DCLk and an R channel distribution signal DCRk in accordance with the distribution command signal DSCk in the distribution control signal DSC from thecontrol processing unit 119. As shown in FIG. 9, theindividual distribution unit 221k having such a function includes all-pass filters (APF) 226L and 226R andvariable attenuation units 227L and 227R.

上記のAPF226Lは、抽出部210からの抽出信号EXDkを受ける。そして、APF226Lは、全ての周波数範囲の信号を通過させつつ、Lチャンネル用の位相変化を付与する。こうしてAPF226Lにより処理されて生成された信号は、Lチャンネル位相加工信号PALkとして可変減衰部227Lへ送られる。Additional APF226L receives the extracted signal EXDk from theextraction unit 210. Then, theAPF 226L gives a phase change for the L channel while allowing signals in the entire frequency range to pass. The signal thus processed and generated by theAPF 226L is sent to thevariable attenuating unit 227L as the L channel phase processing signal PALk .

上記のAPF226Rは、抽出部210からの抽出信号EXDkを受ける。そして、APF226Rは、全ての周波数範囲の信号を通過させつつ、Rチャンネル用の位相変化を付与する。こうしてAPF226Rにより処理されて生成された信号は、Rチャンネル位相加工信号PARkとして可変減衰部227Rへ送られる。TheAPF 226R receives the extraction signal EXDk from theextraction unit 210. Then, theAPF 226R gives a phase change for the R channel while allowing signals in the entire frequency range to pass. Thus signals generated are processed by APF226R is sent to thevariable attenuation section 227R as R-channel phase processing signal PARk.

上記の可変減衰部227Lは、APF226LからのLチャンネル位相加工信号PALkを入力端子Iで受ける。また、可変減衰部227Lは、制御処理部119からの分配指令信号DSCkにおけるLチャンネル分配率指定信号DSCkLを制御端子Cで受ける。そして、可変減衰部227Lは、Lチャンネル分配率指定信号DSCkLにより指定された分配率をLチャンネル位相加工信号PALkに乗じる。この乗算結果は、可変減衰部227Lの出力端子Oから、Lチャンネル分配信号DCLkとして加算部230へ向けて出力される。Additional attenuator 227L receives the L-channel phase processing signal PALk from APF226L at an input terminal I. Thevariable attenuating unit 227L receives the L channel distribution rate designation signal DSCkL in the distribution command signal DSCk from thecontrol processing unit 119 at the control terminal C. Then, thevariable attenuation unit 227L multiplies the L channel phase processing signal PALk by the distribution rate specified by the L channel distribution rate specifying signal DSCkL . The multiplication result is output from the output terminal O of thevariable attenuating unit 227L to the addingunit 230 as the L channel distribution signal DCLk .

上記の可変減衰部227Rは、APF226RからのRチャンネル位相加工信号PARkを入力端子Iで受ける。また、可変減衰部227Rは、制御処理部119からの分配指令信号DSCkにおけるRチャンネル分配率指定信号DSCkRを制御端子Cで受ける。そして、可変減衰部227Rは、Rチャンネル分配率指定信号DSCkRにより指定された分配率をRチャンネル位相加工信号PARkに乗じる。この乗算結果は、可変減衰部227Rの出力端子Oから、Rチャンネル分配信号DCRkとして加算部230へ向けて出力される。Thevariable attenuation unit 227R receives the R channel phase processing signal PARk from theAPF 226R at the input terminal I. Thevariable attenuating unit 227R receives the R channel distribution ratio designation signal DSCkR in the distribution command signal DSCk from thecontrol processing unit 119 at the control terminal C. Then, thevariable attenuation unit 227R multiplies the R channel phase processing signal PARk by the distribution rate specified by the R channel distribution rate specifying signal DSCkR . The multiplication result is output from the output terminal O of thevariable attenuation unit 227R to the addingunit 230 as the R channel distribution signal DCRk .

図6に戻り、上記の加算部230は、分配部220からのLチャンネル分配信号DCL1〜DCLN及びRチャンネル分配信号DCR1〜DCRNを受ける。そして、加算部230は、Lチャンネル分配信号DCL1〜DCLNに基づいて、Lチャンネル処理データPCDLを生成するとともに、Rチャンネル分配信号DCR1〜DCRNに基づいて、Rチャンネル処理データPCDRを生成する。かかる機能を有する加算部230は、Lチャンネル加算部231Lと、Rチャンネル加算部231Rとを備えている。Returning to FIG. 6, theabove adder 230 receives the L-channel distribution signal DCL1 ~DCLN and R-channel distribution signal DCR1 ~DCRN fromdistribution unit 220. Then, theaddition unit 230, based on the L-channel distribution signal DCL1 ~DCLN, generates the L channel processing data PCDL, based on the R-channel distribution signal DCR1 ~DCRN, R channel processing data PCDR Is generated. The addingunit 230 having such a function includes an Lchannel adding unit 231L and an Rchannel adding unit 231R.

上記のLチャンネル加算部231Lは、分配部220からのLチャンネル分配信号DCL1〜DCLNを受ける。そして、Lチャンネル加算部231Lは、Lチャンネル分配信号DCL1〜DCLNを加算する。この加算結果が、Lチャンネル処理データPCDLとして、アナログ変換部112へ向けて出力される。The Lchannel adding unit 231L receives the L channel distribution signals DCL1 to DCLN from thedistribution unit 220. Then, the Lchannel adding unit 231L adds the L channel distribution signals DCL1 to DCLN. The addition result is output to theanalog conversion unit 112 as L channel processing data PCDL.

上記のRチャンネル加算部231Rは、分配部220からのRチャンネル分配信号DCR1〜DCRNを受ける。そして、Rチャンネル加算部231Rは、Rチャンネル分配信号DCR1〜DCRNを加算する。この加算結果が、Rチャンネル処理データPCDRとして、アナログ変換部112へ向けて出力される。The Rchannel adding unit 231R receives the R channel distribution signals DCR1 to DCRN from thedistribution unit 220. Then, R-channel summing unit 231R adds the R-channel distribution signal DCR1 ~DCRN. The result of addition, as R channel processing data PCDR, is outputted to theanalog converter 112.

図5に戻り、上記のアナログ変換部112は、チャンネル信号処理部111から送られてきたデジタル信号であるLチャンネル処理データPCDL及びRチャンネル処理データPCDRを、それぞれアナログ信号に変換する。このアナログ変換部112は、当該2種のデジタル信号に対応して、互いに同様に構成された2個のDA(Digital to Analogue)変換器を備えている。このアナログ変換部112による変換結果であるアナログ信号PBSL,PBSRは、音量調整部113へ向けて送られる。Returning to FIG. 5, theanalog conversion unit 112 converts the L channel processing data PCDL and the R channel processing data PCDR that are digital signals sent from the channelsignal processing unit 111 into analog signals. Theanalog conversion unit 112 includes two DA (Digital to Analogue) converters configured similarly to each other corresponding to the two types of digital signals. The analog signals PBSL and PBSR that are the conversion results by theanalog conversion unit 112 are sent to thevolume adjustment unit 113.

上記の音量調整部113は、アナログ変換部112からのアナログ信号PBSL,PBSRを受ける。そして、音量調整部113は、アナログ信号PBSL,PBSRのそれぞれに対して、制御処理部119からの音量調整指令VLCに従って、音量を調整する。かかる調整結果は、音声出力信号AOSL,AOSRとして、音出力ユニット130L,130Rへ向けて出力される。Thevolume controller 113 receives the analog signals PBSL and PBSR from theanalog converter 112. Then, thevolume adjustment unit 113 adjusts the volume for each of the analog signals PBSL and PBSR according to the volume adjustment command VLC from thecontrol processing unit 119. The adjustment results are output to thesound output units 130L and 130R as audio output signals AOSL and AOSR.

次に、上記の制御処理部119について説明する。この制御処理部119は、上述した他の構成要素を制御しつつ、音響装置100の機能を発揮させる。この制御処理部119は、音声コンテンツ情報121が入手され、記憶ユニット120に格納されると、音声コンテンツ情報121における楽曲情報126の内容を上述したように利用して、抽出参照情報122を生成する。制御処理部119は、こうして生成された抽出参照情報122を記憶ユニット120に格納する。  Next, thecontrol processing unit 119 will be described. Thecontrol processing unit 119 exerts the function of theacoustic device 100 while controlling the other components described above. When theaudio content information 121 is obtained and stored in thestorage unit 120, thecontrol processing unit 119 generates theextraction reference information 122 using the content of themusic information 126 in theaudio content information 121 as described above. . Thecontrol processing unit 119 stores the extractedreference information 122 generated in this way in thestorage unit 120.

また、制御処理部119は、利用者が再生すべき音声コンテンツの指定を支援するための案内画面を表示ユニット150に表示させる。そして、操作入力ユニット160から音声コンテンツを指定した再生指令が入力されると、制御処理部119は、記憶ユニット120からの再生コンテンツのデータ読み出しを制御する。  In addition, thecontrol processing unit 119 causes thedisplay unit 150 to display a guidance screen for assisting the user in specifying audio content to be reproduced. Then, when a reproduction command designating audio content is input from theoperation input unit 160, thecontrol processing unit 119 controls reading of reproduction content data from thestorage unit 120.

また、制御処理部119は、操作入力ユニット160から音声コンテンツを指定した再生指令が入力されると、記憶ユニット120から抽出参照情報122を、抽出参照情報データRFDとして読み出す。引き続き、制御処理部119は、読み出された抽出参照情報122に基づいて、抽出制御信号EXC及び分配制御信号DSCを生成する。そして、制御処理部119は、生成された抽出制御信号EXC及び分配制御信号DSCを、チャンネル信号処理部111へ向けて送る。  In addition, when a reproduction command specifying audio content is input from theoperation input unit 160, thecontrol processing unit 119 reads the extractedreference information 122 from thestorage unit 120 as the extracted reference information data RFD. Subsequently, thecontrol processing unit 119 generates the extraction control signal EXC and the distribution control signal DSC based on the readextraction reference information 122. Then, thecontrol processing unit 119 sends the generated extraction control signal EXC and distribution control signal DSC to the channelsignal processing unit 111.

ここで、制御処理部119は、抽出参照情報122の音声源情報#1〜#(N−1)における周波数帯域及び音声源情報#Nのノイズ判断レベルに基づいて、抽出制御信号EXCを生成する。また、制御処理部119は、抽出参照情報122の音声源情報#1〜#Nの設定音像位置に基づいて、分配制御信号DSCを生成する。  Here, thecontrol processing unit 119 generates the extraction control signal EXC based on the frequency band in the audiosource information # 1 to # (N−1) of theextraction reference information 122 and the noise determination level of the audio source information #N. . Further, thecontrol processing unit 119 generates the distribution control signal DSC based on the set sound image positions of the soundsource information # 1 to #N of theextraction reference information 122.

また、制御処理部119は、音量調整部113を制御して、音出力ユニット130L,130Rのスピーカ131L,131Rからの出力音量を調整する。この出力音量の制御に際して、制御処理部119は、操作入力ユニット160に入力された音量指定に従って音量調整指令VLCを生成し、音量調整部113へ向けて送る。Further, thecontrol processing unit 119 controls thevolume adjustment unit 113 to adjust the output volume from thespeakers 131L and 131R of thesound output units 130L and 130R. When controlling the output volume, thecontrol processing unit 119 generates a volume adjustment command VLC according to the volume designation input to theoperation input unit 160 and sends it to thevolume adjustment unit 113.

[動作]
次に、上記のように構成された音響装置100の動作について、音像位置の設定処理に主に着目して説明する。なお、記憶ユニット120には、モノラル形式で収録された音声データ127を含む音声コンテンツ情報121及び抽出参照情報122は、既に記憶されているものとする。
[Operation]
Next, the operation of theacoustic device 100 configured as described above will be described mainly focusing on the sound image position setting process. It is assumed that theaudio content information 121 and theextraction reference information 122 including theaudio data 127 recorded in monaural format are already stored in thestorage unit 120.

利用者が、操作入力ユニット160に音声データ127を指定した再生指令を入力すると、その旨が、操作入力データIPDとして、制御処理部119へ送られる(図5参照)。この再生指令を受けると、制御処理部119は、まず、記憶ユニット120から抽出参照情報122を、抽出参照情報データRFDとして読み出す。  When the user inputs a reproduction command specifying theaudio data 127 to theoperation input unit 160, a message to that effect is sent to thecontrol processing unit 119 as operation input data IPD (see FIG. 5). Upon receiving this reproduction command, thecontrol processing unit 119 first reads the extractedreference information 122 from thestorage unit 120 as the extracted reference information data RFD.

次に、制御処理部119は、読み出された抽出参照情報122の音声源情報#1〜#(N−1)における周波数帯域を指定する抽出指令信号EXC1〜EXCN-1を生成するとともに、抽出参照情報122の音声源情報#Nにおけるノイズ判断レベルを指定する抽出指令信号EXCNを生成する。引き続き、制御処理部119は、こうして生成された抽出指令信号EXC1〜EXCN、すなわち、抽出制御信号EXCを、チャンネル信号処理部111の抽出部210へ送る(図6参照)。Next, thecontrol processing unit 119 generates extraction command signals EXC1 to EXCN-1 that specify frequency bands in the audiosource information # 1 to # (N−1) of the readextraction reference information 122. to generate an extraction command signal EXCN that specifies the noise judgment level in the audio source information #N extractedreference information 122. Subsequently, thecontrol processing unit 119 sends the extraction command signals EXC1 to EXCN thus generated, that is, the extraction control signal EXC, to theextraction unit 210 of the channel signal processing unit 111 (see FIG. 6).

抽出部210では、抽出制御信号EXCにおける抽出指令信号EXCj(j=1〜N−1)で指定された周波数帯域がBPF211jの通過帯域として設定される。また、抽出部210では、抽出制御信号EXCにおける抽出指令信号EXCNで指令されたノイズ判断レベルが、ノイズゲート212のノイズ判断レベルとして設定される(図7参照)。In theextraction unit 210, the frequency band specified by the extraction command signal EXCj (j = 1 to N−1) in the extraction control signal EXC is set as the pass band of theBPF 211j . Further, theextraction unit 210, extraction command signal EXCN at the commanded noise judgment level in the extracted control signal EXC, is set as the noise judgment level of the noise gate 212 (see FIG. 7).

次いで、制御処理部119は、読み出された抽出参照情報122の音声源情報#1〜#Nにおける設定音像位置に基づいて、当該設定音像位置に音像を形成するためのLチャンネル分配率とRチャンネル分配率とを指定するLチャンネル分配率指定信号DSC1L〜DSCNL及びRチャンネル分配率指定信号DSC1R〜DSCNRを生成する。引き続き、制御処理部119は、こうして生成されたLチャンネル分配率指定信号DSC1L〜DSCNL及びRチャンネル分配率指定信号DSC1R〜DSCNR、すなわち、分配制御信号DSCを、チャンネル信号処理部111の分配部220へ送る(図6参照)。Next, based on the set sound image position in the soundsource information # 1 to #N of the readextraction reference information 122, thecontrol processing unit 119 forms the L channel distribution rate and R for forming a sound image at the set sound image position. L channel distribution ratio designation signals DSC1L to DSCNL and R channel distribution ratio designation signals DSC1R to DSCNR for designating the channel distribution ratio are generated. Subsequently, thecontrol processing unit 119 transmits the L channel distribution ratio designation signals DSC1L to DSCNL and the R channel distribution ratio designation signals DSC1R to DSCNR generated in this way, that is, the distribution control signal DSC to the channelsignal processing unit 111. The data is sent to the distribution unit 220 (see FIG. 6).

分配部220では、分配制御信号DSCにおけるLチャンネル分配率指定信号DSCkL(k=1〜N)で指定されたLチャンネル分配率が個別分配部221kの可変減衰部227Lの減衰率として設定される。また、分配部220では、分配制御信号DSCにおけるRチャンネル分配率指定信号DSCkRで指定されたRチャンネル分配率が個別分配部221kの可変減衰部227Rの減衰率として設定される(図9参照)。Indistribution section 220, the L channel distribution ratio designated by L channel distribution ratio designation signal DSCkL (k = 1 to N) in distribution control signal DSC is set as the attenuation factor ofvariable attenuation section 227L ofindividual distribution section 221k. The Further, thedistribution unit 220, R-channel distribution ratio specified by R-channel distribution ratio specifying signal DSCkR at the dispensing control signal DSC is set as the attenuation factor of theattenuator 227R of the individual distribution unit 221k (see FIG. 9 ).

以上のようにしてチャンネル信号処理部111に対する設定を終了すると、制御処理部119は、記憶ユニット120内の音声コンテンツ情報121における音声データ127をコンテンツデータCTDとして読み出す制御を開始する。かかる制御のもとで記憶ユニット120から読み出されたコンテンツデータCTDは、チャンネル信号処理部111の抽出部210へ送られる(図6参照)。コンテンツデータCTDを受けた抽出部210では、BPF211j(j=1〜N−1)のそれぞれが、コンテンツデータCTDにおける抽出指令信号EXCjにより指定された通過帯域に属する周波数の信号成分を選択的に通過させる。こうして、BPF211jを通過した信号が、抽出信号EXDjとして、分配部220へ送られる(図7参照)。When the setting for the channelsignal processing unit 111 is completed as described above, thecontrol processing unit 119 starts control to read out theaudio data 127 in theaudio content information 121 in thestorage unit 120 as the content data CTD. The content data CTD read from thestorage unit 120 under such control is sent to theextraction unit 210 of the channel signal processing unit 111 (see FIG. 6). In theextraction unit 210 that has received the content data CTD, each of the BPFs 211j (j = 1 to N−1) selectively selects a signal component of a frequency belonging to the pass band specified by the extraction command signal EXCj in the content data CTD. To pass through. In this way, the signal that has passed through theBPF 211j is sent to thedistribution unit 220 as the extraction signal EXDj (see FIG. 7).

また、コンテンツデータCTDを受けた抽出部210では、ノイズゲート212が、抽出指令信号EXCNにより指定されたノイズ判断レベル以下の音に対応する信号のみを通過させる。こうしてノイズゲート212を通過した信号が、抽出信号EXDNとして、分配部220へ送られる(図7参照)。Further, theextraction unit 210 receives the content data CTD,noise gate 212 causes only pass signals corresponding to the specified noise judgment levels following sound by extracting command signal EXCN. Thus the signal which has passed through thenoise gate 212, as the extraction signal EXDN, is sent to the distribution unit 220 (see FIG. 7).

抽出信号EXD1〜EXDNを受けた分配部220では、個別分配部221k(k=1〜N)が、抽出信号EXDkをLチャンネル及びRチャンネルに分配する。この結果、Lチャンネル分配信号DCLk及びRチャンネル分配信号DCRkが生成される(図8参照)。In thedistribution unit 220 that receives the extraction signals EXD1 to EXDN , the individual distribution unit 221k (k = 1 to N) distributes the extraction signal EXDk to the L channel and the R channel. As a result, an L channel distribution signal DCLk and an R channel distribution signal DCRk are generated (see FIG. 8).

ここで、Lチャンネル分配信号DCLkの生成に際して、個別分配部221kでは、まず、APF226Lが、抽出信号EXDkに対して、全ての周波数範囲の信号を通過させつつ、Lチャンネル用の位相変化を付与する。こうしてAPF226Lにより処理されて生成された信号は、Lチャンネル位相加工信号PALkとして可変減衰部227Lへ送られる。Here, when the L channel distribution signal DCLk is generated, in theindividual distribution unit 221k , first, theAPF 226L passes the signals in the entire frequency range with respect to the extraction signal EXDk , and the phase change for the L channel is performed. Is granted. The signal thus processed and generated by theAPF 226L is sent to thevariable attenuating unit 227L as the L channel phase processing signal PALk .

Lチャンネル位相加工信号PALkを受けた可変減衰部227Lでは、Lチャンネル位相加工信号PALkと、Lチャンネル分配率指定信号DSCkLにより指定された分配率との乗算を行う。この乗算結果が、Lチャンネル分配信号DCLkとして加算部230へ向けて出力される。Thevariable attenuating unit 227L that has received the L channel phase processing signal PALk multiplies the L channel phase processing signal PALk by the distribution rate designated by the L channel distribution rate designation signal DSCkL . The multiplication result is output to the addingunit 230 as the L channel distribution signal DCLk .

また、Rチャンネル分配信号DCRkの生成に際して、個別分配部221kでは、まず、APF226Rが、抽出信号EXDkに対して、全ての周波数範囲の信号を通過させつつ、Rチャンネル用の位相変化を付与する。こうしてAPF226Rにより処理されて生成された信号は、Rチャンネル位相加工信号PARkとして可変減衰部227Rへ送られる。In the generation of the R channel distribution signal DCRk , in theindividual distribution unit 221k , first, theAPF 226R changes the phase for the R channel while allowing signals in the entire frequency range to pass through the extracted signal EXDk . Give. Thus signals generated are processed by APF226R is sent to thevariable attenuation section 227R as R-channel phase processing signal PARk.

Rチャンネル位相加工信号PARkを受けた可変減衰部227Rでは、Rチャンネル位相加工信号PARkと、Rチャンネル分配率指定信号DSCkRにより指定された分配率との乗算を行う。この乗算結果が、Rチャンネル分配信号DCRkとして加算部230へ向けて出力される。Thevariable attenuating unit 227R that has received the R channel phase processing signal PARk multiplies the R channel phase processing signal PARk by the distribution rate designated by the R channel distribution rate designation signal DSCkR . The multiplication result is output to the addingunit 230 as the R channel distribution signal DCRk .

以上のようにして分配部220で生成されたLチャンネル分配信号DCLk(k=1〜N)は、加算部230におけるLチャンネル加算部231Lにより加算される。この加算結果が、Lチャンネル処理データPCDLとして、アナログ変換部112へ向けて送られる。The L channel distribution signal DCLk (k = 1 to N) generated by thedistribution unit 220 as described above is added by the Lchannel addition unit 231L in theaddition unit 230. The addition result is sent to theanalog conversion unit 112 as L channel processing data PCDL.

また、分配部220で生成されたRチャンネル分配信号DCRk(k=1〜N)は、加算部230におけるRチャンネル加算部231Rにより加算される。この加算結果が、Rチャンネル処理データPCDRとして、アナログ変換部112へ向けて送られる。The R channel distribution signal DCRk (k = 1 to N) generated by thedistribution unit 220 is added by the Rchannel addition unit 231R in theaddition unit 230. The result of addition, as R channel processing data PCDR, is sent towards to theanalog converter unit 112.

この後、Lチャンネル処理データPCDL及びRチャンネル処理データPCDRについて、アナログ変換部112においてアナログ信号に変換され、さらに、音量調整部113において音量調整が行われて、音声出力信号AOSL,AOSRが生成される。そして、音声出力信号AOSL,AOSRが音出力ユニット130L,130Rに供給される(図5参照)。Thereafter, the L channel processing data PCDL and the R channel processing data PCDR are converted into analog signals by theanalog conversion unit 112, and the volume adjustment is performed by thevolume adjustment unit 113, so that the audio output signals AOSL , AOSR is generated. Then, the audio output signals AOSL and AOSR are supplied to thesound output units 130L and 130R (see FIG. 5).

この結果、記憶ユニット120に記憶されている音声データ127の再生に際して、収録時の楽器等の位置関係を反映して音像形成が実現された音声が、スピーカ131L,131Rから出力される。こうした再生音声による音像位置と聴取者との位置関係の例が、図10に示されている。As a result, when theaudio data 127 stored in thestorage unit 120 is reproduced, audio in which sound image formation is realized reflecting the positional relationship of the musical instrument or the like at the time of recording is output from thespeakers 131L and 131R. An example of the positional relationship between the sound image position by the reproduced sound and the listener is shown in FIG.

以上説明したように、本実施形態では、モノラル形式で収録された音声データ127について、まず、抽出部210が、楽曲情報126から生成された抽出参照情報122における周波数帯域に基づいて、楽器等の音声源ごとの音声成分を抽出する。引き続き、分配部220が、抽出参照情報122における設定音像位置に対応する位置に、抽出部210により抽出された音声成分の音像が形成されるように、LチャンネルとRチャンネルとに当該音声成分を分配する。そして、加算部230が、Lチャンネルに分配された信号を加算するとともに、Rチャンネルに分配された信号を加算する。こうして生成されたLチャンネル処理データPCDL及びRチャンネル処理データPCDRに基づく音声が、音出力ユニット130L,130Rのスピーカ131L,131Rから再生出力される。As described above, in the present embodiment, for theaudio data 127 recorded in monaural format, first, theextraction unit 210 uses a frequency band in theextraction reference information 122 generated from themusic information 126 to determine whether the musical instrument or the like. Extract audio components for each audio source. Subsequently, thedistribution unit 220 applies the sound component to the L channel and the R channel so that the sound image of the sound component extracted by theextraction unit 210 is formed at a position corresponding to the set sound image position in theextraction reference information 122. Distribute. Then, theaddition unit 230 adds the signals distributed to the L channel and adds the signals distributed to the R channel. The sound based on the L channel processing data PCDL and the R channel processing data PCDR generated in this way is reproduced and output from thespeakers 131L and 131R of thesound output units 130L and 130R.

したがって、本実施形態によれば、音声コンテンツの収録時のチャンネル構成と異なる複数のチャンネル構成であっても、音声コンテンツの収録時における実際の音声に近付けた再生音声を生成することができる。  Therefore, according to the present embodiment, it is possible to generate reproduced sound that is close to the actual sound at the time of recording the audio content, even with a plurality of channel configurations different from the channel configuration at the time of recording the audio content.

[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the above-described embodiment, and various modifications are possible.

例えば、上記の実施形態では、モノラル形式で収録された音声コンテンツを2チャンネルステレオ形式に変換して再生するようにした。これに対して、他のチャンネル構成間の変換を行う場合に、本発明を適用するようにしてもよい。  For example, in the above embodiment, the audio content recorded in the monaural format is converted to the 2-channel stereo format and played back. On the other hand, the present invention may be applied when converting between other channel configurations.

また、上記の実施形態では、音声源ごとの音声成分の抽出にBPFを用いたが、ローパスフィルタ(LPF)やハイパスフィルタ(HPF)を併用することもできる。  In the above embodiment, the BPF is used to extract the sound component for each sound source. However, a low-pass filter (LPF) or a high-pass filter (HPF) can be used in combination.

また、上記の実施形態における楽曲情報の種類は例示あり、他の情報を併用することもできる。  Moreover, the kind of music information in said embodiment is an illustration, and other information can also be used together.

また、上記の実施形態では、固定ディスク等の記憶ユニット120に音声コンテンツ情報が記憶されることにしたが、音声コンテンツがCD(Compact Disk)やDVD(Digital Versatile Disk)等の可搬型記録媒体に記録されるようにすることもできる。  In the above embodiment, the audio content information is stored in thestorage unit 120 such as a fixed disk. However, the audio content is stored in a portable recording medium such as a CD (Compact Disk) or a DVD (Digital Versatile Disk). It can also be recorded.

なお、上記の実施形態における制御ユニットを中央処理装置(CPU:Central Processor Unit)やDSP(Digital Signal Processor)を備えるコンピュータシステムとして構成し、制御処理部等の機能を、プログラムの実行によっても実現するようにすることができる。これらのプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配送の形態で取得されるようにしてもよい。  The control unit in the above embodiment is configured as a computer system including a central processing unit (CPU: Central Processor Unit) and a DSP (Digital Signal Processor), and functions of the control processing unit and the like are also realized by executing a program. Can be. These programs may be acquired in the form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in the form of delivery via a network such as the Internet. Good.

本発明の一実施形態に係る音響装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of an audio device according to an embodiment of the present invention.図1の音声コンテンツ情報の内容を説明するための図である。It is a figure for demonstrating the content of the audio | voice content information of FIG.図1の抽出参照情報の内容を説明するための図である。It is a figure for demonstrating the content of the extraction reference information of FIG.図1の2個のスピーカの配置位置を説明するための図である。It is a figure for demonstrating the arrangement position of the two speakers of FIG.図1の制御ユニットの構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the control unit of FIG.図5のチャンネル信号処理部の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the channel signal processing part of FIG.図6の抽出部の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the extraction part of FIG.図6の分配部の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the distribution part of FIG.図8の個別分配部の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the separate distribution part of FIG.図1の装置による音像位置と聴取者との位置関係の例を説明するための図である。It is a figure for demonstrating the example of the positional relationship of the sound image position and listener by the apparatus of FIG.

符号の説明Explanation of symbols

100 … 音響装置
131L,131R … スピーカ
210 … 抽出部(抽出手段)
220 … 分配部(分配手段)
230 … 加算部(加算手段)
100 ...sound device 131L, 131R ...speaker 210 ... extractor (extraction means)
220 ... Distribution unit (distribution means)
230 ... Adder (addition means)

Claims (10)

Translated fromJapanese
複数のスピーカから音場空間へ向けて音声を出力する音響装置であって、
前記スピーカの数とは異なる数のチャンネル構成で収録が行われた音声コンテンツについて、前記収録の時における複数の音声源のそれぞれの種類情報と位置情報とを反映した音声源情報に基づいて、前記収録時におけるチャンネル構成の信号から前記複数の音声源のそれぞれが発生したと推定される音声を抽出する抽出手段と;
前記音声源情報に基づいて、前記抽出結果のそれぞれについて、前記抽出結果のそれぞれが対応する音声源が前記収録の時に位置していたと推定される位置に音像を形成する比率で、前記複数のスピーカそれぞれに対応する信号チャンネルに分配する分配手段と;
前記信号チャンネルごとに、前記分配手段による分配結果を加算する加算手段と;
を備えることを特徴とする音響装置。
An acoustic device that outputs sound from a plurality of speakers to a sound field space,
For audio content recorded with a channel configuration different from the number of speakers, based on audio source information reflecting each type information and position information of a plurality of audio sources at the time of recording, Extracting means for extracting the sound estimated that each of the plurality of sound sources is generated from the signal of the channel configuration at the time of recording;
Based on the sound source information, for each of the extraction results, the plurality of speakers at a ratio that forms a sound image at a position where the sound source corresponding to each of the extraction results is estimated to have been located at the time of recording. Distribution means for distributing to each corresponding signal channel;
Adding means for adding a distribution result by the distributing means for each signal channel;
An acoustic device comprising:
前記収録の時のチャンネル構成は、1チャンネル構成である、ことを特徴とする請求項1に記載の音響装置。  The sound apparatus according to claim 1, wherein a channel configuration at the time of recording is a one-channel configuration. 前記スピーカの数は、前記収録の時のチャンネル構成のチャンネル数よりも多い、ことを特徴とする請求項1又は2に記載の音響装置。  The acoustic device according to claim 1, wherein the number of speakers is larger than the number of channels in the channel configuration at the time of recording. 前記音声コンテンツは、楽曲コンテンツであり、
前記音声源情報には、楽曲名情報、演奏者情報、演奏場所情報及び演奏楽器構成情報の少なくとも1つが含まれる、
ことを特徴とする請求項1〜3のいずれか一項に記載の音響装置。
The audio content is music content,
The audio source information includes at least one of music name information, performer information, performance location information, and musical instrument configuration information.
The acoustic device according to any one of claims 1 to 3, wherein
前記抽出手段は、前記複数の音声源のそれぞれが発生する帯域の信号成分を抽出する、ことを特徴とする請求項1〜4のいずれか一項に記載の音響装置。  The acoustic device according to any one of claims 1 to 4, wherein the extraction unit extracts a signal component in a band generated by each of the plurality of audio sources. 前記分配手段は、前記複数のスピーカそれぞれに対応する位相補正を行った信号を前記加算手段に供給する、ことを特徴とする請求項1〜5のいずれか一項に記載の音響装置。  The acoustic device according to claim 1, wherein the distribution unit supplies a signal subjected to phase correction corresponding to each of the plurality of speakers to the addition unit. 移動体に搭載される、ことを特徴とする請求項1〜6のいずれか一項に記載の音響装置。  The acoustic device according to claim 1, wherein the acoustic device is mounted on a moving body. 複数のスピーカから音場空間へ向けて音声を出力する音響装置において使用される音像再生方法であって、
前記スピーカの数とは異なる数のチャンネル構成で収録が行われた音声コンテンツについ、前記収録の時における複数の音声源のそれぞれの種類情報と位置情報とを反映した音声源情報に基づいて、前記収録の時におけるチャンネル構成の信号から前記複数の音声源のそれぞれが発生したと推定される音声を抽出する抽出工程と;
前記音声源情報に基づいて、前記抽出結果のそれぞれについて、前記抽出結果のそれぞれが対応する音声源が前記収録の時に位置していたと推定される位置に音像を形成する比率で、前記複数のスピーカそれぞれに対応する信号チャンネルに分配する分配工程と;
前記信号チャンネルごとに、前記分配工程における分配結果を加算する加算工程と;
を備えることを特徴とする音声再生方法。
A sound image reproduction method used in an acoustic device that outputs sound from a plurality of speakers toward a sound field space,
For audio content recorded with a channel configuration of a number different from the number of speakers, based on audio source information reflecting each type information and position information of a plurality of audio sources at the time of recording, An extraction step of extracting the audio estimated to be generated by each of the plurality of audio sources from the signal of the channel configuration at the time of recording;
Based on the sound source information, for each of the extraction results, the plurality of speakers at a ratio that forms a sound image at a position where the sound source corresponding to each of the extraction results is estimated to have been located at the time of recording. A distribution step of distributing to each corresponding signal channel;
An addition step of adding the distribution results in the distribution step for each signal channel;
An audio playback method comprising:
請求項8に記載の音声再生方法を演算手段に実行させる、ことを特徴とする音声再生プログラム。  9. A sound reproduction program for causing a calculation means to execute the sound reproduction method according to claim 8. 請求項9に記載の音声再生プログラムが、演算手段により読み取り可能に記録されている、ことを特徴とする記録媒体。  10. A recording medium in which the sound reproduction program according to claim 9 is recorded so as to be readable by an arithmetic means.
JP2008007522A2008-01-172008-01-17Acoustic device, voice reproduction method, voice reproduction program, and recording mediumPendingJP2009171262A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2008007522AJP2009171262A (en)2008-01-172008-01-17Acoustic device, voice reproduction method, voice reproduction program, and recording medium

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2008007522AJP2009171262A (en)2008-01-172008-01-17Acoustic device, voice reproduction method, voice reproduction program, and recording medium

Publications (1)

Publication NumberPublication Date
JP2009171262Atrue JP2009171262A (en)2009-07-30

Family

ID=40971949

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2008007522APendingJP2009171262A (en)2008-01-172008-01-17Acoustic device, voice reproduction method, voice reproduction program, and recording medium

Country Status (1)

CountryLink
JP (1)JP2009171262A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2013507048A (en)*2009-10-052013-02-28ハーマン インターナショナル インダストリーズ インコーポレイテッド System for spatial extraction of audio signals

Cited By (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2013507048A (en)*2009-10-052013-02-28ハーマン インターナショナル インダストリーズ インコーポレイテッド System for spatial extraction of audio signals
US9372251B2 (en)2009-10-052016-06-21Harman International Industries, IncorporatedSystem for spatial extraction of audio signals

Similar Documents

PublicationPublication DateTitle
CN102687536B (en)System for the spatial extraction of audio signal
TWI489887B (en)Virtual audio processing for loudspeaker or headphone playback
JP6484605B2 (en) Automatic multi-channel music mix from multiple audio stems
CN102100088B (en) Apparatus and method for generating an audio output signal using object-based metadata
US7725203B2 (en)Enhancing perceptions of the sensory content of audio and audio-visual media
KR20100063092A (en)A method and an apparatus of decoding an audio signal
JP2002199500A (en)Virtual sound image localizing processor, virtual sound image localization processing method and recording medium
JP2019533195A (en) Method and related apparatus for editing audio signals using isolated objects
JP5931182B2 (en) Apparatus, method and computer program for generating a stereo output signal for providing additional output channels
JP2010288262A (en)Signal processing apparatus
JP2005157278A (en)Apparatus, method, and program for creating all-around acoustic field
JP2003333700A (en)Surround headphone output signal generating apparatus
JP2019080188A (en)Audio system and vehicle
JP2009171262A (en)Acoustic device, voice reproduction method, voice reproduction program, and recording medium
JP4797065B2 (en) Audio signal processing apparatus and surround signal generation method, etc.
US20240098443A1 (en)Dynamic acoustic control systems and methods
JP4392040B2 (en) Acoustic signal processing apparatus, acoustic signal processing method, acoustic signal processing program, and computer-readable recording medium
JP2009086481A (en)Sound device, reverberations-adding method, reverberations-adding program, and recording medium thereof
JP2009206612A (en)Audio apparatus, sound reproduction method, sound reproduction program and recording medium thereof
US12395804B1 (en)System and method for an audio reproduction device
JP2001218300A (en)Sound filed display method and sound signal output device
GelusoMixing and Mastering
JP2007181135A (en)Specific musical instrument signal separation method and instrument, and musical instrument speaker system and music reproduction system equipped with the method and the instrument
JP6519507B2 (en) Acoustic signal transfer method and reproduction apparatus
JP3163184U (en) Audio playback device

[8]ページ先頭

©2009-2025 Movatter.jp