Movatterモバイル変換


[0]ホーム

URL:


KR20020080730A - Synthesis method for spatial sound using head modeling - Google Patents

Synthesis method for spatial sound using head modeling
Download PDF

Info

Publication number
KR20020080730A
KR20020080730AKR1020010020475AKR20010020475AKR20020080730AKR 20020080730 AKR20020080730 AKR 20020080730AKR 1020010020475 AKR1020010020475 AKR 1020010020475AKR 20010020475 AKR20010020475 AKR 20010020475AKR 20020080730 AKR20020080730 AKR 20020080730A
Authority
KR
South Korea
Prior art keywords
sound
head transfer
transfer function
head
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
KR1020010020475A
Other languages
Korean (ko)
Inventor
권오붕
이동은
방승범
최갑근
임준희
Original Assignee
큐빅아이(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 큐빅아이(주)filedCritical큐빅아이(주)
Priority to KR1020010020475ApriorityCriticalpatent/KR20020080730A/en
Publication of KR20020080730ApublicationCriticalpatent/KR20020080730A/en
Abandonedlegal-statusCriticalCurrent

Links

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명은, 등가 대역별 대역통과필터를 사용하여 머리전달함수에서 필연적으로 나타나는 수많은 딥과 노치의 영향을 완화시킴으로써, 음질저하와 음색왜곡 등을 개선하고, 머리전달함수를 이용한 종래의 시스템과는 달리 주파수 영역에서의 등화기법을 이용하는데 계산량이 적고 구현이 용이하며, 측정된 머리전달함수를 이용하는 것이 아니라, 물리적으로 모델링된 머리전달함수를 이용하여, 실제 사용시 청취자가 각각 자신의 신체적 특성에 최적화된 입체음을 청취할 수 있도록 하는 머리 모델링을 이용한 입체음향 합성방법을 제공한다.The present invention uses an equivalent band-pass filter for each band to mitigate the effects of numerous dips and notches inevitably present in the head transfer function, thereby improving sound quality degradation and tone distortion, and the like, compared with conventional systems using the head transfer function. Unlike the use of equalization techniques in the frequency domain, the calculations are small and easy to implement, and instead of using the measured head transfer functions, the listeners use physically modeled head transfer functions to optimize each listener's physical characteristics. The present invention provides a stereophonic sound synthesis method using head modeling to listen to the stereoscopic sound.

따라서, 본 발명은 실제 음악현장에서 널리 사용되는 1/3옥타브 대역통과필터를 사용하여 주파수 별로 가변된 크기의 값을 쉬우면서, 빠르게 실 사용환경에 적용할 수 있다.Therefore, the present invention can be easily applied to a practical environment while using a 1/3 octave bandpass filter which is widely used in actual music scenes, while easily changing the value of the frequency.

Description

Translated fromKorean
머리 모델링을 이용한 입체음향 합성방법{SYNTHESIS METHOD FOR SPATIAL SOUND USING HEAD MODELING}SYNTHESSIS METHOD FOR SPATIAL SOUND USING HEAD MODELING

본 발명은 머리 모델링을 이용한 입체음향 합성방법에 관한 것으로, 특히 등가 대역별 대역통과필터를 사용하여 딥과 노치의 영향이 완화되고, 주파수 영역에서의 등화기법을 이용하여 계산량이 감소되며, 물리적으로 모델링된 머리전달함수를 사용하여 청취자의 신체적 특성에 최적화된 입체음을 청취할 수 있도록 하는 머리 모델링을 이용한 입체음향 합성방법에 관한 것이다.The present invention relates to a stereophonic sound synthesis method using head modeling. In particular, the effects of dip and notch are alleviated by using an equivalent band-pass filter, and the amount of calculation is reduced by using the equalization technique in the frequency domain. The present invention relates to a stereophonic sound synthesis method using head modeling to listen to stereoscopic sound optimized to the physical characteristics of a listener using a modeled head transfer function.

일반적으로, 우리가 입체음을 청취할 수 있는 단서가 되는 것은, IID(Interaural Intensity Difference)와 ITD(Interaural Time Difference)가 있다.In general, there are two types of clues for listening to stereoscopic sounds: interaural intensity differences (IIDs) and interaural time differences (ITDs).

우선, IID는 두 귀간의 신호차의 영향으로, 양쪽의 감쇠기가 같은 감쇠량을 같도록 설정하면 음상은 정 중앙에 생기지만, 어느 한쪽의 진폭이 강해지면 음상은 진폭이 큰 쪽으로 이동한다. 이와 같이, 두 귀간의 레벨차는 음상의 귀간 편이를 생기게 한다.First, the IID is influenced by the difference in signal between the two ears. If both attenuators are set to have the same amount of attenuation, the sound image is centered. However, when one of the amplitudes increases, the sound image moves toward the larger amplitude. In this way, the level difference between the two ears causes the ear gap of the sound image.

또한, ITD는 음원이 양 귀에 전달되는 시간차이(두 귀의 음압이 동일한 경우)로, 이 차이는 분명히 두 귀에서 신호 전체 또는 일부가 시간적으로 지연된 상태를 의미한다. 즉, 두 귀에서 입력신호에 도달 시간차가 있는 것을 의미한다.In addition, ITD is the time difference in which the sound source is delivered to both ears (when both ears have the same sound pressure), which clearly means a time delay in which all or part of the signal is in both ears. That is, there is a time difference in arrival of the input signal at both ears.

현재, 음반이나 음악등 음향이 필요한 분야에 있어서, 2개의 채널을 이용해서 청취자에게 제시하는 방법은 스테레오 방식을 이용한 방법이 대부분이다. 이러한 종래의 방법은, 도 6에 나타낸 바와 같이 단순한 모노 음원을 합성하는 방법이다. 이러한 방법에 있어서는, 단순하게 입력된 음의 음색을 변환시키는 단계와, 음을 합쳐서 모아주는 단계만을 포함한다.At present, in the field where sound such as recording or music is required, the method of presenting to the listener using two channels is mostly a stereo method. This conventional method is a method of synthesizing a simple mono sound source as shown in FIG. In this method, the method includes simply converting the timbres of the input sound and collecting the sound.

즉, 도 6에 나타낸 바와 같이, 종래의 일반적인 녹음단계는 마이크나 또는 라인에 의해 입력신호를 수신하는 단계(S1)와, 수신된 입력신호의 크기를 조절하는 단계(S2), 상기 입력된 신호를 저음, 중음, 고음의 3가지 음색으로 변환하는 단계(S3), 상기와 같이 변환된 음색의 크기를 조절하는 단계(S4) 및, 상기 단계(S4)에서 조절된 크기의 소리를 출력하여 청취자가 청취하거나 녹음장치 등에 기록하는 단계(S5)를 구비하여 이루어진다.That is, as shown in Figure 6, the conventional recording step is a step of receiving an input signal by a microphone or a line (S1), adjusting the size of the received input signal (S2), the input signal Converting the sound into three tones of low, mid, and high (S3), adjusting the size of the converted tones as described above (S4), and outputting a sound of the size adjusted in the step (S4) to the listener. It comprises a step (S5) of listening or recording to the recording device or the like.

이와 관련하여, 종래에는 미국 MIT 미디어랩을 비롯하여 많은 사람들이 머리전달함수를 측정하려고 많은 노력을 해오고 있으며, 이미 측정된 머리전달함수도 몇가지가 공개되어 있다. 그러나, 이들의 방대한 데이터량과 그 분석의 어려움 때문에, 그와 같은 문제를 해결하기 위해, 이들의 특징만으로 합성하거나 표현하려는 시도들이 행해져 왔다. 이러한 일련의 시도에 있어서, 컨벌루젼을 이용하여 상기의 머리전달함수를 연산할 경우에는, 많은 계산량이 필요하기 때문에, 실시간 시스템을 구현하는데 많은 어려움이 따른다. 또한, 측정된 머리전달함수를 그대로 사용하면, 음질의 저하와 음색의 왜곡 등과 같은 문제가 발생하게 된다.In this regard, many people, including the US MIT Media Lab, have made a lot of efforts to measure the hair transfer function, and some previously measured hair transfer functions have been disclosed. However, because of their immense amount of data and the difficulty of their analysis, attempts have been made to synthesize or express only those features to solve such problems. In this series of trials, when calculating the head transfer function using convolution, a large amount of computation is required, and thus, it is difficult to implement a real-time system. In addition, if the measured head transfer function is used as it is, problems such as deterioration of sound quality and distortion of timbre occur.

본 발명은 상기한 점을 감안하여 이루어진 것으로, 등가 대역별 대역통과필터를 사용하여 머리전달함수에서 필연적으로 나타나는 수많은 딥과 노치의 영향을 완화시켜 음질저하와 음색왜곡 등이 개선되고, 머리전달함수를 이용한 종래의 시스템과는 달리 주파수 영역에서의 등화기법을 이용하여 계산량이 적고 구현이 용이하며, 측정된 머리전달함수를 이용하는 것이 아니라, 물리적으로 모델링된 머리전달함수를 이용하므로 실제 사용시 청취자가 각각 자신의 신체적 특성에 최적화된 입체음을 청취할 수 있도록 하는 머리 모델링을 이용한 입체음향 합성방법을 제공하는 것에 그 목적이 있다.The present invention has been made in view of the above points, and by using an equivalent band-pass filter for each band, the effects of numerous dips and notches that are inevitably present in the head transfer function are alleviated, so that sound degradation and tone distortion are improved, and the head transfer function is improved. Unlike the conventional system using the EF method, the equalization technique in the frequency domain is small and easy to implement. Instead of using the measured head transfer function, the physically modeled head transfer function is used. An object of the present invention is to provide a stereophonic sound synthesis method using head modeling to listen to stereoscopic sound optimized to one's physical characteristics.

도 1은 본 발명에 따른 구형 머리모델을 이용한 머리전달함수 DB 및 모델링된 데이터를 이용하여 모노 음원에 적용하는 방법의 흐름을 설명하는 흐름도,1 is a flow chart illustrating a flow of a method of applying to a mono sound source using a head transfer function DB and modeled data using a spherical head model according to the present invention;

도 2는 본 발명에 따른 도 3 및 도 4의 방법에 따라 적용된 머리전달함수 DB의 주파수 특성을 퓨리에 변환하여 등가 대역별 필터 조합에 의해 입체음향을 생성하는 방법을 구체적으로 나타낸 도면,FIG. 2 is a view showing in detail a method of generating stereophonic sound by a filter combination of equivalent bands by Fourier transforming a frequency characteristic of a hair transfer function DB applied according to the method of FIGS. 3 and 4 according to the present invention;

도 3은 본 발명에 따른 1/3-Octave 대역통과필터를 이용한 IID를 나타낸 도면,3 is a diagram illustrating an IID using a 1 / 3-Octave bandpass filter according to the present invention;

도 4 본 발명에 따른 고도가 0°일 때의 상대적인 음압 도달시간을 나타낸 그래프,4 is a graph showing the relative sound pressure arrival time when the altitude is 0 ° according to the present invention,

도 5는 본 발명에 따른 대역통과필터의 주파수 특성을 나타낸 도면,5 is a view showing the frequency characteristics of the bandpass filter according to the present invention,

도 6은 본 발명에 따른 음압 도달시간차이를 추정하는 방법을 설명하기 위한 도면,6 is a view for explaining a method of estimating a sound pressure arrival time difference according to the present invention;

도 7은 종래의 방법을 이용하여 스테레오 방법으로 음을 듣는 것을 나타낸 도면이다.7 is a diagram illustrating listening to sound in a stereo method using a conventional method.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 머리 모델링을 이용한 입체음향 합성방법은, 기준점 방위각 0°의 머리전달함수에 대하여 임의의 공간에서 측정된 머리전달함수의 상대적 양을 이하의 식에 따라,The stereophonic sound synthesis method using the head modeling of the present invention for achieving the above object, the head transfer function of the reference point azimuth 0 ° and Head transfer function measured in arbitrary space with respect to and The relative amount of is given by

진폭의 추정을 환산하여, 음압을 추출하는 단계와,Converting an estimate of the amplitude to extract sound pressure;

좌·우측 귀에 대한 음압 도달시간을 이용하여 이하의 식에 의해,Using the sound pressure arrival time for the left and right ears,

양쪽 귀 사이의 도달시간 차이를 추출하는 단계 및,Extracting the time difference of arrival between both ears;

상기 음압 추출단계와 도달시간 차이 추출단계에서 구해진 데이터를 적용하는 단계를 구비하여 이루어진 것을 특징으로 한다.And applying the data obtained in the sound pressure extraction step and the arrival time difference extraction step.

(실시예)(Example)

이하, 본 발명의 실시예를 도면을 참조하면서 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

우선, 도 2에 도시한 바와 같이, 본 발명에 따른 도 3 및 도 4의 방법에 따라 적용된 머리전달함수 DB의 주파수 특성을 퓨리에 변환하여 등가 대역별 필터 조합에 의해 입체음향을 생성하는 방법에 대해 기술한다.First, as shown in FIG. 2, a method of generating stereophonic sound by an equivalent band-specific filter combination by Fourier transforming frequency characteristics of the head transfer function DB applied according to the method of FIGS. 3 and 4 according to the present invention. Describe.

예컨대, 측정된 머리전달함수를 사용하지 않고 소정 수식(이하에 기술되는 식 2)에 따라 모델링 한다(단계S01). 이 경우, 측정된 머리전달함수의 약점인 개개인간의 편차에 따른 오차를 최소화 할 수 있다.For example, the model is modeled according to a predetermined equation (Equation 2 described below) without using the measured head transfer function (step S01). In this case, it is possible to minimize the error due to the deviation between individuals, which is a weak point of the measured head transfer function.

다음에, 등가 대역별 필터를 사용하여 구형 머리모델의 특성을 반영한다(단계S02). 한편, 1/1옥타브, 1/3옥타브 등 사용자의 편의에 따라, 그리고 소유한 기기의 종류에 따라 사용자가 선택할 수 있다.Next, the characteristic of the spherical head model is reflected using an equivalent band-specific filter (step S02). On the other hand, the user can select according to the user's convenience, such as 1/1 octave, 1/3 octave and the type of devices owned.

다음에, 상기 단계에서 모델링된 머리전달함수를 필터 뱅크의 크기값에 따라 주파수별로 등화한다(단계S03).Next, the head transfer function modeled in the above step is equalized for each frequency according to the size value of the filter bank (step S03).

계속해서, 헤드폰을 이용하여 입체음향을 청취하기 위해 2채널로 합성한다(단계(S04). 여기에서는, 특별한 기술이 필요하지 않고 종래의 방법을 통해서도 입체음의 제작이 가능하다.Subsequently, two-channel synthesis is performed for listening to three-dimensional sound using headphones (step S04.) Here, no special technique is required, and three-dimensional sound can be produced by a conventional method.

최종적으로, 상기 단계S01~S04의 방법을 통해 최종 결과물(즉, 2채널 입체음향의 생성)을 산출한다(단계S05).Finally, the final result (that is, generation of two-channel stereophonic sound) is calculated through the method of steps S01 to S04 (step S05).

다음에, 도 1 및 도 5를 참조하여 본 발명에 대해 보다 상세히 설명한다.Next, the present invention will be described in more detail with reference to FIGS. 1 and 5.

도 1에 나타낸 바와 같이, 귓바퀴 및 머리의 형상을 최소화 한 구형의 마이크로폰을 사용하여 평면상에서의 전달함수를 측정한다. 측정된 데이터를 주파수축 상에서 퓨리에 변환한다. 이것을 31밴드 또는 24밴드의 대역통과필터를 이용하여 각 중심주파수 별로 다른 구형 머리전달함수의 특성을 반영한다.As shown in Figure 1, the transfer function in the plane is measured using a spherical microphone with a minimization of the shape of the auricle and the head. Fourier transform the measured data on the frequency axis. This reflects the characteristics of the different spherical head transfer functions for each center frequency using 31 band or 24 band bandpass filters.

한편, 도 1에 나타낸 S(t)는 음원의 입력을 나타내고, EQL(t)와 EQR(t)은 크기 차이가 포함된 음을 나타내며, EQL(T-t), EQR(T-t)은 시간차가 포함된 음을 나타낸다.On the other hand, S (t) shown in Figure 1 represents the input of the sound source, EQL (t) and EQR (t) represents a sound containing a magnitude difference, EQL (Tt), EQR (Tt) includes a time difference It indicates

상술한 31밴드의 대역통과필터의 구성은 이하와 같다.The configuration of the above-described 31 band band pass filter is as follows.

즉, 소리를 구성하고 있는 성분을 파악하기 위해서는 각각의 개별 주파수의 레벨을 측정해야만 한다. 이를 위해, 소리신호는 단지 하나의 주파수 또는 좁은 주파수 대역만을 통과시키는 필터로 보내진다. 그 분석된 신호의 진폭은, 그때의 특정 주파수에서의 소리레벨의 측정치이다.In other words, the level of each individual frequency must be measured to identify the components that make up the sound. For this purpose, the sound signal is sent to a filter which passes only one frequency or narrow frequency band. The amplitude of the analyzed signal is a measure of the sound level at that particular frequency.

한편, 음향분석에 널리 이용되고 있는 것이 옥타브(Octave) 또는 1/3옥타브 대역통과필터이다. 이것은, 입력신호의 주파수 성분중에서 소정 대역의 성분만을 통과시키는 필터이고, 도 5에 나타낸 주파수 특성중 점선으로 표시한 부분의 특성이 이상적인 필터이지만, 실질적으로는 실선으로 표시한 바와 같은 특성이 나타난다. 실제의 필터 특성은, 도 5에 나타낸 f1, f2가 차단주파수이며, 이상 필터와 실제 필터 사이에 통과하는 파워가 같도록 설정되어 있다.On the other hand, octave or 1/3 octave bandpass filter is widely used in acoustic analysis. This is a filter that passes only components of a predetermined band among the frequency components of the input signal, and the characteristic of the portion indicated by the dotted line among the frequency characteristics shown in FIG. The actual filter characteristics are set such that f1 and f2 shown in Fig. 5 are cutoff frequencies, and the power passing between the ideal filter and the actual filter is the same.

일반적으로, 도 5에 나타낸 바와 같이 실선의 최대치보다 3dB 낮은 주파수를 차단주파수(cutoff frequency)라고 한다. 또한, f2와 f1의 차이를 대역폭(bandwidth)이라고 하고, 1/1옥타브, 1/3옥타브 대역통과필터에서는 각각1/1 및 1/3옥타브 폭이 된다. 즉, f2와 f1의 사이에는 이하와 같은 관계식이 성립된다:In general, a frequency 3 dB lower than the maximum value of the solid line as shown in FIG. 5 is called a cutoff frequency. In addition, the difference between f2 and f1 is referred to as bandwidth, and is 1/1 and 1/3 octave bandpass filters, respectively, to be 1/1 and 1/3 octave wide. In other words, the following relation holds between f2 and f1 :

여기에서, 1/1옥타브 대역에서는 n=1, 1/3옥타브 대역에서는 n=1/3이 된다. 따라서, 1/1옥타브 대역과 1/3옥타브 대역에서는,Here, n = 1 in the 1/1 octave band and n = 1/3 in the 1/3 octave band. Therefore, in the 1/1 octave band and 1/3 octave band,

이다. 그리고, 중심주파수 fc는,to be. And the center frequency fc is

의 관계가 성립한다.The relationship is established.

또한, 대역통과필터에서는 보통 fc, f1, f2를 고정한 유한개의 필터를 조합하여 사용하며, 1/1옥타브 및 1/3옥타브 대역통과필터의 중심주파수와 차단주파수는 이하의 표 1과 같다.In the band pass filter, a finite number of filters fixed with fc , f1 , and f2 are commonly used.The center frequency and cutoff frequency of the 1 / 1-octave and 1 / 3-octave bandpass filters are shown in Table 1 below. same.

이 하 여 백Hundred by this

[표 1]TABLE 1

중심주파수[Hz]Center frequency [Hz]차단주파수[Hz]Cutoff Frequency [Hz]중심주파수[Hz]Center frequency [Hz]차단주파수[Hz]Cutoff Frequency [Hz]1616141450050045045020201818630630560560252522.422.480080071071031.531.528281,0001,000900900404035.535.51,2501,2501,1201,120505045451,6001,6001,4001,400636356562,0002,0001,8001,800808071712,5002,5002,2402,24010010090903,1503,1502,8002,8001251251121124,0004,0003,5503,5501601601401405,0005,0004,5004,5002002001801806,3006,3005,6005,6002502502242248,0008,0007,1007,10031531528028010,00010,0009,0009,00040040035535512,50012,50011,20011,20045045014,00014,000

상기와 같은 대역통과필터를 이용하여 구형 머리모델 머리전달함수는 각 중심주파수 별로 보상되어 청취자에게 전달된다.Using the bandpass filter as described above, the spherical head model head transfer function is compensated for each center frequency and delivered to the listener.

즉, 본 발명에 따른 머리전달함수를 이용한 입체음향 적용방법은, 실제 인체의 모양을 모사한 시뮬레이터와 인체를 이용하여 측정하는 방법이 아니라, 구형의 마이크와 2개의 15~20cm 사이의 간격을 갖는 마이크를 이용하여 크기의 차이(진폭추정)를 추출하는 단계(도 3 참조)와, 도 6과 관련된 이하의 (식 1)에 의해, 구형과 간격을 가진 마이크 사이의 음압 도달시간차이를 추정하는 단계(도 4 참조)로 이루어진다.That is, the three-dimensional sound application method using the head transfer function according to the present invention is not a method of measuring by using a simulator and a human body that simulates the shape of an actual human body, but has an interval between a spherical microphone and two 15-20 cm. By extracting the difference in amplitude (amplitude estimation) using a microphone (see FIG. 3) and the following equation (1) related to FIG. 6, the sound pressure arrival time difference between the sphere and the spaced microphone is estimated. Step (see FIG. 4).

(식 1) (Equation 1)

진폭의 추정Estimation of Amplitude

진폭의 추정은, 기준점 방위각 0°의 머리전달함수에 대하여 임의의 공간에서 측정된 머리전달함수의 상대적 양을 이하의 (식 2)에 따라 환산한다:Estimation of amplitude is head transfer function of reference point azimuth 0 ° and Head transfer function measured in arbitrary space with respect to and The relative amount of is converted according to the following formula (2):

(식 2) (Equation 2)

상기 (식 2)에서, 아래첨자 L 및 R은 좌측 및 우측을 의미하며, 위첨자 *는 공액복소수를 표시한다. 그리고, 기준점에 대한 선정은 스피커를 구성하는 방법에 따라 선정하며, 고도 φ0=0°로 고정하고, 방위각 θ0=0°와 θ0=30°의 2가지를 사용하였다. 상기 (식 2)에서 보인 상대적 머리전달함수 환산기법은 음원의 공간정보와는 무관한 이하의 4가지 항목에 대한 머리전달함수의 영향인자의 효과를 최소화 할 수 있는 효과적인 방법이다. 즉,In the above formula (2), the subscripts L and R mean the left and right, and the superscript * indicates the conjugate complex number. The reference point was selected according to the method of configuring the speaker, and the altitude was fixed at φ0 = 0 ° and two azimuth angles θ0 = 0 ° and θ0 = 30 ° were used. Relative head transfer function conversion technique shown in Equation 2 is an effective method to minimize the effect of the influence factors of the head transfer function on the following four items irrelevant to the spatial information of the sound source. In other words,

① 음원 스피커의 음향특성인자(음향출력 및 방향성 등)① Acoustic characteristic factors (sound output and directionality) of sound source speaker

② 양쪽 귀 음압 측정용 마이크로폰의 전기적 그리고 음향학적 특성인자② Electrical and acoustical characteristics of the microphone for measuring both ears sound pressure

③ 실험실의 음향특성(잔향시간, 반사 및 흡음특성)③ Laboratory acoustic characteristics (reverberation time, reflection and sound absorption characteristics)

④ 머리전달함수의 측정 및 분석 장치들에서 수반되는 측정 오차인자④ measurement error factors involved in the measurement and analysis of the head transfer function

상기의 (식 2)에 따라 환산된 결과를 이용하여 인간 청각특성, 즉 주파수 대역별 마스킹(masking) 특성에 따른 공간특성인자를 추정하는 방법이다. 즉, 1/3옥타브 임계대역통과필터의 중심주파수를 이용하는 방법이다. 중심주파수를 fc, 하한주파수와 상한주파수를 각각 fL, fH라 하면, 임의의 대역폭 내의 머리전달함수의 유효진폭은 이하의 (식 3)과 같이 환산한다:A method of estimating a spatial characteristic factor according to a human auditory characteristic, that is, a masking characteristic for each frequency band, by using the result converted according to Equation 2 above. That is, the method uses the center frequency of the 1/3 octave critical bandpass filter. If the center frequency is fc , the lower limit frequency and the upper limit frequency are fL and fH , the effective amplitude of the head transfer function within an arbitrary bandwidth is converted into the following equation (Equation 3):

(식 3) (Equation 3)

상기 (식 3)을 이용하여, 가청주파수 범위(20Hz~20kHz)에 대한 1/3옥타브 임계대역통과필터의 중심주파수에 대한 좌·우 머리전달함수의 진폭을 각각 계산할 수 있다. 그리고, 방위각과 고도에 따라 측정된 모든 머리전달함수들을 환산함으로써, 새로운 머리전달함수의 진폭에 대한 데이터베이스,를 구축할 수 있다. 다음의 도 3은 상대적인 머리전달함수를 1/3옥타브 임계대역통과필터의 연산과정을 통하여 구한 머리전달함수의 진폭특성을 나타내고 있다.Using Equation 3, the amplitudes of the left and right head transfer functions with respect to the center frequency of the 1 / 3-octave critical bandpass filter for the audible frequency range (20 Hz to 20 kHz) can be calculated. And, by converting all the head transfer functions measured according to the azimuth and altitude, the database for the amplitude of the new head transfer function, Can be built. 3 shows the amplitude characteristics of the head transfer function obtained by calculating the relative head transfer function through the calculation process of the 1 / 3-octave critical bandpass filter.

음압 도달시간 추정Sound pressure arrival time estimation

상술한 방법에 따라 연산된 상대적 머리전달함수의 위상성분에는 기준점에 대한 좌·우측의 음압 도달시간에 비례하는 선형위상성분이 존재한다. 이러한 선형적 위상성분을 이용하면, 기준점에 대한 상대적 음압 도달시간을 매우 정밀하게 추정할 수 있다. 좌·우측의 상대적 머리전달함수의 위상을라 하고, 각각의 상대적 음압 도달시간을 τL, τR이라 하면, 이하의 (식 4)에 의해 주어진 최소자승법의 추정 연산으로부터 정확히 환산된다:In the phase component of the relative head transfer function calculated according to the above-described method, there is a linear phase component proportional to the time of arrival of the sound pressure at the left and right sides with respect to the reference point. Using this linear phase component, the relative sound pressure arrival time with respect to the reference point can be estimated very precisely. Phase of the relative head transfer function Suppose that each relative sound pressure arrival time is τL , τR , which is accurately converted from the least squares estimation operation given by Equation 4 below:

(식 4) (Equation 4)

상기 (식 4)에서, f1과 f2는 상대적 머리전달함수의 선형 위상특성이 잘 만족하는 하단주파수와 상단주파수를 각각 나타내며,는 하단주파수 f1에 대한 주파수 f에서의 상대적인 위상이다. 측정 머리전달함수에서 하단주파수는 f1=200Hz, 그리고 상단주파수는 f2=1.25Hz의 대역에서 상대적인 선형위상을 측정할 수 있었다.In Equation 4, f1 and f2 respectively represent a lower frequency and an upper frequency at which the linear phase characteristics of the relative head transfer function are well satisfied. Is the relative phase at frequency f to the lower frequency f1 . In the measurement head transfer function, the relative linear phases can be measured in the band f1 = 200 Hz and top frequency f2 = 1.25 Hz.

도 4는 방위각과 고도가 0°인 기준점을 선정하였을 때, 수평면에 위치한 음원의 방위각의 변화에 대한 좌·우측 귀에 도달된 상대적인 음압 도달시간을 각각 나타내고 있다.Figure 4 shows the relative sound pressure arrival time reached to the left and right ears with respect to the change in the azimuth angle of the sound source located on the horizontal plane when the azimuth and the reference point having an altitude of 0 ° are selected, respectively.

상대적 위상정보와 연산과정으로부터 모든 측정 머리전달함수에 대한 좌·우측 귀의 음압 도달시간에 대한 데이터베이스를 구축할 수 있다. 좌·우측 귀에 대한 음압 도달시간을 이용하여 양쪽 귀 사이의 도달시간차이는, 이하의 (식 5)와 같이 구할 수 있다:Negative pressure arrival time of left and right ears for all measured head transfer functions from relative phase information and computation You can build a database for. Using the sound pressure arrival time for the left and right ears, the difference in arrival time between both ears can be obtained as shown in Equation 5 below:

(식 5) (Eq. 5)

상기 (식 5)는 상술한 (식 1)의 방법에 의해 계산된다.The above formula (5) is calculated by the method of the above formula (1).

상기의 (식 5)는, 좌측 귀에 대한 우측 귀의 음압 도달시간 차이를 나타낸다. 물론, 부호를 변경하면 우측 귀에 대한 좌측 귀의 도달시간 또한 구할 수 있다. 이렇게 측정된 양쪽 귀의 시간차이를 이용하여 공간에 원하는 음상을 정의하기 위해서는, 도 3에서와 같이 사용자 선정이 가능한 시간지연장치, 즉 하드웨어를 사용하여 원하는 채널에 시간지연을 적용함으로써 수행한다.Expression (5) above represents the difference in sound pressure arrival time of the right ear with respect to the left ear. Of course, if the sign is changed, the arrival time of the left ear with respect to the right ear can also be obtained. The time difference between the two ears In order to define a desired sound image in the space using a time delay device that can be selected by a user, that is, as shown in FIG. 3, it is performed by applying a time delay to a desired channel using hardware.

이상 설명한 바와 같이 본 발명에 의하면, 실제 음악현장에서 널리 사용되는 1/3옥타브 대역통과필터를 사용하여 주파수 별로 가변된 크기의 값을 쉬우면서, 빠르게 실 사용환경에 적용할 수 있다.As described above, according to the present invention, the 1/3 octave bandpass filter widely used in the actual music scene can be easily applied to the actual environment while easily changing the value of the variable size for each frequency.

Claims (3)

Translated fromKorean
구형의 마이크와 2개의 15~20cm 사이의 간격을 갖는 마이크를 이용하여 크기의 차이(진폭)를 추정함으로써 음압을 추출하고,The sound pressure is extracted by estimating the difference in amplitude (amplitude) using an old microphone and a microphone having a distance between two 15-20 cm.이하의 식에 의해, 구형과 간격을 가진 마이크 사이의 음압 도달시간차이를 추출하고,By the following equation, the sound pressure arrival time difference between the sphere and the spaced microphone is extracted,상기 추출된 데이터를 적용하는 것을 특징으로 하는 머리 모델링을 이용한 입체음향 합성방법.Stereo sound synthesis method using head modeling, characterized in that for applying the extracted data.제1항에 있어서, 상기 음압 추출은, 기준점 방위각 0°의 머리전달함수에 대하여 임의의 공간에서 측정된 머리전달함수의 상대적 양을 이하의 식에 의해,The method of claim 1, wherein the sound pressure extraction, the head transfer function of the reference point azimuth 0 ° and Head transfer function measured in arbitrary space with respect to and The relative amount of is given by진폭의 추정을 환산하여 이루어지는 것을 특징으로 하는 머리 모델링을 이용한 입체음향 합성방법.Stereo sound synthesis method using head modeling, characterized in that the conversion of the estimation of the amplitude.제1항에 있어서, 좌·우측 귀에 대한 음압 도달시간을 이용하여 이하의 식에의해,According to claim 1, by using the sound pressure arrival time for the left and right ears by the following equation,양쪽 귀 사이의 도달시간 차이를 추출하는 것을 특징으로 하는 머리 모델링을 이용한 입체음향 합성방법.Stereo sound synthesis method using head modeling, characterized in that the extraction time difference between the two ears.
KR1020010020475A2001-04-172001-04-17Synthesis method for spatial sound using head modelingAbandonedKR20020080730A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020010020475AKR20020080730A (en)2001-04-172001-04-17Synthesis method for spatial sound using head modeling

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020010020475AKR20020080730A (en)2001-04-172001-04-17Synthesis method for spatial sound using head modeling

Publications (1)

Publication NumberPublication Date
KR20020080730Atrue KR20020080730A (en)2002-10-26

Family

ID=27701364

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020010020475AAbandonedKR20020080730A (en)2001-04-172001-04-17Synthesis method for spatial sound using head modeling

Country Status (1)

CountryLink
KR (1)KR20020080730A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US8254583B2 (en)2006-12-272012-08-28Samsung Electronics Co., Ltd.Method and apparatus to reproduce stereo sound of two channels based on individual auditory properties

Citations (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH0341900A (en)*1989-07-071991-02-22Sekisee KkSound image position freely displacing device
JPH08130798A (en)*1994-10-311996-05-21Matsushita Electric Ind Co Ltd Sound image localization control device
US5802180A (en)*1994-10-271998-09-01Aureal Semiconductor Inc.Method and apparatus for efficient presentation of high-quality three-dimensional audio including ambient effects
KR19990041134A (en)*1997-11-211999-06-15윤종용 3D sound system and 3D sound implementation method using head related transfer function
KR100284457B1 (en)*1998-07-162001-03-02정명세 Sound processing method that can record in three dimensions
KR20010045704A (en)*1999-11-062001-06-05정명세Evaluation method of characteristic parameters(PC-ILD, ITD) for 3-dimensional sound localization and method and apparatus for 3-dimensional sound recording

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH0341900A (en)*1989-07-071991-02-22Sekisee KkSound image position freely displacing device
US5802180A (en)*1994-10-271998-09-01Aureal Semiconductor Inc.Method and apparatus for efficient presentation of high-quality three-dimensional audio including ambient effects
JPH08130798A (en)*1994-10-311996-05-21Matsushita Electric Ind Co Ltd Sound image localization control device
KR19990041134A (en)*1997-11-211999-06-15윤종용 3D sound system and 3D sound implementation method using head related transfer function
KR100284457B1 (en)*1998-07-162001-03-02정명세 Sound processing method that can record in three dimensions
KR20010045704A (en)*1999-11-062001-06-05정명세Evaluation method of characteristic parameters(PC-ILD, ITD) for 3-dimensional sound localization and method and apparatus for 3-dimensional sound recording

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US8254583B2 (en)2006-12-272012-08-28Samsung Electronics Co., Ltd.Method and apparatus to reproduce stereo sound of two channels based on individual auditory properties

Similar Documents

PublicationPublication DateTitle
EP3320692B1 (en)Spatial audio processing apparatus
Davis et al.High order spatial audio capture and its binaural head-tracked playback over headphones with HRTF cues
US8270616B2 (en)Virtual surround for headphones and earbuds headphone externalization system
US5500900A (en)Methods and apparatus for producing directional sound
US8520871B2 (en)Method of and device for generating and processing parameters representing HRTFs
Brown et al.An efficient HRTF model for 3-D sound
US7133530B2 (en)Microphone arrays for high resolution sound field recording
Zhong et al.and Virtual Auditory Display
WO2013068284A1 (en)Method and apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an ambisonics representation of the sound field
Sakamoto et al.Sound-space recording and binaural presentation system based on a 252-channel microphone array
Bharitkar et al.Immersive audio signal processing
CN101511047A (en)Three-dimensional sound effect processing method for double track stereo based on loudspeaker box and earphone separately
Oreinos et al.Objective analysis of ambisonics for hearing aid applications: Effect of listener's head, room reverberation, and directional microphones
CN113170271A (en) Method and apparatus for processing stereo signals
US12015909B2 (en)Method and system for head-related transfer function adaptation
US7921016B2 (en)Method and device for providing 3D audio work
Steffens et al.The role of early and late reflections on perception of source orientation
Lee et al.HRTF measurement for accurate sound localization cues
Lee et al.A real-time audio system for adjusting the sweet spot to the listener's position
Schwark et al.Data-driven optimization of parametric filters for simulating head-related transfer functions in real-time rendering systems
OldfieldThe analysis and improvement of focused source reproduction with wave field synthesis
KR20020080730A (en)Synthesis method for spatial sound using head modeling
Pörschmann et al.A method for spatial upsampling of directivity patterns of human speakers by directional equalization
Vidal et al.HRTF measurements of five dummy heads at two distances
LaitinenBinaural reproduction for directional audio coding

Legal Events

DateCodeTitleDescription
A201Request for examination
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20010417

PA0201Request for examination
PG1501Laying open of application
E902Notification of reason for refusal
PE0902Notice of grounds for rejection

Comment text:Notification of reason for refusal

Patent event date:20030121

Patent event code:PE09021S01D

PC1902Submission of document of abandonment before decision of registration
SUBMSurrender of laid-open application requested

[8]ページ先頭

©2009-2025 Movatter.jp