








본 발명은 언어 연음 학습을 할 수 있도록 제공된 “언어의 문법으로 이루어진 단어 또는 구 또는 절 또는 문장”(이하 “언어 데이터”라고 함)과 언어 데이터를 연상시키는 “이미지 또는 애니메이션 또는 영상”(이하 “이미지 데이터”라고 함) 및 원어민의 "언어 데이터 발음 시 얼굴 정면과 측면 영상, 언어 데이터 발음 시 음성, 언어 데이터 발음에 따른 음성 파형, 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양”(이하 “발음 데이터”라고 함)을 이용한 연음 학습장치 및 방법에 관한 것으로, 보다 상세하게는 언어 연음 학습을 할 수 있도록 언어 데이터를 순차적 제공하고, 제공된 언어 데이터는 해당 언어의 연음 법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하고, 제공된 언어 데이터를 실제 발음했을 때 발음되는 발음기호를 제공하고, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되고, 제공된 언어 데이터를 연상시킬 수 있는 이미지 데이터를 함께 제공하며, 표시된 언어 데이터에 대한 원어민의 발음 시 음성과 영상이 재생되도록 하고, 학습자의 언어 데이터 발음에 따른 음성과 영상을 입력받아 원어민 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 및 학습자 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 화면을 표시하고, 음성 파형 비교 화면을 표시하여 효과적인 언어 말하기 학습을 하기 위한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법에 관한 것이다.The present invention relates to an image or an animation or an image (hereinafter referred to as " image or animation " or " (Hereinafter referred to as " image data ") and a native speaker's voice in the pronunciation of the language data, the frontal and lateral images in the pronunciation of the speech data, More particularly, the present invention relates to an apparatus and method for learning a linguistic data using data such as a spelling of a linguistic data, To be displayed in a different color, and when the provided language data is actually pronounced, And the image interpreted in the language of the country in which the language data is learned is displayed and the image data which can remind the provided language data are provided together and the voice and the image in the pronunciation of the native language of the displayed language data And the learner's pronunciation, the shape of the lips, the position of the teeth and the tongue, the shape of the lips, the shape of the teeth and the tongue And more particularly, to an apparatus and method for learning a loudspeaker using linguistic data and pronunciation data of native speakers for effective language speech learning by displaying a position reproduction screen and displaying a sound waveform comparison screen.
외국과의 교류가 활발해 짐에 따라 외국어 학습에 대한 필요성이 점점 더 커지고 있다.
As exchange with foreign countries becomes more active, the need for foreign language learning is increasing.
종래의 외국어 학습은 서적, 테블릿, 전자사전, 스마트폰등을 통해 여러 컨텐츠가 제공되지만 문법과 읽기에 치중된 문자적 학습 방법이 대세를 이루고 있다.
Conventional foreign language learning provides various contents through books, tablets, electronic dictionaries, smart phones, etc., but literary learning methods focused on grammar and reading are popular.
이러한 문자적 외국어 학습은 외국어를 발음할 때 원어민처럼 자연스럽게 처리하는 능력이 매우 미약해지는 단점이 있다. 영어를 예로 든다면 “Don’t you like it?” 을 종래 학습 교재에 표기된 발음 기호로 읽은 것을 한국어로 표기한다면 “돈트 유 라이크 잇?” 이지만 실제 원어민은 연음법칙(1.단어 끝 철자 자음 + 단어 첫 철자 모음, 2.단어 끝 철자 자음 + 단어 첫자 자음, 3.단어 끝 철자 모음 + 단어 첫 철자 모음, 4.T,D,S,Z 뒤에 Y가 올 때)에 따라 “돈 츄 롸이 킷?”으로 발음하게 된다. 그래서 많은 시간을 투자했음에도 불구하고 영어 말하기에 자신감을 잃어가고 있다.
This literary foreign language learning has a disadvantage that the ability to process a native language like a native speaker is very weak when pronouncing a foreign language. If you use English as an example, if you read "Do not you like it?" In Korean with the phonetic symbols shown in the conventional learning materials, "Do not you like it?" The first spelling of the word, 2. the end of the word consonant + the first consonant of the word, 3. the spelling of the end of the word + the first spelling of the word, 4. T, D, S, Z followed by Y) ? ". So despite spending a lot of time, I am losing my confidence in speaking English.
이러한 상황에 따라 좀 더 자연스런 외국어 말하기 능력을 위해 아이들이 해외 유학을 선택하는 일이 발생되었고, 이에 따라 막대한 교육비 부담이 사회적 문제가 되고 있다.Under these circumstances, children have to choose to study abroad for a more natural ability to speak the language, and the enormous cost of education is becoming a social problem.
따라서, 상기한 문제점을 해결하기 위한 본 발명의 목적은, 언어 연음 학습을 할 수 있도록 언어 데이터를 순차적 제공하고, 제공된 언어 데이터는 해당 언어의 연음 법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하는 것을 제공하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a method and apparatus for sequentially providing language data so that language learning can be performed, And to provide an apparatus and method for learning an utterance using pronunciation data of a native speaker.
또한 본 발명의 목적은, 제공된 언어 데이터를 실제 발음했을 때 발음되는 발음기호를 제공하고, 제공된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시하는 것을 제공하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
The object of the present invention can also be achieved by providing a phonetic symbol to be pronounced when the provided language data is actually pronounced and providing language data to be displayed by the interpretation in the language of the country in which the provided language data is learned, And to provide an apparatus and a method for learning a loudspeaker using the same.
또한 본 발명의 목적은, 제공된 언어 데이터를 연상시킬 수 있는 이미지 데이터를 함께 제공하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide an apparatus and method for learning an abstinence using language data and native pronunciation data of a native speaker together with image data capable of associating the provided language data.
또한 본 발명의 목적은, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 언어 데이터를 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능한, 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a speech recognition apparatus and method capable of correcting pronunciation of a native speaker in a way that a learner pronounces language data through comparison between pronunciation data of a native speaker and pronunciation data of a learner, Apparatus and method.
또한 본 발명의 목적은, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있도록 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide an apparatus and method for learning an utterance using language data and pronunciation data of a native speaker, which enables checking the strength of pronunciation and the position of the accent through detailed comparison of speech waveforms.
또한 본 발명의 목적은, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 폭 넓게 언어 말하기 학습을 하도록 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.It is also an object of the present invention to provide an apparatus and method for providing pronunciation data of a native speaker in various types such as female, male, American, British, and phonetic pronunciation, Apparatus and method.
본 발명에 의한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치는 언어 데이터, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻, 언어 데이터와 관련된 이미지 데이터, 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부;
The apparatus for learning an utterance using language data and pronunciation data of a native speaker according to the present invention includes language data, pronunciation symbols to be pronounced when the language data is actually pronounced, meaning interpreted in a language of a country to learn about the language data, A storage unit for storing image data, native speech images, and sound waveform data;
언어 데이터를 이용한 연음 학습 데이터 선택 및 연음 학습 데이터 입력 위한 입력부;
An input unit for selecting the lecture learning data using the language data and inputting the lecture learning data;
선정된 연음 학습 데이터의 학습이 시작되면 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되는 표시부;
When learning of the selected learning data is started, language data is sequentially displayed so that language learning can be performed. In the displayed language data, the spelling in which a lingering phenomenon occurs is displayed in a different color according to the linguistic law of the language, A display unit displaying a pronunciation symbol to be pronounced when the data is actually pronounced and displaying the interpreted meaning of the language of the language in which the displayed language data is to be learned and capable of associating the displayed language data;
학습자가 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 시 표시된 언어 데이터를 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부;
An audio processing unit for receiving a learner's voice when a learner pronounces language data displayed at the time of learning lecture using language data and pronunciation data of native speakers;
상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부;
A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice;
학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부;
A camera unit for collecting the positional image of the tooth and the tongue of the lips and the change of the facial muscles when pronouncing the learner's language data;
상기 카메라부로부터 입력된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상 데이터의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 및
An image processing unit for normalizing a face muscle change, a lip shape, a focus and a size of positional image data of a tooth and a tongue when pronouncing linguistic data input from the camera unit; And
상기 영상 처리부를 통해 규격화된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 언어 데이터 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 할 수 있다.
A linguistic model of the learner, a positional image of a tooth and a tongue, and a linguistic data of a native speaker stored in the storage unit when the learner's pronunciation of the language data is normalized through the image processor, And a control unit for displaying the waveform processed through the speech waveform processing unit and the speech waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in less than 50% . ≪ / RTI >
또한, 상기 제어부가 인터넷 웹 브라우저의 표시되는 언어 데이터 중 상기 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 유무선 네트워크부를 더 포함하는 것을 특징으로 할 수 있다.
If the control unit selects language data corresponding to the language data stored in the storage unit of the language data displayed on the Internet web browser, the control unit displays the pronunciation symbol, the image data related to the language data, And a wired / wireless network unit for providing a native speaker image related to the data to enable learning of the ear training.
또한, 상기 제어부가 DMB 영어방송에서 나오는 언어 데이터 중 상기 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 DMB 모듈부를 더 포함하는 것을 특징으로 할 수 있다.
When the control unit selects language data matching the language data stored in the storage unit among the language data from the DMB English broadcast, the image data related to the pronunciation symbol, the language data, the language data, And a DMB module unit for providing a related native speaker image to enable learning of an ear training.
또한 상기 표시부의 레이어(layer)는 Home, Dic 및 Option 텝으로 구분되는 것을 특징으로 할 수 있다.
In addition, the layer of the display unit may be divided into Home, Dic, and Option tabs.
또한, 상기 Home 텝에는 언어 데이터가 표시되고, 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시되고, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터, 원어민의 언어 데이터 발음 시 얼굴, 원어민의 언어 데이터 발음 시 입술의 모양 그리고 치아와 혀의 위치, 학습자의 언어 데이터 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치, 원어민의 음성 파형 및 학습자의 음성 파형 중 적어도 어느 하나를 표시하는 것을 특징으로 할 수 있다.
In addition, the Home tab displays language data. The language data is displayed by changing the spelling in which the loudspeaker phenomenon occurs in a different color according to the linguistic law of the language. The linguistic data includes a pronunciation symbol and language data The image data that can be reminded of the displayed language data, the face when pronouncing the language data of the native speaker, the shape of the lips when pronouncing the linguistic data of native speakers, the position of the teeth and tongue, A shape of a face or a lips, a position of a tooth and a tongue, a voice waveform of a native speaker, and a voice waveform of a learner.
또한 상기 Option 텝은 언어 데이터를 연상시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 발음 시 영상 및 음성 재생과 학습자의 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 연음 철자 색깔 표시 유무 선택과, 액센트 표시 여부 선택과, 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택 중 적어도 어느 하나를 포함하는 것을 특징으로 할 수 있다.
The option tab is used to select whether to display image data capable of reminding the language data, to select whether or not to display video and audio in the pronunciation of a native speaker, The selection of whether or not to display accents, the selection of whether or not to display a pronunciation symbol, the selection of a gender of a voice output, the selection of a pronunciation voice output by a country, and the selection of a pronunciation correction test mode.
본 발명에 의한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법은 학습자로부터 학습할 연음 학습 데이터의 선택 명령이 입력되는 단계;
The method for learning an ejaculation using language data and pronunciation data of a native speaker according to the present invention includes the steps of inputting a selection command of learning data to be learned from a learner;
상기 선택된 언어 데이터를 이용한 연음 데이터 학습에 따라 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되는 단계;
The language data is sequentially displayed so that the language learning of the language can be performed according to the learning of the learning data using the selected language data, and the displayed language data changes the spelling in which the loudspeaking phenomenon occurs in accordance with the linguistic law of the language, Displaying a pronunciation symbol that is pronounced when the language data is actually pronounced, displaying the interpreted meaning of the language of the language in which the displayed language data is to be learned, and displaying image data capable of associating the displayed language data;
상기 선택된 언어 데이터에 따른 원어민 발음 시 영상이 표시되는 단계;
Displaying an image when a native speaker is pronunciated according to the selected language data;
상기 표시된 언어 데이터에 따른 학습자의 언어 데이터 발음 시 음성 및 영상이 입력되는 단계;
A step of inputting voice and image when pronouncing the learner's language data according to the displayed language data;
원어민의 언어 데이터 발음 시 영상 및 학습자의 언어 데이터 발음 시 영상이 표시되어 재생되는 단계;
A step of displaying and reproducing an image when pronunciating a native speaker's speech data and an image when pronouncing a learner's speech data;
원어민 음성 파형과 학습자 음성 파형의 비교 화면이 표시되는 단계; 및,
A step of displaying a comparison screen of a native speech waveform and a learner speech waveform; And
원어민 음성 파형과 학습자 음성 파형의 비교 유사도가 50% 이상이면 “good” 50% 미만이면 “bad”를 표시하는 단계를 포함하는 것을 특징으로 할 수 있다.And displaying "bad" if the similarity degree between the native speech waveform and the learner speech waveform is "good" if the similarity is 50% or more and "bad" if the similarity is less than 50%.
본 발명의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법에 의하면, 언어 연음 학습을 할 수 있도록 언어 데이터를 순차적 제공하고, 제공된 언어 데이터는 해당 언어의 연음 법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하는 방법을 제공하고, 제공된 언어 데이터를 실제 발음했을 때 발음되는 발음기호를 제공하고, 제공된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시하는 것을 제공하며, 제공된 언어 데이터를 연상시킬 수 있는 이미지 데이터를 함께 제공하는 함께 제공하고, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 언어 데이터를 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능하며, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있도록 하고, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 언어 연음 학습을 포함하여 폭 넓게 언어 말하기 학습을 할 수 있도록 제공하여 폭 넓게 언어 말하기 학습을 할 수 있는 효과가 있다.According to an embodiment of the present invention, language data is sequentially provided so that language learning can be performed, and the provided language data includes a spelling in which a lingering phenomenon occurs in accordance with the linguistic law of the language Providing a method of changing and displaying in color, providing a pronunciation symbol to be pronounced when the provided language data is actually pronounced, providing what is interpreted in the language of the country in which the provided language data is learned, The learner can calibrate the pronunciation of the learner so as to be similar to the pronunciation of the native speaker by comparing the pronunciation data of the learner with the pronunciation data of the learner by comparing the pronunciation data of the learner with the learner's pronunciation data, The intensity of the pronunciation and the position of the accent It provides a wide range of language speech learning including language learning by providing various kinds of pronunciation data of native speakers such as female, male, American, English, and phonetic pronunciation. There is an effect that learning can be done.
도 1은 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치의 구성을 나타낸 블록도.
도 2는 본 발명의 실시 예에 따른 학습하고자 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 선택 화면의 예를 나타낸 도면.
도 3,4는 본 발명의 실시 예에 따른 선택한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습의 레벨 선택 화면의 예를 나타낸 도면.
도 5는 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 화면의 예를 나타낸 도면.
도 6는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 정보를 표시한 예를 나타낸 도면.
도 7는 본 발명의 실시 예에 따른 Option 텝에서의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 옵션 선택목록의 예를 나타낸 도면.
도 8은 본 발명의 실시 예에 따른 인터넷 웹 브라우저의 표시되는 언어 데이터 또는 DMB 영어방송에서 나오는 언어 데이터 중 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 예를 나타낸 도면이다.
도 9는 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법의 흐름도.1 is a block diagram showing a configuration of an ear training device using language data and pronunciation data of a native speaker according to an embodiment of the present invention;
2 is a view showing an example of a learner learning selection screen using language data to be learned and pronunciation data of a native speaker according to an embodiment of the present invention;
3 and 4 are views showing an example of a level selection screen of linguistic learning using selected language data and pronunciation data of native speakers according to an embodiment of the present invention.
5 is a view showing an example of an ear training screen using language data and pronunciation data of a native speaker according to an embodiment of the present invention;
6 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention;
FIG. 7 is a view showing an example of an option list for selecting an option for learning language data using language data and native pronunciation data of an option tab according to an embodiment of the present invention; FIG.
FIG. 8 is a diagram illustrating language data corresponding to language data stored in an edgy learning device storage unit using language data displayed in an Internet web browser or language data in a DMB English broadcast according to an embodiment of the present invention and pronunciation data of native speakers; A pronunciation symbol to be pronounced when actually pronunciated with respect to the language data, image data related to the language data, and a native-language image related to the language data are provided so that the user can learn the language.
9 is a flowchart of an ear training method using language data and pronunciation data of native speakers according to an embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법에 대해 설명하도록 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an apparatus and method for learning an lyric based on language data of the present invention and pronunciation data of a native speaker will be described with reference to the accompanying drawings.
도 1은 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치의 구성을 나타낸 블록도이다.
1 is a block diagram showing a configuration of an ear training apparatus using language data and pronunciation data of native speakers according to an embodiment of the present invention.
도 1을 참조하면, 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)는 언어 데이터, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻, 언어 데이터와 관련된 이미지 또는 애니메이션 또는 영상 그리고 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부(104)와, 언어 데이터를 이용한 연음 학습 데이터 선택 및 언어 데이터를 이용한 연음 학습 데이터 입력 위한 입력부(102)와, 선정된 언어 데이터를 이용한 연음 학습 데이터 학습이 시작되면 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되는 표시부(114)와, 학습자가 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 시 표시된 언어 데이터를 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부(106)와, 상기 오디오 처리부(106)를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부(108) 및 음성 파형 처리부(110)와, 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부(112)와, 상기 카메라부(112)로부터 입력된 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상의 포커스와 사이즈를 규격화하기 위한 영상 처리부(116)와, 상기 영상 처리부(116)를 통해 규격화된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부(104)에 저장된 원어민의 언어 데이터 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부(108) 와 음성 파형 처리부(110)를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부(122)와, 상기 제어부(122)가 인터넷 웹 브라우저의 화면에 표시되는 언어 데이터 중 상기 저장부(104)에 저장된 언어 데이터와 일치하는 언어 데이터의 강세 음절을 다른 색깔로 전환 표시할 수 있도록 하는 유무선 네트워크부(118)와, 상기 제어부(122)가 DMB 영어 방송에서 나오는 언어 데이터 중 상기 저장부(104)에 저장된 언어 데이터와 일치하는 언어 데이터의 강세 음절을 다른 색깔로 전환 표시할 수 있도록 하는 DMB 모듈부(120)로 구성된다.
1, an
언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)는 컴퓨터 단말기, 테블릿 PC, 어학기 및 스마트폰을 포함하며, 상기 입력부(102)는 상기 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)의 키 패드 또는 터치 스크린 모듈 및 터치 팬을 포함한다.
The
상기 오디오 처리부(106)는 음성 입력 및 출력과 미디어 출력이 가능하도록 마이크(microphone)와 스피커를 포함한다.
The
학습자가 학습하고자 하는 학습이 시작되면, 도 5에서와 같이, Home 텝(10)에 언어 데이터와 발음기호(11), 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻(12), 언어 데이터와 관련된 이미지 데이터(13), 원어민의 언어 데이터 발음 시 얼굴(14), 원어민의 언어 데이터 발음 시 입술의 모양 그리고 치아와 혀의 위치 (15), 학습자의 언어 데이터 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치(16), 원어민의 음성 파형(17) 및 학습자의 음성 파형(18)이 표시되고 하단에 Next, Repeat, Slow 버튼과 녹음 및 재생 버튼이 표시된다.
As shown in FIG. 5, when the learner starts learning, the
선택된 언어 데이터가 언어 데이터를 연상 시킬 수 있는 이미지 데이터와 함께 표시됨과 동시에 해당 언어 데이터를 발음하는 원어민의 언어 데이터 발음 시 동영상이 재생된다.
The selected language data is displayed together with the image data capable of associating the language data, and at the same time, the moving image is reproduced when the native language data of the native language pronouncing the corresponding language data is pronounced.
표시되진 않았지만 학습자의 음성을 입력받을 수 있도록 팝업메뉴를 띄워 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)에 구비된 카메라를 바라보며 해당 언어 데이터를 발음하도록 한다.
A pop-up menu is displayed so that the learner's voice can be input even though it is not displayed, and the language data is pronounced by looking at the camera provided in the
음성 녹음 및 영상 촬영이 완료되면, 해당 언어 데이터에 대한 원어민의 언어 데이터 발음 시 입 부분이 확대된 발음 동영상과 학습자의 녹화된 발음 동영상이 재생 되도록 한다
When the voice recording and the video image capturing are completed, the pronunciation video in which the mouth part is enlarged and the recorded pronunciation video of the learner are reproduced in the pronunciation of the native language data of the native language
영상 처리부(116)는 해당 화면의 프레임에 입 모양이 표시될 수 있도록 영상을 가공하여 규격화할 수 있는 프로그램이 탑재되는 것이 바람직하며, 녹화된 영상이 데이터로 활용될 수 없는 경우 재녹화될 수 있도록 학습자에게 요구사항을 팝업메뉴 형태로 표시하는 것이 바람직하다.
Preferably, the
또한, 학습자의 발음 영상 재생은 녹화방식이 아닌 현재 학습자의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치가 카메라를 통해 실시간으로 입력되어 표시되도록 함으로써, 학습자가 본인의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치를 직접 화면을 통해 확인하면서 원어민의 발음과 같아지도록 연습할 수 있도록 하는 것이 바람직하다.
In addition, the pronunciation video reproduction of the learner allows the learner's facial muscle change, lips shape, and tooth and tongue position to be inputted and displayed in real time through the camera, not by the recording method, Shape, and location of the teeth and tongue directly on the screen, so that they can practice the pronunciation of the native speaker.
이때, 음성 분석 모듈부(108)에서 학습자의 음성을 분석하고, 분석된 데이터를 토대로 음성 파형 처리부(110)를 통해 파형으로 변환시켜 원어민 음성 파형과 비교할 수 있도록 표시한다.
At this time, the
도 6는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 상 정보를 표시한 예를 나타낸 도면이다.
6 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention.
도 6에 도시된 바와 같이, Dic 텝(20)을 선택하면 단어를 검색하여 단어의 사전적 의미와 예문 등을 확인할 수 있다.
As shown in FIG. 6, if the
도 7는 본 발명의 실시 예에 따른 Option 텝에서의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 옵션 선택목록의 예를 나타낸 도면이다.
FIG. 7 is a diagram illustrating an example of a selection list of linguistic learning options using language data in the Option tab and pronunciation data of native speakers according to an embodiment of the present invention.
도 7에 도시된 바와 같이, 상기 Option 텝(30)은 언어 데이터를 연상시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 발음 시 영상 및 음성 재생과 학습자의 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 연음 철자 색깔 표시 유무 선택과, 액센트 표시 여부 선택과, 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택 할 수 있도록 하여 학습자가 자신에게 가장 적합한 방식으로 조절할 수 있도록 한다.
As shown in FIG. 7, the
도 8은 본 발명의 실시 예에 따른 인터넷 웹 브라우저의 표시되는 언어 데이터 또는 DMB 영어방송에서 나오는 언어 데이터 중 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 예를 나타낸 도면이다.
FIG. 8 is a diagram illustrating language data corresponding to language data stored in an edgy learning device storage unit using language data displayed in an Internet web browser or language data in a DMB English broadcast according to an embodiment of the present invention and pronunciation data of native speakers; A pronunciation symbol to be pronounced when actually pronunciated with respect to the language data, image data related to the language data, and a native-language image related to the language data are provided so that the user can learn the language.
도 9는 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법의 흐름도이다.
FIG. 9 is a flowchart of an ear training method using language data and pronunciation data of native speakers according to an embodiment of the present invention.
도 9 참조하면, 먼저 입력부(102)를 통해 학습자는 학습하고자 하는 언어 데이터를 이용한 연음 학습 데이터를 선택한다(S200).
Referring to FIG. 9, the learner selects the learner's training data using the language data to be learned through the input unit 102 (S200).
상기 입력부(102)를 통한 학습 할 언어 데이터를 이용한 연음 학습 데이터 선택이 완료되면, 표시부(114)의 Home(10)에 언어 데이터가 표시되고, 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시되고, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되고, 해당 언어 데이터의 원어민 발음 시 영상이 표시 및 재생된다(S202).
When the selection of the learning data using the language data to be learned through the
이후, 오디오 처리부(106)를 통해 학습자의 언어 데이터 발음 시 음성을 입력받고, 카메라부(112)를 통해 학습자의 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 취득한다(S204).
Thereafter, the learner's voice data is input through the
저장부(104)에 저장된 원어민의 발음 시 영상이 재생되고, 영상 처리부(116)를 통해 포커스와 사이즈가 규격화된 학습자의 발음 시 영상이 재생되도록 한다(S206).
(Step S206). In this way, the learner's pronunciated image of the learner, whose focus and size are standardized, is reproduced through the image processing unit 116 (S206).
학습자의 발음 시 영상에 있어서는 학습자마다 언어 데이터를 발음할 때 카메라와의 거리, 학습자마다 영상에서 차지하는 얼굴 사이즈 등이 달라지게 되는 것이 일반적이다.
In the case of the learner's pronunciations, the distance between the learner and the camera when pronouncing the learner data, and the face size occupied by the learner are different for each learner.
따라서, 상기 영상 처리부(116)는 학습자의 얼굴 형태를 인식하고 프레임에서 얼굴 형태가 차지하는 사이즈로 확대 또는 축소하여 규격화된 포커스와 사이즈로 학습자의 발음 시 영상이 보여질 수 있도록 하는 것이 바람직하다.
Accordingly, the
이때, 학습자의 발음 시 영상 재생은 녹화 재생 또는 실시간 재생 방식을 적용할 수 있다.
At this time, the learner can apply the recording reproduction or the real time reproduction method to the image reproduction upon pronunciation.
그리고, 상기 오디오 처리부(106)를 통해 입력된 학습자의 음성 데이터를 음성 분석 모듈부(108)에서 분석하여 음성 파형 처리부(110)를 통해 파형으로 변환하여 표시될 수 있도록 한다(S208).
The
학습자의 음성 파형은 저장부(104)에 저장된 원어민의 음성 파형과 비교될 수 있도록 나란히 표시하고, 원어민이 어느 부분을 강하게 발음하는지를 학습자가 확인할 수 있도록 한다.
The learner's voice waveform is displayed side by side so that it can be compared with the voice waveform of the native speaker stored in the
파형은 음의 진동 모양을 시간 차이로 나누어 표시할 때 생기는 파장의 형태로써, 음성 파형은 발음할 때의 액센트와 리듬을 확인할 수 있는 중요한 요소가 된다.
The waveform is a form of the wavelength generated when the vibration shape of the sound is divided by the time difference, and the voice waveform is an important factor to confirm the accent and rhythm when pronouncing.
이상에서는 학습자가 학습하는 언어가 영어인 경우를 예로 들어 설명하였으나 영어 외에 중국어, 일본어, 독일어, 불어 등의 다른 외국어에도 본 발명이 적용될 수 있음은 물론이다.In the above, the case where the learner learns English is described as an example, but it goes without saying that the present invention can also be applied to other languages such as Chinese, Japanese, German, French and so on.
100 : 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 장치
102 : 입력부
104 : 저장부 106 : 오디오 처리부
108 : 음성 분석 모듈부 110 : 음성 파형 처리부
112 : 카메라부 114 : 표시부
116 : 영상 처리부 118 : 유무선 네트워크부
120 : DMB 모듈부 122 : 제어부100: an ear training device using language data and pronunciation data of native speakers
102:
104: storage unit 106: audio processing unit
108: Voice analysis module 110: Voice waveform processor
112: camera section 114: display section
116: image processing unit 118: wired / wireless network unit
120: DMB module unit 122:
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120149001AKR20140079677A (en) | 2012-12-19 | 2012-12-19 | AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120149001AKR20140079677A (en) | 2012-12-19 | 2012-12-19 | AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data |
| Publication Number | Publication Date |
|---|---|
| KR20140079677Atrue KR20140079677A (en) | 2014-06-27 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020120149001AWithdrawnKR20140079677A (en) | 2012-12-19 | 2012-12-19 | AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data |
| Country | Link |
|---|---|
| KR (1) | KR20140079677A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200087623A (en)* | 2019-01-11 | 2020-07-21 | 김주현 | Apparatus and method for evaluating pronunciation accuracy for foreign language education |
| KR20210112891A (en)* | 2020-03-06 | 2021-09-15 | 김주혁 | English speaking evaluation method based on speech waveform |
| KR102388948B1 (en)* | 2021-08-17 | 2022-04-21 | 이경순 | Language fluency evaluation method and system using speech visualization technology |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200087623A (en)* | 2019-01-11 | 2020-07-21 | 김주현 | Apparatus and method for evaluating pronunciation accuracy for foreign language education |
| KR20210112891A (en)* | 2020-03-06 | 2021-09-15 | 김주혁 | English speaking evaluation method based on speech waveform |
| KR102388948B1 (en)* | 2021-08-17 | 2022-04-21 | 이경순 | Language fluency evaluation method and system using speech visualization technology |
| Publication | Publication Date | Title |
|---|---|---|
| KR100900085B1 (en) | Foreign language learning control method | |
| KR20150076128A (en) | System and method on education supporting of pronunciation ussing 3 dimensional multimedia | |
| Stemberger et al. | Phonetic transcription for speech-language pathology in the 21st century | |
| KR20100138654A (en) | Foreign language pronunciation learning apparatus and method | |
| KR20140078810A (en) | Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers | |
| KR20140079677A (en) | AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data | |
| KR20140087956A (en) | Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data | |
| JP2016224283A (en) | Conversation training system for foreign language | |
| KR20160001332A (en) | English connected speech learning system and method thereof | |
| KR20140075994A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thought unit | |
| KR20140107067A (en) | Apparatus and method for learning word by using native speakerpronunciation data and image data | |
| KR20140087951A (en) | Apparatus and method for learning english grammar by using native speaker's pronunciation data and image data. | |
| KR20170051759A (en) | Method and program for edcating language by making comparison sound | |
| KR20140087950A (en) | Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers | |
| KR20140087953A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit | |
| KR20140028527A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word | |
| KR20140079245A (en) | Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers | |
| KR100593590B1 (en) | Automatic Content Generation Method and Language Learning Method | |
| KR20140074459A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data | |
| KR20140082127A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and origin of a word | |
| KR20140073768A (en) | Apparatus and method for language education using meaning unit and pronunciation data of native speakers | |
| KR20140084644A (en) | AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data | |
| KR20140078082A (en) | Apparatus and method for Language Pattern Education by using sentence data. | |
| KR20140087957A (en) | Apparatus and method for Language Pattern Education by using sentence data. | |
| KR20140087955A (en) | Apparatus and method for learning English prepositions using image data and pronunciation data of native speakers |
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application | Patent event code:PA01091R01D Comment text:Patent Application Patent event date:20121219 | |
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination | ||
| WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |