Movatterモバイル変換


[0]ホーム

URL:


KR20140079677A - AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data - Google Patents

AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data
Download PDF

Info

Publication number
KR20140079677A
KR20140079677AKR1020120149001AKR20120149001AKR20140079677AKR 20140079677 AKR20140079677 AKR 20140079677AKR 1020120149001 AKR1020120149001 AKR 1020120149001AKR 20120149001 AKR20120149001 AKR 20120149001AKR 20140079677 AKR20140079677 AKR 20140079677A
Authority
KR
South Korea
Prior art keywords
data
language
displayed
language data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020120149001A
Other languages
Korean (ko)
Inventor
주홍찬
Original Assignee
주홍찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주홍찬filedCritical주홍찬
Priority to KR1020120149001ApriorityCriticalpatent/KR20140079677A/en
Publication of KR20140079677ApublicationCriticalpatent/KR20140079677A/en
Withdrawnlegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명은 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법에 관한 것으로서 “언어의 문법으로 이루어진 단어 또는 구 또는 절 또는 문장”(이하 “언어 데이터”라고 함), 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻, 언어 데이터와 관련된 이미지 또는 애니메이션 또는 영상 그리고 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부; 언어 데이터를 이용한 연음 학습 데이터 선택 및 언어 데이터를 이용한 연음 학습 데이터 입력 위한 입력부; 선정된 언어 데이터를 이용한 연음 학습 데이터의 학습이 시작되면 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 또는 애니메이션 또는 영상이 표시되는 표시부; 학습자가 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 시 표시된 언어 데이터를 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부; 상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부; 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부; 상기 카메라부로부터 입력된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상 데이터의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 및 상기 영상 처리부를 통해 규격화된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 언어 데이터 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치를 제공한다.[0001] The present invention relates to an apparatus and method for learning an utterance using language data and pronunciation data of a native speaker, and more particularly, to an apparatus and method for learning an utterance using pronunciation data of a word or a phrase or phrase or sentence (hereinafter referred to as " A storage unit for storing a pronunciation symbol to be pronounced at a predetermined time, an interpretation in a language of a country for learning the language data, an image or animation or image related to the language data, and a native speech image and sound waveform data; An input unit for inputting lecture learning data using language data and selection of lecture learning data using language data; When the learning of the learning data using the selected language data is started, the language data is sequentially displayed so that the language learning can be performed, and the displayed language data is displayed by changing the spelling in which the loud phenomenon occurs, A pronunciation symbol to be pronounced when the displayed language data is actually pronounced is displayed and the interpretation in the language of the country in which the displayed language data is learned is displayed and an image or an animation or an image A display portion to be displayed; An audio processing unit for receiving a learner's voice when a learner pronounces language data displayed at the time of learning lecture using language data and pronunciation data of native speakers; A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice; A camera unit for collecting the positional image of the tooth and the tongue of the lips and the change of the facial muscles when pronouncing the learner's language data; An image processing unit for normalizing a face muscle change, a lip shape, a focus and a size of positional image data of a tooth and a tongue when pronouncing linguistic data input from the camera unit; And a display unit for comparing and displaying the images of the linguistic data of the native speakers stored in the storage unit and the positional image of the teeth and the tongue when the learner's speech data is normalized through the image processor, And a control unit for displaying the waveform processed through the module unit and the sound waveform processing unit and the voice waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in case of less than 50% The linguistic data and the pronunciation data of the native speaker.

Figure pat00001
Figure pat00001

Description

Translated fromKorean
언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법 {Apparatus and method for learning sound connection by using native speaker’s pronunciation data and language data.}BACKGROUND OF THEINVENTION 1. Field of the Invention [0001] The present invention relates to an apparatus and method for learning pronunciation using language data and pronunciation data of a native speaker.

본 발명은 언어 연음 학습을 할 수 있도록 제공된 “언어의 문법으로 이루어진 단어 또는 구 또는 절 또는 문장”(이하 “언어 데이터”라고 함)과 언어 데이터를 연상시키는 “이미지 또는 애니메이션 또는 영상”(이하 “이미지 데이터”라고 함) 및 원어민의 "언어 데이터 발음 시 얼굴 정면과 측면 영상, 언어 데이터 발음 시 음성, 언어 데이터 발음에 따른 음성 파형, 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양”(이하 “발음 데이터”라고 함)을 이용한 연음 학습장치 및 방법에 관한 것으로, 보다 상세하게는 언어 연음 학습을 할 수 있도록 언어 데이터를 순차적 제공하고, 제공된 언어 데이터는 해당 언어의 연음 법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하고, 제공된 언어 데이터를 실제 발음했을 때 발음되는 발음기호를 제공하고, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되고, 제공된 언어 데이터를 연상시킬 수 있는 이미지 데이터를 함께 제공하며, 표시된 언어 데이터에 대한 원어민의 발음 시 음성과 영상이 재생되도록 하고, 학습자의 언어 데이터 발음에 따른 음성과 영상을 입력받아 원어민 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 및 학습자 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 화면을 표시하고, 음성 파형 비교 화면을 표시하여 효과적인 언어 말하기 학습을 하기 위한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법에 관한 것이다.The present invention relates to an image or an animation or an image (hereinafter referred to as " image or animation " or " (Hereinafter referred to as " image data ") and a native speaker's voice in the pronunciation of the language data, the frontal and lateral images in the pronunciation of the speech data, More particularly, the present invention relates to an apparatus and method for learning a linguistic data using data such as a spelling of a linguistic data, To be displayed in a different color, and when the provided language data is actually pronounced, And the image interpreted in the language of the country in which the language data is learned is displayed and the image data which can remind the provided language data are provided together and the voice and the image in the pronunciation of the native language of the displayed language data And the learner's pronunciation, the shape of the lips, the position of the teeth and the tongue, the shape of the lips, the shape of the teeth and the tongue And more particularly, to an apparatus and method for learning a loudspeaker using linguistic data and pronunciation data of native speakers for effective language speech learning by displaying a position reproduction screen and displaying a sound waveform comparison screen.

외국과의 교류가 활발해 짐에 따라 외국어 학습에 대한 필요성이 점점 더 커지고 있다.
As exchange with foreign countries becomes more active, the need for foreign language learning is increasing.

종래의 외국어 학습은 서적, 테블릿, 전자사전, 스마트폰등을 통해 여러 컨텐츠가 제공되지만 문법과 읽기에 치중된 문자적 학습 방법이 대세를 이루고 있다.
Conventional foreign language learning provides various contents through books, tablets, electronic dictionaries, smart phones, etc., but literary learning methods focused on grammar and reading are popular.

이러한 문자적 외국어 학습은 외국어를 발음할 때 원어민처럼 자연스럽게 처리하는 능력이 매우 미약해지는 단점이 있다. 영어를 예로 든다면 “Don’t you like it?” 을 종래 학습 교재에 표기된 발음 기호로 읽은 것을 한국어로 표기한다면 “돈트 유 라이크 잇?” 이지만 실제 원어민은 연음법칙(1.단어 끝 철자 자음 + 단어 첫 철자 모음, 2.단어 끝 철자 자음 + 단어 첫자 자음, 3.단어 끝 철자 모음 + 단어 첫 철자 모음, 4.T,D,S,Z 뒤에 Y가 올 때)에 따라 “돈 츄 롸이 킷?”으로 발음하게 된다. 그래서 많은 시간을 투자했음에도 불구하고 영어 말하기에 자신감을 잃어가고 있다.
This literary foreign language learning has a disadvantage that the ability to process a native language like a native speaker is very weak when pronouncing a foreign language. If you use English as an example, if you read "Do not you like it?" In Korean with the phonetic symbols shown in the conventional learning materials, "Do not you like it?" The first spelling of the word, 2. the end of the word consonant + the first consonant of the word, 3. the spelling of the end of the word + the first spelling of the word, 4. T, D, S, Z followed by Y) ? ". So despite spending a lot of time, I am losing my confidence in speaking English.

이러한 상황에 따라 좀 더 자연스런 외국어 말하기 능력을 위해 아이들이 해외 유학을 선택하는 일이 발생되었고, 이에 따라 막대한 교육비 부담이 사회적 문제가 되고 있다.Under these circumstances, children have to choose to study abroad for a more natural ability to speak the language, and the enormous cost of education is becoming a social problem.

따라서, 상기한 문제점을 해결하기 위한 본 발명의 목적은, 언어 연음 학습을 할 수 있도록 언어 데이터를 순차적 제공하고, 제공된 언어 데이터는 해당 언어의 연음 법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하는 것을 제공하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a method and apparatus for sequentially providing language data so that language learning can be performed, And to provide an apparatus and method for learning an utterance using pronunciation data of a native speaker.

또한 본 발명의 목적은, 제공된 언어 데이터를 실제 발음했을 때 발음되는 발음기호를 제공하고, 제공된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시하는 것을 제공하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
The object of the present invention can also be achieved by providing a phonetic symbol to be pronounced when the provided language data is actually pronounced and providing language data to be displayed by the interpretation in the language of the country in which the provided language data is learned, And to provide an apparatus and a method for learning a loudspeaker using the same.

또한 본 발명의 목적은, 제공된 언어 데이터를 연상시킬 수 있는 이미지 데이터를 함께 제공하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide an apparatus and method for learning an abstinence using language data and native pronunciation data of a native speaker together with image data capable of associating the provided language data.

또한 본 발명의 목적은, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 언어 데이터를 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능한, 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a speech recognition apparatus and method capable of correcting pronunciation of a native speaker in a way that a learner pronounces language data through comparison between pronunciation data of a native speaker and pronunciation data of a learner, Apparatus and method.

또한 본 발명의 목적은, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있도록 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide an apparatus and method for learning an utterance using language data and pronunciation data of a native speaker, which enables checking the strength of pronunciation and the position of the accent through detailed comparison of speech waveforms.

또한 본 발명의 목적은, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 폭 넓게 언어 말하기 학습을 하도록 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법을 제공함에 있다.It is also an object of the present invention to provide an apparatus and method for providing pronunciation data of a native speaker in various types such as female, male, American, British, and phonetic pronunciation, Apparatus and method.

본 발명에 의한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치는 언어 데이터, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻, 언어 데이터와 관련된 이미지 데이터, 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부;
The apparatus for learning an utterance using language data and pronunciation data of a native speaker according to the present invention includes language data, pronunciation symbols to be pronounced when the language data is actually pronounced, meaning interpreted in a language of a country to learn about the language data, A storage unit for storing image data, native speech images, and sound waveform data;

언어 데이터를 이용한 연음 학습 데이터 선택 및 연음 학습 데이터 입력 위한 입력부;
An input unit for selecting the lecture learning data using the language data and inputting the lecture learning data;

선정된 연음 학습 데이터의 학습이 시작되면 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되는 표시부;
When learning of the selected learning data is started, language data is sequentially displayed so that language learning can be performed. In the displayed language data, the spelling in which a lingering phenomenon occurs is displayed in a different color according to the linguistic law of the language, A display unit displaying a pronunciation symbol to be pronounced when the data is actually pronounced and displaying the interpreted meaning of the language of the language in which the displayed language data is to be learned and capable of associating the displayed language data;

학습자가 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 시 표시된 언어 데이터를 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부;
An audio processing unit for receiving a learner's voice when a learner pronounces language data displayed at the time of learning lecture using language data and pronunciation data of native speakers;

상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부;
A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice;

학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부;
A camera unit for collecting the positional image of the tooth and the tongue of the lips and the change of the facial muscles when pronouncing the learner's language data;

상기 카메라부로부터 입력된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상 데이터의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 및
An image processing unit for normalizing a face muscle change, a lip shape, a focus and a size of positional image data of a tooth and a tongue when pronouncing linguistic data input from the camera unit; And

상기 영상 처리부를 통해 규격화된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 언어 데이터 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 할 수 있다.
A linguistic model of the learner, a positional image of a tooth and a tongue, and a linguistic data of a native speaker stored in the storage unit when the learner's pronunciation of the language data is normalized through the image processor, And a control unit for displaying the waveform processed through the speech waveform processing unit and the speech waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in less than 50% . ≪ / RTI >

또한, 상기 제어부가 인터넷 웹 브라우저의 표시되는 언어 데이터 중 상기 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 유무선 네트워크부를 더 포함하는 것을 특징으로 할 수 있다.
If the control unit selects language data corresponding to the language data stored in the storage unit of the language data displayed on the Internet web browser, the control unit displays the pronunciation symbol, the image data related to the language data, And a wired / wireless network unit for providing a native speaker image related to the data to enable learning of the ear training.

또한, 상기 제어부가 DMB 영어방송에서 나오는 언어 데이터 중 상기 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 DMB 모듈부를 더 포함하는 것을 특징으로 할 수 있다.
When the control unit selects language data matching the language data stored in the storage unit among the language data from the DMB English broadcast, the image data related to the pronunciation symbol, the language data, the language data, And a DMB module unit for providing a related native speaker image to enable learning of an ear training.

또한 상기 표시부의 레이어(layer)는 Home, Dic 및 Option 텝으로 구분되는 것을 특징으로 할 수 있다.
In addition, the layer of the display unit may be divided into Home, Dic, and Option tabs.

또한, 상기 Home 텝에는 언어 데이터가 표시되고, 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시되고, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터, 원어민의 언어 데이터 발음 시 얼굴, 원어민의 언어 데이터 발음 시 입술의 모양 그리고 치아와 혀의 위치, 학습자의 언어 데이터 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치, 원어민의 음성 파형 및 학습자의 음성 파형 중 적어도 어느 하나를 표시하는 것을 특징으로 할 수 있다.
In addition, the Home tab displays language data. The language data is displayed by changing the spelling in which the loudspeaker phenomenon occurs in a different color according to the linguistic law of the language. The linguistic data includes a pronunciation symbol and language data The image data that can be reminded of the displayed language data, the face when pronouncing the language data of the native speaker, the shape of the lips when pronouncing the linguistic data of native speakers, the position of the teeth and tongue, A shape of a face or a lips, a position of a tooth and a tongue, a voice waveform of a native speaker, and a voice waveform of a learner.

또한 상기 Option 텝은 언어 데이터를 연상시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 발음 시 영상 및 음성 재생과 학습자의 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 연음 철자 색깔 표시 유무 선택과, 액센트 표시 여부 선택과, 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택 중 적어도 어느 하나를 포함하는 것을 특징으로 할 수 있다.
The option tab is used to select whether to display image data capable of reminding the language data, to select whether or not to display video and audio in the pronunciation of a native speaker, The selection of whether or not to display accents, the selection of whether or not to display a pronunciation symbol, the selection of a gender of a voice output, the selection of a pronunciation voice output by a country, and the selection of a pronunciation correction test mode.

본 발명에 의한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법은 학습자로부터 학습할 연음 학습 데이터의 선택 명령이 입력되는 단계;
The method for learning an ejaculation using language data and pronunciation data of a native speaker according to the present invention includes the steps of inputting a selection command of learning data to be learned from a learner;

상기 선택된 언어 데이터를 이용한 연음 데이터 학습에 따라 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되는 단계;
The language data is sequentially displayed so that the language learning of the language can be performed according to the learning of the learning data using the selected language data, and the displayed language data changes the spelling in which the loudspeaking phenomenon occurs in accordance with the linguistic law of the language, Displaying a pronunciation symbol that is pronounced when the language data is actually pronounced, displaying the interpreted meaning of the language of the language in which the displayed language data is to be learned, and displaying image data capable of associating the displayed language data;

상기 선택된 언어 데이터에 따른 원어민 발음 시 영상이 표시되는 단계;
Displaying an image when a native speaker is pronunciated according to the selected language data;

상기 표시된 언어 데이터에 따른 학습자의 언어 데이터 발음 시 음성 및 영상이 입력되는 단계;
A step of inputting voice and image when pronouncing the learner's language data according to the displayed language data;

원어민의 언어 데이터 발음 시 영상 및 학습자의 언어 데이터 발음 시 영상이 표시되어 재생되는 단계;
A step of displaying and reproducing an image when pronunciating a native speaker's speech data and an image when pronouncing a learner's speech data;

원어민 음성 파형과 학습자 음성 파형의 비교 화면이 표시되는 단계; 및,
A step of displaying a comparison screen of a native speech waveform and a learner speech waveform; And

원어민 음성 파형과 학습자 음성 파형의 비교 유사도가 50% 이상이면 “good” 50% 미만이면 “bad”를 표시하는 단계를 포함하는 것을 특징으로 할 수 있다.And displaying "bad" if the similarity degree between the native speech waveform and the learner speech waveform is "good" if the similarity is 50% or more and "bad" if the similarity is less than 50%.

본 발명의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법에 의하면, 언어 연음 학습을 할 수 있도록 언어 데이터를 순차적 제공하고, 제공된 언어 데이터는 해당 언어의 연음 법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하는 방법을 제공하고, 제공된 언어 데이터를 실제 발음했을 때 발음되는 발음기호를 제공하고, 제공된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시하는 것을 제공하며, 제공된 언어 데이터를 연상시킬 수 있는 이미지 데이터를 함께 제공하는 함께 제공하고, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 언어 데이터를 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능하며, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있도록 하고, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 언어 연음 학습을 포함하여 폭 넓게 언어 말하기 학습을 할 수 있도록 제공하여 폭 넓게 언어 말하기 학습을 할 수 있는 효과가 있다.According to an embodiment of the present invention, language data is sequentially provided so that language learning can be performed, and the provided language data includes a spelling in which a lingering phenomenon occurs in accordance with the linguistic law of the language Providing a method of changing and displaying in color, providing a pronunciation symbol to be pronounced when the provided language data is actually pronounced, providing what is interpreted in the language of the country in which the provided language data is learned, The learner can calibrate the pronunciation of the learner so as to be similar to the pronunciation of the native speaker by comparing the pronunciation data of the learner with the pronunciation data of the learner by comparing the pronunciation data of the learner with the learner's pronunciation data, The intensity of the pronunciation and the position of the accent It provides a wide range of language speech learning including language learning by providing various kinds of pronunciation data of native speakers such as female, male, American, English, and phonetic pronunciation. There is an effect that learning can be done.

도 1은 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치의 구성을 나타낸 블록도.
도 2는 본 발명의 실시 예에 따른 학습하고자 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 선택 화면의 예를 나타낸 도면.
도 3,4는 본 발명의 실시 예에 따른 선택한 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습의 레벨 선택 화면의 예를 나타낸 도면.
도 5는 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 화면의 예를 나타낸 도면.
도 6는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 정보를 표시한 예를 나타낸 도면.
도 7는 본 발명의 실시 예에 따른 Option 텝에서의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 옵션 선택목록의 예를 나타낸 도면.
도 8은 본 발명의 실시 예에 따른 인터넷 웹 브라우저의 표시되는 언어 데이터 또는 DMB 영어방송에서 나오는 언어 데이터 중 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 예를 나타낸 도면이다.
도 9는 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법의 흐름도.
1 is a block diagram showing a configuration of an ear training device using language data and pronunciation data of a native speaker according to an embodiment of the present invention;
2 is a view showing an example of a learner learning selection screen using language data to be learned and pronunciation data of a native speaker according to an embodiment of the present invention;
3 and 4 are views showing an example of a level selection screen of linguistic learning using selected language data and pronunciation data of native speakers according to an embodiment of the present invention.
5 is a view showing an example of an ear training screen using language data and pronunciation data of a native speaker according to an embodiment of the present invention;
6 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention;
FIG. 7 is a view showing an example of an option list for selecting an option for learning language data using language data and native pronunciation data of an option tab according to an embodiment of the present invention; FIG.
FIG. 8 is a diagram illustrating language data corresponding to language data stored in an edgy learning device storage unit using language data displayed in an Internet web browser or language data in a DMB English broadcast according to an embodiment of the present invention and pronunciation data of native speakers; A pronunciation symbol to be pronounced when actually pronunciated with respect to the language data, image data related to the language data, and a native-language image related to the language data are provided so that the user can learn the language.
9 is a flowchart of an ear training method using language data and pronunciation data of native speakers according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법에 대해 설명하도록 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an apparatus and method for learning an lyric based on language data of the present invention and pronunciation data of a native speaker will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치의 구성을 나타낸 블록도이다.
1 is a block diagram showing a configuration of an ear training apparatus using language data and pronunciation data of native speakers according to an embodiment of the present invention.

도 1을 참조하면, 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)는 언어 데이터, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻, 언어 데이터와 관련된 이미지 또는 애니메이션 또는 영상 그리고 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부(104)와, 언어 데이터를 이용한 연음 학습 데이터 선택 및 언어 데이터를 이용한 연음 학습 데이터 입력 위한 입력부(102)와, 선정된 언어 데이터를 이용한 연음 학습 데이터 학습이 시작되면 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되는 표시부(114)와, 학습자가 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 시 표시된 언어 데이터를 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부(106)와, 상기 오디오 처리부(106)를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부(108) 및 음성 파형 처리부(110)와, 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부(112)와, 상기 카메라부(112)로부터 입력된 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상의 포커스와 사이즈를 규격화하기 위한 영상 처리부(116)와, 상기 영상 처리부(116)를 통해 규격화된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부(104)에 저장된 원어민의 언어 데이터 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부(108) 와 음성 파형 처리부(110)를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부(122)와, 상기 제어부(122)가 인터넷 웹 브라우저의 화면에 표시되는 언어 데이터 중 상기 저장부(104)에 저장된 언어 데이터와 일치하는 언어 데이터의 강세 음절을 다른 색깔로 전환 표시할 수 있도록 하는 유무선 네트워크부(118)와, 상기 제어부(122)가 DMB 영어 방송에서 나오는 언어 데이터 중 상기 저장부(104)에 저장된 언어 데이터와 일치하는 언어 데이터의 강세 음절을 다른 색깔로 전환 표시할 수 있도록 하는 DMB 모듈부(120)로 구성된다.
1, anapparatus 100 for learning an utterance using language data and pronunciation data of a native speaker is interpreted as a language of a country in which language data and pronunciation data of a language data are actually pronounced, Aninput unit 102 for inputting linguistic learning data using linguistic data selection and linguistic data using language data, astorage unit 104 for storing images, animations or images related to the linguistic data, native pronunciation images and sound waveform data, When the learning of the learning data using the selected language data is started, the language data is sequentially displayed so that the language learning can be performed, and the displayed language data is displayed by changing the spelling in which the loud phenomenon occurs, , The pronounced pronunciation when the displayed language data is actually pronounced Adisplay unit 114 for displaying the image of the language data displayed in the language of the country in which the displayed language data is to be learned and displaying the image data capable of associating the displayed language data with the linguistic data, Anaudio processing unit 106 for receiving a learner's voice when pronouncing the language data displayed at the time of learning the loudspeaked speech using theaudio processing unit 106, A voicewaveform processing unit 110 and a voicewaveform processing unit 110 for comparing and analyzing the waveforms of the native speaker voice and the similarity of the native speaker voice; And the shape of the lips and the shape of the teeth and the tongue inputted from thecamera unit 112. [ A lips pattern, a position image of a tooth and a tongue, and a position image of a tooth and a tongue of a learner, which are standardized through theimage processor 116, And displays the waveforms processed by thespeech analysis module 108 and thespeech waveform processor 110 and the speech waveforms of the native speakers stored in thespeech analysis module 108 and thesimilarity filter 108, Thecontrol unit 122 controls thedisplay unit 122 to display "bad" in a similarity of 50% or more and "good" in a similarity of 50% A wire /wireless network unit 118 for switching and displaying an accent syllable of language data coinciding with the language data stored in thestorage unit 104, And aDMB module 120 for switching the highlighting syllable of the language data coinciding with the language data stored in thestorage unit 104 to another color among the language data from the DMB English broadcast.

언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)는 컴퓨터 단말기, 테블릿 PC, 어학기 및 스마트폰을 포함하며, 상기 입력부(102)는 상기 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)의 키 패드 또는 터치 스크린 모듈 및 터치 팬을 포함한다.
Theinput unit 102 includes a computer terminal, a tablet PC, a language school, and a smart phone. Theinput unit 102 includes an input device for inputting the language data and the pronunciation data of the native speaker, A touch pad module or touch pad of thetouch pad 100 or touch panel.

상기 오디오 처리부(106)는 음성 입력 및 출력과 미디어 출력이 가능하도록 마이크(microphone)와 스피커를 포함한다.
Theaudio processing unit 106 includes a microphone and a speaker to enable audio input, output, and media output.

학습자가 학습하고자 하는 학습이 시작되면, 도 5에서와 같이, Home 텝(10)에 언어 데이터와 발음기호(11), 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻(12), 언어 데이터와 관련된 이미지 데이터(13), 원어민의 언어 데이터 발음 시 얼굴(14), 원어민의 언어 데이터 발음 시 입술의 모양 그리고 치아와 혀의 위치 (15), 학습자의 언어 데이터 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치(16), 원어민의 음성 파형(17) 및 학습자의 음성 파형(18)이 표시되고 하단에 Next, Repeat, Slow 버튼과 녹음 및 재생 버튼이 표시된다.
As shown in FIG. 5, when the learner starts learning, thehome tab 10 is provided with language data andphonetic symbols 11, meanings 12 interpreted in the language of the country to learn about the language data, (14), the shape of the lips when pronouncing the linguistic data of native speakers, the position of the teeth and tongue (15), the shape of the face or lips when pronouncing the learner's linguistic data, The position of the tooth and thetongue 16, thevoice waveform 17 of the native speaker and thevoice waveform 18 of the learner are displayed, and the Next, Repeat, Slow buttons and recording and reproducing buttons are displayed at the bottom.

선택된 언어 데이터가 언어 데이터를 연상 시킬 수 있는 이미지 데이터와 함께 표시됨과 동시에 해당 언어 데이터를 발음하는 원어민의 언어 데이터 발음 시 동영상이 재생된다.
The selected language data is displayed together with the image data capable of associating the language data, and at the same time, the moving image is reproduced when the native language data of the native language pronouncing the corresponding language data is pronounced.

표시되진 않았지만 학습자의 음성을 입력받을 수 있도록 팝업메뉴를 띄워 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치(100)에 구비된 카메라를 바라보며 해당 언어 데이터를 발음하도록 한다.
A pop-up menu is displayed so that the learner's voice can be input even though it is not displayed, and the language data is pronounced by looking at the camera provided in theear training device 100 using the linguistic data and the pronunciation data of native speakers.

음성 녹음 및 영상 촬영이 완료되면, 해당 언어 데이터에 대한 원어민의 언어 데이터 발음 시 입 부분이 확대된 발음 동영상과 학습자의 녹화된 발음 동영상이 재생 되도록 한다
When the voice recording and the video image capturing are completed, the pronunciation video in which the mouth part is enlarged and the recorded pronunciation video of the learner are reproduced in the pronunciation of the native language data of the native language

영상 처리부(116)는 해당 화면의 프레임에 입 모양이 표시될 수 있도록 영상을 가공하여 규격화할 수 있는 프로그램이 탑재되는 것이 바람직하며, 녹화된 영상이 데이터로 활용될 수 없는 경우 재녹화될 수 있도록 학습자에게 요구사항을 팝업메뉴 형태로 표시하는 것이 바람직하다.
Preferably, theimage processing unit 116 includes a program that can process and standardize an image so that a mouth shape can be displayed on a frame of the corresponding screen. If the recorded image can not be utilized as data, It is desirable to display the requirements to the learner in the form of a pop-up menu.

또한, 학습자의 발음 영상 재생은 녹화방식이 아닌 현재 학습자의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치가 카메라를 통해 실시간으로 입력되어 표시되도록 함으로써, 학습자가 본인의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치를 직접 화면을 통해 확인하면서 원어민의 발음과 같아지도록 연습할 수 있도록 하는 것이 바람직하다.
In addition, the pronunciation video reproduction of the learner allows the learner's facial muscle change, lips shape, and tooth and tongue position to be inputted and displayed in real time through the camera, not by the recording method, Shape, and location of the teeth and tongue directly on the screen, so that they can practice the pronunciation of the native speaker.

이때, 음성 분석 모듈부(108)에서 학습자의 음성을 분석하고, 분석된 데이터를 토대로 음성 파형 처리부(110)를 통해 파형으로 변환시켜 원어민 음성 파형과 비교할 수 있도록 표시한다.
At this time, thevoice analysis module 108 analyzes the learner's voice and converts the learner's voice to a waveform through thevoice waveform processor 110 based on the analyzed data, so that the voice waveform can be compared with the native voice waveform.

도 6는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 상 정보를 표시한 예를 나타낸 도면이다.
6 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention.

도 6에 도시된 바와 같이, Dic 텝(20)을 선택하면 단어를 검색하여 단어의 사전적 의미와 예문 등을 확인할 수 있다.
As shown in FIG. 6, if theDic tab 20 is selected, words can be searched to confirm the dictionary meaning and example sentences of words.

도 7는 본 발명의 실시 예에 따른 Option 텝에서의 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 옵션 선택목록의 예를 나타낸 도면이다.
FIG. 7 is a diagram illustrating an example of a selection list of linguistic learning options using language data in the Option tab and pronunciation data of native speakers according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 상기 Option 텝(30)은 언어 데이터를 연상시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 발음 시 영상 및 음성 재생과 학습자의 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 연음 철자 색깔 표시 유무 선택과, 액센트 표시 여부 선택과, 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택 할 수 있도록 하여 학습자가 자신에게 가장 적합한 방식으로 조절할 수 있도록 한다.
As shown in FIG. 7, theOption tab 30 is used to select whether to display image data capable of associating language data, whether to display video and audio reproduction during pronunciation of a native speaker, The user can select the number of times, select the presence or absence of the spelling color, select the accent display, select the pronunciation symbol, select the gender of the voice output, select the pronunciation voice output for each country, To be adjusted in the manner most appropriate for you.

도 8은 본 발명의 실시 예에 따른 인터넷 웹 브라우저의 표시되는 언어 데이터 또는 DMB 영어방송에서 나오는 언어 데이터 중 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 예를 나타낸 도면이다.
FIG. 8 is a diagram illustrating language data corresponding to language data stored in an edgy learning device storage unit using language data displayed in an Internet web browser or language data in a DMB English broadcast according to an embodiment of the present invention and pronunciation data of native speakers; A pronunciation symbol to be pronounced when actually pronunciated with respect to the language data, image data related to the language data, and a native-language image related to the language data are provided so that the user can learn the language.

도 9는 본 발명의 실시 예에 따른 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법의 흐름도이다.
FIG. 9 is a flowchart of an ear training method using language data and pronunciation data of native speakers according to an embodiment of the present invention.

도 9 참조하면, 먼저 입력부(102)를 통해 학습자는 학습하고자 하는 언어 데이터를 이용한 연음 학습 데이터를 선택한다(S200).
Referring to FIG. 9, the learner selects the learner's training data using the language data to be learned through the input unit 102 (S200).

상기 입력부(102)를 통한 학습 할 언어 데이터를 이용한 연음 학습 데이터 선택이 완료되면, 표시부(114)의 Home(10)에 언어 데이터가 표시되고, 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시되고, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되고, 해당 언어 데이터의 원어민 발음 시 영상이 표시 및 재생된다(S202).
When the selection of the learning data using the language data to be learned through theinput unit 102 is completed, the language data is displayed on theHome 10 of thedisplay unit 114, The spelling is displayed in a different color, and the interpreted meaning is displayed in the language of the country in which the pronunciation symbol and the language data to be pronounced when the language data is actually pronounced are learned, and the image data And an image is displayed and reproduced in native pronunciation of the language data (S202).

이후, 오디오 처리부(106)를 통해 학습자의 언어 데이터 발음 시 음성을 입력받고, 카메라부(112)를 통해 학습자의 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 취득한다(S204).
Thereafter, the learner's voice data is input through theaudio processing unit 106 and the learner's shape and the location image of the tooth and tongue are acquired through thecamera unit 112 through the camera unit 112 (S204 ).

저장부(104)에 저장된 원어민의 발음 시 영상이 재생되고, 영상 처리부(116)를 통해 포커스와 사이즈가 규격화된 학습자의 발음 시 영상이 재생되도록 한다(S206).
(Step S206). In this way, the learner's pronunciated image of the learner, whose focus and size are standardized, is reproduced through the image processing unit 116 (S206).

학습자의 발음 시 영상에 있어서는 학습자마다 언어 데이터를 발음할 때 카메라와의 거리, 학습자마다 영상에서 차지하는 얼굴 사이즈 등이 달라지게 되는 것이 일반적이다.
In the case of the learner's pronunciations, the distance between the learner and the camera when pronouncing the learner data, and the face size occupied by the learner are different for each learner.

따라서, 상기 영상 처리부(116)는 학습자의 얼굴 형태를 인식하고 프레임에서 얼굴 형태가 차지하는 사이즈로 확대 또는 축소하여 규격화된 포커스와 사이즈로 학습자의 발음 시 영상이 보여질 수 있도록 하는 것이 바람직하다.
Accordingly, theimage processing unit 116 preferably recognizes the learner's face shape and enlarges or reduces the size of the learner's face in the frame so that the learner's pronunciation image can be displayed with the normalized focus and size.

이때, 학습자의 발음 시 영상 재생은 녹화 재생 또는 실시간 재생 방식을 적용할 수 있다.
At this time, the learner can apply the recording reproduction or the real time reproduction method to the image reproduction upon pronunciation.

그리고, 상기 오디오 처리부(106)를 통해 입력된 학습자의 음성 데이터를 음성 분석 모듈부(108)에서 분석하여 음성 파형 처리부(110)를 통해 파형으로 변환하여 표시될 수 있도록 한다(S208).
Thespeech analysis module 108 analyzes the speech data of the learner input through theaudio processing unit 106 and converts the waveform into a waveform through thespeech waveform processor 110 to be displayed (S208).

학습자의 음성 파형은 저장부(104)에 저장된 원어민의 음성 파형과 비교될 수 있도록 나란히 표시하고, 원어민이 어느 부분을 강하게 발음하는지를 학습자가 확인할 수 있도록 한다.
The learner's voice waveform is displayed side by side so that it can be compared with the voice waveform of the native speaker stored in thestorage unit 104 so that the learner can confirm which part of the learner's voice is strongly pronounced.

파형은 음의 진동 모양을 시간 차이로 나누어 표시할 때 생기는 파장의 형태로써, 음성 파형은 발음할 때의 액센트와 리듬을 확인할 수 있는 중요한 요소가 된다.
The waveform is a form of the wavelength generated when the vibration shape of the sound is divided by the time difference, and the voice waveform is an important factor to confirm the accent and rhythm when pronouncing.

이상에서는 학습자가 학습하는 언어가 영어인 경우를 예로 들어 설명하였으나 영어 외에 중국어, 일본어, 독일어, 불어 등의 다른 외국어에도 본 발명이 적용될 수 있음은 물론이다.In the above, the case where the learner learns English is described as an example, but it goes without saying that the present invention can also be applied to other languages such as Chinese, Japanese, German, French and so on.

100 : 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 장치
102 : 입력부
104 : 저장부 106 : 오디오 처리부
108 : 음성 분석 모듈부 110 : 음성 파형 처리부
112 : 카메라부 114 : 표시부
116 : 영상 처리부 118 : 유무선 네트워크부
120 : DMB 모듈부 122 : 제어부
100: an ear training device using language data and pronunciation data of native speakers
102:
104: storage unit 106: audio processing unit
108: Voice analysis module 110: Voice waveform processor
112: camera section 114: display section
116: image processing unit 118: wired / wireless network unit
120: DMB module unit 122:

Claims (7)

Translated fromKorean
언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치에 있어서,“언어의 문법으로 이루어진 단어 또는 구 또는 절 또는 문장”(이하 “언어 데이터”라고 함), 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻, 언어 데이터와 관련된 이미지 또는 애니메이션 또는 영상 그리고 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부; 언어 데이터를 이용한 연음 학습 데이터 선택 및 언어 데이터를 이용한 연음 학습 데이터 입력 위한 입력부; 선정된 언어 데이터를 이용한 연음 학습 데이터의 학습이 시작되면 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 또는 애니메이션 또는 영상이 표시되는 표시부; 학습자가 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습 시 표시된 언어 데이터를 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부; 상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부; 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부; 상기 카메라부로부터 입력된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상 데이터의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 및 상기 영상 처리부를 통해 규격화된 학습자의 언어 데이터 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 언어 데이터 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치.
(Hereinafter, referred to as " language data ") consisting of a grammar of a language, a pronunciation symbol A storage unit for storing images or animations or images related to language data, native pronunciation images, and sound waveform data interpreted in a language of a country that learns language data; An input unit for inputting lecture learning data using language data and selection of lecture learning data using language data; When the learning of the learning data using the selected language data is started, the language data is sequentially displayed so that the language learning can be performed, and the displayed language data is displayed by changing the spelling in which the loud phenomenon occurs, A pronunciation symbol to be pronounced when the displayed language data is actually pronounced is displayed and the interpretation in the language of the country in which the displayed language data is learned is displayed and an image or an animation or an image A display portion to be displayed; An audio processing unit for receiving a learner's voice when a learner pronounces language data displayed at the time of learning lecture using language data and pronunciation data of native speakers; A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice; A camera unit for collecting the positional image of the tooth and the tongue of the lips and the change of the facial muscles when pronouncing the learner's language data; An image processing unit for normalizing a face muscle change, a lip shape, a focus and a size of positional image data of a tooth and a tongue when pronouncing linguistic data input from the camera unit; And a display unit for comparing and displaying the images of the linguistic data of the native speakers stored in the storage unit and the positional image of the teeth and the tongue when the learner's speech data is normalized through the image processor, And a control unit for displaying the waveform processed through the module unit and the sound waveform processing unit and the voice waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in case of less than 50% And the pronunciation data of the native speaker.
제 1항에 있어서, 상기 제어부가 인터넷 웹 브라우저의 표시되는 언어 데이터 중 상기 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 유무선 네트워크부를 더 포함하는 것을 특징으로 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치.The method according to claim 1, wherein when the controller selects language data corresponding to language data stored in the storage unit of the language data displayed on the Internet web browser, And a wired / wireless network unit for providing a native speaker image related to the speech data, image data, and linguistic data.제 1항에 있어서, 상기 제어부가 DMB 영어방송에서 나오는 언어 데이터 중 상기 저장부에 저장된 언어 데이터와 일치하는 언어 데이터를 선택하면 언어 데이터와 관련된 실제 발음했을 때 발음되는 발음기호, 언어 데이터와 관련된 이미지 데이터, 언어 데이터과 관련된 원어민 영상이 제공되어 연음 학습을 할 수 있도록 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치.The method according to claim 1, wherein when the control unit selects language data matching the language data stored in the storage unit of the language data from the DMB English broadcast, an image related to the pronunciation symbol, Language data that enables a native speaker image related to data and language data to be provided to enable learning of the ear training and pronunciation data of the native speaker.제 1항에 있어서, 상기 표시부의 레이어(layer)는 Home, Dic 및 Option 텝으로 구분되는 것을 특징으로 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치.
The apparatus of claim 1, wherein the layer of the display unit is divided into Home, Dic and Option tabs.
제 4항에 있어서, 상기 Home 텝에는 언어 데이터가 표시되고, 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시되고, 언어 데이터를 실제 발음했을 때 발음되는 발음기호, 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터, 원어민의 언어 데이터 발음 시 얼굴, 원어민의 언어 데이터 발음 시 입술의 모양 그리고 치아와 혀의 위치, 학습자의 언어 데이터 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치, 원어민의 음성 파형 및 학습자의 음성 파형 중 적어도 어느 하나를 표시하는 것을 특징으로 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치.The method according to claim 4, characterized in that language data is displayed on the Home tab, and the spelling in which the loudspeaker occurs is displayed in a different color according to the linguistic law of the language, , Image data interpreted in the language of the country in which the learning of the language data is displayed, image data that can relate the displayed language data, face in pronunciation of the native language data, shape of the lips in pronunciation of the native language data, The learner's voice, the learner's voice, the learner's voice, the position of the learner's voice, the position of the learner's voice, the position of the learner's voice, An ear training device.제 4항에 있어서, 상기 Option 텝은 언어 데이터를 연상시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 발음 시 영상 및 음성 재생과 학습자의 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 연음 철자 색깔 표시 유무 선택과, 액센트 표시 여부 선택과, 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치.
The method according to claim 4, characterized in that the Option tab is for selecting whether to display image data capable of associating language data, selecting whether to display image data and / or voice during pronunciation of a native speaker, A selection of a spoken color indication, a selection of a spoken color indication, a selection of an accent indication, a selection of a pronunciation indication, a selection of a gender of a voice output, a selection of a pronunciation voice output by a country, and a selection of a pronunciation correction test mode. And the pronunciation data of native speakers.
언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법에 있어서, 학습자로부터 학습할 연음 학습 데이터의 선택 명령이 입력되는 단계; 상기 선택된 연음 학습 데이터의 학습에 따라 언어 연음 학습을 할 수 있도록 언어 데이터가 순차적 표시되고, 표시된 언어 데이터는 해당 언어의 연음법칙에 따라 연음 현상이 일어나는 철자를 다른 색깔로 변경 표시하며, 표시된 언어 데이터를 실제 발음했을 때 발음되는 발음기호가 표시되고, 표시된 언어 데이터에 대하여 학습하는 국가의 언어로 해석된 뜻이 표시되며, 표시된 언어 데이터를 연상시킬 수 있는 이미지 데이터가 표시되는 단계; 상기 선택된 언어 데이터에 따른 원어민 발음 시 영상이 표시되는 단계; 상기 표시된 언어 데이터에 따른 학습자의 언어 데이터 발음 시 음성 및 영상이 입력되는 단계; 원어민의 언어 데이터 발음 시 영상 및 학습자의 언어 데이터 발음 시 영상이 표시되어 재생되는 단계; 원어민 음성 파형과 학습자 음성 파형의 비교 화면이 표시되는 단계; 및, 원어민 음성 파형과 학습자 음성 파형의 비교 유사도가 50% 이상이면 “good” 50% 미만이면 “bad”를 표시하는 단계를 포함하는 것을 특징으로 하는 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습방법.A method of learning an loudspeaker using language data and pronunciation data of a native speaker, the method comprising: inputting a selection command of learning data to be learned from a learner; The language data is sequentially displayed so that the language learning can be performed in accordance with the learning of the selected learning data. The displayed language data is displayed by changing the spelling in which a lingering phenomenon occurs in a different color according to the linguistic law of the language, Displaying the pronunciation symbol to be pronounced when the user pronounces the actual language, displaying the interpreted meaning of the language of the language in which the displayed language data is to be learned, and displaying the image data capable of associating the displayed language data; Displaying an image when a native speaker is pronunciated according to the selected language data; A step of inputting voice and image when pronouncing the learner's language data according to the displayed language data; A step of displaying and reproducing an image when pronunciating a native speaker's speech data and an image when pronouncing a learner's speech data; A step of displaying a comparison screen of a native speech waveform and a learner speech waveform; And displaying "bad" if the comparison degree between the native speech waveform and the learner's speech waveform is "good" and less than 50% if the similarity degree is 50% or more. .
KR1020120149001A2012-12-192012-12-19 AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation DataWithdrawnKR20140079677A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020120149001AKR20140079677A (en)2012-12-192012-12-19 AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020120149001AKR20140079677A (en)2012-12-192012-12-19 AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data

Publications (1)

Publication NumberPublication Date
KR20140079677Atrue KR20140079677A (en)2014-06-27

Family

ID=51130691

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020120149001AWithdrawnKR20140079677A (en)2012-12-192012-12-19 AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data

Country Status (1)

CountryLink
KR (1)KR20140079677A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20200087623A (en)*2019-01-112020-07-21김주현Apparatus and method for evaluating pronunciation accuracy for foreign language education
KR20210112891A (en)*2020-03-062021-09-15김주혁English speaking evaluation method based on speech waveform
KR102388948B1 (en)*2021-08-172022-04-21이경순Language fluency evaluation method and system using speech visualization technology

Cited By (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20200087623A (en)*2019-01-112020-07-21김주현Apparatus and method for evaluating pronunciation accuracy for foreign language education
KR20210112891A (en)*2020-03-062021-09-15김주혁English speaking evaluation method based on speech waveform
KR102388948B1 (en)*2021-08-172022-04-21이경순Language fluency evaluation method and system using speech visualization technology

Similar Documents

PublicationPublication DateTitle
KR100900085B1 (en) Foreign language learning control method
KR20150076128A (en)System and method on education supporting of pronunciation ussing 3 dimensional multimedia
Stemberger et al.Phonetic transcription for speech-language pathology in the 21st century
KR20100138654A (en) Foreign language pronunciation learning apparatus and method
KR20140078810A (en) Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers
KR20140079677A (en) AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data
KR20140087956A (en)Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data
JP2016224283A (en)Conversation training system for foreign language
KR20160001332A (en)English connected speech learning system and method thereof
KR20140075994A (en)Apparatus and method for language education by using native speaker's pronunciation data and thought unit
KR20140107067A (en)Apparatus and method for learning word by using native speakerpronunciation data and image data
KR20140087951A (en)Apparatus and method for learning english grammar by using native speaker's pronunciation data and image data.
KR20170051759A (en)Method and program for edcating language by making comparison sound
KR20140087950A (en) Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers
KR20140087953A (en)Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit
KR20140028527A (en)Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word
KR20140079245A (en) Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers
KR100593590B1 (en) Automatic Content Generation Method and Language Learning Method
KR20140074459A (en)Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data
KR20140082127A (en)Apparatus and method for learning word by using native speaker's pronunciation data and origin of a word
KR20140073768A (en) Apparatus and method for language education using meaning unit and pronunciation data of native speakers
KR20140084644A (en) AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data
KR20140078082A (en)Apparatus and method for Language Pattern Education by using sentence data.
KR20140087957A (en)Apparatus and method for Language Pattern Education by using sentence data.
KR20140087955A (en) Apparatus and method for learning English prepositions using image data and pronunciation data of native speakers

Legal Events

DateCodeTitleDescription
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20121219

PG1501Laying open of application
PC1203Withdrawal of no request for examination
WITNApplication deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid

[8]ページ先頭

©2009-2025 Movatter.jp