

본 발명은 노래 추천 시스템 및 그 방법에 관한 것으로 특히, 사용자에게 테스트곡(TS)을 제시하여 부르게 하고, 사용자의 노래 소리를 신호분석하여 미리 선정된 기준에 따라 분석함과 아울러, 분석결과에 따라 객관적인 노래 실력 평가를 제공하고, 동일한 기준에 따라 미리 분류된 음악 중 사용자가 선호하는 종류의 음악을 선별하여 제공함으로써, 사용자가 자신에게 어울리고, 부르기 쉬운 노래를 용이하게 선택하도록 한 노래 추천 시스템 및 추천 방법에 관한 것이다.The present invention relates to a song recommendation system and a method thereof, and in particular, to present and test a test song (TS) to the user, and to analyze the signal sound of the user according to a pre-selected criteria, and according to the analysis result A song recommendation system and recommendation that provides an objective assessment of song proficiency and allows users to easily select songs that suit them and are easy to sing by providing a sort of music that the user prefers among pre-sorted songs based on the same criteria. It is about a method.
최근에는 노래를 불러야 할 자리와 함께 노래를 자유롭게 부르고 즐길 수 있는 자리가 늘어나고 있다. 이러한 추세는 과거에 라디오나 텔레비전을 통해 듣기에 치중하였던 노래가 노래방의 보급, 휴대용 음향기기의 보급으로 인해 직접 부르고 즐기는 방향으로 변화했기 때문이다. 구체적으로 직장 회식, 친목 모임, 스트레스 해소, 취미와 같은 이유로 많은 사람이 노래를 직접 부르게 되는 기회가 많아지고 있다.In recent years, along with a place to sing a song, there is an increasing number of places to sing and enjoy songs freely. This trend is due to the fact that songs, which were previously focused on listening to radio or television, have changed in the direction of singing and enjoying due to the spread of karaoke and portable audio equipment. Specifically, there are many opportunities for many people to sing directly for reasons such as work meetings, social gatherings, stress relief, and hobbies.
이러한 기회의 증가는 노래를 즐기고 어느 정도의 수준을 가지는 사람에게는 불편한 자리가 아니지만, 그렇지 않은 사람들도 많이 있다. 이와 같은 사람들은 노래를 좋아하지 않는 경우도 있지만, 자주 접할 수 없는 환경으로 인해 충분한 연습의 기회가 없다거나, 자신에게 맞는 곡을 찾을 기회가 없는 사람들이 많다.This increase in opportunities is not uncomfortable for those who enjoy singing and at some level, but many do not. These people may not like songs, but there are many who do not have enough opportunities to practice or find a song that is suitable for them because of infrequent environments.
그리고, 노래를 즐겨 듣고 자주 부르는 사람들도 자신의 노래 실력을 향상시키고 싶지만 그렇게 하지 못하는 경우도 빈번하다. 특히, 전문적인 음악 교육을 받지 못하거나, 음악적 감각이 평범한 사람들의 경우 스스로 장단점을 파악해서 실력을 향상시키는 것은 매우 어려운 일이 아닐 수 없다. 일부 사람들의 경우 전문적인 교습학원을 찾아가 개설된 강의를 통해 실력 향상을 도모하기도 하지만, 비싼 강의료와 훈련 시간의 부족으로 원하는 수준의 실력 향상이 어려운 실정이다.And people who like to listen and sing often want to improve their singing skills, but they often do not. In particular, for those who do not have professional music education or have a normal musical sense, it is very difficult to identify their strengths and weaknesses and improve their skills. Some people go to specialized teaching institutes and try to improve their skills through lectures, but it is difficult to improve the desired level due to the lack of expensive lectures and training time.
특히, 이러한 문제들의 대부분은 노래를 부르는 사람의 정확한 상태 즉, 정확한 수준 파악이 곤란하여 발생하는 경우가 대부분이다. 이와 같은 문제를 가지는 일부 사람의 경우 전문가의 도움을 받아 자신의 수준을 진단하지만, 이 또한 고가의 비용과 많은 시간을 지불해야 하는 문제점이 있다.In particular, most of these problems are often caused by difficulty in determining the exact state of the singer, that is, the correct level. Some people with such problems diagnose their own level with the help of experts, but this also has a problem of expensive and expensive time.
따라서, 본 발명의 목적은 사용자에게 테스트곡(TS)을 제시하여 부르게 하고, 사용자의 노래 소리를 신호분석하여 미리 선정된 기준에 따라 분석함과 아울러, 분석결과에 따라 객관적인 노래 실력 평가를 제공하고, 동일한 기준에 따라 미리 분류된 음악 중 사용자가 선호하는 종류의 음악을 선별하여 제공함으로써, 사용자가 자신에게 어울리고, 부르기 쉬운 노래를 용이하게 선택하도록 한 노래 추천 시스템 및 추천 방법을 제공하는 것이다.Accordingly, an object of the present invention is to present a test song (TS) to the user, and to analyze the sound of the user's song by analyzing the signal according to a preselected criterion, and to provide an objective song ability evaluation based on the analysis result. To provide a song recommendation system and a recommendation method by selecting and providing a kind of music preferred by the user among pre-categorized music according to the same criteria, the user can easily select a song suitable for the user and easy to sing.
상기 목적을 달성하기 위하여 본 발명에 따른 노래 추천 시스템은 사용자에게 미리 선정된 테스트곡을 제공하고, 상기 사용자가 테스트곡을 노래함으로써 작성되는 음성신호를 분석하여 사용자의 노래실력을 분석하고, 분석결과에 따라 추천곡을 제공하는 노래추천 시스템에 있어서, 상기 사용자의 상기 음성신호가 입력되는 입력장치; 상기 입력장치로부터의 상기 음성신호를 주파수데이터로 변환하고, 키, 음정, 박자, 목소리 크기, 굵기, 음색, 청음도, 떨림정도 및 꺽기정도를 세분화하여 미리 설정된 판결기준에 따라 상기 음성신호와 상기 주파수데이터를 분석하며, 상기 판결기준에 따라 분류된 곡들이 저장된 라이브데이터로부터 상기 분석결과에 부합하는 추천곡을 선정하는 분석장치; 및 상기 테스트곡, 상기 추천곡 및 상기 분석결과를 상기 사용자에게 제공하는 출력장치를 포함하여 구성된다.In order to achieve the above object, the song recommendation system according to the present invention provides a test song that is pre-selected to the user, and analyzes a user's singing ability by analyzing a voice signal generated by the user singing the test song, and analyzing the analysis result. A song recommendation system for providing a recommendation song according to claim 1, comprising: an input device to which the voice signal of the user is input; Converting the voice signal from the input device into frequency data, subdividing the key, pitch, time signature, voice size, thickness, tone, hearing, tremor, and degree of bending according to a predetermined judgment criterion; An analysis device for analyzing the frequency data and selecting a recommendation song corresponding to the analysis result from the live data in which the songs classified according to the judgment criteria are stored; And an output device for providing the test song, the recommendation song, and the analysis result to the user.
상기 라이브데이터 저장되는 상기 곡들은 장르, 가수, 앨범, 국가, 가수 성 별 중 어느 하나 이상을 포함하는 부가정보가 포함되어 기록되며, 상기 분석장치는 상기 사용자로부터 입력되는 부가정보의 선택을 위한 선호정보를 이용하여 상기 추천곡을 선정한다.The songs stored in the live data are recorded with additional information including one or more of a genre, a singer, an album, a country, and a singer's gender, and the analysis apparatus is preferred for selecting additional information input from the user. The recommended song is selected using the information.
상기 판별기준은 높낮이(Pitch), 음색(Timbre), 세기(Loudness), 박자, 특정 주파수의 연속, 주파수의 주기적인 변화, 주파수의 변동폭, 주파수의 변화 또는 변동이 발생하는 기간 및 반복, 최고 및 최저 주파수 대역, 기본음 주파수, 배음 주파수, 짝수 배음별 비중, 홀수 배음별 비중, 기타 음의 비중 정도, 특정 주파수의 반복 중 어느 하나 이상의 조합에 의해 선정된다.The discrimination criteria are pitch, timbre, loudness, time signature, continuation of a specific frequency, periodic change of frequency, frequency fluctuation, period and repetition of frequency change or fluctuation, peak and It is selected by a combination of one or more of the lowest frequency band, fundamental frequency, harmonic frequency, specific harmonic specific gravity, odd harmonic specific gravity, other sound specific gravity, and repetition of a specific frequency.
또한, 본 발명에 따른 노래 추천 방법은 사용자에게 미리 선정된 테스트곡을 제공하고, 상기 사용자가 테스트곡을 노래함으로써 작성되는 음성신호를 분석하여 사용자의 노래실력을 분석하고, 분석결과에 따라 추천곡을 제공하기 위해 키, 음정, 박자, 목소리 크기, 굵기, 음색, 청음도, 떨림정도 및 꺽기정도를 세분화하여 미리 설정된 판결기준에 따라 상기 음성신호와 상기 주파수데이터를 분석하며, 상기 판결기준에 따라 분류된 곡들이 저장된 라이브데이터로부터 상기 분석결과에 부합하는 추천곡을 선정하는 노래추천 시스템을 이용한 노래 추천방법에 있어서, 미리 정의된 판별요소를 조합하여 상기 판별기준을 선정하는 단계; 상기 판별기준에 따라 기존의 노래를 분석하여 분류 및 저장하여 상기 라이브데이터를 작성하는 단계; 상기 판별기준의 상기 판별요소 검출을 위한 테스트곡을 선정하는 단계; 상기 테스트곡을 상기 사용자에게 제공하고, 상기 사용자의 음성신호를 검출하는 단계; 상기 음성신호를 주파수데이터로 변환하는 단계; 상기 음성신호와 상기 주파수데이 터를 상기 판별기준에 따라 분석하는 단계; 상기 분석결과에 따라 상기 라이브데이터로부터 추천곡을 선정하는 단계; 및 상기 추천곡과 상기 분석결과를 상기 사용자에게 제공하는 단계;를 포함하여 구성된다.In addition, the song recommendation method according to the present invention provides a test song that is pre-selected to the user, and analyzes the user's singing ability by analyzing a voice signal generated by the user singing the test song, according to the analysis results recommended songs Analyze the voice signal and the frequency data according to the predetermined judgment criteria by subdividing the key, the pitch, the beat, the voice size, the thickness, the tone, the hearing level, the shaking degree and the bending degree to provide CLAIMS 1. A song recommendation method using a song recommendation system for selecting a recommendation song corresponding to the analysis result from live data in which classified songs are stored, the method comprising: selecting the discrimination criteria by combining predefined discrimination elements; Analyzing, classifying, and storing existing songs according to the discrimination criteria to create the live data; Selecting a test piece for detecting the discriminating element of the discriminating criteria; Providing the test song to the user and detecting a voice signal of the user; Converting the voice signal into frequency data; Analyzing the voice signal and the frequency data according to the discrimination criteria; Selecting a recommendation song from the live data according to the analysis result; And providing the recommendation song and the analysis result to the user.
상기 라이브데이터 작성단계는 상기 노래의 장르, 가수, 앨범, 국가, 가수 성별 중 어느 하나 이상을 포함하는 부가정보의 작성 및 저장 단계를 더 포함하며, 상기 추천곡 선정단계는 상기 사용자로부터 상기 부가정보 항목의 선택을 위한 선호정보를 입력받는 단계; 상기 분석결과와 상기 선호정보에 따라 상기 추천곡을 선정하는 단계;를 더 포함하여 구성된다.The live data creation step further includes the step of creating and storing additional information including any one or more of the genre, singer, album, country, and singer gender of the song, and the recommendation song selection step includes the additional information from the user. Receiving preference information for selecting an item; And selecting the recommended song according to the analysis result and the preference information.
본 발명에 따른 노래 추천 시스템 및 추천 방법은 사용자에게 테스트곡(TS)을 제시하여 부르게 하고, 사용자의 노래 소리를 신호분석하여 미리 선정된 기준에 따라 분석함과 아울러, 분석결과에 따라 객관적인 노래 실력 평가를 제공하고, 동일한 기준에 따라 미리 분류된 음악 중 사용자가 선호하는 종류의 음악을 선별하여 제공함으로써, 사용자가 자신에게 어울리고, 부르기 쉬운 노래를 용이하게 선택하도록 하며, 자신의 장단점을 파악하여 효율적인 연습이 이루어질 수 있게 하는 효과를 제공한다.The song recommendation system and recommendation method according to the present invention allows a user to present and test a test song (TS), and analyzes the sound of the user's song according to a predetermined criterion and an objective song ability according to the analysis result. By providing ratings and selecting and sorting out the music of the user's preference among pre-categorized music according to the same criteria, users can easily select songs that are suitable for them and easy to sing, and identify their advantages and disadvantages Provides an effect that allows practice to take place.
이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 당해 분야의 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명하기로 한다. 첨부된 도면들에서 구성에 표기된 참조번호는 다른 도면에서도 동일한 구성을 표기할 때에 가 능한 한 동일한 도면번호를 사용하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고 도면에 제시된 어떤 특징들은 설명의 용이함을 위해 확대 또는 축소 또는 단순화된 것이고, 도면 및 그 구성요소들이 반드시 적절한 비율로 도시되어 있지는 않다. 그러나 당업자라면 이러한 상세 사항들을 쉽게 이해할 것이다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. In the accompanying drawings, it should be noted that the same reference numerals are used in the drawings to designate the same configuration in other drawings as much as possible. In addition, in describing the present invention, when it is determined that a detailed description of a related known function or known configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. And certain features shown in the drawings are enlarged or reduced or simplified for ease of description, the drawings and their components are not necessarily drawn to scale. However, those skilled in the art will readily understand these details.
도 1은 본 발명에 따른 노래 추천 시스템을 도시한 구성 예시도이다.1 is an exemplary configuration diagram showing a song recommendation system according to the present invention.
도 1을 참조하면, 본 발명에 따른 노래 추천 시스템은 입력장치(120), 출력장치(130) 및 분석시스템(150)을 포함하여 구성된다.Referring to FIG. 1, the song recommendation system according to the present invention includes an
입력장치(120)는 사용자의 음성 신호(VS) 및 설정명령(SO)을 입력받아 분석시스템(150)에 전달한다. 여기서 음성 신호(VS)는 사용자의 목소리로써 특히, 분석시스템(150)로부터 제공되는 테스트곡(TS)을 사용자가 노래하므로써 발생된 소리를 전기적인 형태로 변화한 신호이며, 이외에도 사용자의 평상시 목소리도 음성 신호(VS)에 포함될 수 있다. 또한, 설정명령(SO)은 분석시스템(150)을 통해 사용자에게 제공되는 선택항목에 대한 사용자의 선택명령을 의미할 수 있으며, 설정명령(SO)에 의해 선호정보(PD)가 작성된다. 예를 들어 설정명령(SO)은 테스트곡(TS)을 통해 평가를 진행할 때 테스트곡의 선택과 음정 조정과 같은 사용자의 입력을 의미하고, 선호정보(PD)는 설정명령(SO)에 의한 입력 중 사용자 자신이 좋아하는 가수, 장르, 곡명, 앨범, 국가와 같은 정보일 수 있다. 즉, 선호정보(PD)는 설정명령(SO)에 의해 입력되는 정보는 사용자의 노래 취향을 반영하는 한정된 정보일 수 있다. 일례로 본 발명에서는 사용자의 선호정보(PD)를 입력 받고, 입력된 선호정보(PD)와 사용자의 노래 실력 평가 결과에 따라 사용자에게 적절한 곡을 선별하여 제공할 수 있다. 예를 들어, 사용자의 실력 평가에 따른 추천 곡이 복수일 경우 사용자가 좋아하는 가수, 장르와 같은 선호정보(PD)를 토대로 곡을 추천하는 것이 가능해진다. 이러한 입력장치(120)는 기본적으로 사용자의 음성 신호(VS)를 입력받기 위한 마이크(121)와 선호정보(PD)의 입력을 위한 입력장치를 포함하여 구성될 수 있다. 여기서, 선호정보(PD)의 입력을 위한 입력장치는 마우스, 키보드, 타블렛, 터치스크린과 같은 형태의 것일 수 있으며, 음성 입력에 의한 항목 입력을 구현하는 경우 별도의 입력장치는 생략이 가능하다.The
출력장치(130)는 사용자에게 테스트곡(TS)을 제공함과 아울러, 선호정보(PD)의 입력을 위한 선택항목을 제시하며, 분석결과 및 선정 곡을 출력하여 제공한다. 이를 위해 출력장치(130)는 테스트곡(TS)을 출력하기 위한 스피커(131)를 포함하여 구성된다. 또한, 출력장치(130)는 스피커(131) 외에 선정 곡 및 분석결과를 제공하기 위한 화면출력 장치 또는 인쇄장치를 포함하여 구성될 수 있으나, 이로써 본 발명을 한정하는 것은 아니다.The
한편, 이러한 입력장치(120)와 출력장치(130)는 분석시스템(150)와 함께 하나의 장치, 이를 테면 컴퓨터로 구성될 수도 있고, 별도의 장치로 구성될 수도 있다. 또한 입력장치(120)와 출력장치(130)가 독립적인 하나의 컴퓨터(110)로 구성 되어 원격지에서 네트워크를 통해 분석시스템(150)와 연결되도록 하는 것도 가능하다. 또한, 입력장치(120)와 출력장치(130)는 음성신호(VS), 설정명령(SO) 및 선호정보(PD)를 데이터화하여 분석시스템(150)에 제공할 수 있는 이동통신 단말, 휴대용 멀티미디어 기기, 휴대용 게임기와 같은 장치일 수 있으며, 이로써 본 발명을 한정하는 것은 아니다.Meanwhile, the
분석시스템(150)는 사용자에게 테스트곡(TS)을 제시하고, 입력장치로부터 제공되는 음성신호(VS)을 분석하고 설정명령을 반영하여 사용자에게 추천할 곡을 선정하여 제공한다. 이를 위해 분석시스템(150)는 음성신호(VS)는 주파수데이터(FD)로 변환하고, 미리 정해진 판별기준(JU)에 따라 분석하여 사용자의 노래 실력을 분석하게 된다. 이러한 판별기준(JU)은 복수의 판별요소(BJ)에 의해 선정된다. 판별요소(BJ)는 높낮이(Pitch), 음색(Timbre), 세기(Loudness)외에 박자, 특정 주파수의 연속, 주파수의 주기적인 변화, 주파수의 변동폭, 주파수의 변화 또는 변동이 발생하는 기간 및 반복, 최고 및 최저 주파수 대역, 기본음 주파수, 배음 주파수, 짝수 배음별 비중, 홀수 배음별 비중, 기타 음의 비중, 사용자의 나이와 같은 요소를 포함한다. 판별기준(JU)는 판별요소(BJ)를 하나 또는 복수로 적용하여 구분하며, 본 발명에서는 대표적으로 목소리의 크기, 목소리의 굵기, 부드러움 정도, 목소리의 맑은 정도, 떨림(바이브레이션) 정도, 꺽기의 정도 및 사용자에게 적절한 키를 판별기준(JU)으로 하여 사용자의 노래실력을 분석하게 된다. 아울러, 이러한 판별기준(JU)은 사용자에게 제공할 추천곡의 분류에도 이용된다. 분석시스템(150)의 저장부(159)에는 분석을 위한 판별기준(JU)에 관한 정보 외에도 사용자에게 추 천할 곡이 분류된 라이브데이터(LD)가 저장된다. 이러한 라이브데이터(LD)는 전술한 판별기준(JU)의 조합에 따라 분류가 되며, 부가적으로 장르, 가수, 발표연도, 국가와 같은 부가정보를 포함하여 저장된다. 여기서, 부가정보에는 해당 곡을 즐겨 부르는 연령대 정보가 포함될 수 있으며, 이 주 연령대 정보는 사용자의 나이 정보와 비교되어 사용자에 대한 곡 추천시 반영될 수 있다. 이러한 부가정보는 사용자로부터의 설정명령(SO) 특히, 선호정보(PD)에 의해 라이브데이터(LD)로부터 추천 곡을 선정하는 기준으로 이용된다. 이러한 판별요소(BJ), 판별기준(JU) 및 선호정보(PD)에 따른 곡의 분류 및 추천 과정은 아래에서 좀더 상세히 설명하기로 한다.The
이러한 분석시스템(150)는 사용자의 노래실력을 분석하기 위해 입력장치(110)로부터 전달되는 음성신호(Vs)를 주파수 데이터(FD)로 변환하고, 음성신호(VS)와 주파수 데이터(FD)를 분석하여 노래실력을 분석한다. 분석시스템(150)는 음성신호(VS)를 통해 박자, 호흡, 음의 연속과 같은 정보를 분석하고, 주파수 데이터(FD)를통해 높낮이, 음역, 음색, 세기, 기교를 판단하게 된다. 또한, 분석시스템(150)는 판단결과에 따라 미리 분류되어 저장되는 라이브데이터(LD)로부터 사용자에게 적합한 곡을 추천하여 제공하게 된다. 이를 위해 분석시스템(150)는 음성신호(VS)를 주파수 데이터(FD)로 변환하는 변환장치(151), 변환된 주파수 데이터(FD)와 음성신호(VS)에 의해 분석을 수행하는 분석장치(156) 및 라이브데이터(LD)가 저장되는 저장부(159)를 포함하여 구성된다.The
표 1은 본 발명에서 사용자의 노래실력을 평가하기 위한 판별기준을 나타낸 일례이며, 표 2는 라이브 데이터의 저장 목록 테이블을 나타낸 것이다.Table 1 shows an example of discrimination criteria for evaluating a user's singing ability in the present invention, and Table 2 shows a storage list table of live data.
(a)Voice size
(a)
(c)Softness
(c)
(d)Qingdao
(d)
(e)Tremor
(e)
(f)Break
(f)
(C,C#,Cb등)Corresponding key out of 24
(C, C #, Cb, etc.)
a1b1c1d1e1f2
표 1 및 표 2를 참조하면, 본 발명에서 사용자의 노래 실력을 평가하는데 이용되는 판별기준(JU)은 표 1과 같이 정리될 수 있다. 판별기준(JU)를 구체적으로 살펴보면, 키, 음정, 박자, 목소리 크기, 굵기, 부드러움정도, 맑은 정도, 떨림정도 및 꺽기로 구분될 수 있다. 이러한 판별기준(JU)은 키, 음정 및 박자를 제외하고는 몇 단계로 구분하여 실력의 수준을 평가할 수 있다. 특히, 표 1에 제시된 판별기준(JU)은 노래를 부르고, 듣고, 평가하는데 있어서 가장 중요한 요소들로써, 음성신호를 주파수 데이터(FD)로 변환하고, 각 판별기준(JU)을 적용하여 분석하면 사용자의 노래실력을 객관적이면서도 구체적으로 분석할 수 있게 된다.Referring to Table 1 and Table 2, the discrimination criteria (JU) used to evaluate the user's singing ability in the present invention can be summarized as shown in Table 1. Looking at the judging criteria (JU) in detail, it can be divided into height, pitch, time signature, voice size, thickness, softness, clearness, trembling, and bending. This judging criterion (JU) can evaluate the level of skill by dividing into several steps except for the key, pitch, and beat. In particular, the judging criteria (JU) shown in Table 1 are the most important elements in singing, listening, and evaluating songs. The judging criteria (JU) are converted into frequency data (FD) and analyzed by applying each judging criteria (JU). You will be able to analyze your singing skills objectively and concretely.
이러한 판별기준(JU)는 전술한 바와 같이 다양한 판별요소(BJ)에 평가된다. 음성신호(VS)에 판별기준(JU)을 적용하기 위해서는 판별요소(BJ)에 의한 분석이 필요하다. 음성신호(VS)를 판별요소(BJ)에 의해 분석하기 위해서는 음성신호(VS)를 주파수데이터(FD)로 변환하게 된다. 이러한 음성신호(VS)의 변환은 퓨리에 변환을 적용한 시스템, 회로 및 소프트웨어가 개발되어 있으므로 이에 대한 별도의 설명은 생략하기로 한다.This judging criterion JU is evaluated on various judging elements BJ as described above. In order to apply the discrimination criterion JU to the voice signal VS, analysis by the discrimination element BJ is required. In order to analyze the voice signal VS by the determination element BJ, the voice signal VS is converted into frequency data FD. The conversion of the voice signal VS has been developed by a system, a circuit, and software using a Fourier transform, so a separate description thereof will be omitted.
주파수데이터(FD)로 변환된 사용자의 음성신호(VS)는 다양한 대역의 주파수 형태로 표현된다. 이러한 주파수데이터(FD)에 주파수 형태를 분석장치(156)를 통해 분석함으로써 판별기준(JU)을 적용하는 것이 가능해진다. 주파수데이터(FD)의 분석을 위한 판별기준(JU)으로는 전술한 바와 같이 높낮이(Pitch), 음색(Timbre), 세기(Loudness)외에 박자, 특정 주파수의 연속, 주파수의 주기적인 변화, 주파수의 변동폭, 주파수의 변화 또는 변동이 발생하는 기간 및 반복, 최고 및 최저 주파수 대역, 기본음 주파수, 배음 주파수, 짝수 배음별 비중, 홀수 배음별 비중, 기타 음의 비중 정도에 의해 표현되는 판별요소(BJ)를 분석함으로써 이루어질 수 있다. 일례로 판별기준(JU) 중 목소리의 크기는 단순히 사용자의 평균적인 발성 크기를 데시벨 단위로 측적하여 판별할 수 있다. 목소리의 굵기는 저주파와 고주파의 비중을 판별하여 확인하는 것이 가능하다. 저주파가 많은 경우 저음의 굵은 톤 목소리가 나오며 고음일수록 고주파 성분이 많아지게 된다. 특히, 저주파와 고주파의 주파수 값은 사용자가 낼 수 있는 최저음 및 최고음을 판별하여 사용자가 소화할 수 있는 음역(키와 옥타브)을 판별하는 근거가 될 수 있다.The voice signal VS of the user converted into the frequency data FD is expressed in the form of frequencies of various bands. The discrimination criterion JU can be applied to the frequency data FD by analyzing the frequency shape through the analysis device 156. Judgment criteria (JU) for the analysis of frequency data (FD), as described above, pitch, timbre, loudness, beat, continuous of a specific frequency, periodic change of frequency, frequency of Discrimination factor (BJ) expressed by the magnitude of the fluctuation, the period and repetition of the frequency change or fluctuation, the highest and lowest frequency bands, the fundamental sound frequency, the harmonic frequency, the specific harmonic specific gravity, the odd harmonic specific gravity, and the other specific gravity ratio By analyzing For example, the voice size in the judging criterion (JU) may be determined by simply measuring the average voice size of the user in decibel units. The thickness of the voice can be confirmed by discriminating the specific gravity of low frequency and high frequency. If there are many low frequencies, a thick tone voice of low tone comes out, and the high frequencies have more high frequency components. In particular, the frequency values of the low frequency and the high frequency may be the basis for determining a range (key and octave) that the user can digest by determining the lowest and highest sounds that the user can produce.
또한, 청음도 즉, 목소리의 맑은 정도는 주파수 분석에서 기본음이나 배음(기본음의 공진주파수) 이외의 주파수 중에서 허스키한 목소리를 가진 사람들에게서 찾을 수 있는 주파수 성분의 비중을 파악함으로써 확인될 수 있다. 그리고, 목소리의 떨림 즉, 바이브레이션의 경우 특정 주파수들의 반복과 반복 기간을 확인함으로써 구분이 가능해진다.In addition, the degree of hearing, ie, the clearness of the voice, can be confirmed in the frequency analysis by grasping the proportion of frequency components found in people with a husky voice among frequencies other than the basic sound or the harmonic (resonant frequency of the basic sound). In addition, in the case of vibration, ie, vibration, it is possible to identify the repetition and the repetition period of specific frequencies.
특히, 전술한 목소리 크기, 목소리의 굵기, 청음도, 음역, 바이브레이션의 경우 서로 교차 분석함으로써 더욱 정확한 데이터를 산출하는 것이 가능해진다.In particular, in the case of the above-described voice size, voice thickness, auditoryness, range, and vibration, it is possible to calculate more accurate data by cross-analyzing.
한편, 목소리의 음색 및 꺽기는 주파수 분석과 함께 박자, 강약(비트), 음의 연속 여부를 부가하여 판별하는 것이 정확하다. 목소리의 음색을 결정하는 것은 기본적으로, 기본음과 짝수 또는 홀수배 배음의 비중과 주파수 대역 및 배수(차수)에 의존도가 높지만, 노래에 있어서는 음정을 이어가는 능력과 박자를 맞추는 능력 즉 강약을 조절하는 능력이 부가되어야 한다. 대문에 사용자의 음색을 판별할 때는 주파수에 이러한 요소들을 부가하여 판별하게 된다.On the other hand, it is accurate to determine the tone and bending of the voice by adding the beat, the strength (beat), and the continuation of the sound together with the frequency analysis. Determining the tone of a voice is fundamentally dependent on the specific gravity of the fundamental and even or odd-numbered harmonics, frequency bands, and multiples (orders), but in singing, the ability to keep up the pitch and adjust the beat, ie the ability to adjust the intensity. This must be added. Therefore, when determining the user's timbre, these factors are added to the frequency.
또한, 이러한 판별기준(JU) 및 판별요소(BJ)들은 사용자의 노래실력을 분석하는 것뿐만 아니라 라이브데이터(LD)의 곡 분류에도 사용된다. 표 2는 이러한 예를 나타낸 것이다. 즉, 라이브데이터(LD)에 기록되는 각각의 곡을 음성신호(VS)의 분석과 동일한 과정에 의해 분석하고, 분석결과에 따라 동일한 분류의 곡을 한 그룹으로 지정하여 저장한 뒤, 사용자에게 제시할 수 있다.In addition, the determination criteria JU and the determination elements BJ are used not only to analyze the user's singing ability but also to classify the songs of the live data LD. Table 2 shows this example. That is, each song recorded in the live data LD is analyzed by the same process as the analysis of the voice signal VS, and the songs of the same classification are designated and stored as a group according to the analysis result and presented to the user. can do.
즉, 표 2에서 A1 그룹의 경우 목소리가 매우 작으며(a1), 매우 가늘고(b1), 매우 부드러우며(c1), 매우 허스키(d1)하고, 떨림이 많으며(e1), 꺽기가 매우 잘되는(f1) 사용자에게 제시될 수 있는 곡들이다. 이 A1 그룹에 속하는 곡들은 사용자의 음성신호(VS) 분석결과가 a1b1c1d1e1f1으로 지정되는 경우 사용자에게 추천될 수 있는 곡들이 된다. 특히, 하나의 그룹에는 A2의 그룹과 같이 복수의 곡이 포함될 수 있으며, 이러한 곡들의 장르, 가수, 앨범, 국가와 같은 부가정보는 상이해질 수 있다. 각 곡의 음역(키와 옥타브)에 관한 정보를 부가정보로 기재하고 분석결과에 음역에 관한 정보의 비교를 수행하면 사용자에게 더욱 적절한 곡을 제공하는 것이 가능해진다.That is, in Table 2, for the A1 group, the voice is very small (a1), very thin (b1), very soft (c1), very husky (d1), trembling (e1), and very well bent ( f1) Songs that can be presented to the user. The songs belonging to this A1 group are songs that can be recommended to the user when the user's voice signal (VS) analysis result is designated as a1b1c1d1e1f1. In particular, one group may include a plurality of songs, such as a group of A2, and additional information such as genre, singer, album, and country of these songs may be different. When information about the range (key and octave) of each song is described as additional information and the information about the range is compared to the analysis result, it is possible to provide a more appropriate song to the user.
특히, 전술한 바와 같이 사용자가 입력장치(120)를 통해 선호정보(PD)를 입력하는 경우, 부가정보와 선호정보(PD)를 비교하여 사용자에게 어울리는 곡을 더욱 정확히 선별하는 것이 가능해진다. 일례로 사용자가 A2 그룹의 노래를 부르는 것이 좋다고 분석되고, A2 그룹에 장르가 다양한 노래가 포함되어 있을 경우, 사용자가 자신이 원하는 장르 즉, 발라드, 댄스, 팝, 가곡과 같은 분류와 함께 좋아하는 가수를 고르면, 사용자가 지정한 조건 즉, 선호정보(PD)에 따라 선곡하여 곡을 추천하는 것이 가능해진다. 더욱이, 곡의 수가 많을 때는 선호정보(PD)와 부가정보를 상세화함으로써 더욱 정확한 곡 추천이 이루어질 수 있고, 사용자가 선택된 곡만을 연습함으로써 효율적인 실력향상에 도움이 될 수 있다. 특히, 이러한 분석결과는 전문가에게 제공될 수 있으며, 전문가는 분석결과에 따라 사용자에게 부족한 점을 중점적으로 지도하여 효과적인 교습이 이루어지도록 할 수 있다.In particular, as described above, when the user inputs the preference information PD through the
한편, 이러한 분석이 이루어지기 위해서는 사용자에 의한 음성신호(VS) 생성이 필수적이다. 이러한 음성신호(VS)의 생성을 위해서 본 발명에서는 분석시스템(150)로부터 사용자에게 테스트곡(TS)이 제공된다. 이 테스트곡(TS)은 분석이 정확히 이루어질 수 있도록 다양한 박자, 음정, 음역을 가지는 곡으로 선택되어진다. 즉, 전술한 판별기준(JU)에 의한 정확한 평가가 이루어질 수 있도록 판별요소(BJ)를 고루 파악할 수 있는 곡이 선택된다. 이러한 테스트 곡의 기존에 발표된 곡을 이용하는 방법도 있으나, 별도의 곡을 작곡하여 사용하는 것이 가능하다. 특히, 사용자의 발성을 위주로 분석을 하기 때문에 가사보다 음정 위주의 판단이 가능한 곡을 선택 또는 작곡하여 사용한다. 정확한 분석 및 쉬운 테스트를 위해서는 1, 2, 3과 같은 숫자, 가나다, 도레미와 같은 단순한 가사를 가지는 단순한 음정의 곡을 채택함으로써 더욱 정확한 분석을 수행하는 것이 가능해진다.On the other hand, in order to perform this analysis, the voice signal (VS) generation by the user is essential. In order to generate the voice signal VS, the test song TS is provided to the user from the
도 2는 본 발명에 따른 노래 추천방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a song recommendation method according to the present invention.
도 2를 참조하면 본 발명에 따른 노래 추천방법은 판별기준 선정단계(S100), 라이브데이터 작성단계(S200), 테스트곡 선정단계(S300), 테스트 및 음성신호 작성단계(S400), 주파수데이터 작성단계(S500), 분석단계(S600), 추천곡 선정단계(S700)와 분석결과 및 추천곡 제공단계(S800)를 포함하여 구성된다.Referring to Figure 2, the song recommendation method according to the present invention is the determination criteria selection step (S100), live data creation step (S200), test song selection step (S300), test and voice signal creation step (S400), frequency data creation It comprises a step (S500), analysis step (S600), recommended song selection step (S700) and analysis results and recommended song providing step (S800).
판별기준 선정단계(S100)는 전술한 판별요소(BJ)의 실측값을 산출하고, 판별요소(BJ)들을 조합하여 판별기준(JU)을 정의하는 단계이다. 판결기준 선정단계(S100)에서는 전술한 바와 같이, 음정, 박자, 키, 목소리 크기, 굵기, 음색, 브드러움 정도, 청음도, 바이브레이션 및 꺽기와 같은 항목을 정의하고, 각 항목을 판별하기 위한 분석 범위 및 값을 정의하게 된다.The discrimination criterion selection step S100 is a step of calculating the measured value of the above-described discrimination element BJ and defining the discrimination criterion JU by combining the discrimination elements BJ. In the decision criterion selection step (S100), as described above, to define items such as pitch, beat, key, voice size, thickness, tone, softness, sound quality, vibration, and bending, and to determine each item. You will define the scope and value of the analysis.
라이브데이터 작성단계(S200)는 판별기준 선정단계(S100)에서 작성된 판별기준(JU)에 따라 기존에 발표된 노래들을 분류하여 저장하는 단계이다. 이 라이브데이터 작성단계(S200)에서는 각 노래를 판별기준(JU)에 따라 분석하고, 분석결과에 따라 정리하여 저장하게 된다. 이 라이브데이터 작성단계(S200)에서 저장되는 곡들은 부가정보가 기록되어 저장될 수 있으며, 이러한 부가정보는 추천곡 선정에 반영될 수 있다.The live data creation step (S200) is a step of classifying and storing previously released songs according to the determination criteria (JU) created in the determination criteria selection step (S100). In this live data creation step (S200), each song is analyzed according to the discrimination criterion (JU), and stored according to the analysis result. Songs stored in the live data creation step (S200) may be stored by storing additional information, and such additional information may be reflected in selection of recommended songs.
테스트곡 선정단계(S300)는 판별기준(JU)의 평가가 정확히 이루어질 수 있도록 판별기준(JU)이 다양하게 적용되는 테스트곡을 작곡 또는 선곡하여 선정하는 단계이다. 이 테스트곡 선정단계(S300)에서 선정되는 곡은 기존에 발표된 곡일 수도 있으나, 별도로 테스트를 위해 작성된 곡일 수 있다. 특히, 테스트곡(TS)의 가사는 단순한 것을 이용하는 것이 바람직하다. 일반적인 가요 가사를 사용하는 경우 발음에 따라 주파수의 변화가 심해질 수 있으며, 분석의 정확도를 떨어뜨리는 요인이 될 수 있다. 때문에 전술한 바와 같이 테스트곡(TS)의 가사는 숫자, 가나다라~와 같이 단순하고 반복되는 발음을 이용하는 것이 바람직하다.The test song selection step (S300) is a step of composing or selecting a test song to which the judging criteria JU are variously applied so as to accurately evaluate the judging criteria JU. The song selected in the test song selection step S300 may be a previously released song, or may be a song written for a separate test. In particular, the lyrics of the test song TS are preferably used. In the case of using general lyrics, the frequency change can be severe depending on the pronunciation, and it can be a factor to reduce the accuracy of analysis. Therefore, as described above, the lyrics of the test song TS are preferably used with simple and repeated pronunciations such as numbers and kana-da.
테스트 및 음성신호 작성단계(S400)에서는 출력장치(130)를 통해 사용자에게 테스트곡이 제공되고, 테스트곡을 사용자가 노래함으로써 입력장치(120)에 의해 음성신호(VS)가 작성되는 단계이다.In the test and voice signal generation step S400, a test song is provided to the user through the
주파수데이터 작성단계(S500)는 테스트 및 음성신호 작성단계(S400)에서 작성된 음성신호(VS)는 분석을 위한 주파수데이터(FD)로 변환하는 단계이다.The frequency data creation step S500 is a step of converting the voice signal VS generated in the test and voice signal creation step S400 into frequency data FD for analysis.
분석단계(S600)에서는 주파수데이터(FD)로 변환된 음성신호(VS)를 판별기준(JU)에 따라 분석하는 단계이다. 이 분석단계(S600)에서는 음성신호(VS)와 주파수데이터(FD)를 모두 이용하여 분석이 이루어지게 된다.In the analyzing step S600, the voice signal VS converted into the frequency data FD is analyzed according to the discrimination criterion JU. In this analysis step (S600), the analysis is performed using both the voice signal VS and the frequency data FD.
추천곡 선정단계(S700)는 분석단계(S600)의 분석결과에 따라 라이브데이터(FD)로부터 사용자에게 적합한 노래 그룹을 선정하는 단계이다. 이 추천곡 선정단계(S700)에서 선정된 그룹에는 복수의 노래가 포함되어 있을 수 있으며, 이 경우 사용자의 설정명령(SO) 및 선호정보(PD)에 의해 부가정보 항목을 입력하도록 하여 곡을 선택하도록 할 수 있다.The recommendation song selection step S700 is a step of selecting a song group suitable for the user from the live data FD according to the analysis result of the analysis step S600. The group selected in the recommendation song selection step (S700) may include a plurality of songs. In this case, a song is selected by inputting additional information items according to a user setting command (SO) and preference information (PD). You can do that.
분석결과 및 추천곡 제공단계(S800)는 추천곡 선정단계(S700)에서 선정된 추천곡과 분석결과를 출력장치(230)를 통해 사용자에게 제공하는 단계이다. 이 분석결과 및 추천곡 제공단계(S800)에서 제공된 분석결과에 따라 사용자는 자신의 장단점을 인식하게 되며, 이러한 정보를 별도의 전문가에게 제공함으로써 자신의 취약점을 중심으로 강습을 받을 수도 있게 된다.The analysis result and the recommendation song providing step (S800) is a step of providing the user with the recommended song and the analysis result selected in the recommendation song selection step (S700) through the output device (230). According to the analysis result and the analysis result provided in the recommendation song providing step (S800), the user is aware of the advantages and disadvantages of the user, and by providing such information to a separate expert can also take a lesson centered on their own weaknesses.
도 1은 본 발명에 따른 노래 추천 시스템을 도시한 구성 예시도.1 is a configuration example showing a song recommendation system according to the present invention.
도 2는 본 발명에 따른 노래 추천방법을 설명하기 위한 순서도.2 is a flowchart illustrating a song recommendation method according to the present invention;
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
120 : 입력장치120: input device
130 : 출력장치130: output device
150 : 분석시스템150: analysis system
151 : 주파수 변환장치151: frequency inverter
156 : 분석장치156: analysis device
159 : 저장장치159: storage device
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020090064840AKR20110007352A (en) | 2009-07-16 | 2009-07-16 | Song recommendation system and how to recommend |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020090064840AKR20110007352A (en) | 2009-07-16 | 2009-07-16 | Song recommendation system and how to recommend |
| Publication Number | Publication Date |
|---|---|
| KR20110007352Atrue KR20110007352A (en) | 2011-01-24 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020090064840ACeasedKR20110007352A (en) | 2009-07-16 | 2009-07-16 | Song recommendation system and how to recommend |
| Country | Link |
|---|---|
| KR (1) | KR20110007352A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107798107A (en)* | 2017-10-31 | 2018-03-13 | 维沃移动通信有限公司 | The method and mobile device of song recommendations |
| KR20190074357A (en) | 2017-12-20 | 2019-06-28 | 충남대학교산학협력단 | Smart karaoke system |
| KR102107588B1 (en)* | 2018-10-31 | 2020-05-07 | 미디어스코프 주식회사 | Method for evaluating about singing and apparatus for executing the method |
| CN118467777A (en)* | 2024-07-12 | 2024-08-09 | 北京海天瑞声科技股份有限公司 | Sound optimization recommendation method and device, electronic equipment and storage medium |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107798107A (en)* | 2017-10-31 | 2018-03-13 | 维沃移动通信有限公司 | The method and mobile device of song recommendations |
| KR20190074357A (en) | 2017-12-20 | 2019-06-28 | 충남대학교산학협력단 | Smart karaoke system |
| KR102107588B1 (en)* | 2018-10-31 | 2020-05-07 | 미디어스코프 주식회사 | Method for evaluating about singing and apparatus for executing the method |
| CN118467777A (en)* | 2024-07-12 | 2024-08-09 | 北京海天瑞声科技股份有限公司 | Sound optimization recommendation method and device, electronic equipment and storage medium |
| Publication | Publication Date | Title |
|---|---|---|
| Lange et al. | Challenges and opportunities of predicting musical emotions with perceptual and automatized features | |
| KR101917216B1 (en) | Vocal Evaluating System | |
| Saitis et al. | Brightness perception for musical instrument sounds: Relation to timbre dissimilarity and source-cause categories | |
| Stronsick et al. | Masculine harps and feminine horns: Timbre and pitch level influence gender ratings of musical instruments | |
| Carcagno et al. | Effect of back wood choice on the perceived quality of steel-string acoustic guitars | |
| Wu et al. | Spectral Correlates in Emotion Labeling of Sustained Musical Instrument Tones. | |
| Lee et al. | The Timbre Perception Test (TPT): A new interactive musical assessment tool to measure timbre perception ability | |
| Saitis et al. | Effect of task constraints on the perceptual evaluation of violins | |
| Jaatinen et al. | Octave stretching phenomenon with complex tones of orchestral instruments | |
| Düvel et al. | Confusingly similar: Discerning between hardware guitar amplifier sounds and simulations with the Kemper Profiling Amp | |
| US9037278B2 (en) | System and method of predicting user audio file preferences | |
| Gupta et al. | Automatic evaluation of singing quality without a reference | |
| KR101813704B1 (en) | Analyzing Device and Method for User's Voice Tone | |
| KR20110007352A (en) | Song recommendation system and how to recommend | |
| WO2019180830A1 (en) | Singing evaluating method, singing evaluating device, and program | |
| JP6288197B2 (en) | Evaluation apparatus and program | |
| JP2007271977A (en) | Evaluation standard decision device, control method, and program | |
| JP6102076B2 (en) | Evaluation device | |
| Luizard et al. | Changes in the voice production of solo singers across concert halls | |
| Mo et al. | The Effects of MP3 Compression on Perceived Emotional Characteristics in Musical Instruments | |
| Smith et al. | Vocal tract resonances and the sound of the Australian didjeridu (yidaki). III. Determinants of playing quality | |
| Ronan et al. | Factors influencing listener preference for dynamic range compression | |
| Pearce et al. | Eliciting the most prominent perceived differences between microphones | |
| Trevor et al. | Musicians can reliably discriminate between string register locations on the violoncello | |
| Tang et al. | Assessment of the subjective perception of music quality using psychoacoustic approach |
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application | Patent event code:PA01091R01D Comment text:Patent Application Patent event date:20090716 | |
| PA0201 | Request for examination | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection | Comment text:Notification of reason for refusal Patent event date:20110117 Patent event code:PE09021S01D | |
| PG1501 | Laying open of application | ||
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent | Patent event date:20110608 Comment text:Decision to Refuse Application Patent event code:PE06012S01D Patent event date:20110117 Comment text:Notification of reason for refusal Patent event code:PE06011S01I |