Movatterモバイル変換


[0]ホーム

URL:


KR20180097914A - Method and syste for creating three dimension contents - Google Patents

Method and syste for creating three dimension contents
Download PDF

Info

Publication number
KR20180097914A
KR20180097914AKR1020170024690AKR20170024690AKR20180097914AKR 20180097914 AKR20180097914 AKR 20180097914AKR 1020170024690 AKR1020170024690 AKR 1020170024690AKR 20170024690 AKR20170024690 AKR 20170024690AKR 20180097914 AKR20180097914 AKR 20180097914A
Authority
KR
South Korea
Prior art keywords
character
action
user
dimensional
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020170024690A
Other languages
Korean (ko)
Inventor
김종민
Original Assignee
트라이큐빅스 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 트라이큐빅스 인크.filedCritical트라이큐빅스 인크.
Priority to KR1020170024690ApriorityCriticalpatent/KR20180097914A/en
Publication of KR20180097914ApublicationCriticalpatent/KR20180097914A/en
Withdrawnlegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

일 실시예에 따르면, 3차원 컨텐츠 생성 방법은, 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 단계; 상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-상기 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정하는 단계; 및 상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성하는 단계를 포함한다.According to one embodiment, a method for generating three-dimensional content includes: obtaining a three-dimensional face model corresponding to the user's face based on a user image of a user's face using a camera of a user terminal; One character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein the one character / action combination comprises any one character body and any one action Means a matched combination; And generating three-dimensional content by matching the three-dimensional face model with any one of the character / action combinations.

Description

Translated fromKorean
3차원 컨텐츠 생성 방법 및 시스템{METHOD AND SYSTE FOR CREATING THREE DIMENSION CONTENTS}[0001] METHOD AND SYSTEM FOR CREATING THREE DIMENSION CONTENTS [0002]

아래의 설명은 사용자 단말의 카메라를 이용하여 촬영된 사용자 이미지를 기반으로 3차원 컨텐츠를 생성하는 방법 및 시스템에 관한 것으로, 보다 상세하게는, 사용자 이미지에 포함되는 사용자 얼굴에 대응하는 3차원 얼굴 모델을 생성하여 3차원 컨텐츠를 생성하는 기술에 대한 것이다.The present invention relates to a method and system for generating three-dimensional content based on a user image captured using a camera of a user terminal, and more particularly, to a method and system for generating three- Dimensional content to generate three-dimensional content.

캐릭터는 가상 공간인 인터넷이나 이동 통신 환경에 존재하는 또 다른 자아는 나타내는 것으로, 사람의 형상뿐만 아니라, 동물 및 식물은 물론, 상상 속에 존재하는 생물 등 표현될 수 있는 모든 형태로 변형이 가능한 존재이다.The character represents a virtual space, the Internet, or another self existing in a mobile communication environment. It can be transformed into any form that can be expressed not only in human form but also in animals and plants, as well as living creatures in imagination .

이러한 캐릭터의 생성 및 이용은 사용자로 하여금 자신의 모습과 유사하며, 자신의 특징을 나타낼 수 있는 표현 도구로서, 사용자의 호기심이나 대리만족, 개인이 요구하는 이상적인 인물 등의 의미를 내포할 수 있다. 그에 따라, 사용자는 개인을 나타내는 캐릭터의 생성 및 이용에 많은 관심을 가지게 되었다.The creation and use of such a character is similar to the appearance of the user and is an expression tool capable of expressing the character of the user, and can include the meaning of the user's curiosity, surrogate satisfaction, ideal personality required by the individual. As a result, the user has become interested in the creation and use of characters representing individuals.

이에, 스마트폰과 같이 카메라가 구비된 사용자 단말의 보급에 힘입어, 사용자의 얼굴과 일치하는 캐릭터를 생성 및 이용하고자 하는 기술이 개발되고 있다.Accordingly, techniques for creating and using a character matching the face of a user, such as a smart phone, have been developed due to the spread of user terminals equipped with a camera.

이와 같은 종래의 캐릭터 생성 및 이용 기술은 단순히 사용자 이미지에서 사용자 얼굴 영역을 추출하고, 이를 미리 제작된 캐릭터 바디에 결합함으로써, 사용자의 얼굴 형상을 갖는 캐릭터를 생성하여 사용자에게 제공한다.Such a conventional character creation and use technique simply creates a character having a face shape of a user by extracting a user's face area from a user image and combining it with a previously prepared character body, and provides the character to a user.

그러나, 종래의 캐릭터 생성 및 이용 기술은 단순히 정지된 상태의 캐릭터만을 제공할 뿐, 사용자의 얼굴 형상을 갖는 캐릭터가 특정 액션을 취하는 컨텐츠의 형태로 사용자에게 제공하지 못하는 단점이 있다.However, the conventional technique for generating and using a character has a disadvantage in that it provides only a character in a stopped state, and a character having a face shape of a user can not provide the user with a form of content taking a specific action.

따라서, 사용자의 얼굴 형상을 갖는 캐릭터가 특정 액션을 취하는 컨텐츠의 형태로 사용자에게 제공되는 기술이 제안될 필요가 있다.Therefore, a technique is required in which a character having a face shape of a user is provided to a user in the form of contents taking a specific action.

일 실시예들은 사용자 이미지로부터 사용자 얼굴 영역에 대응하는 3차원 얼굴 모델을 획득하고, 획득된 3차원 얼굴 모델을 캐릭터/액션 조합에 정합함으로써, 캐릭터가 액션을 취하는 3차원 컨텐츠를 생성하는 방법 및 시스템을 제안한다.One embodiment includes a method and system for generating three-dimensional content in which a character takes action by obtaining a three-dimensional face model corresponding to a user's face region from a user image, and matching the obtained three-dimensional face model to a character / .

특히, 일 실시예들은 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 3차원 얼굴 모델이 정합될 어느 하나의 캐릭터/액션 조합을 결정함으로써, 사용자의 선택에 기초하여 3차원 컨텐츠를 생성하는 방법 및 시스템을 제안한다.In particular, one embodiment includes a method for generating three-dimensional content based on a user's selection by determining a character / action combination to be matched with a three-dimensional face model in response to a user's selection input occurring on a user interface And a system.

이 때, 일 실시예들은 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 어느 하나의 캐릭터/액션 조합인 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 한번에 결정하는 방법 및 시스템을 제안한다.At this time, one embodiment proposes a method and system for determining at once a character body and an action, which are any one character / action combination, in response to a user's selection input generated on a user interface.

또한, 일 실시예들은 사용자 인터페이스 상에서 순차적으로 발생되는 사용자의 캐릭터 선택 입력 및 액션 선택 입력에 응답하여, 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 순차적으로 결정하는 방법 및 시스템을 제안한다.In addition, one embodiment proposes a method and system for sequentially determining a character body and an action in response to a user's character selection input and an action selection input sequentially generated on a user interface.

또한, 일 실시예들은 복수의 캐릭터/액션 조합들 중 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천하는 방법 및 시스템을 제안한다.In addition, one embodiment proposes a method and system for recommending a character / action combination of any of a plurality of character / action combinations to a user terminal.

여기서, 일 실시예들은 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천하는 과정에서, 사용자의 나이, 성별, 인종, 감정, 선호도, 과거 컨텐츠 생성 이력, 복수의 캐릭터/액션 조합들 각각의 인기도, 다른 사용자의 컨텐츠 생성 이력 또는 복수의 캐릭터/액션 조합들 각각의 광고 비용을 고려하는 방법 및 시스템을 제안한다.In one embodiment, in the process of recommending any one of the character / action combinations to the user terminal, the user's age, gender, race, emotion, preference, past content creation history, popularity of each of a plurality of character / A method and system for considering a content generation history of another user or an advertisement cost of each of a plurality of character / action combinations are proposed.

일 실시예에 따르면, 3차원 컨텐츠 생성 방법은, 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 단계; 상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-상기 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정하는 단계; 및 상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성하는 단계를 포함한다.According to one embodiment, a method for generating three-dimensional content includes: obtaining a three-dimensional face model corresponding to the user's face based on a user image of a user's face using a camera of a user terminal; One character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein the one character / action combination comprises any one character body and any one action Means a matched combination; And generating three-dimensional content by matching the three-dimensional face model with any one of the character / action combinations.

일측에 따르면, 상기 캐릭터/액션 데이터베이스에는, 상기 어느 하나의 캐릭터 바디를 포함하는 복수의 캐릭터 바디들이 액션 세트들-상기 액션 세트들 중 어느 하나의 액션 세트는 상기 어느 하나의 액션을 포함함-과 각각 매칭되어 저장 및 유지될 수 있다.According to one aspect, the character / action database includes a plurality of character bodies including any one of the character bodies, the action sets including one of the action sets including any one of the actions And can be stored and maintained, respectively.

또 다른 일측에 따르면, 상기 캐릭터/액션 데이터베이스에는, 상기 복수의 캐릭터 바디들 각각이 액션 세트에 포함되는 액션들과 각각 매칭되어, 캐릭터/액션 조합들을 이루며 저장 및 유지될 수 있다.According to another aspect, in the character / action database, each of the plurality of character bodies may be matched with actions included in the action set, and may be stored and maintained as character / action combinations.

또 다른 일측에 따르면, 상기 어느 하나의 캐릭터/액션 조합을 결정하는 단계는, 상기 사용자 인터페이스 상에서 발생되는 상기 사용자의 캐릭터 선택 입력에 응답하여, 상기 캐릭터/액션 데이터베이스에 저장된 상기 어느 하나의 캐릭터 바디를 선택하는 단계; 상기 캐릭터/액션 데이터베이스에 저장된 상기 어느 하나의 캐릭터 바디에 매칭되는 액션 세트 중 상기 사용자의 액션 선택 입력이 발생되는 어느 하나의 액션을 추출하는 단계; 및 상기 어느 하나의 캐릭터 바디 및 상기 어느 하나의 액션을 상기 어느 하나의 캐릭터/액션 조합으로 사용하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of determining any one of the character / action combinations may include determining one of the character bodies stored in the character / action database in response to the user's character selection input generated on the user interface Selecting; Extracting an action in which the action selection input of the user is generated from among the action sets matched to any one of the character bodies stored in the character / action database; And using any one of the character bodies and any one of the actions as any one of the character / action combinations.

또 다른 일측에 따르면, 상기 3차원 컨텐츠를 생성하는 단계는, 상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터 바디에 정합하여 3차원 캐릭터를 생성하는 단계; 및 상기 3차원 캐릭터에 상기 어느 하나의 액션을 적용하여 상기 3차원 컨텐츠를 생성하는 단계를 포함할 수 있다.According to another aspect of the present invention, the generating of the three-dimensional content includes: generating a three-dimensional character by matching the three-dimensional face model with any one of the character bodies; And generating the three-dimensional content by applying any one of the actions to the three-dimensional character.

또 다른 일측에 따르면, 상기 3차원 캐릭터를 생성하는 단계는, 상기 어느 하나의 캐릭터 바디에 대응하는 스케일 표준 값에 기초하여, 상기 3차원 얼굴 모델의 스케일을 변경하는 단계; 및 상기 스케일이 변경된 3차원 얼굴 모델을 상기 어느 하나의 캐릭터 바디에 정합하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of generating the three-dimensional character includes: changing a scale of the three-dimensional face model based on a scale standard value corresponding to the one character body; And matching the scale-modified three-dimensional face model to any one of the character bodies.

또 다른 일측에 따르면, 상기 3차원 컨텐츠를 생성하는 단계는, 상기 3차원 캐릭터에 상기 어느 하나의 액션을 적용함에 있어서, 텍스트 또는 음성을 추가하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the step of generating the three-dimensional content may further include the step of adding text or voice in applying the one action to the three-dimensional character.

또 다른 일측에 따르면, 상기 어느 하나의 캐릭터/액션 조합을 결정하는 단계는, 상기 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터/액션 조합들 중 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the step of determining any one of the character / action combinations includes recommending one of the plurality of character / action combinations stored in the character / action database to the user terminal Step < / RTI >

또 다른 일측에 따르면, 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계는, 상기 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터 바디들 중 상기 어느 하나의 캐릭터 바디를 상기 사용자 단말로 추천하는 단계; 및/또는 상기 캐릭터/액션 데이터베이스에 저장된 액션 세트들 중 상기 어느 하나의 액션을 상기 사용자 단말로 추천하는 단계 중 적어도 어느 하나의 단계를 포함할 수 있다.According to another aspect, in the step of recommending any one of the character / action combinations to the user terminal, the step of recommending any one of the plurality of character bodies stored in the character / action database to the user terminal step; And / or recommending any one of the action sets stored in the character / action database to the user terminal.

또 다른 일측에 따르면, 상기 3차원 얼굴 모델을 획득하는 단계는, 상기 사용자 이미지 상에서 상기 사용자 얼굴에 기초하여 상기 사용자의 나이, 성별, 인종 또는 감정 중 적어도 어느 하나를 분석하는 단계를 더 포함하고, 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계는, 상기 사용자의 나이, 성별, 인종 또는 감정 중 적어도 어느 하나에 기초하여, 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계를 포함할 수 있다.According to another aspect, the step of acquiring the three-dimensional face model further comprises analyzing at least one of the age, sex, race or emotion of the user based on the user's face on the user image, The recommending of any one of the character / action combinations to the user terminal may include recommending any one of the character / action combinations to the user terminal based on at least one of the age, sex, race, .

또 다른 일측에 따르면, 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계는, 상기 사용자의 선호도, 과거 컨텐츠 생성 이력, 지역, 상기 복수의 캐릭터/액션 조합들 각각의 인기도, 상기 사용자와 관련된 다른 사용자의 컨텐츠 생성 이력 또는 상기 복수의 캐릭터/액션 조합들 각각의 광고 비용 중 적어도 어느 하나에 기초하여, 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계를 포함할 수 있다.According to another aspect, the recommending step of recommending any one of the character / action combinations to the user terminal may include at least one of a user's preference, a past content creation history, a region, a popularity of each of the plurality of character / action combinations, And recommending any one of the character / action combinations to the user terminal based on at least one of a content creation history of other users related to the character / action combination, or an advertisement cost of each of the plurality of character / action combinations .

또 다른 일측에 따르면, 상기 3차원 컨텐츠 생성 방법은, 상기 3차원 컨텐츠를 상기 사용자 단말로 제공하는 단계를 더 포함할 수 있다.According to another aspect, the method for generating three-dimensional content may further include providing the three-dimensional content to the user terminal.

일 실시예에 따르면, 전자 기기를 구현하는 컴퓨터와 결합하여 3차원 컨텐츠 생성 방법을 실행시키기 위해 매체에 저장된 컴퓨터 프로그램에 있어서, 상기 3차원 컨텐츠 생성 방법은, 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 단계; 상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-상기 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정하는 단계; 및 상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성하는 단계를 포함한다.According to an embodiment, there is provided a computer program stored in a medium for executing a three-dimensional content creation method in combination with a computer embodying an electronic device, the method comprising: Acquiring a three-dimensional face model corresponding to the user's face based on the captured user image; One character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein the one character / action combination comprises any one character body and any one action Means a matched combination; And generating three-dimensional content by matching the three-dimensional face model with any one of the character / action combinations.

일 실시예에 따르면, 3차원 컨텐츠 생성 시스템은, 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 3차원 얼굴 모델 획득부; 상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-상기 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정하는 캐릭터/액션 조합 결정부; 및 상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성하는 3차원 컨텐츠 생성부를 포함한다.According to an embodiment, a three-dimensional content generation system includes a three-dimensional face model acquisition unit for acquiring a three-dimensional face model corresponding to the user's face based on a user image of a user's face captured using a camera of a user terminal; One character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein the one character / action combination comprises any one character body and any one action A character / action combination determining unit for determining a matching combination; And a three-dimensional content generation unit for generating three-dimensional content by matching the three-dimensional face model with any one of the character / action combinations.

일 실시예에 따르면, 3차원 컨텐츠 생성 시스템은, 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 3차원 얼굴 모델 획득부; 상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 캐릭터 선택 입력에 응답하여, 캐릭터/액션 데이터베이스에 저장된 어느 하나의 캐릭터 바디를 선택하고, 상기 캐릭터/액션 데이터베이스에 저장된 상기 어느 하나의 캐릭터 바디에 매칭되는 액션 세트 중 상기 사용자의 액션 선택 입력이 발생되는 어느 하나의 액션을 추출하여, 상기 어느 하나의 캐릭터 바디 및 상기 어느 하나의 액션을 결정하는 캐릭터/액션 조합 결정부; 및 상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터 바디에 정합하여 3차원 캐릭터를 생성하고, 상기 3차원 캐릭터에 상기 어느 하나의 액션을 적용하여 3차원 컨텐츠를 생성하는 3차원 컨텐츠 생성부를 포함한다.According to an embodiment, a three-dimensional content generation system includes a three-dimensional face model acquisition unit for acquiring a three-dimensional face model corresponding to the user's face based on a user image of a user's face captured using a camera of a user terminal; An action selecting unit for selecting one of the character bodies stored in the character / action database in response to a user's character selection input generated on the user interface of the user terminal, and an action matching one of the character bodies stored in the character / A character / action combination determining unit for extracting any one action from which the action selection input of the user is generated in the set, and determining the character body and any one of the actions; And a three-dimensional content generation unit for generating a three-dimensional character by matching the three-dimensional face model with the one character body, and applying the one action to the three-dimensional character to generate three-dimensional content.

일 실시예들은 사용자 이미지로부터 사용자 얼굴 영역에 대응하는 3차원 얼굴 모델을 획득하고, 획득된 3차원 얼굴 모델을 캐릭터/액션 조합에 정합함으로써, 캐릭터가 액션을 취하는 3차원 컨텐츠를 생성하는 방법 및 시스템을 제안할 수 있다.One embodiment includes a method and system for generating three-dimensional content in which a character takes action by obtaining a three-dimensional face model corresponding to a user's face region from a user image, and matching the obtained three-dimensional face model to a character / . ≪ / RTI >

특히, 일 실시예들은 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 3차원 얼굴 모델이 정합될 어느 하나의 캐릭터/액션 조합을 결정함으로써, 사용자의 선택에 기초하여 3차원 컨텐츠를 생성하는 방법 및 시스템을 제안할 수 있다.In particular, one embodiment includes a method for generating three-dimensional content based on a user's selection by determining a character / action combination to be matched with a three-dimensional face model in response to a user's selection input occurring on a user interface And a system can be proposed.

이 때, 일 실시예들은 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 어느 하나의 캐릭터/액션 조합인 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 한번에 결정하는 방법 및 시스템을 제안할 수 있다.At this time, one embodiment may propose a method and system for determining at once a character body and an action, which are any one character / action combination, in response to a user's selection input generated on a user interface .

또한, 일 실시예들은 사용자 인터페이스 상에서 순차적으로 발생되는 사용자의 캐릭터 선택 입력 및 액션 선택 입력에 응답하여, 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 순차적으로 결정하는 방법 및 시스템을 제안할 수 있다.In addition, one embodiment may propose a method and system for sequentially determining a character body and an action in response to a user's character selection input and an action selection input sequentially generated on a user interface.

또한, 일 실시예들은 복수의 캐릭터/액션 조합들 중 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천하는 방법 및 시스템을 제안할 수 있다.In addition, embodiments may suggest a method and system for recommending a character / action combination of any of a plurality of character / action combinations to a user terminal.

여기서, 일 실시예들은 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천하는 과정에서, 사용자의 나이, 성별, 인종, 감정, 선호도, 과거 컨텐츠 생성 이력, 복수의 캐릭터/액션 조합들 각각의 인기도, 다른 사용자의 컨텐츠 생성 이력 또는 복수의 캐릭터/액션 조합들 각각의 광고 비용을 고려하는 방법 및 시스템을 제안할 수 있다.In one embodiment, in the process of recommending any one of the character / action combinations to the user terminal, the user's age, gender, race, emotion, preference, past content creation history, popularity of each of a plurality of character / A method and system for considering a content generation history of another user or an advertisement cost of each of a plurality of character / action combinations may be proposed.

도 1은 일 실시예에 따른 3차원 컨텐츠 생성 시스템의 개괄적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 3차원 컨텐츠 생성 시스템의 구성을 설명하기 위한 블록도이다.
도 3a 내지 3b은 일 실시예에 따른 캐릭터/액션 데이터베이스를 설명하기 위한 도면이다.
도 4a 내지 4c는 일 실시예에 따른 3차원 컨텐츠를 생성하는 과정에서의 사용자 인터페이스를 나타낸 도면이다.
도 5a 내지 5b는 다른 일 실시예에 따른 3차원 컨텐츠를 생성하는 과정에서의 사용자 인터페이스를 나타낸 도면이다.
도 6은 일 실시예에 따른 3차원 컨텐츠 생성 방법을 나타낸 플로우 차트이다.
FIG. 1 is a diagram for explaining an outline operation of a three-dimensional content generation system according to an embodiment.
2 is a block diagram illustrating a configuration of a three-dimensional content generation system according to an exemplary embodiment of the present invention.
3A and 3B are views for explaining a character / action database according to an embodiment.
4A to 4C are diagrams illustrating a user interface in a process of generating three-dimensional content according to an exemplary embodiment.
5A and 5B are diagrams illustrating a user interface in a process of generating three-dimensional content according to another embodiment.
FIG. 6 is a flowchart illustrating a method for generating a three-dimensional content according to an exemplary embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.

도 1은 일 실시예에 따른 3차원 컨텐츠 생성 시스템의 개괄적인 동작을 설명하기 위한 도면이다.FIG. 1 is a diagram for explaining an outline operation of a three-dimensional content generation system according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 3차원 컨텐츠 생성 시스템(110)은 사용자 단말(120)과 네트워크(130)를 통하여 데이터를 송수신할 수 있다.Referring to FIG. 1, a three-dimensionalcontent generation system 110 according to an exemplary embodiment of the present invention can transmit and receive data through auser terminal 120 and anetwork 130.

여기서, 네트워크(130)는 데이터 프로세싱 시스템들, 컴퓨터들, 서버들, 각종 장치들 간의 통신 링크들을 제공하는데 사용되는 매체일 수 있다. 네트워크(130)는 3차원 컨텐츠 생성 시스템(110)과 사용자 단말(120)이 서로 통신하기 위하여 TCP/IP(transmission control protocol internet protocol) 프로토콜 스위트(suite of protocols)를 사용하는 네트워크들 및 게이트웨이들의 월드 와이드 컬렉션을 나타낼 수 있다. 일부 예들에서, 네트워크(130)는 인트라넷, LAN(local area network) 또는 WAN(wide area network)을 포함하거나 또는 그 일부일 수 있다. 또한, 일부 예들에서, 네트워크(130)는 인터넷의 일부일 수 있다.Here, thenetwork 130 may be a medium used to provide communication links between data processing systems, computers, servers, and various devices. Thenetwork 130 may include a network of networks and gateways that use a suite of protocols (TCP / IP) to communicate with the three-dimensionalcontent generation system 110 and theuser terminal 120, Wide collection can be represented. In some instances, thenetwork 130 may include or be part of an intranet, a local area network (LAN), or a wide area network (WAN). Further, in some instances, thenetwork 130 may be part of the Internet.

3차원 컨텐츠 생성 시스템(110)과 사용자 단말(120) 사이의 통신 방식은 제한되지 않으며, 네트워크(130)가 포함할 수 있는 통신망을 활용하는 통신 방식뿐만 아니라, 기기들간의 근거리 무선 통신 역시 포함할 수 있다. 예를 들어, 네트워크(130)는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(130)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method between the three-dimensionalcontent generation system 110 and theuser terminal 120 is not limited. The communication method using the communication network that thenetwork 130 may include, as well as the short-range wireless communication between the devices . For example,network 130 may be a personal area network (LAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network A network such as the Internet, and the like. Thenetwork 130 may also include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, It is not limited.

사용자 단말(120)은 PC, 노트북, 스마트폰(smart phone), 태블릿(tablet), 웨어러블 컴퓨터(wearable computer) 등으로, 3차원 컨텐츠 생성 시스템(110)이 제공하는 서비스(3차원 컨텐츠 생성 서비스)를 위하여, 3차원 컨텐츠 생성 서비스와 관련된 웹/모바일 사이트의 접속 또는 전용 어플리케이션의 설치 및 실행이 가능한 모든 단말 장치를 의미할 수 있다. 이에, 사용자 단말(120)은 웹/모바일 사이트 또는 전용 어플리케이션의 제어 하에 서비스 화면 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다.Theuser terminal 120 may be a service (3D content creation service) provided by the 3Dcontent creation system 110 such as a PC, a notebook, a smart phone, a tablet, a wearable computer, May refer to all terminal devices capable of accessing a web / mobile site related to a three-dimensional content generation service or installing and executing a dedicated application. Accordingly, theuser terminal 120 can perform a service-wide operation such as service screen configuration, data input, data transmission / reception, and data storage under the control of a web / mobile site or a dedicated application.

특히, 사용자 단말(120)은 사용자 얼굴을 촬영할 수 있는 카메라를 구비함으로써, 카메라를 통하여 촬영된 사용자 이미지가 후술되는 3차원 컨텐츠 생성 서비스에서 이용되도록 할 수 있다. 이하, '사용자'는 실질적으로 사용자 단말(120)을 의미할 수 있으며, 3차원 컨텐츠 생성 서비스는 사용자 이미지를 기반으로 3차원 컨텐츠를 생성하고, 생성된 3차원 컨텐츠를 사용자 단말(120)로 제공하는 서비스를 의미한다. 여기서, 3차원 컨텐츠는 3차원 캐릭터가 특정 액션을 취하는 컨텐츠를 의미하고, 액션은 3차원 캐릭터의 표정 또는 움직임이 변화되는 것을 의미한다.In particular, theuser terminal 120 may include a camera capable of photographing a user's face, so that a user image photographed through the camera can be used in a three-dimensional content generation service described later. Hereinafter, 'user' may mean substantially theuser terminal 120, and the three-dimensional content generation service may generate three-dimensional content based on the user image, provide the generated three-dimensional content to theuser terminal 120 . Here, the three-dimensional content means the content in which the three-dimensional character takes a specific action, and the action means that the expression or movement of the three-dimensional character is changed.

3차원 컨텐츠 생성 시스템(110)은 3차원 컨텐츠 생성 서비스를 사용자 단말(120)로 제공하는 주체로서, 사용자 단말(120)과 네트워크(130)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The three-dimensionalcontent generation system 110 is a main body for providing a three-dimensional content generation service to theuser terminal 120. The three-dimensionalcontent generation system 110 communicates with theuser terminal 120 through thenetwork 130 to generate commands, codes, Or a plurality of computer devices.

이 때, 3차원 컨텐츠 생성 시스템(110)은 3차원 컨텐츠 생성 서비스를 제공하는 서버의 플랫폼에 포함되는 형태로 구현되어, 클라이언트(client)인 사용자 단말(120)로 3차원 컨텐츠 생성 서비스를 제공할 수 있다. 그러나 이에 제한되거나, 한정되지 않고, 3차원 컨텐츠 생성 시스템(110)은 3차원 컨텐츠 생성 서비스를 제공하는 서버와 별개의 시스템으로 구축되어, 상기 서버와의 연동을 통해 3차원 컨텐츠 생성 서비스를 제공하도록 구현될 수 있다. 그리고 3차원 컨텐츠 생성 시스템(110)은 적어도 일부의 구성 요소 또는 전체의 구성 요소가 사용자 단말(120) 상에 설치되는 어플리케이션의 형태로 구현되거나, 혹은 클라이언트-서버 환경에서 서비스를 제공하는 플랫폼에 포함되는 형태로 구현되는 것 또한 가능하다.At this time, the three-dimensionalcontent generation system 110 is implemented in a form of being included in a platform of a server providing a three-dimensional content generation service to provide a three-dimensional content generation service to auser terminal 120 as a client . However, the present invention is not limited thereto, and the three-dimensionalcontent generation system 110 may be constructed as a separate system from a server that provides a three-dimensional content generation service, and may provide a three-dimensional content generation service through interoperation with the server Can be implemented. The three-dimensionalcontent generation system 110 may be implemented in the form of an application in which at least some components or entire components are installed on theuser terminal 120, or in a platform that provides services in a client-server environment It is also possible to be implemented in the form of.

이와 같은 3차원 컨텐츠 생성 시스템(110)은 사용자 단말(120)의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기반으로, 3차원 얼굴 모델을 획득하고, 어느 하나의 캐릭터 바디에 3차원 얼굴 모델을 정합한 뒤, 어느 하나의 액션을 적용함으로써, 3차원 컨텐츠를 생성하여 사용자 단말(120)로 제공할 수 있다. 이에 대한 상세한 설명은 아래에서 기재하기로 한다.The three-dimensionalcontent generation system 110 acquires a three-dimensional face model based on a user image of a user's face using a camera of theuser terminal 120, Dimensional content to theuser terminal 120 by applying any one of the actions. A detailed description thereof will be given below.

도 2는 일 실시예에 따른 3차원 컨텐츠 생성 시스템의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of a three-dimensional content generation system according to an exemplary embodiment of the present invention.

도 2를 참조하면, 일 실시예에 따른 3차원 컨텐츠 생성 시스템(200)은 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함할 수 있다. 메모리(240)는 운영체제(241) 및 서비스 제공 루틴(242)를 포함할 수 있다. 프로세서(210)는 3차원 얼굴 모델 획득부(211), 캐릭터/액션 조합 결정부(212) 및 3차원 컨텐츠 생성부(213)를 포함한다. 다른 실시예들에서 3차원 컨텐츠 생성 시스템(200)은 도 2의 구성요소들보다 더 많은 구성요소들 또는 더 적은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 3차원 컨텐츠 생성 시스템(200)은 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.2, a three-dimensionalcontent generation system 200 according to one embodiment may include aprocessor 210, abus 220, anetwork interface 230, amemory 240, and adatabase 250 . Thememory 240 may include anoperating system 241 and a service providing routine 242. Theprocessor 210 includes a three-dimensional facemodel acquisition unit 211, a character / actioncombination determination unit 212, and a three-dimensionalcontent generation unit 213. In other embodiments, the three-dimensionalcontent generation system 200 may include more or fewer components than the components of FIG. However, there is no need to clearly illustrate most prior art components. For example, the three-dimensionalcontent generation system 200 may include other components such as a display or a transceiver.

메모리(240)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(240)에는 운영체제(241)와 서비스 제공 루틴(242)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(240)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(230)를 통해 메모리(240)에 로딩될 수도 있다.Thememory 240 may be a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), a read only memory (ROM), and a disk drive. Also, thememory 240 may store program codes for theoperating system 241 and the service providing routine 242. [ These software components may be loaded from a computer readable recording medium separate from thememory 240 using a drive mechanism (not shown). Such a computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, or a memory card. In other embodiments, the software components may be loaded into thememory 240 via thenetwork interface 230 rather than from a computer readable recording medium.

버스(220)는 3차원 컨텐츠 생성 시스템(200)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(220)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.Thebus 220 may enable communication and data transfer among the components of the three-dimensionalcontent creation system 200. Thebus 220 may be configured using a high-speed serial bus, a parallel bus, a Storage Area Network (SAN), and / or other suitable communication technology.

네트워크 인터페이스(230)는 3차원 컨텐츠 생성 시스템(200)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(230)는, 이더넷 카드와 같은 네트워크 인터페이스 카드, 광학 송수신기, 무선 주파수 송수신기, 혹은 정보를 송수신할 수 있는 임의의 다른 타입의 디바이스일 수 있다. 이러한 네트워크 인터페이스들의 다른 예들은 모바일 컴퓨팅 디바이스들 및 USB 내의 블루투스(Bluetooth), 3G 및 WiFi 등을 포함하는 무선기기일 수 있다. 일부 예들에서, 컴퓨팅 디바이스는, 서버, 모바일 폰, 혹은 다른 네트워크화된 컴퓨팅 디바이스와 같은 외부 디바이스와 무선으로 통신하기 위해 네트워크 인터페이스(230)를 사용할 수 있다. 네트워크 인터페이스(230)는 3차원 컨텐츠 생성 시스템(200)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다.Thenetwork interface 230 may be a computer hardware component for connecting the three-dimensionalcontent creation system 200 to a computer network. Thenetwork interface 230 may be a network interface card such as an Ethernet card, an optical transceiver, a radio frequency transceiver, or any other type of device capable of transmitting and receiving information. Other examples of such network interfaces may be mobile computing devices and wireless devices including Bluetooth, 3G and WiFi within USB. In some instances, the computing device may use thenetwork interface 230 to wirelessly communicate with an external device, such as a server, mobile phone, or other networked computing device. Thenetwork interface 230 may connect the three-dimensionalcontent creation system 200 to a computer network via a wireless or wired connection.

데이터베이스(250)는 사용자 단말로부터 수신되는 사용자 이미지, 사용자 이미지로부터 획득되는 3차원 얼굴 모델, 복수의 캐릭터 바디들과 복수의 액션 세트들(액션 세트는 복수의 액션들을 포함함)을 저장 및 유지하는 역할을 할 수 있다. 또한, 데이터베이스(250)는 3차원 컨텐츠 생성 서비스를 제공하는데 필요한 모든 정보를 저장 및 유지하는 역할을 할 수 있다. 도면에서는, 3차원 컨텐츠 생성 시스템(200)의 내부에 데이터베이스(250)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.Thedatabase 250 stores and maintains a user image received from a user terminal, a three-dimensional face model obtained from the user image, a plurality of character bodies and a plurality of action sets (the action set includes a plurality of actions) Can play a role. In addition, thedatabase 250 may store and maintain all information required to provide the three-dimensional content generation service. Although thedatabase 250 is shown as being built in the three-dimensionalcontent generation system 200, it is not limited thereto and may be omitted depending on the system implementation method or environment, Is present as an external database built on a separate, separate system.

특히, 데이터베이스(250)에는 복수의 캐릭터 바디들이 액션 세트들과 각각 매칭되어 저장 및 유지될 수 있다. 이 때, 복수의 캐릭터 바디들 각각은 액션 세트들에 포함되는 액션들과 각각 매칭되어, 캐릭터/액션 조합들을 이루며 데이터베이스(250)에 저장 및 유지될 수 있다. 이하, 캐릭터/액션 조합은 캐릭터 바디와 액션이 매칭된 조합을 의미한다.In particular, in thedatabase 250, a plurality of character bodies may be stored and maintained, respectively, matching the action sets. At this time, each of the plurality of character bodies may be stored and maintained in thedatabase 250 as character / action combinations, respectively, matching with the actions included in the action sets. Hereinafter, a character / action combination means a combination in which a character body and an action are matched.

즉, 데이터베이스(250)에는 복수의 캐릭터 바디들 각각은 액션 세트들에 포함되는 액션들과 각각 매칭된 복수의 캐릭터/액션 조합들이 저장 및 유지될 수 있다.That is, in thedatabase 250, each of the plurality of character bodies may be stored and maintained with a plurality of character / action combinations matched with the actions included in the action sets.

그러나 이에 제한되거나 한정되지 않고, 데이터베이스(250)에는 복수의 캐릭터 바디들 각각이 액션 세트들에 포함되는 액션들과 각각 매칭되지 않은 채, 단순히 액션 세트와 매칭된 채 저장 및 유지될 수도 있다. 이에 대한 상세한 설명은 도 3a 내지 3b를 참조하여 기재하기로 한다.However, without being limited thereto, thedatabase 250 may be stored and maintained with each of the plurality of character bodies matched with the action set without matching each of the actions included in the action sets. A detailed description thereof will be described with reference to Figs. 3A to 3B.

또한, 데이터베이스(250)에는 후술되는 3차원 얼굴 모델이 어느 하나의 캐릭터 바디에 정합하는 과정에서 고려될 캐릭터 바디의 스케일 비율을 나타내는 스케일 표준 값이 저장 및 유지될 수 있다. 이러한 경우, 복수의 캐릭터 바디들 각각은 서로 다른 스케일 표준 값을 가진 채 데이터베이스(250)에 저장 및 유지될 수 있다.In addition, thedatabase 250 may store and maintain a scale standard value indicating a scale ratio of a character body to be considered in a process of matching a three-dimensional face model, which will be described later, with a character body. In such a case, each of the plurality of character bodies may be stored and maintained in thedatabase 250 with different scale standard values.

또한, 데이터베이스(250)에는 어느 하나의 캐릭터 바디 및/또는 어느 하나의 액션을 사용자 단말로 추천하기 위한 정보가 저장 및 유지될 수 있다. 예를 들어, 데이터베이스(250)에는 사용자의 나이, 성별, 인종, 선호도, 과거 컨텐츠 생성 이력, 지역, 복수의 캐릭터 바디들 각각의 인기도, 액션 세트들 내에 포함되는 액션들 각각의 인기도, 다른 사용자의 컨텐츠 생성 이력 또는 복수의 캐릭터 바디들 각각의 광고 비용, 액션 세트들 내에 포함되는 액션들 각각의 광고 비용 등에 대한 정보가 저장 및 유지될 수 있다.In addition, thedatabase 250 may store and maintain information for recommending one character body and / or one action to the user terminal. For example, thedatabase 250 may store the user's age, gender, race, preference, past content creation history, region, popularity of each of the plurality of character bodies, popularity of each action included in the action sets, Information on the advertisement cost of each of the content creation history or the plurality of character bodies, the advertisement cost of each of the actions included in the action sets, and the like can be stored and maintained.

프로세서(210)는 기본적인 산술, 로직 및 3차원 컨텐츠 생성 시스템(200)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(240) 또는 네트워크 인터페이스(230)에 의해, 그리고 버스(220)를 통해 프로세서(210)로 제공될 수 있다. 프로세서(210)는 3차원 얼굴 모델 획득부(211), 캐릭터/액션 조합 결정부(212) 및 3차원 컨텐츠 생성부(213)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(240)와 같은 기록 장치에 저장될 수 있다.Theprocessor 210 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations of the three-dimensionalcontent generation system 200. [ The instructions may be provided by thememory 240 or thenetwork interface 230 and to theprocessor 210 via thebus 220. Theprocessor 210 may be configured to execute program codes for the three-dimensional facemodel acquisition unit 211, the character / actioncombination determination unit 212, and the three-dimensionalcontent generation unit 213. [ Such program code may be stored in a recording device such asmemory 240. [

3차원 얼굴 모델 획득부(211)는 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득한다.The three-dimensional facemodel obtaining unit 211 obtains a three-dimensional face model corresponding to the user's face based on the user image of the user's face using the camera of the user terminal.

예를 들어, 3차원 얼굴 모델 획득부(211)는 키 포인트 추출 알고리즘을 기초로 사용자 이미지에서 키 포인트들을 추출하고, 키 포인트들 사이의 공간상 관계를 분석하여 3차원 포인트 클라우드를 생성한 뒤, 3차원 포인트 클라우드의 각 포인트들을 연결하여 3차원 얼굴 메쉬(눈, 코, 입, 턱 및 이마를 포함하는 얼굴 영역)를 생성할 수 있다. 그 후, 3차원 얼굴 모델 획득부(211)는 미리 설정된 3차원 얼굴 표준 모델(얼굴에 대한 변형이 가능하게 하는 제어점들을 포함하는 얼굴 모델)의 랜드마크들을 이용하여 3차원 얼굴 메쉬에서 랜드마크들을 설정하고, ICP(Iterative Closest Points) 알고리즘을 기초로 미리 설정된 3차원 얼굴 표준 모델과 3차원 얼굴 메쉬를 정렬하며, 미리 설정된 3차원 얼굴 표준 모델의 랜드마크들을 3차원 얼굴 메쉬의 랜드마크들의 위치로 변경하고, 미리 설정된 3차원 얼굴 표준 모델의 나머지 버텍스들을 비선형 변형을 통해 3차원 얼굴 메쉬의 버텍스들에 정합함으로써, 3차원 얼굴 모델을 생성할 수 있다. 그러나 3차원 얼굴 모델 획득부(211)의 3차원 얼굴 모델 획득 과정은 이에 제한되거나 한정되지 않고, 다양한 방식으로 수행될 수 있다.For example, the 3D facemodel acquisition unit 211 extracts key points from a user image based on a key point extraction algorithm, analyzes a spatial relationship between the key points to generate a 3D point cloud, You can create 3D face meshes (face regions that include eyes, nose, mouth, jaw and forehead) by connecting each point of the 3D point cloud. Thereafter, the three-dimensional facemodel obtaining unit 211 obtains the landmarks in the three-dimensional face mesh using the landmarks of the predetermined three-dimensional face standard model (the face model including the control points enabling the deforming of the face) Dimensional face model and a three-dimensional face mesh based on ICP (Iterative Closest Points) algorithm, and arranges the landmarks of the predetermined three-dimensional face standard model at the positions of the landmarks of the three-dimensional face mesh Dimensional face model by matching the remaining vertices of the preset three-dimensional face standard model with the vertices of the three-dimensional face mesh through nonlinear transformation. However, the process of acquiring a three-dimensional face model by the three-dimensional facemodel acquiring unit 211 is not limited to this, and may be performed in various ways.

캐릭터/액션 조합 결정부(212)는 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스(데이터베이스(250))에 저장된 어느 하나의 캐릭터/액션 조합을 결정한다. 여기서, 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미한다.The character / actioncombination determination unit 212 determines any character / action combination stored in the character / action database (database 250) in response to the user's selection input generated on the user interface of the user terminal. Here, any one of the character / action combinations means a combination in which one character body and one action are matched.

예를 들어, 캐릭터/액션 조합 결정부(212)는 사용자 인터페이스 상에 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터/액션 조합들을 디스플레이한 뒤, 복수의 캐릭터/액션 조합들 중 사용자의 선택 입력이 발생되는 어느 하나의 캐릭터/액션 조합을 인식하여 3차원 컨텐츠를 생성할 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 결정할 수 있다.For example, the character / actioncombination determination unit 212 may display a plurality of character / action combinations stored in the character / action database on the user interface, It is possible to determine any one character body and any one action for generating three-dimensional content by recognizing any one of the character / action combinations.

다른 예를 들면, 캐릭터/액션 조합 결정부(212)는 사용자 인터페이스 상에 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터 바디들을 디스플레이하여 복수의 캐릭터 바디들 중 사용자의 캐릭터 선택 입력이 발생되는 어느 하나의 캐릭터 바디를 선택한 뒤, 사용자 인터페이스 상에 캐릭터/액션 데이터베이스에 저장된 액션 세트(선택된 어느 하나의 캐릭터 바디에 매칭되는 액션 세트)를 디스플레이하여 복수의 액션들로 구성되는 액션 세트 중 사용자의 액션 선택 입력이 발생되는 어느 하나의 액션을 추출함으로써, 어느 하나의 캐릭터 바디 및 어느 하나의 액션의 조합인 어느 하나의 캐릭터/액션 조합을 결정할 수 있다.For example, the character / actioncombination determination unit 212 may display a plurality of character bodies stored in the character / action database on the user interface, and may select any one of the plurality of character bodies, After selecting the body, an action set (a set of actions matched to a selected one character body) stored in the character / action database on the user interface is displayed, and an action selection input of the user among the action sets composed of a plurality of actions is generated Action combination, which is a combination of any one character body and any one action, can be determined by extracting any one of the character / action combinations.

또한, 캐릭터/액션 조합 결정부(212)는 복수의 캐릭터 바디들 중 어느 하나의 캐릭터 바디 및/또는 복수의 액션 세트들 중 어느 하나의 액션을 사용자 단말로 추천할 수 있다. 마찬가지로, 캐릭터/액션 조합 결정부(212)는 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 어느 하나의 캐릭터/액션 조합으로 통합적으로 사용자 단말로 추천할 수 있으며, 이와 반대되게, 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 각각 독립적으로 사용자 단말로 추천할 수도 있다.In addition, the character / actioncombination determination unit 212 may recommend any one of a plurality of character bodies and / or a plurality of action sets to the user terminal. Similarly, the character / actioncombination determination unit 212 can recommend one character body and one action as a combination of any one character / action to the user terminal. On the contrary, And any one of the actions may be independently recommended to the user terminal.

이 때, 캐릭터/액션 조합 결정부(212)는 사용자의 나이, 성별, 인종, 감정, 선호도, 과거 컨텐츠 생성 이력, 지역, 복수의 캐릭터 바디들 각각의 인기도, 액션 세트들 내에 포함되는 액션들 각각의 인기도, 다른 사용자의 컨텐츠 생성 이력, 복수의 캐릭터 바디들 각각의 광고 비용 또는 액션 세트들 내에 포함되는 액션들 각각의 광고 비용 등에 기초하여, 복수의 캐릭터 바디들 중 어느 하나의 캐릭터 바디 및/또는 복수의 액션 세트들 중 어느 하나의 액션을 사용자 단말로 추천할 수 있다.At this time, the character / actioncombination determination unit 212 determines the combination of the user's age, sex, race, emotion, preference, past content creation history, region, popularity of each of the plurality of character bodies, Based on the popularity of each of the plurality of character bodies, the content creation history of the other users, the advertising cost of each of the plurality of character bodies, or the advertising cost of each of the actions included in the action sets, One of the plurality of action sets may be recommended to the user terminal.

이러한 경우, 사용자의 나이, 성별, 인종 또는 감정은 3차원 얼굴 모델 획득부(211)가 사용자 이미지 상에서 사용자 얼굴을 분석한 결과로 유추될 수 있다. 예를 들어, 3차원 얼굴 모델 획득부(211)가 사용자 이미지 상에서 사용자 얼굴에 포함되는 눈, 코 또는 입 중 적어도 어느 하나의 크기를 미리 설정된 기준 크기 값(예컨대, 감정 별 각각의 기준 크기 값)에 비교하여, 사용자의 감정을 분석함으로써, 캐릭터/액션 조합 결정부(212)는 사용자의 감정에 적합한 어느 하나의 캐릭터 바디 또는 어느 하나의 액션을 사용자 단말로 추천할 수 있다.In this case, the age, sex, race, or emotion of the user can be inferred as a result of the 3D facemodel acquisition unit 211 analyzing the user's face on the user image. For example, the 3D facemodel acquisition unit 211 may calculate the size of at least one of the eyes, nose, or mouth included in the user's face on the user image to a predetermined reference size value (e.g., , The character / actioncombination determination unit 212 can recommend any one character body or any one action appropriate to the user's emotions to the user terminal by analyzing the emotion of the user.

반면에, 사용자의 나이, 성별, 인종, 선호도, 과거 컨텐츠 생성 이력, 지역, 복수의 캐릭터 바디들 각각의 인기도, 액션 세트들 내에 포함되는 액션들 각각의 인기도, 다른 사용자의 컨텐츠 생성 이력, 복수의 캐릭터 바디들 각각의 광고 비용 또는 액션 세트들 내에 포함되는 액션들 각각의 광고 비용은 캐릭터/액션 데이터베이스에 저장 및 유지되다가, 3차원 얼굴 모델 획득부(211)가 사용자 이미지 상에서 사용자 얼굴을 분석한 결과 또는 사용자 인터페이스를 통하여 입력되는 사용자 확인 입력에 기초하여, 캐릭터/액션 데이터베이스로부터 사용자에 대응하는 정보가 추출되어 이용될 수 있다. 예를 들어, 복수의 캐릭터 바디들 중 제1 캐릭터 바디의 광고 비용이 가장 비싸고, 제1 액션의 광고 비용이 제일 비싼 경우, 캐릭터/액션 조합 결정부(212)는 복수의 캐릭터 바디들 중 제1 캐릭터 바디 또는 복수의 액션 세트들 중 제2 액션을 우선적으로 사용자 단말로 추천할 수 있다.On the other hand, it is also possible to provide a history of the user's age, sex, race, preference, past content creation history, region, popularity of each of the plurality of character bodies, popularity of each action included in the action sets, The advertisement cost of each of the character bodies or the actions included in the action sets is stored and maintained in the character / action database, and the 3D facemodel acquisition unit 211 analyzes the user's face on the user image Or information corresponding to the user from the character / action database can be extracted and used based on the user confirmation input inputted through the user interface. For example, when the advertisement cost of the first character body among the plurality of character bodies is the most expensive and the advertisement cost of the first action is the highest, the character / actioncombination determination unit 212 determines that the character cost of the first character body The character body or the second action among the plurality of action sets may be preferentially recommended to the user terminal.

3차원 컨텐츠 생성부(213)는 3차원 얼굴 모델을 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성한다. 보다 상세하게, 3차원 컨텐츠 생성부(213)는 3차원 얼굴 모델을 어느 하나의 캐릭터/액션 조합에 포함되는 어느 하나의 캐릭터 바디에 정합하여 3차원 캐릭터를 생성한 뒤, 어느 하나의 캐릭터/액션 조합에 포함되는 어느 하나의 액션을 3차원 캐릭터에 적용하여 3차원 컨텐츠를 생성할 수 있다.The three-dimensionalcontent generation unit 213 generates three-dimensional content by matching the three-dimensional face model with any one of the character / action combinations. More specifically, the three-dimensionalcontent generation unit 213 generates a three-dimensional character by matching a three-dimensional face model to one character body included in any one of the character / action combinations, It is possible to generate three-dimensional content by applying any one action included in the combination to the three-dimensional character.

이 때, 3차원 컨텐츠 생성부(213)는 3차원 얼굴 모델을 어느 하나의 캐릭터 바디에 정합하는 과정에서, 어느 하나의 캐릭터 바디의 스케일 비율을 고려할 수 있다. 예를 들어, 3차원 컨텐츠 생성부(213)는 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터 바디의 스케일 표준 값을 추출함으로써, 스케일 표준 값에 따라 3차원 얼굴 모델의 스케일을 변경한 뒤, 스케일이 변경된 3차원 얼굴 모델을 어느 하나의 캐릭터 바디에 정합할 수 있다.At this time, the three-dimensionalcontent generation unit 213 may consider the scale ratio of any one character body in the process of matching the three-dimensional face model to one character body. For example, the three-dimensionalcontent generation unit 213 extracts a scale standard value of a character body from a character / action database, changes the scale of the three-dimensional face model according to the scale standard value, The three-dimensional face model can be matched to any one of the character bodies.

또한, 3차원 컨텐츠 생성부(213)는 3차원 캐릭터에 어느 하나의 액션을 적용함에 있어서, 텍스트 또는 음성을 추가할 수 있다. 이러한 경우, 텍스트 또는 음성은 캐릭터/액션 데이터베이스에 미리 저장된 텍스트들 또는 음성들 중 선택될 수 있으며, 사용자 인터페이스를 통하여 사용자로부터 직접 입력 받을 수도 있다.In addition, the three-dimensionalcontent generation unit 213 may add text or voice when applying any one action to the three-dimensional character. In this case, the text or voice may be selected from texts or voices pre-stored in the character / action database, and may be input directly from the user through the user interface.

또한, 3차원 컨텐츠 생성부(213)는 상술한 바와 같이 생성된 3차원 컨텐츠를 사용자 단말로 제공할 수 있으며, 3차원 컨텐츠를 사용자에 매칭하여 캐릭터/액션 데이터베이스에 저장 및 유지함으로써, 사용자가 사용자 단말 이외의 다른 전자 기기로 해당 3차원 컨텐츠를 사용하도록 지원할 수 있다.The three-dimensionalcontent generation unit 213 may provide the generated three-dimensional content to the user terminal. The three-dimensionalcontent generation unit 213 may store and maintain the three-dimensional content in the character / action database by matching the three- It is possible to support the use of the corresponding three-dimensional content by an electronic device other than the terminal.

프로세서(210)는 이와 같은 3차원 얼굴 모델 획득부(211), 캐릭터/액션 조합 결정부(212) 및 3차원 컨텐츠 생성부(213)의 각 동작을 통하여 3차원 컨텐츠를 생성함으로써, 3차원 컨텐츠 생성 서비스를 사용자 단말로 제공할 수 있다. 이에 대한 상세한 설명은 4a 내지 4c 및 5a 내지 5b를 참조하여 기재하기로 한다.Theprocessor 210 generates three-dimensional content through the operations of the three-dimensional facemodel obtaining unit 211, the character / actioncombination determining unit 212, and the three-dimensionalcontent generating unit 213, And provide the generated service to the user terminal. A detailed description thereof will be described with reference to 4a to 4c and 5a to 5b.

이상, 3차원 컨텐츠 생성 시스템(200)이 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함하는 경우로 설명하였으나, 이에 제한되거나 한정되지 않고, 프로세서(210)의 핵심 구성부들(3차원 얼굴 모델 획득부(211), 캐릭터/액션 조합 결정부(212) 및 3차원 컨텐츠 생성부(213))만을 포함할 수도 있다.Although the case where the 3Dcontent creation system 200 includes theprocessor 210, thebus 220, thenetwork interface 230, thememory 240, and thedatabase 250 has been described above, (The three-dimensional facemodel acquisition unit 211, the character / actioncombination determination unit 212, and the three-dimensional content generation unit 213) of theprocessor 210.

도 3a 내지 3b은 일 실시예에 따른 캐릭터/액션 데이터베이스를 설명하기 위한 도면이다. 구체적으로, 도 3a는 복수의 캐릭터 바디들이 액션 세트들과 각각 매칭되어 저장 및 유지되는 캐릭터/액션 데이터베이스를 설명하기 위한 도면이고, 도 3b는 복수의 캐릭터 바디들 각각이 액션 세트들에 포함되는 액션들과 각각 매칭되어 캐릭터/액션 조합들을 이루며 저장 및 유지되는 캐릭터/액션 데이터베이스를 설명하기 위한 도면이다.3A and 3B are views for explaining a character / action database according to an embodiment. Specifically, FIG. 3A is a diagram for explaining a character / action database in which a plurality of character bodies are respectively stored and held in correspondence with action sets, and FIG. 3B is a diagram for explaining a character / action database in which each of a plurality of character bodies is included in an action set And a character / action database that is stored and maintained in the form of character / action combinations, respectively.

도 3a를 참조하면, 일 실시예에 따른 캐릭터/액션 데이터베이스(310)에는 복수의 캐릭터 바디들(320, 330)이 액션 세트들(321, 331) 각각과 매칭되어 저장 및 유지될 수 있다. 예를 들어, 캐릭터/액션 데이터베이스(310)에는 제1 캐릭터 바디(320)가 제1 액션 세트(321)와 매칭되어 저장 및 유지되고, 제2 캐릭터 바디(330)가 제2 액션 세트(322)와 매칭되어 저장 및 유지될 수 있다.Referring to FIG. 3A, a plurality ofcharacter bodies 320 and 330 may be stored and maintained in the character /action database 310 according to an exemplary embodiment, respectively, in correspondence with the action sets 321 and 331. For example, in the character /action database 310, thefirst character body 320 is matched with and stored in the first action set 321, and thesecond character body 330 is stored in the second action set 322. [ And can be stored and maintained.

여기서, 액션 세트들(321, 331) 각각은 복수의 액션들(322, 323, 334, 332, 333, 334)을 포함할 수 있다. 예를 들어. 제1 액션 세트(321)는 제1-1 액션(322), 제1-2 액션(323) 및 제1-3 액션(324)을 포함할 수 있고, 제2 액션 세트(331)는 제2-1 액션(332), 제2-2 액션(333) 및 제2-3 액션(334)을 포함할 수 있다.Here, each of the action sets 321, 331 may include a plurality ofactions 322, 323, 334, 332, 333, 334. E.g. The first action set 321 may include afirst action 322, asecond action 323 and athird action 324 and the second action set 331 may include a second action set 322, -1action 332, a second-2action 333, and a second-third action 334.

각각의 액션들(322, 323, 324, 332, 333, 334)은 웃음, 울음, 화남 등의 3차원 캐릭터의 표정의 변화 또는 춤추기, 날아다니기, 뛰어다니기 등의 3차원 캐릭터의 움직임의 변화를 나타낼 수 있다.Each of theactions 322, 323, 324, 332, 333, and 334 changes the expression of the three-dimensional character such as laughing, crying, and angry or changes the movement of the three-dimensional character such as dancing, flying, Lt; / RTI >

상술한 바와 같이 캐릭터/액션 데이터베이스(310)가 구성되는 경우, 3차원 컨텐츠 생성 서비스는 도 5a 내지 5b와 같이 사용자 단말로 제공될 수 있으며, 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 각각 독립적으로 사용자 단말로 추천될 수 있다.When the character /action database 310 is configured as described above, the 3D content creation service may be provided to the user terminal as shown in FIGS. 5A to 5B, and any one of the character bodies and the one action may be provided independently May be recommended as a user terminal.

반면에, 도 3b를 참조하면, 일 실시예에 따른 캐릭터/액션 데이터베이스(340)에는 복수의 캐릭터 바디들(350, 360) 각각이 액션 세트들(351, 361)에 포함되는 액션들(352, 353, 354, 362, 363, 364) 각각과 매칭되어, 캐릭터/액션 조합들(352-1, 353-1, 354-1, 362-1, 363-1, 364-1)을 이루며 저장 및 유지될 수 있다. 예를 들어, 캐릭터/액션 데이터베이스(340)에는 제1 캐릭터 바디(350)가 제1 액션 세트(351)에 포함되는 제1-1 액션(352)과 매칭되어 제1-1 캐릭터/액션 조합(352-1)을 이루며 저장 및 유지될 수 있다. 마찬가지로, 제1 캐릭터 바디(350)는 제1-2 액션(353)과 매칭되어 제1-2 캐릭터/액션 조합(353-1)을 이루고, 제1-3 액션(354)과 매칭되어 제1-3 캐릭터/액션 조합(354-1)을 이루며 저장 및 유지될 수 있고, 제2 캐릭터 바디(360)는 제2-1 액션(362)과 매칭되어 제2-1 캐릭터/액션 조합(362-1)을 이루며, 제2-2 액션(363)과 매칭되어 제2-2 캐릭터/액션 조합(363-1)을 이루고, 제2-3 액션(364)과 매칭되어 제2-3 캐릭터/액션 조합(364-1)을 이루며 저장 및 유지될 수 있다.3B, in the character /action database 340 according to the embodiment, each of the plurality ofcharacter bodies 350 and 360 includesactions 352 and 353 included in the action sets 351 and 361, 353-1, 362-1, 363-1, and 364-1, respectively, so as to store and maintain the character / action combinations 352-1, 353-1, 354-1, 362-1, 363-1, . For example, in the character /action database 340, thefirst character body 350 is matched with thefirst action 352 included in the first action set 351, and the first character /action combination 350 352-1). Similarly, thefirst character body 350 matches the 1-2action 353 to form the 1-2 character / action combination 353-1, and matches the 1-3action 354 to the 1 st character / Action combination 354-1 and thesecond character body 360 may be stored and maintained as a combination of the second-1 character / action combination 362- Action combination 363-1 is matched with the second-second action 363 to form the second-second character / action combination 363-1, and the second-second character / action combination 363-1 is matched with the second- May be stored and maintained in combination 364-1.

이와 같이 캐릭터/액션 데이터베이스(340)가 구성되는 경우, 3차원 컨텐츠 생성 서비스는 도 4a 내지 4c와 같이 사용자 단말로 제공될 수 있으며, 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 어느 하나의 캐릭터/액션 조합으로 통합적으로 사용자 단말로 추천될 수 있다.When the character /action database 340 is configured as described above, the 3D content creation service can be provided to the user terminal as shown in FIGS. 4A to 4C, and any one character body and any one action can be provided to any character / Action combination to the user terminal.

도 4a 내지 4c는 일 실시예에 따른 3차원 컨텐츠를 생성하는 과정에서의 사용자 인터페이스를 나타낸 도면이다. 보다 상세하게, 도 4a는 3차원 얼굴 모델을 획득하는 과정에서의 사용자 인터페이스를 나타낸 도면이고, 도 4b는 어느 하나의 캐릭터/액션 조합을 결정하는 과정에서의 사용자 인터페이스를 나타낸 도면이며, 도 4c는 3차원 컨텐츠를 생성하는 과정에서의 사용자 인터페이스를 나타낸 도면이다.4A to 4C are diagrams illustrating a user interface in a process of generating three-dimensional content according to an exemplary embodiment. 4A is a view showing a user interface in a process of acquiring a three-dimensional face model, FIG. 4B is a view illustrating a user interface in a process of determining any one of a character / action combination, FIG. 3 is a diagram illustrating a user interface in a process of generating three-dimensional content.

도 4a 내지 4c를 참조하면, 일 실시예에 따른 3차원 컨텐츠 생성 시스템에 포함되는 3차원 얼굴 모델 획득부는 사용자 단말(410)의 카메라(411)를 이용하여 사용자 얼굴이 촬영된 사용자 이미지(421)를 기초로 사용자 얼굴에 대응하는 3차원 얼굴 모델(422)을 획득한다.4A to 4C, the three-dimensional face model acquisition unit included in the three-dimensional content generation system according to one embodiment includes auser image 421 in which a user's face is photographed using thecamera 411 of theuser terminal 410,Dimensional face model 422 corresponding to the user's face on the basis of the three-

이러한 과정에서, 사용자 단말(410)의 사용자 인터페이스(420) 상에는 사용자 이미지(421) 및 3차원 얼굴 모델(422)이 디스플레이될 수 있다.In this process, theuser image 421 and the3D face model 422 may be displayed on theuser interface 420 of theuser terminal 410.

3차원 얼굴 모델(422)이 획득되고 나면, 3차원 컨텐츠 생성 시스템에 포함되는 캐릭터/액션 조합 결정부는 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터/액션 조합들(431, 432, 433, 434)을 사용자 인터페이스(430) 상에 디스플레이할 수 있다.After the three-dimensional face model 422 is acquired, the character / action combination determination unit included in the three-dimensional content generation system determines a plurality of character /action combinations 431, 432, 433, and 434 stored in the character / Can be displayed on theinterface 430.

이에, 사용자 인터페이스(430) 상 복수의 캐릭터/액션 조합들(431, 432, 433, 434) 중 어느 하나의 캐릭터/액션 조합(431)에서 사용자의 선택 입력(435)이 발생되면, 캐릭터/액션 조합 결정부는 사용자의 선택 입력(435)이 발생된 어느 하나의 캐릭터/액션 조합(431)을 3차원 컨텐츠 생성 과정에서 이용할 어느 하나의 캐릭터 바디 및 어느 하나의 액션으로 결정할 수 있다.Accordingly, when the user'sselection input 435 is generated on the character /action combination 431 of any of the plurality of character /action combinations 431, 432, 433, and 434 on theuser interface 430, The combination determination unit may determine any one of the character /action combinations 431 in which the user'sselection input 435 is generated as one character body and one action to be used in the three-dimensional content generation process.

어느 하나의 캐릭터/액션 조합(431)이 결정되고 나면, 캐릭터/액션 조합 결정부는 결정된 어느 하나의 캐릭터/액션 조합(431)에 포함되는 어느 하나의 캐릭터 바디에 3차원 얼굴 모델(422)을 정합하여 3차원 캐릭터를 생성한 뒤, 3차원 캐릭터에 어느 하나의 캐릭터/액션 조합(431)에 포함되는 어느 하나의 액션을 적용함으로써, 3차원 컨텐츠(441)를 생성할 수 있다.After determining any one of the character /action combination 431, the character / actioncombination determining unit 432 determines whether the three-dimensional face model 422 matches the character body included in any one of the determined character /action combinations 431Dimensional content 441 by applying any one action included in any one of the character /action combination 431 to the three-dimensional character after creating the three-dimensional character.

이 때, 캐릭터/액션 조합 결정부는 3차원 컨텐츠(441)를 생성함에 있어서, 텍스트(442) 또는 음성을 추가할 수도 있다.At this time, the character / action combination determination unit may add thetext 442 or voice in generating the three-dimensional content 441. [

생성된 3차원 컨텐츠(441)는 도 4c와 같이 사용자 인터페이스(440) 상에 제공됨으로써, 사용자로 하여금 3차원 컨텐츠(441)에 의해 다양한 용도로 사용될 수 있다.The generated three-dimensional content 441 is provided on theuser interface 440 as shown in FIG. 4C, so that the user can use the three-dimensional content 441 for various purposes.

도 5a 내지 5b는 다른 일 실시예에 따른 3차원 컨텐츠를 생성하는 과정에서의 사용자 인터페이스를 나타낸 도면이다. 구체적으로, 도 5a는 어느 하나의 캐릭터 바디를 선택하는 과정에서의 사용자 인터페이스를 나타낸 도면이고, 도 5b는 어느 하나의 액션을 추출하는 과정에서의 사용자 인터페이스를 나타낸 도면이다.5A and 5B are diagrams illustrating a user interface in a process of generating three-dimensional content according to another embodiment. 5A is a diagram illustrating a user interface in a process of selecting a character body, and FIG. 5B is a diagram illustrating a user interface in a process of extracting any action.

도 4a를 참조하여 설명한 바와 같이 3차원 컨텐츠 생성 시스템에 포함되는 3차원 얼굴 모델 획득부가 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하여, 이를 사용자 인터페이스 상에 디스플레이하고 나면, 캐릭터/액션 조합 결정부는 도 5a와 같이 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터 바디들(511, 512)을 사용자 인터페이스(510) 상에 디스플레이할 수 있다.As described with reference to FIG. 4A, the three-dimensional face model acquisition unit included in the three-dimensional content generation system acquires a three-dimensional face model corresponding to the user's face based on the user image of the user's face using the camera of the user terminal After displaying this on the user interface, the character / action combination determination unit may display a plurality ofcharacter bodies 511 and 512 stored in the character / action database on theuser interface 510 as shown in FIG. 5A.

이에, 사용자 인터페이스(510) 상 복수의 캐릭터 바디들(511, 512) 중 어느 하나의 캐릭터 바디에서 사용자의 캐릭터 선택 입력(513)이 발생되면, 캐릭터/액션 조합 결정부는 사용자의 캐릭터 선택 입력(513)이 발생된 어느 하나의 캐릭터 바디(511)를 선택할 수 있다.If thecharacter selection input 513 of the user is generated in the character body of any one of the plurality ofcharacter bodies 511 and 512 on theuser interface 510, the character / action combination determination unit determines thecharacter selection input 513 Thecharacter body 511 can be selected.

어느 하나의 캐릭터 바디(511)가 선택되고 나면, 캐릭터/액션 조합 결정부는 도 5b와 같이 캐릭터/액션 데이터베이스에 저장된 어느 하나의 캐릭터 바디(511)에 매칭되는 액션 세트(521)를 사용자 인터페이스(520) 상에 디스플레이할 수 있다.After selecting any one of thecharacter bodies 511, the character / action combination determining unit determines an action set 521 matching one of thecharacter bodies 511 stored in the character / action database with the user interface 520 ). ≪ / RTI >

따라서, 액션 세트(521)에 포함되는 복수의 액션들(522, 523) 중 사용자의 액션 선택 입력(524)이 발생되면, 캐릭터/액션 조합 결정부는 사용자의 액션 선택 입력(524)이 발생된 어느 하나의 액션(522)을 캐릭터/액션 데이터베이스로부터 추출함으로써, 3차원 컨텐츠 생성 과정에서 이용할 어느 하나의 캐릭터/액션 조합인 어느 하나의 캐릭터 바디(511) 및 어느 하나의 액션(522)을 결정할 수 있다.Accordingly, when a user'saction selection input 524 of the plurality ofactions 522 and 523 included in the action set 521 is generated, the character / action combination determination unit determines whether theaction selection input 524 of the user By extracting oneaction 522 from the character / action database, onecharacter body 511 and oneaction 522, which are combinations of characters / actions to be used in the three-dimensional content generation process, can be determined .

마찬가지로, 어느 하나의 캐릭터/액션 조합인 어느 하나의 캐릭터 바디(511) 및 어느 하나의 액션(522)이 결정되고 나면, 캐릭터/액션 조합 결정부는 어느 하나의 캐릭터 바디(511)에 3차원 얼굴 모델을 정합하여 3차원 캐릭터를 생성한 뒤, 3차원 캐릭터에 어느 하나의 액션(522)을 적용함으로써, 3차원 컨텐츠를 생성하고, 이를 도 4c를 참조하여 설명한 바와 같이 사용자 인터페이스 상에 제공할 수 있다.Likewise, if any one character body /action combination 511 and any oneaction 522 are determined, then the character / action combination determination unit determines whether the character body / Dimensional character to generate a three-dimensional character, and then applying oneaction 522 to the three-dimensional character, thereby generating the three-dimensional content and providing it on the user interface as described with reference to FIG. 4C .

도 6은 일 실시예에 따른 3차원 컨텐츠 생성 방법을 나타낸 플로우 차트이다. 이하, 3차원 컨텐츠 생성 방법은 도 1 내지 5c을 참조하여 상술된 3차원 컨텐츠 생성 시스템에 의해 수행되는 것으로 설명한다. 따라서, 3차원 컨텐츠 생성 방법은 컴퓨터와 결합하는 매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.FIG. 6 is a flowchart illustrating a method for generating a three-dimensional content according to an exemplary embodiment of the present invention. Hereinafter, the three-dimensional content generation method will be described as being performed by the three-dimensional content generation system described above with reference to Figs. 1 to 5C. Thus, the three-dimensional content generation method may be implemented in the form of a computer program stored on a medium coupled to the computer.

도 6을 참조하면, 일 실시예에 따른 3차원 컨텐츠 생성 시스템은 사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득한다(610).Referring to FIG. 6, a 3D content generation system according to an embodiment obtains a 3D face model corresponding to a user's face based on a user image of a user's face using a camera of the user terminal (610).

이어서, 3차원 컨텐츠 생성 시스템은 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정한다(620).The three-dimensional content generation system may further include a character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein one character / And a combination in which any one action is matched (620).

여기서, 캐릭터/액션 데이터베이스에는 어느 하나의 캐릭터 바디를 포함하는 복수의 캐릭터 바디들이 액션 세트들-액션 세트들 중 어느 하나의 액션 세트는 어느 하나의 액션을 포함함-과 각각 매칭되어 저장 및 유지될 수 있다.Here, in the character / action database, a plurality of character bodies including any one character body are stored and held in correspondence with each of the action sets - one of the action sets includes one of the actions. .

이러한 경우, 3차원 컨텐츠 생성 시스템은 620 단계에서, 사용자 인터페이스 상에서 발생되는 사용자의 캐릭터 선택 입력에 응답하여, 캐릭터/액션 데이터베이스에 저장된 어느 하나의 캐릭터 바디를 선택하고, 캐릭터/액션 데이터베이스에 저장된 어느 하나의 캐릭터 바디에 매칭되는 액션 세트 중 사용자의 액션 선택 입력이 발생되는 어느 하나의 액션을 추출함으로써, 어느 하나의 캐릭터 바디 및 어느 하나의 액션을 어느 하나의 캐릭터/액션 조합으로 사용할 수 있다.In this case, instep 620, the 3D content creation system selects one of the character bodies stored in the character / action database in response to the user's character selection input generated on the user interface, A character body and an action can be used as any one character / action combination by extracting any one action from which the user's action selection input is generated from the action set matched with the character body of the character body.

반면에, 캐릭터/액션 데이터베이스에는 복수의 캐릭터 바디들 각각이 액션 세트에 포함되는 액션들과 각각 매칭되어, 캐릭터/액션 조합들을 이루며 저장 및 유지될 수도 있다.On the other hand, in the character / action database, each of the plurality of character bodies may be matched with the actions included in the action set, and may be stored and maintained as character / action combinations.

이러한 경우, 3차원 컨텐츠 생성 시스템은 620 단계에서, 사용자 인터페이스 상에 복수의 캐릭터/액션 조합들을 디스플레이한 뒤, 복수의 캐릭터/액션 조합들 중 사용자의 선택 입력이 발생되는 어느 하나의 캐릭터/액션 조합을 3차원 컨텐츠 생성 과정에서 이용할 캐릭터 바디 및 액션의 조합으로 결정할 수 있다.In this case, the 3D content creation system displays a plurality of character / action combinations on the user interface instep 620, and then selects one of the plurality of character / action combinations in which the user's selection input is generated Can be determined by a combination of a character body and an action to be used in the three-dimensional content creation process.

또한, 620 단계에서, 3차원 컨텐츠 생성 시스템은 어느 하나의 캐릭터/액션 조합을 결정하기 이전에, 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터/액션 조합들 중 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천할 수 있다.In addition, instep 620, the 3D content creation system may assign a character / action combination of a plurality of character / action combinations stored in the character / action database to the user terminal before determining any one of the character / Recommended.

예를 들어, 3차원 컨텐츠 생성 시스템은 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터 바디들 중 어느 하나의 캐릭터 바디를 사용자 단말로 추천하거나, 캐릭터/액션 데이터베이스에 저장된 액션 세트들 중 어느 하나의 액션을 사용자 단말로 추천할 수 있다.For example, the three-dimensional content generation system may recommend a character body of any one of a plurality of character bodies stored in a character / action database to a user terminal, and may use any one of the action sets stored in the character / It can be recommended to the terminal.

이러한 경우, 3차원 컨텐츠 생성 시스템은 사용자의 나이, 성별, 인종, 감정, 사용자의 선호도, 과거 컨텐츠 생성 이력, 지역, 복수의 캐릭터/액션 조합들 각각의 인기도, 사용자와 관련된 다른 사용자의 컨텐츠 생성 이력 또는 복수의 캐릭터/액션 조합들 각각의 광고 비용 중 적어도 어느 하나에 기초하여 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천할 수 있다.In this case, the three-dimensional content generation system may be configured to generate a three-dimensional content based on the user's age, sex, race, emotion, user's preference, past content creation history, region, popularity of each of a plurality of character / action combinations, Or a combination of the plurality of character / action combinations, may be recommended to the user terminal based on at least any one of the character / action combinations.

사용자의 나이, 성별, 인종 또는 감정 중 적어도 어느 하나에 기초하여 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천하는 경우, 3차원 컨텐츠 생성 시스템은 610 단계에서, 사용자 이미지 상에서 사용자 얼굴에 기초하여 사용자의 나이, 성별, 인종 또는 감정 중 적어도 어느 하나를 분석함으로써, 그 결과에 따라 사용자의 나이, 성별, 인종 또는 감정 중 적어도 어느 하나에 기초하여 어느 하나의 캐릭터/액션 조합을 사용자 단말로 추천할 수 있다.In a case where one character / action combination is recommended to the user terminal based on at least one of the age, sex, race, or emotion of the user, the 3D content creation system generates, instep 610, Action combination to the user terminal based on at least one of the age, sex, race, or emotion of the user according to the result of analyzing at least one of the age, sex, race, or emotion of the user have.

그 후, 3차원 컨텐츠 생성 시스템은 3차원 얼굴 모델을 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성한다(630). 구체적으로, 3차원 컨텐츠 생성 시스템은 3차원 얼굴 모델을 어느 하나의 캐릭터 바디에 정합하여 3차원 캐릭터를 생성한 뒤, 3차원 캐릭터에 어느 하나의 액션을 적용하여 3차원 컨텐츠를 생성할 수 있다.Thereafter, the 3D content creation system creates 3D content by matching the 3D face model with any one of the character / action combinations (630). Specifically, the three-dimensional content generation system can create a three-dimensional character by matching a three-dimensional face model to one character body, and then generate three-dimensional content by applying any one action to the three-dimensional character.

이 때, 630 단계에서, 3차원 컨텐츠 생성 시스템은 어느 하나의 캐릭터 바디에 대응하는 스케일 표준 값에 기초하여, 3차원 얼굴 모델의 스케일을 변경함으로써, 스케일이 변경된 3차원 얼굴 모델을 어느 하나의 캐릭터 바디에 정합할 수 있다.At this time, instep 630, the three-dimensional content generation system changes the scale of the three-dimensional face model based on the scale standard value corresponding to one of the character bodies, You can match the body.

또한, 630 단계에서, 3차원 컨텐츠 생성 시스템은 3차원 캐릭터에 어느 하나의 액션을 적용함에 있어서, 텍스트 또는 음성을 추가할 수도 있다.In addition, instep 630, the three-dimensional content generation system may add text or voice in applying any one action to the three-dimensional character.

이와 같이 생성된 3차원 컨텐츠는 사용자 단말로 제공됨으로써, 사용자로 하여금 다양한 용도로 사용될 수 있다.The generated three-dimensional content is provided to the user terminal, so that the user can be used for various purposes.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

Translated fromKorean
사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 단계;
상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-상기 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정하는 단계; 및
상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성하는 단계
를 포함하는 3차원 컨텐츠 생성 방법.
Acquiring a three-dimensional face model corresponding to the user's face based on a user image of the user's face using a camera of the user terminal;
One character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein the one character / action combination comprises any one character body and any one action Means a matched combination; And
Generating three-dimensional content by matching the three-dimensional face model with any one of the character / action combinations;
Dimensional content.
제1항에 있어서,
상기 캐릭터/액션 데이터베이스에는,
상기 어느 하나의 캐릭터 바디를 포함하는 복수의 캐릭터 바디들이 액션 세트들-상기 액션 세트들 중 어느 하나의 액션 세트는 상기 어느 하나의 액션을 포함함-과 각각 매칭되어 저장 및 유지되는, 3차원 컨텐츠 생성 방법.
The method according to claim 1,
In the character / action database,
Wherein a plurality of character bodies including any one of the character bodies is associated with and stored in an action set, and wherein any one of the action sets includes any one of the actions. Generation method.
제2항에 있어서,
상기 캐릭터/액션 데이터베이스에는,
상기 복수의 캐릭터 바디들 각각이 액션 세트에 포함되는 액션들과 각각 매칭되어, 캐릭터/액션 조합들을 이루며 저장 및 유지되는, 3차원 컨텐츠 생성 방법.
3. The method of claim 2,
In the character / action database,
Wherein each of the plurality of character bodies matches each of the actions included in the action set, and is stored and maintained as character / action combinations.
제1항에 있어서,
상기 어느 하나의 캐릭터/액션 조합을 결정하는 단계는,
상기 사용자 인터페이스 상에서 발생되는 상기 사용자의 캐릭터 선택 입력에 응답하여, 상기 캐릭터/액션 데이터베이스에 저장된 상기 어느 하나의 캐릭터 바디를 선택하는 단계;
상기 캐릭터/액션 데이터베이스에 저장된 상기 어느 하나의 캐릭터 바디에 매칭되는 액션 세트 중 상기 사용자의 액션 선택 입력이 발생되는 어느 하나의 액션을 추출하는 단계; 및
상기 어느 하나의 캐릭터 바디 및 상기 어느 하나의 액션을 상기 어느 하나의 캐릭터/액션 조합으로 사용하는 단계
를 포함하는 3차원 컨텐츠 생성 방법.
The method according to claim 1,
Wherein the determining of any one of the character / action combinations comprises:
Selecting one of the character bodies stored in the character / action database in response to the user's character selection input generated on the user interface;
Extracting an action in which the action selection input of the user is generated from among the action sets matched to any one of the character bodies stored in the character / action database; And
Using any one of the character bodies and any one of the actions as any one of the character / action combinations
Dimensional content.
제1항에 있어서,
상기 3차원 컨텐츠를 생성하는 단계는,
상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터 바디에 정합하여 3차원 캐릭터를 생성하는 단계; 및
상기 3차원 캐릭터에 상기 어느 하나의 액션을 적용하여 상기 3차원 컨텐츠를 생성하는 단계
를 포함하는 3차원 컨텐츠 생성 방법.
The method according to claim 1,
Wherein the generating of the three-
Generating a three-dimensional character by matching the three-dimensional face model with any one of the character bodies; And
Generating three-dimensional contents by applying any one of the actions to the three-dimensional character
Dimensional content.
제5항에 있어서,
상기 3차원 캐릭터를 생성하는 단계는,
상기 어느 하나의 캐릭터 바디에 대응하는 스케일 표준 값에 기초하여, 상기 3차원 얼굴 모델의 스케일을 변경하는 단계; 및
상기 스케일이 변경된 3차원 얼굴 모델을 상기 어느 하나의 캐릭터 바디에 정합하는 단계
를 포함하는 3차원 컨텐츠 생성 방법.
6. The method of claim 5,
Wherein the step of generating the three-
Changing a scale of the three-dimensional face model based on a scale standard value corresponding to any one of the character bodies; And
A step of matching the scaled three-dimensional face model to one of the character bodies
Dimensional content.
제5항에 있어서,
상기 3차원 컨텐츠를 생성하는 단계는,
상기 3차원 캐릭터에 상기 어느 하나의 액션을 적용함에 있어서, 텍스트 또는 음성을 추가하는 단계
를 더 포함하는 3차원 컨텐츠 생성 방법.
6. The method of claim 5,
Wherein the generating of the three-
In applying the action to any one of the three-dimensional characters, a step of adding text or voice
Further comprising the steps of:
제1항에 있어서,
상기 어느 하나의 캐릭터/액션 조합을 결정하는 단계는,
상기 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터/액션 조합들 중 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계
를 더 포함하는 3차원 컨텐츠 생성 방법.
The method according to claim 1,
Wherein the determining of any one of the character / action combinations comprises:
Recommending any one of the character / action combinations among the plurality of character / action combinations stored in the character / action database to the user terminal
Further comprising the steps of:
제8항에 있어서,
상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계는,
상기 캐릭터/액션 데이터베이스에 저장된 복수의 캐릭터 바디들 중 상기 어느 하나의 캐릭터 바디를 상기 사용자 단말로 추천하는 단계; 및/또는
상기 캐릭터/액션 데이터베이스에 저장된 액션 세트들 중 상기 어느 하나의 액션을 상기 사용자 단말로 추천하는 단계
중 적어도 어느 하나의 단계를 포함하는 3차원 컨텐츠 생성 방법.
9. The method of claim 8,
The recommending of any one of the character / action combinations to the user terminal comprises:
Recommending any one of the plurality of character bodies stored in the character / action database to the user terminal; And / or
Recommending any one of the action sets stored in the character / action database to the user terminal
The method comprising the steps of:
제8항에 있어서,
상기 3차원 얼굴 모델을 획득하는 단계는,
상기 사용자 이미지 상에서 상기 사용자 얼굴에 기초하여 상기 사용자의 나이, 성별, 인종 또는 감정 중 적어도 어느 하나를 분석하는 단계
를 더 포함하고,
상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계는,
상기 사용자의 나이, 성별, 인종 또는 감정 중 적어도 어느 하나에 기초하여, 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계
를 포함하는 3차원 컨텐츠 생성 방법.
9. The method of claim 8,
Wherein acquiring the three-dimensional face model comprises:
Analyzing at least one of the age, sex, race, or emotion of the user based on the user's face on the user image
Further comprising:
The recommending of any one of the character / action combinations to the user terminal comprises:
Recommending any one of the character / action combinations to the user terminal based on at least one of the age, sex, race, or emotion of the user
Dimensional content.
제8항에 있어서,
상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계는,
상기 사용자의 선호도, 과거 컨텐츠 생성 이력, 지역, 상기 복수의 캐릭터/액션 조합들 각각의 인기도, 상기 사용자와 관련된 다른 사용자의 컨텐츠 생성 이력 또는 상기 복수의 캐릭터/액션 조합들 각각의 광고 비용 중 적어도 어느 하나에 기초하여, 상기 어느 하나의 캐릭터/액션 조합을 상기 사용자 단말로 추천하는 단계
를 포함하는 3차원 컨텐츠 생성 방법.
9. The method of claim 8,
The recommending of any one of the character / action combinations to the user terminal comprises:
At least one of the user's preference, past content creation history, region, popularity of each of the plurality of character / action combinations, content creation history of other users related to the user, or advertisement cost of each of the plurality of character / Recommending any one of the character / action combinations to the user terminal based on the one
Dimensional content.
제1항에 있어서,
상기 3차원 컨텐츠를 상기 사용자 단말로 제공하는 단계
를 더 포함하는 3차원 컨텐츠 생성 방법.
The method according to claim 1,
Providing the 3D content to the user terminal
Further comprising the steps of:
전자 기기를 구현하는 컴퓨터와 결합하여 3차원 컨텐츠 생성 방법을 실행시키기 위해 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 3차원 컨텐츠 생성 방법은,
사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 단계;
상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-상기 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정하는 단계; 및
상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성하는 단계
를 포함하는 컴퓨터 프로그램.
A computer program stored in a medium for executing a method for generating a three-dimensional content in combination with a computer embodying an electronic apparatus,
The three-dimensional content generation method includes:
Acquiring a three-dimensional face model corresponding to the user's face based on a user image of the user's face using a camera of the user terminal;
One character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein the one character / action combination comprises any one character body and any one action Means a matched combination; And
Generating three-dimensional content by matching the three-dimensional face model with any one of the character / action combinations;
≪ / RTI >
사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 3차원 얼굴 모델 획득부;
상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 선택 입력에 응답하여, 캐릭터/액션 데이터베이스로부터 어느 하나의 캐릭터/액션 조합-상기 어느 하나의 캐릭터/액션 조합은 어느 하나의 캐릭터 바디 및 어느 하나의 액션이 매칭된 조합을 의미함-을 결정하는 캐릭터/액션 조합 결정부; 및
상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터/액션 조합에 정합하여 3차원 컨텐츠를 생성하는 3차원 컨텐츠 생성부
를 포함하는 3차원 컨텐츠 생성 시스템.
A three-dimensional face model acquisition unit for acquiring a three-dimensional face model corresponding to the user's face based on a user image of the user's face using a camera of the user terminal;
One character / action combination from the character / action database in response to a user's selection input generated on the user interface of the user terminal, wherein the one character / action combination comprises any one character body and any one action A character / action combination determining unit for determining a matching combination; And
A 3D content generation unit for generating 3D content by matching the 3D face model with any one of the character /
Dimensional content generation system.
사용자 단말의 카메라를 이용하여 사용자 얼굴이 촬영된 사용자 이미지를 기초로 상기 사용자 얼굴에 대응하는 3차원 얼굴 모델을 획득하는 3차원 얼굴 모델 획득부;
상기 사용자 단말의 사용자 인터페이스 상에서 발생되는 사용자의 캐릭터 선택 입력에 응답하여, 캐릭터/액션 데이터베이스에 저장된 어느 하나의 캐릭터 바디를 선택하고, 상기 캐릭터/액션 데이터베이스에 저장된 상기 어느 하나의 캐릭터 바디에 매칭되는 액션 세트 중 상기 사용자의 액션 선택 입력이 발생되는 어느 하나의 액션을 추출하여, 상기 어느 하나의 캐릭터 바디 및 상기 어느 하나의 액션을 결정하는 캐릭터/액션 조합 결정부; 및
상기 3차원 얼굴 모델을 상기 어느 하나의 캐릭터 바디에 정합하여 3차원 캐릭터를 생성하고, 상기 3차원 캐릭터에 상기 어느 하나의 액션을 적용하여 3차원 컨텐츠를 생성하는 3차원 컨텐츠 생성부
를 포함하는 3차원 컨텐츠 생성 시스템.
A three-dimensional face model acquisition unit for acquiring a three-dimensional face model corresponding to the user's face based on a user image of the user's face using a camera of the user terminal;
An action selecting unit for selecting one of the character bodies stored in the character / action database in response to a user's character selection input generated on the user interface of the user terminal, and an action matching one of the character bodies stored in the character / A character / action combination determining unit for extracting any one action from which the action selection input of the user is generated in the set, and determining the character body and any one of the actions; And
A three-dimensional content generation unit for generating a three-dimensional character by matching the three-dimensional face model with any one of the character bodies, and applying the one action to the three-
Dimensional content generation system.
KR1020170024690A2017-02-242017-02-24Method and syste for creating three dimension contentsWithdrawnKR20180097914A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020170024690AKR20180097914A (en)2017-02-242017-02-24Method and syste for creating three dimension contents

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020170024690AKR20180097914A (en)2017-02-242017-02-24Method and syste for creating three dimension contents

Publications (1)

Publication NumberPublication Date
KR20180097914Atrue KR20180097914A (en)2018-09-03

Family

ID=63600955

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020170024690AWithdrawnKR20180097914A (en)2017-02-242017-02-24Method and syste for creating three dimension contents

Country Status (1)

CountryLink
KR (1)KR20180097914A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20230060432A (en)*2021-10-272023-05-04김상철Metaverse service server to provide a metaverse service that recommends 3d avatars that can be used on the metaverse in a customized way and the operating method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20230060432A (en)*2021-10-272023-05-04김상철Metaverse service server to provide a metaverse service that recommends 3d avatars that can be used on the metaverse in a customized way and the operating method thereof

Similar Documents

PublicationPublication DateTitle
US11798261B2 (en)Image face manipulation
US11830118B2 (en)Virtual clothing try-on
US11960651B2 (en)Gesture-based shared AR session creation
US20230377291A1 (en)Generating augmented reality content based on third-party content
US11521362B2 (en)Messaging system with neural hair rendering
EP4173266B1 (en)Camera user interface to generate content
US12293444B2 (en)Music reactive animation of human characters
JP7299414B2 (en) Image processing method, device, electronic device and computer program
US11347932B2 (en)Decoupling website service from presentation layer
KR20180097915A (en)Method for generating personalized three dimension face model and apparatus therefor
US12136153B2 (en)Messaging system with augmented reality makeup
US11995677B2 (en)Augmented reality content items to track user activity and redeem promotions
US11947628B2 (en)Neural networks for accompaniment extraction from songs
US20240020920A1 (en)Incremental scanning for custom landmarkers
KR20180097914A (en)Method and syste for creating three dimension contents
US11922587B2 (en)Dynamic augmented reality experience
CN113454673B (en)Information processing device and program
KR20180082171A (en)Method and syste for creating three dimension character
US12118148B1 (en)EMG-based speech detection and communication
CN116958447A (en)Automatic meta-universe character generation system and method based on Internet of things
KR20190115621A (en)Method and apparatus of displaying virtual reality based artwork
KR20190074560A (en)Method and system for object personification and interaction

Legal Events

DateCodeTitleDescription
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20170224

PG1501Laying open of application
PC1203Withdrawal of no request for examination

[8]ページ先頭

©2009-2025 Movatter.jp