Movatterモバイル変換


[0]ホーム

URL:


KR101992424B1 - Apparatus for making artificial intelligence character for augmented reality and service system using the same - Google Patents

Apparatus for making artificial intelligence character for augmented reality and service system using the same
Download PDF

Info

Publication number
KR101992424B1
KR101992424B1KR1020180014492AKR20180014492AKR101992424B1KR 101992424 B1KR101992424 B1KR 101992424B1KR 1020180014492 AKR1020180014492 AKR 1020180014492AKR 20180014492 AKR20180014492 AKR 20180014492AKR 101992424 B1KR101992424 B1KR 101992424B1
Authority
KR
South Korea
Prior art keywords
character
artificial intelligence
unit
voice
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180014492A
Other languages
Korean (ko)
Inventor
유승재
Original Assignee
(주)페르소나시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)페르소나시스템filedCritical(주)페르소나시스템
Priority to KR1020180014492ApriorityCriticalpatent/KR101992424B1/en
Priority to PCT/KR2018/015964prioritypatent/WO2019156332A1/en
Application grantedgrantedCritical
Publication of KR101992424B1publicationCriticalpatent/KR101992424B1/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명의 실시 예에 따른 증강현실용 인공지능 캐릭터를 제작하기 위한 전자장치는 사용자 단말기 및 웹으로부터 인공지능 캐릭터 생성에 요구되는 정보를 수신하고, 사용자 단말기에 완성된 인공지능 캐릭터를 이용한 서비스 콘텐츠를 전송하는 통신부, 인공지능 캐릭터 생성에 요구되는 캐릭터 제작 데이터를 저장하는 저장부, 음성 인식을 위해 제작자의 음성을 입력받고, 인공지능 캐릭터의 답변 내용을 음성으로 출력하는 오디오 처리부 및 음성으로 입력된 제작자의 명령을 인식하고 상기 명령에 기반하여 인공지능 캐릭터를 생성하는 제어부를 포함하고, 상기 제어부는 입력된 음성을 분석하고, 해당 음성의 의미를 판단하는 음성 인식 처리부 및 상기 음성 인식부에 의해 인식된 제작자의 음성 내용 중 캐릭터 생성과 관련된 명령을 추출하고, 추출된 명령과 매칭되는 프로그램 언어를 이용하여 캐릭터 생성을 수행하는 캐릭터 생성부를 포함할 수 있다.An electronic device for producing an artificial intelligent character for an augmented reality according to an embodiment of the present invention receives information required for artificial intelligent character generation from a user terminal and a web and generates a service content using a completed artificial intelligent character in a user terminal A storage unit for storing character production data required to generate an artificial intelligent character, an audio processor for receiving the voice of the producer for voice recognition, an audio processor for outputting the answer contents of the artificial intelligent character by voice, And a control unit for recognizing an instruction of the user and generating an artificial intelligent character based on the command, wherein the control unit comprises: a voice recognition processor for analyzing the inputted voice and determining the meaning of the voice; Extracts a command related to character creation from the producer's voice contents, Use the matching exported commands and programming language which may include a character created to perform the character creation.

Description

Translated fromKorean
증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템{APPARATUS FOR MAKING ARTIFICIAL INTELLIGENCE CHARACTER FOR AUGMENTED REALITY AND SERVICE SYSTEM USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to an apparatus for producing an artificial intelligence character for an augmented reality, and a service system using the artificial intelligence character.

본 발명은 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템에 관한 것이다.BACKGROUND OF THEINVENTION 1. Field of the Invention The present invention relates to an artificial intelligent character production apparatus for augmented reality and a service system using the same.

현실의 이미지나 배경에 3차원의 가상 이미지를 겹쳐 하나의 영상으로 보여주는 기술을 증강현실(Augmented Reality; AR)이라고 한다. 이러한 증강현실의 대표적인 활용 예로는 길 안내 기능이 있다. 이러한 증강현실을 이용한 길 안내 기능은 증강현실 어플리케이션을 통해 길거리를 촬영하면, 목적지까지 가능 방향을 실제 배경 위에 가상의 화살표로 표시하는 방식으로 구현되고 있다.Augmented Reality (AR) is a technique of superimposing three-dimensional virtual images on a realistic image or background in a single image. A typical application example of such augmented reality is a route guidance function. When the street is photographed through the augmented reality application, the route guidance function using the augmented reality is implemented in such a manner that a possible direction to a destination is indicated by a virtual arrow on an actual background.

증강현실은 활용도가 매우 다양하며 디지털 기기의 발달과 함께 그 활용가치가 더욱 증대될 것으로 예상되는 바이다. 그러나 현재 증강현실 기술의 이용은 매우 제한적인 실정이다. 증강현실 책(스마트 기기로 실물 책자를 비추면 증강현실 애니메이션이 구현되는 기능을 제공함)과 같이 동적인 영상을 증강현실과 함께 제공하려는 시도가 계속해서 이루어지고는 있으나, 이는 정해진 동작에 한하여 액션을 취하고 사라지는 매우 단순한 방식의 기술로서 교육용으로만 사용되고 있다.The augmented reality is widely used, and it is expected that the use value of the augmented reality will increase with the development of digital devices. However, the use of augmented reality technology is very limited. Attempts have been made to provide dynamic images with augmented reality, such as augmented reality book (which provides the function of realizing augmented reality animation by illuminating a real book with a smart device) It is a very simple method of taking and disappearing and is used only for educational purposes.

한편, 증강현실용 캐릭터와 관련된 선행기술로는 공개특허공보 10-2015-0057424(증강현실 아바타 상호작용 방법 및 시스템)이 있다.On the other hand, JP-A-10-2015-0057424 (augmented reality avatar interaction method and system) is a prior art related to augmented reality character.

본 발명은 증강현실(AR) 상에서 구현되는 소통 가능한 인공지능 캐릭터를 제공하고, 이를 이용하여 사용자의 니즈를 보다 정확히 파악하며, 증강현실상의 캐릭터를 통해 보다 명확하고 생동감 넘치는 서비스를 제공하기 위해 고안되었다.The present invention is designed to provide a communicable artificial intelligence character implemented on an augmented reality (AR), more accurately grasp a user's needs by using the artificial intelligence character, and to provide a clearer and more lively service through a character in the augmented reality .

본 발명의 실시 예에 따른 증강현실용 인공지능 캐릭터를 제작하기 위한 전자장치는 사용자 단말기 및 웹으로부터 인공지능 캐릭터 생성에 요구되는 정보를 수신하고, 사용자 단말기에 완성된 인공지능 캐릭터를 이용한 서비스 콘텐츠를 전송하는 통신부, 인공지능 캐릭터 생성에 요구되는 캐릭터 제작 데이터를 저장하는 저장부, 음성 인식을 위해 제작자의 음성을 입력받고, 인공지능 캐릭터의 답변 내용을 음성으로 출력하는 오디오 처리부 및 음성으로 입력된 제작자의 명령을 인식하고 상기 명령에 기반하여 인공지능 캐릭터를 생성하는 제어부를 포함하고, 상기 제어부는 입력된 음성을 분석하고, 해당 음성의 의미를 판단하는 음성 인식 처리부 및 상기 음성 인식부에 의해 인식된 제작자의 음성 내용 중 캐릭터 생성과 관련된 명령을 추출하고, 추출된 명령과 매칭되는 프로그램 언어를 이용하여 캐릭터 생성을 수행하는 캐릭터 생성부를 포함할 수 있다.An electronic device for producing an artificial intelligent character for an augmented reality according to an embodiment of the present invention receives information required for artificial intelligent character generation from a user terminal and a web and generates a service content using a completed artificial intelligent character in a user terminal A storage unit for storing character production data required to generate an artificial intelligent character, an audio processor for receiving the voice of the producer for voice recognition, an audio processor for outputting the answer contents of the artificial intelligent character by voice, And a control unit for recognizing an instruction of the user and generating an artificial intelligent character based on the command, wherein the control unit comprises: a voice recognition processor for analyzing the inputted voice and determining the meaning of the voice; Extracts a command related to character creation from the producer's voice contents, Use the matching exported commands and programming language which may include a character created to perform the character creation.

본 발명은 증강현실상에서 인공지능 캐릭터를 이용해 사용자 요청에 대한 답변 서비스를 제공하므로 실제 소통하는 것과 같은 효과를 제공할 수 있다.The present invention provides an answer service for a user request using an artificial intelligence character on an augmented reality, thereby providing the same effect as actually communicating.

또한 본 발명은 인공지능 캐릭터를 음성으로 그 외형을 제작하거나 변경할 수 있도록 하므로 보다 수월한 방식으로 다양한 모습의 인공지능 캐릭터를 생성할 수 있다.In addition, since the present invention enables the artificial intelligent character to produce or change its appearance by voice, various artificial intelligent characters can be created in a more straightforward manner.

또한 본 발명은 제작자 설정에 따라 인공지능 캐릭터를 기 설정된 시간 간격에 따라 다양하게 생성할 수 있다.Also, according to the present invention, the artificial intelligent character can be variously generated according to the predetermined time interval according to the manufacturer setting.

또한 본 발명은 사용자 선호도에 대응하는 인공지능 캐릭터의 설정값을 도출하고 이를 이용하여 인공지능 캐릭터를 생성하여 제공할 수 있다.In addition, the present invention can derive a set value of an artificial intelligent character corresponding to a user's preference and generate and provide an artificial intelligent character using the derived value.

도 1은 본 발명의 실시 예에 따른 증강현실용 인공지능 캐릭터의 제작 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 실시 예에 따른 캐릭터 생성부 172의 구성을 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 증강현실 영상 생성부 173의 구성을 도시한 블록도이다.
도 4는 본 발명의 실시 예에 따른 사용자 단말기의 구성을 도시한 블록도이다.
도 5는 본 발명의 실시 예에 따른 인공지능 캐릭터의 활용 모습을 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 인공지능 캐릭터와 대화하기 위한 동작을 도시하는 도면이다.
도 7은 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 동작에 관하여 도시하는 도면이다.
도 8은 본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치에서 분야별 인공지능 캐릭터를 제작하는 동작을 도시한 도면이다.
도 9는 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 과정에 대하여 도시한 순서도이다.
도 10은 본 발명의 실시 예에 따른 자동생성부의 구성을 도시한 블록도이다.
도 11a 및 도 11b는 본 발명의 실시 예에 따른 인공지능에 의해 추가의 인공지능 캐릭터가 생성되는 동작에 관하여 도시한 도면이다.
1 is a block diagram showing a configuration of an apparatus for producing an artificial intelligence character for an augmented reality according to an embodiment of the present invention.
2 is a block diagram showing a configuration of acharacter generating unit 172 according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of an augmented realityimage generation unit 173 according to an embodiment of the present invention.
4 is a block diagram illustrating a configuration of a user terminal according to an embodiment of the present invention.
5 is a view showing an application of an artificial intelligence character according to an embodiment of the present invention.
6 is a diagram illustrating an operation for communicating with an artificial intelligence character according to an embodiment of the present invention.
7 is a diagram showing an operation for producing an artificial intelligence character by voice according to the embodiment of the present invention.
FIG. 8 is a diagram illustrating an operation for producing artificial intelligence characters for each field in the artificial intelligence character producing apparatus according to the embodiment of the present invention.
FIG. 9 is a flowchart illustrating a process of producing an artificial intelligence character by voice according to an embodiment of the present invention.
10 is a block diagram showing a configuration of an automatic generation unit according to an embodiment of the present invention.
11A and 11B are diagrams illustrating an operation in which an artificial intelligence character is generated by artificial intelligence according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 본 명세서에서, 디바이스는 게이트웨이(gateway)에 연결되어 IoT(Internet of Things)에 적용되는 일반적인 장치(또는 사물)일 수 있다. 예를 들어, 디바이스는, 무선 호출기, 스마트폰, 태블릿 PC, 컴퓨터, 온도 센서, 습도 센서, 음향 센서, 모션 센서, 근접 센서, 가스 감지 센서, 열 감지 센서, 냉장고, CCTV, TV, 세탁기, 제습기, 전등, 화재 경보기 등을 포함할 수 있다. 그러나, 이에 제한되지 않는다.Also, in this specification, a device may be a general device (or object) connected to a gateway and applied to the Internet of Things (IoT). For example, the device may be a wireless pager, a smart phone, a tablet PC, a computer, a temperature sensor, a humidity sensor, a sound sensor, a motion sensor, a proximity sensor, a gas sensor, a heat sensor, a refrigerator, , A lamp, a fire alarm, and the like. However, it is not limited thereto.

또한, 본 명세서에서 디바이스(device)는 “기기” 또는 “장치”와 혼용될 수 있으며, “디바이스”, “기기” 및 “장치”는 동일한 표현으로 기재되어 있을 수 있다.Also, devices herein may be interchanged with "devices" or "devices", and "devices", "devices" and "devices" may be described in the same language.

또한, 본 명세서에서, 서비스(service)는 디바이스에서 수행할 수 있는 다양한 서비스를 포함할 수 있다. 서비스는 서버 또는 타 디바이스와의 통신에 기초한 서비스, 디바이스 내에서 동작 가능한 서비스를 포함할 수 있다. 본 개시에 적용되는 서비스는 본 개시에 예로서 기재된 서비스 이외에도 디바이스에서 수행할 수 있는 다양한 서비스들을 포함하는 넓은 개념으로 이해함이 바람직하다.Also, in this specification, a service may include various services that can be performed in a device. A service may include a service based on communication with a server or other device, and a service operable in the device. It is desirable that the service applied to the present disclosure be understood in broad terms to include various services that can be performed in the device in addition to the services described by way of example in this disclosure.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, the same reference numerals will be used for the same constituent elements in the drawings, and redundant explanations for the same constituent elements will be omitted.

이하에서는 도 1 내지 도 3을 참조하여 증강현실용 인공지능 캐릭터의 제작을 수행하는 장치에 대하여 설명하기로 한다.Hereinafter, an apparatus for producing an artificial intelligence character for augmented reality will be described with reference to FIGS. 1 to 3. FIG.

도 1은 본 발명의 실시 예에 따른 증강현실용 인공지능 캐릭터의 제작 장치의 구성을 도시한 블록도이다.1 is a block diagram showing a configuration of an apparatus for producing an artificial intelligence character for an augmented reality according to an embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 캐릭터 생성부 172의 구성을 도시한 블록도이다.2 is a block diagram showing a configuration of acharacter generating unit 172 according to an embodiment of the present invention.

도 3은 본 발명의 실시 예에 따른 증강현실 영상 생성부 173의 구성을 도시한 블록도이다.3 is a block diagram illustrating a configuration of an augmented realityimage generation unit 173 according to an embodiment of the present invention.

본 발명의 실시 예에 따른 상기 제작 장치 100는 인공지능 캐릭터 제작자용 단말기를 의미할 수 있다. 또한 다양한 실시 예에 따라 상기 제작 장치 100는 사용자 단말기 측에서 실행되는 인공지능 캐릭터 관련 어플리케이션을 지원하는 운영서버의 기능을 포함할 수 있다.Themanufacturing apparatus 100 according to the embodiment of the present invention may be an artificial intelligence character creator terminal. Also, according to various embodiments, theauthoring apparatus 100 may include a function of an operation server supporting an artificial intelligence character related application executed on the user terminal side.

상기 제작 장치 100는 제작용 단말기과 운용 서버가 분리된 형태로 구현될 수도 있다. 그러나 본 명세서에서는 상기 제작 장치 100는 제작 단말기 및 운용 서버의 역할을 동시에 수행할 수 있는 형태로 구현됨을 가정하기로 한다.Theproduction apparatus 100 may be realized by separating the production terminal and the production server. However, in the present specification, it is assumed that themanufacturing apparatus 100 is implemented in a form capable of simultaneously performing a role of a production terminal and a production server.

도 1을 참조하면 본 발명의 실시 예에 따른 제작 장치는 통신부 110, 저장부 120, 입력부 130, 표시부 140, 오디오처리부 150, 카메라부 160, 제어부 170를 포함하여 구성될 수 있다.Referring to FIG. 1, a manufacturing apparatus according to an embodiment of the present invention may include a communication unit 110, astorage unit 120, aninput unit 130, adisplay unit 140, anaudio processing unit 150, acamera unit 160, and acontroller 170.

상기 저장부 120는 대화 데이터 121, 룰 데이터 122, 매칭프로그램 언어 123, 캐릭터 제작 데이터 124, 지정 정보 125 및 사용자 식별 정보 126을 포함하여 저장될 수 있다.Thestorage unit 120 may store thedialog data 121, therule data 122, thematching program language 123, thecharacter production data 124, thedesignation information 125, and theuser identification information 126.

그리고 상기 제어부 170는 음성인식 처리부 171, 캐릭터 생성부 172, 증강현실 영상 생성부173, 자동 생성부 174, 인공지능 관리부 175, 인공지능 캐릭터 운영부 176, 선호정보 판단부 177를 포함하여 구성될 수 있다.Thecontroller 170 may include avoice recognition processor 171, acharacter generator 172, an augmentedreality image generator 173, anautomatic generator 174, anartificial intelligence controller 175, an artificialintelligence character manager 176, and a preference information determiner 177 .

상기 통신부 110는 사용자 단말기와 서버 간의 데이터 송수신을 위해 네트워크를 이용할 수 있으며 상기 네트워크의 종류는 특별히 제한되지 않는다. 상기 네트워크는 예를 들어, 인터넷 프로토콜(IP)을 통하여 대용량 데이터의 송수신 서비스를 제공하는 아이피(IP: Internet Protocol)망 또는 서로 다른 IP 망을 통합한 올 아이피(All IP) 망 일 수 있다. 또한, 상기 네트워크는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE(Long Term Evolution) 망을 포함하는 이동통신망, LTE advanced(LTE-A), 5G(Five Generation)를 포함하는 이동통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중 하나 이거나 또는 이들 중 적어도 하나 이상을 결합하여 이루어질 수 있다.The communication unit 110 may use a network for transmitting and receiving data between a user terminal and a server, and the type of the network is not particularly limited. The network may be, for example, an IP (Internet Protocol) network that provides a large capacity data transmission / reception service through an Internet Protocol (IP) or an All IP network that integrates different IP networks. The network may be a mobile communication network including a wired network, a Wibro (Wireless Broadband) network, a mobile communication network including a WCDMA, a High Speed Downlink Packet Access (HSDPA) network and an LTE (Long Term Evolution) network, ), A 5G (Five Generation) mobile communication network, a satellite communication network, and a Wi-Fi network, or a combination of at least one of them.

본 발명의 실시 예에 따른 상기 통신부 110는 인공지능 캐릭터의 답변 항목에 대한 정보를 웹 서버로부터 수신하는 동작을 수행할 수 있다. 또한 상기 통신부 110는 생성된 인공지능 캐릭터가 증강현실용으로 구현되기 위해 요구되는 위치 등의 트리거 정보를 웹 서버로부터 수신할 수 있다. 또한 상기 통신부 110는 생성된 인공지능 캐릭터의 영상 정보를 사용자 단말기측에 전송하고, 사용자 단말기에서 전달되는 질문 정보를 수신할 수 있다. 이 외에도 상기 통신부 110는 사용자 단말기측에서 전송되는 사용자 정보 및 인공지능 캐릭터의 외형 변경 요청 등에 대한 설정 정보를 수신할 수 있다.The communication unit 110 according to the embodiment of the present invention may perform an operation of receiving information about an answer item of the artificial intelligent character from a web server. Also, the communication unit 110 can receive trigger information such as a position required for the generated AI to be implemented for the augmented reality from the web server. Also, the communication unit 110 may transmit the generated image information of the artificial intelligence character to the user terminal and receive the question information transmitted from the user terminal. In addition, the communication unit 110 may receive setting information on the user information transmitted from the user terminal and the appearance change request of the AI character.

상기 저장부 120는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.Thestorage unit 120 may include, for example, an internal memory or an external memory. The internal memory may be, for example, a volatile memory (e.g., dynamic RAM, SRAM, or synchronous dynamic RAM (SDRAM)), a non-volatile memory (e.g., an OTPROM time programmable ROM (ROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash) Or a solid state drive (SSD).

외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치와 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory may be a flash drive such as a compact flash (CF), a secure digital (SD), a micro secure digital (SD), a mini secure digital (SD), an extreme digital A multi-media card (MMC), a memory stick, or the like. The external memory may be functionally and / or physically connected to the electronic device through various interfaces.

본 발명의 실시 예에 따른 상기 저장부 120는 대화 데이터 121, 룰 데이터 122, 매칭 프로그램 언어 123, 캐릭터 제작 데이터 124, 지정 정보 125, 사용자 식별 정보 126을 포함하여 저장할 수 있다.Thestorage unit 120 according to an exemplary embodiment of the present invention may store thedialog data 121, therule data 122, thematching program language 123, thecharacter production data 124, thespecification information 125, and theuser identification information 126.

상기 대화 데이터 121는 인공지능 캐릭터가 사용자의 질문에 응답할 답변에 관한 정보를 포함할 수 있다. 상기 대화 데이터 121는 예컨대, '질문-답변'의 목록 형태로 저장되어 있을 수 있다. 이에 따라 상기 제어부 170는 사용자로부터 요청된 질문에 대응하는 답변 항목을 추출하여 해당하는 답변을 출력할 수 있게 된다. 또한 상기 대화 데이터 121는 미답변 내역에 관한 정보를 포함할 수 있다. 사용자로부터 수신된 질문 내용중 기존에 적당한 대응 답변이 존재하지 않았던 항목들을 별도로 분류하여 저장할 수 있다. 또한 상기 대화 데이터 121는 사용자와 인공지능 캐릭터가 수행한 대화 이력, 대화 내역등에 대한 정보를 포함할 수 있다. 대화 이력 및 대화 내역 등의 기록을 통해 제어부 170는 사용자가 어떤 분야에 대한 관심이 있는지에 대한 정보를 획득할 수 있다.Theconversation data 121 may include information about an answer that the AI character will answer the user's question. Theconversation data 121 may be stored as a list of 'question-answers', for example. Accordingly, thecontroller 170 extracts an answer item corresponding to a question requested by the user and outputs a corresponding answer. In addition, theconversation data 121 may include information on the non-answer details. Items that have not previously existed as a proper response answer among the question contents received from the user can be separately classified and stored. Theconversation data 121 may include information on conversation history, conversation history, and the like performed by the user and the artificial intelligence character. Through the recording of the conversation history and the conversation history, thecontrol unit 170 can acquire information as to which field the user is interested in.

룰 데이터 122는 인공지능 캐릭터가 사용자의 질문에 올바르게 응답하기 위해 요구되는 데이터이다. 상기 룰 데이터 122는 인공지능 캐릭터가 사용자의 질문을 보다 정확하게 인식하기 위한 룰을 포함할 수 있다. 예컨대, 상기 룰 데이터 122는 사용자로부터 입력된 질문 내용을 형태소 단위로 분석에 의해 자연어 처리를 수행하는 것과 관련된 룰을 포함할 수 있다. 또한 상기 룰 데이터 122는 인공지능을 이용하여 사용자 질문 내용을 분석하기 위해 요구되는 룰을 포함할 수 있다. 인공 지능을 이용한 질문 내용 분석을 위해서는 상기 룰 데이터 122 외에 웹으로부터 다양한 동의어, 유사어를 포함하는 사전적 어휘 및 유사표현 정보를 수집하는 동작이 더 요구될 수 있다. Therule data 122 is data required for the AI character to properly respond to the user's question. Therule data 122 may include rules for the artificial intelligence character to more accurately recognize the user's question. For example, therule data 122 may include a rule related to natural language processing by analyzing the question content inputted from the user in morphological units. Therule data 122 may also include rules required to analyze user question content using artificial intelligence. In order to analyze the question contents using the artificial intelligence, an operation of collecting dictionary words and similar expression information including various synonyms, synonyms, and the like may be further required from the web in addition to therule data 122.

매칭 프로그램 언어 123는 제작자 또는 사용자 단말기의 사용자로부터 입력되는 음성 명령(인공지능 캐릭터 제작에 관련된 명령)에 대응하는 프로그램 언어를 의미할 수 있다. 예컨대, 상기 매칭 프로그램 언어 123는 인공지능 캐릭터의 헤어스타일, 목소리 주파수 등의 설정값을 변경하는 것과 관련된 프로그램 언어를 사용자 음성명령어별로 지정하여 저장할 수 있다. 이에 따라 제작자 또는 사용자는 자신의 음성 입력을 이용해 인공지능 캐릭터의 외형을 변경하는 동작을 수행할 수 있다.Thematching program language 123 may refer to a programming language corresponding to a voice command (a command related to artificial intelligence character production) input from a user of a manufacturer or a user terminal. For example, thematching program language 123 can designate and store a program language related to changing a set value such as a hairstyle, a voice frequency, etc. of an artificial intelligent character for each user voice command. Accordingly, the manufacturer or the user can perform an operation of changing the appearance of the AI character using his voice input.

캐릭터 제작 데이터 124는 인공지능 캐릭터 설정과 관련된 이미지 정보 및 영상 정보를 포함할 수 있다. 또한 상기 캐릭터 제작 데이터 124는 본 발명의 실시 예에 따른 캐릭터가 출력하는 답변과 대응하는 입모양 이미지를 포함할 수 있다. 상기 캐릭터 제작 데이터 124는 또한 사람 캐릭터 뿐 아니라, 애니메이션 등장 캐릭터, 동물 등에 대한 이미지 및 영상 정보를 포함할 수 있다. 또한 캐릭터 제작 데이터 124는 특정 업체 또는 기관용 인공지능 캐릭터를 제작하고자 할 시, 광고 모델이 되는 유명인의 이미지 정보를 포함할 수 있다.Thecharacter production data 124 may include image information and image information related to artificial intelligence character setting. Also, thecharacter production data 124 may include a mouth-shaped image corresponding to an answer output by the character according to an embodiment of the present invention. Thecharacter production data 124 may also include image and image information for an animated character, an animal, etc., as well as a human character. Thecharacter production data 124 may include image information of a famous person who is an advertisement model when an artificial intelligent character for a specific company or an organization is to be produced.

지정 정보 125는 제작자에 의해 생성된 인공지능 캐릭터를 증강현실상에서 구현하기 위해 요구되는 정보이다. 상기 지정정보 125는 제작자가 해당 인공지능 캐릭터를 사용자 단말기상에서 표시되도록 하기 위한 트리거 정보에 해당될 수 있다. 상기 지정정보 125는 예컨대, 특정 위치 정보(위도, 경도, 주소로 지정될 수 있음), QR코드, 이미지, 음성으로 구성될 수 있다. 또는 상기 지정 정보 125는 특정 매장, 기관의 위치 정보를 포함하여 구성될 수 있다. 상기 지정 정보 125에 특정 매장 및 기관의 위치정보가 포함될 경우, 사용자가 해당 위치 근방에 접근한 상태에서 어플리케이션을 동작시킴에 따라 사용자 단말기 상에서 증강현실용 인공지능 캐릭터가 실행될 수 있다.Thedesignation information 125 is information required to implement the artificial intelligence character generated by the manufacturer on the augmented reality. Thedesignation information 125 may correspond to trigger information for allowing the creator to display the artificial intelligence character on the user terminal. Thedesignation information 125 may include, for example, specific location information (which may be designated by latitude, longitude, and address), QR code, image, and voice. Alternatively, thedesignation information 125 may include location information of a specific store and an institution. When the location information of the specific store and the institution is included in thedesignation information 125, the augmented reality artificial intelligent character can be executed on the user terminal by operating the application while the user approaches the vicinity of the location.

사용자 식별 정보 126는 사용자 단말기 식별번호 또는 인공지능 캐릭터를 실행하기 위한 어플리케이션의 사용자 ID 정보를 의미할 수 있다.Theuser identification information 126 may mean a user terminal identification number or user ID information of an application for executing an AI character.

본 발명의 실시 예에 따른 상기 입력부 130는 제작자가 직접 인공지능 캐릭터 제작에 요구되는 명령을 입력하는 경우, 해당 명령어를 키 입력을 통해 수신할 수 있다. 또한 상기 입력부 130는 그 밖에도 인공지능 캐릭터의 외형 제작(이미지 제작 또는 영상 제작)에 관련된 입력을 수신할 수 있다. 상기 입력부 130는 예컨대, 마우스, 키보드, 터치 패널, 타블렛 및 전자 펜 등을 포함할 수 있다.Theinput unit 130 according to the embodiment of the present invention can receive commands through key input when a manufacturer directly inputs commands required for artificial intelligence character production. In addition, theinput unit 130 may receive input related to the outer appearance (image production or image production) of the AI character. Theinput unit 130 may include, for example, a mouse, a keyboard, a touch panel, a tablet, and an electronic pen.

상기 표시부 140는 패널, 홀로그램 장치, 또는 프로젝터를 포함할 수 있다. 패널은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널은 터치 패널과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이는 패널, 홀로그램 장치, 또는 프로젝터를 제어하기 위한 제어 회로를 더 포함할 수 있다.Thedisplay unit 140 may include a panel, a hologram device, or a projector. The panel may be embodied, for example, flexible, transparent, or wearable. The panel may comprise a touch panel and one module. The hologram device can display stereoscopic images in the air using the interference of light. The projector can display images by projecting light onto the screen. The screen may be located, for example, inside or outside the electronic device. According to one embodiment, the display may further comprise a control circuit for controlling the panel, the hologram device, or the projector.

본 발명의 실시 예에 따른 상기 표시부 140는 인공지능 캐릭터의 제작 과정 및 증강현실에 적용된 인공지능 캐릭터의 구동 등을 표시할 수 있다.Thedisplay unit 140 according to an exemplary embodiment of the present invention may display a process of producing an artificial intelligence character and a driving of an artificial intelligence character applied to the augmented reality.

상기 오디오 처리부 150는 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 처리부 150의 적어도 일부 구성요소는 입출력 인터페이스에 포함될 수 있다. 오디오 모듈은, 예를 들면, 스피커, 리시버, 이어폰, 또는 마이크 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.Theaudio processing unit 150 can convert sound and electrical signals in both directions, for example. At least some components of theaudio processing unit 150 may be included in the input / output interface. The audio module can process sound information input or output through, for example, a speaker, a receiver, an earphone, or a microphone.

본 발명의 실시 예에 따른 상기 오디오 처리부 150는 사용자의 음성을 수신하고 이를 디지털신호로 변환하여 제어부 170측에 전달할 수 있다. 또한 상기 오디오 처리부 150는 인공지능 캐릭터가 응답할 답변에 대응하는 사운드를 출력할 수 있다.Theaudio processing unit 150 according to the embodiment of the present invention receives a user's voice, converts the received voice into a digital signal, and transmits the digital signal to thecontroller 170. Also, theaudio processor 150 may output a sound corresponding to an answer to be answered by the artificial intelligent character.

본 발명의 다양한 실시예 에 따라, 상기 카메라부 160는 제작 장치 100에 구비될 수 있는데, 상기 카메라부 160는 현실 영상에 인공지능 캐릭터가 결합되어 화면에 표시되는 '증강현실'을 구현하는데 요구되는 영상 정보를 촬영할 수 있다.According to various embodiments of the present invention, thecamera unit 160 may be provided in themanufacturing apparatus 100. Thecamera unit 160 may include acamera unit 160, which is required to implement an 'augmented reality' The image information can be photographed.

상기 제어부 170는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있다. 한편, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다.Thecontroller 170 may also be referred to as a processor, a controller, a microcontroller, a microprocessor, a microcomputer, or the like. Meanwhile, the control unit may be implemented by hardware or firmware, software, or a combination thereof.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 제어부에 의해 구동될 수 있다. 메모리는 상기 사용자 단말 및 서버 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 상기 제어부와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, a procedure, a function, or the like which performs the functions or operations described above. The software codes can be stored in a memory and driven by the control unit. The memory may be located inside or outside the user terminal and the server, and may exchange data with the control unit by various well-known means.

본 발명의 실시 예에 따른 상기 제어부 170는 음성인식 처리부 171, 캐릭터 생성부 172, 증강현실 영상 생성부 173, 자동 생성부 174, 인공지능 관리부 175, 인공지능 캐릭터 운영부 176, 선호정보 판단부 177를 포함하여 구성될 수 있다.Thecontroller 170 includes avoice recognition processor 171, acharacter generator 172, an augmentedreality image generator 173, anautomatic generator 174, anartificial intelligence controller 175, an artificialintelligence character manager 176, apreference information determiner 177, And the like.

상기 음성 인식 처리부 171는 입력된 제작자의 음성을 기반으로 해당 음성이 의미하는 바를 판단하는 기능을 수행할 수 있다. 상기 음성 인식 처리부 171에서 수행하는 음성인식 기능은 종래의 음성인식 방식과 유사하게 수행될 수 있다.Thespeech recognition processor 171 may determine the meaning of the voice based on the inputted voice of the producer. The voice recognition function performed by thevoice recognition processor 171 may be performed similarly to the conventional voice recognition method.

상기 캐릭터 생성부 172는 도 2에서 도시되는 바와 같이 명령 추출부 1721, 언어 변환부 1722, 명령 적용부 1723을 포함하여 구성될 수 있다. 상기 명령 추출부 1721는 상기 음성 인식 처리부 171에서 입력 음성의 의미가 번역되면, 번역된 내용들 중 캐릭터 생성과 관련된 명령을 추출할 수 있다.Thecharacter generating unit 172 may include aninstruction extracting unit 1721, alanguage converting unit 1722, and aninstruction applying unit 1723 as shown in FIG. When the meaning of the input voice is translated in thespeech recognition processor 171, thecommand extracting unit 1721 can extract commands related to character generation among the translated contents.

언어 변환부 1722는 상기 추출된 명령에 대응하는 프로그램 언어를 매칭 프로그램 언어 123로부터 검색하고 변환하는 동작을 수행할 수 있다. 상기 언어 변환부 1722에 의해 제작자 명령에 대응하는 프로그램언어가 지정되면, 이후 명령 적용부 1723에 의해 제작자 명령이 적용된 캐릭터가 생성될 수 있다. 상기 명령 적용부 1723는 캐릭터 생성을 위한 제작 공간에, 언어 변환부 1722에서 변환된 프로그램 언어를 추가 입력하도록 제어할 수 있다. 이에 따라 상기 캐릭터 생성부 172는 예컨대, 제작자가 '캐릭터의 티셔츠를 파란색으로 바꿔'라고 음성을 입력하면, 캐릭터 제작과 관련된 명령어에 대응하여 해당 캐릭터의 티셔츠 색상을 변경할 수 있게 된다.Thelanguage conversion unit 1722 can search for and convert the program language corresponding to the extracted command from thematching program language 123. If a language corresponding to the producer instruction is designated by thelanguage conversion unit 1722, then a character to which the producer instruction is applied by theinstruction application unit 1723 can be generated. Thecommand application unit 1723 may control thelanguage conversion unit 1722 to additionally input the converted program language into a production space for character creation. Accordingly, thecharacter creator 172 can change the t-shirt color of the character in response to a command related to character production, for example, when the creator inputs a voice saying 'change the character's t-shirt to blue'.

또한 제어부 170는 증강현실 영상 생성부 173를 포함할 수 있는데, 상기 증강현실 영상 생성부 173는 도 3에서 도시되는 바와 같이 구성될 수 있다. 도 3을 살펴보면, 증강현실 영상 생성부 173는 지정 정보 생성부 1731, 환경 정보 인식부 1732, 증강현실 적용부 1733을 포함하여 구성될 수 있다.Also, thecontroller 170 may include an augmentedreality image generator 173, which may be configured as shown in Fig. 3, the augmented realityimage generation unit 173 may include a designationinformation generation unit 1731, an environmentinformation recognition unit 1732, and an augmentedreality application unit 1733. [

먼저 지정 정보 생성부 1731은 인공지능 캐릭터가 증강현실상에서 표시되도록 하기 위해 설정 가능한 종류의 이벤트를 제작자에게 제공할 수 있다. 예컨대, 상기 지정 정보 생성부 1731는 증강현실용 인공지능 캐릭터를 제작하는 제작자에게 해당 캐릭터가 사용자 단말기에 표시되기 위한 조건의 종류로, 위치, 음성, 이미지, QR코드 등을 제시할 수 있다. 이 중 제작자가 위치 조건에 대응하여 해당 인공지능 캐릭터가 증강현실상에서 표시되도록 하기 원하는 경우, 상기 지정 정보 생성부 1731는 제작자에게 위치에 대한 값을 요청할 수 있다. 상기 위치에 대한 값을 지정하는 동작은 위도, 경도 또는 행정구역상의 주소를 입력하는 동작일 수 있다. 또는 위치에 대한 값을 지정하는 동작은 웹 서버에서 제공되는 지도상에 특정 지점을 마킹하는 동작일 수 있다.The designationinformation generation unit 1731 may provide the creator with a kind of event that can be set so that the artificial intelligent character is displayed on the augmented reality. For example, the designationinformation generation unit 1731 can present a location, a voice, an image, a QR code, and the like to a manufacturer who manufactures an artificial intelligence character for augmented reality, as a kind of condition for the character to be displayed on the user terminal. If the creator desires to display the artificial intelligence character on the augmented reality corresponding to the positional condition, thedesignation information generator 1731 can request a value for the position from the creator. The operation of specifying a value for the location may be an operation of inputting an address on the latitude, longitude, or administrative area. Or a value for a location may be an operation marking a specific point on a map provided by the web server.

유사하게, 상기 지정 정보 생성부 1731은 인공지능 캐릭터가 증강현실용으로 실행되도록 하기위한 조건을 음성으로 지정할 수 있다. 이 경우, 제작자는 인공지능 캐릭터가 증강현실용으로 실행되도록 하기 위한 트리거 정보를 텍스트 또는 실제 음성의 입력하는 방식으로 지정할 수 있다. 마찬가지로, 상기 지정 정보 생성부 1731는 제작자가 입력하거나 촬영한 특정 이미지를 트리거 정보로 지정할 수 있다. 이 경우, 사용자 단말기에 촬영중인 특정 이미지가 상기 지정 정보 생성부 1731에 의해 지정된 이미지와 일치할 경우, 상기 촬영중인 화면상에 인공지능 캐릭터가 오버레이되어 함께 표시될 수 있다.Similarly, thedesignation information generator 1731 can designate a condition for causing the artificial intelligent character to be executed for the augmented reality by voice. In this case, the creator can designate the trigger information for causing the artificial intelligent character to be executed for the augmented reality by inputting text or real voice. Similarly, thedesignation information generator 1731 can designate a specific image inputted by the manufacturer or photographed as trigger information. In this case, if the specific image being photographed by the user terminal matches the image designated by the designationinformation generation unit 1731, the artificial intelligent character may be overlaid on the screen being photographed and displayed together.

예를 들어 우체국 마크가 지정 정보 생성부 1731에 의해 트리거 정보로 지정되었다고 가정하면, 사용자 단말기에서 촬영되는 영상 중 우체국 마크가 포함되고 해당 화면이 기 설정된 시간 이상(예, 3초) 유지되는 경우, 우체국 안내 관련 인공지능 캐릭터가 해당 화면상에 자동으로 오버레이되어 표시될 수 있다.For example, if it is assumed that the post office mark is designated as the trigger information by the designationinformation generation unit 1731, if the post office mark is included in the image photographed by the user terminal and the corresponding screen is maintained for a predetermined time or longer (for example, 3 seconds) Artificial intelligence characters related to the post office guidance can be automatically overlaid on the screen.

환경 정보 인식부 1732는 인공지능 캐릭터를 증강현실로 표시하기 위한 조건의 성립 유무를 인식할 수 있다. 상기 환경 정보 인식부 1732는 사용자 단말기로부터 제공되는 위치 정보, 촬영 정보, 음성 입력 정보를 수집하고 이를 기반으로 사용자 단말기의 조건이 기 지정된 트리거 정보와 일치하는지 여부를 판단할 수 있다.The environmentinformation recognition unit 1732 can recognize whether or not the condition for displaying the artificial intelligence character as an augmented reality is established. The environmentinformation recognizing unit 1732 may collect the location information, the photographing information, and the voice input information provided from the user terminal and may determine whether the condition of the user terminal matches the pre-designated trigger information.

증강현실 적용부 1733는 사용자 단말기의 상태에 관한 정보를 수집한 결과, 사용자 단말기의 상태가 기 지정된 트리거 정보와 일치할 경우, 사용자 단말기의 카메라 촬영 화면상에 기 제작된 인공지능 캐릭터가 오버레이 표시되도록 해당 데이터를 사용자 단말기 측에 제공할 수 있다.The augmentedreality applying unit 1733 may be configured such that when the state of the user terminal coincides with pre-designated trigger information as a result of collecting information on the state of the user terminal, the augmentedreality applying unit 1733 displays the artificial intelligence character And the corresponding data can be provided to the user terminal side.

이와 같은 방식에 의해 상기 증강현실 영상 생성부 173는 기 생성된 인공지능 캐릭터를 사용자 단말기측에 표시할 시점을 판단하고, 사용자 단말기측에 관련 영상 데이터를 제공할 수 있다.In this way, the augmented realityimage generation unit 173 can determine the point of time to display the created AI character on the user terminal side, and provide the related image data to the user terminal side.

상기 제어부 170에 속한 자동 생성부 174는 제작자의 설정에 기반하여 자동으로 인공지능 캐릭터를 자동으로 생성하는 기능을 수행할 수 있다. 예를 들면 상기 자동 생성부 174는 캐릭터가 생성되는 주기, 특정 외형 설정값의 변화 정도 및 목소리 주파수의 변화정도를 제작자로부터 입력받고 이를 캐릭터 자동 생성에 관한 설정으로 지정할 수 있다. 그리고 이에 따라 상기 자동 생성부 174는 이에 기반하여 인공지능 캐릭터를 자동으로 생성할 수 있다. 예를 들어, 제작자가 1달에 한번씩, 인공지능 캐릭터의 머리카락 길이가 0.1퍼센트 증가하는 캐릭터를 10번 생성하도록 설정하면, 상기 자동 생성부 174는 머리카락 길이가 점점 길어지는 인공지능 캐릭터를 1달마다 생성할 수 있다.Theautomatic generation unit 174 included in thecontroller 170 may automatically generate the artificial intelligence character based on the manufacturer's settings. For example, theautomatic generation unit 174 may input a period of a character, a degree of change of a specific external form setting value, and a degree of change of a voice frequency from a manufacturer, and designate the setting as a setting related to automatic character generation. Accordingly, theautomatic generation unit 174 can automatically generate an artificial intelligence character based on this. For example, if the creator sets the artificial intelligence character to generate a character whose artificial intelligence character's hair length increases by 0.1 percent every ten months, theautomatic generation unit 174 generates an artificial intelligence character whose hair length becomes longer each month can do.

이를 응용하면 제작자는 상기 자동 생성부 174를 이용하여 인공지능 캐릭터의 외형이 어린이의 모습에서 성인이 되는 모습으로 변화되는 형태로 자동 제작할 수 있다. 또는 상기 자동 생성부 174는 기 설정된 기간 동안 정기적으로 인공지능 캐릭터를 생성하여 최종 인공지능 캐릭터의 수를 증가시킬 수 있다. 이에 따라 사용자의 단말기에 표시 가능한 인공지능 캐릭터가 시간이 지남에 따라 늘어나고 사용자의 선택권이 넓어질 수 있다. 다양한 실시 예에 따라 사용자의 인공지능 캐릭터 사용 이력에 대응하여 호출가능한 인공지능 캐릭터의 종류를 증가시킬 수 있으며, 이를 위해 상기 자동 생성부 174가 제작자의 설정에 대응하여 자동으로 캐릭터를 시기별, 조건별로 생성할 수 있다.In this case, the creator can automatically create the appearance of the artificial intelligent character using theautomatic generating unit 174 in such a manner that the appearance of the artificial intelligent character changes from a child's image to an adult image. Alternatively, theautomatic generation unit 174 may periodically generate artificial intelligent characters for a predetermined period of time to increase the number of the final artificial intelligent characters. Accordingly, artificial intelligence characters that can be displayed on the user's terminal can be increased over time, and the user's choice can be widened. According to various embodiments, the type of artificial intelligent character that can be called can be increased corresponding to the user's history of using the artificial intelligent character. To this end, theautomatic generating unit 174 automatically sets the character .

인공지능 관리부 175는 인공지능 캐릭터가 수행하는 전반적인 사용자 질문에 대한 답변 산출과 관련된 동작을 수행할 수 있다. 상기 인공지능 관리부 175는 저장부의 대화데이터 121 및 룰 데이터 122에 기반하여 사용자로부터 입력된 질문을 분석할 수 있으며, 가장 매칭되는 답변을 추출하여 인공지능 캐릭터가 답변할 수 있도록 제어할 수 있다. 또한 상기 인공지능 관리부 175는 인공지능 캐릭터의 답변 정확도를 향상시키기 위한 머신러닝을 수행할 수 있다.The artificialintelligence management unit 175 may perform an operation related to the calculation of an answer to the overall user question performed by the artificial intelligent character. The artificialintelligence management unit 175 can analyze the question input from the user based on thedialog data 121 and therule data 122 of the storage unit, and can extract the most matching answer and control the artificial intelligent character to answer. The artificialintelligence management unit 175 may perform machine learning to improve the accuracy of answers of the artificial intelligence character.

인공지능 캐릭터 운영부 176는 인공지능 캐릭터가 말하는 영상이 제공될 시, 말하는 내용에 대응하는 입 모양 이미지를 적용하여 해당 영상을 출력하도록 제어할 수 있다. 이를 위해, 예컨대, 인공지능 캐릭터의 입모양의 발음별 샘플이 캐릭터 제작 데이터 124에 구비될 수 있다. 발음별 샘플은 (1)입을 다무는 이미지, (2)입을 크게 벌리는 이미지, (3)입을 오므리는 이미지, (4)입을 살짝 벌리는 이미지 등으로 구분될 수 있다. 인공지능 캐릭터가 출력해야 할 답변이 '음, 아니야'라고 가정하고, 상기 답변의 각 음절에 대응하는 이미지가 (1)(2)(4)(2)로 설정되어 있다고 하면, 인공지능 캐릭터 운영부 176은 해당 답변을 음성으로 출력함과 동시에 인공지능 캐릭터의 입모양이 (1)(2)(4)(2)순서로 실행되도록 제어할 수 있다.The artificial intelligentcharacter operating unit 176 can control the artificial intelligent character to output a corresponding image by applying a mouth-shaped image corresponding to the talking content when the articulated character is presented with the image. For this purpose, for example, mouth-shaped pronunciation-based samples of an artificial intelligent character may be provided in thecharacter production data 124. Pronunciation samples can be divided into (1) an image of drowning, (2) an image of wide mouth, (3) an image of mouth to mouth, and (4) Assuming that the answer to be output by the artificial intelligent character is 'yes' or 'no', and the image corresponding to each syllable of the answer is set to (1), (2), (4) 176 outputs the corresponding answer by voice, and at the same time, controls the mouth shape of the AI character to be executed in the order of (1), (2), (4), and (2).

이 외에도 상기 인공지능 캐릭터 운영부 176는 인공지능 캐릭터의 손동작, 몸동작 등을 답변 내용에 맞게 기 설정된 동작으로 적용하여 출력하도록 제어할 수 있다.In addition, the artificial intelligentcharacter operating unit 176 can control the hand motion, the body motion, etc. of the artificial intelligent character to be applied in a predetermined operation according to the contents of the reply and output.

선호 정보 판단부 177는 사용자 단말기로부터 수신된 사용자의 SNS 계정 정보, 사진 정보, 캐릭터 생성 이력 정보를 수집할 수 있고, 수집된 상기 정보들을 기반으로 사용자 선호 정보를 추출할 수 있다. 상기 선호 정보 판단부 177는 추출된 사용자 선호 정보를 기반으로 사용자별 캐릭터의 기본 설정값을 지정하여 사용자 단말기에 제공할 수 있다. 이 때 사용자별 캐릭터의 기본 설정값은 어조, 목소리, 동작, 의상, 얼굴 및 체형을 그 항목으로 포함할 수 있다. 사용자별 캐릭터의 기본 설정값은 사용자가 사용자 단말기에서 인공지능 캐릭터 생성을 요청할 경우, 자동 생성될 캐릭터 외형에 대한 정보이다. 사용자의 특별한 요청 없이 캐릭터 생성을 요청한 경우, 선호 정보 판단부에 의해 산출된 사용자 선호 정보에 기반하여 인공지능 캐릭터가 제작될 수 있다. 사용자 선호 정보에 의한 캐릭터의 기본 설정값은 1개 이상일 수 있으며, 애니메이션 캐릭터, 연예인, 동물 등의 항목별로 설정될 수 있다.The preferenceinformation determination unit 177 may collect SNS account information, photo information, and character creation history information of the user received from the user terminal, and may extract user preference information based on the collected information. Thepreference information determiner 177 may specify a default value of a user-specific character based on the extracted user preference information and provide the default preference value to the user terminal. At this time, the basic setting value of the user-specific character can include tone, voice, motion, costume, face, and body shape. The basic setting value of the user-specific character is information on the character appearance to be automatically generated when the user requests the user terminal to create the AI character. When a character is requested to be generated without a specific request of a user, an artificial intelligence character can be produced based on the user preference information calculated by the preference information determination unit. The basic setting value of the character based on the user preference information may be one or more, and may be set for each item such as an animation character, an entertainer, an animal, and the like.

또한 상기 선호 정보 판단부는 사용자 단말기로부터 수집되는 정보를 토대로 사용자의 취미, 관심사 등을 판단할 수 있다. 상기 선호 정보 판단부는 사용자의 관심사 및 취미에 대응하는 캐릭터 이미지를 추천할 수 있다. 이 때의 캐릭터는 애니메이션 또는 영화의 등장 캐릭터나 실제 광고 모델, 역사 인물 캐릭터 등을 포함할 수 있다.The preference information determination unit may determine a user's hobbies, interests, and the like based on the information collected from the user terminal. The preference information determination unit may recommend a character image corresponding to a user's interest and hobby. The character at this time may include an appearance character of an animation or a movie, a real advertisement model, a character of a history character, and the like.

앞서 증강현실용 인공지능 캐릭터를 제작하고 인공지능 캐릭터를 운영하는 장치에 대하여 설명하였다. 이후에는 생성된 인공지능 캐릭터를 구현할 사용자 단말기에 대하여 설명하기로 한다.We have described the artificial intelligence character for augmented reality and the device for operating the artificial intelligence character. Hereinafter, a user terminal for implementing the generated artificial intelligence character will be described.

도 4는 본 발명의 실시 예에 따른 사용자 단말기의 구성을 도시한 블록도이다.4 is a block diagram illustrating a configuration of a user terminal according to an embodiment of the present invention.

사용자 단말기 200는 통신부 210, 저장부 220, 입력부 230, 표시부 240, 오디오 처리부, 카메라부 260 및 제어부 270를 포함하여 구성될 수 있다. 그리고 상기 저장부 220는 사용자 정보 221, 캐릭터 이력 정보 222, 캐릭터 기본 설정값 223을 저장할 수 있다. 그리고 상기 제어부 270는 음성인식 처리부 271, 증강현실 영상 실행부 272를 포함하여 구성될 수 있다.Theuser terminal 200 may include a communication unit 210, astorage unit 220, aninput unit 230, adisplay unit 240, an audio processing unit, acamera unit 260, and acontrol unit 270. Thestorage unit 220 may store theuser information 221, thecharacter history information 222, and the characterdefault setting value 223. Thecontroller 270 may include aspeech recognition processor 271 and an augmentedreality image processor 272.

본 발명의 실시 예에 따른 상기 통신부 210는 서버 100(100은 제작 장치임과 동시에 서버 역할을 할 수 있으므로 이하에서 서버 100로 겸하여 칭하기로 한다)와의 통신을 수행할 수 있다. 본 발명의 실시 예에 따라 상기 통신부 210는 인터넷 통신 기능을 기반으로 다양한 웹 서버로부터 인공지능 캐릭터 실행에 관련된 정보(예, 트리거 정보)를 수신할 수 있다.The communication unit 210 according to the embodiment of the present invention can perform communication with the server 100 (100 is a production device and can also serve as a server and will be hereinafter also referred to as a server 100). According to the embodiment of the present invention, the communication unit 210 can receive information (e.g., trigger information) related to artificial intelligence character execution from various web servers based on the Internet communication function.

본 발명의 실시 예에 따른 상기 저장부 220는 사용자 정보 221, 캐릭터 이력 정보 222, 캐릭터 기본 설정값 223을 포함하여 저장할 수 있으며 이 외에도 다양한 인공지능 캐릭터 실행과 관련된 프로그램 및 데이터를 저장할 수 있다.Thestorage unit 220 according to an embodiment of the present invention may storeuser information 221,character history information 222, characterdefault setting values 223, and may store programs and data related to execution of various artificial intelligence characters.

상기 사용자 정보 221는 사용자 단말기로 촬영한 사진, 사용자의 검색어, 자주 사용하는 어플리케이션 정보, 사용자의 SNS 계정 및 업로드 정보를 포함할 수 있다. 상기 사용자 정보 221는 사용자의 동의하에 서버 100측에 제공될 수 있다. 제공되는 사용자 정보 221는 서버 100측에서 가공하고 그 결과에 따라 추후 캐릭터 기본 설정값 223이 변경될 수 있다.Theuser information 221 may include a photograph taken by a user terminal, a user's search word, frequently used application information, a user's SNS account, and upload information. Theuser information 221 may be provided to theserver 100 with the user's consent. The provideduser information 221 may be processed by theserver 100 and the characterdefault setting value 223 may be changed later.

캐릭터 이력 정보 222는 사용자가 인공지능 캐릭터를 실행한 이력 및 인공지능 캐릭터의 제작 이력 등을 포함할 수 있다. 다양한 실시예에 따라 인공지능 캐릭터는 분야별로 다양한 종류로 제공될 수 있다. 예를 들면 인공지능 캐릭터는 길을 알려주는 길 안내 캐릭터, 공공기관이나 업체별 서비스를 제공하는 캐릭터, 상담을 수행하는 캐릭터 등의 형태로 제공될 수 있다. 이에 따라 사용자는 특정 하나의 인공지능 캐릭터만을 사용하는 것이 아니라, 용도별, 분야별로 다양하게 인공지능 캐릭터를 선택할 수 있다. 이에 따라 상기 캐릭터 이력 정보 222는 사용자가 자주 실행하는 종류의 캐릭터에 대한 정보를 포함할 수 있다. 또는 같은 분야의 인공지능 캐릭터라고 할지라도 다양한 캐릭터가 존재할 수 있으므로 개별 캐릭터 별 실행 정보가 상기 캐릭터 이력 정보 222에 포함될 수 있다.Thecharacter history information 222 may include history of the user executing the artificial intelligence character and production history of the artificial intelligence character. According to various embodiments, artificial intelligence characters can be provided in various fields by field. For example, the artificial intelligence character may be provided in the form of a route guidance character indicating a route, a character providing a service by a public institution or a company, or a character performing a consultation. Accordingly, the user can select various artificial intelligence characters by application and field rather than using only one specific artificial intelligence character. Accordingly, thecharacter history information 222 may include information on characters of a type frequently executed by the user. Or even an artificial intelligent character in the same field, execution information for each character can be included in thecharacter history information 222. [

캐릭터 기본 설정값 223은 사용자가 본인의 명령으로 기 존재하는 인공지능 캐릭터의 외형을 제작할 시, 초기 생성될 캐릭터 설정값을 의미할 수 있다. 상기 캐릭터 기본 설정값 223은 사용자의 선호도 정보에 기반하여 업데이트 될 수 있다.The characterdefault setting value 223 may refer to a character setting value to be initially generated when the user constructs an appearance of an artificial intelligent character existing by his command. The characterdefault setting value 223 may be updated based on the user's preference information.

또는 상기 캐릭터 기본 설정값 223은 사용자의 선호도 정보 외에도 사용자의 나이, 연령, 성별, 국가 등의 정보에 기반하여 설정될 수도 있다. 예컨대, 사용자의 연령이 60대 이상인 것으로 판단되면, 캐릭터의 음성 출력 속도는 표준값보다 10% 느리게 설정될 수 있다.Alternatively, the characterdefault setting value 223 may be set based on information on the user's age, age, sex, country, etc., in addition to the user's preference information. For example, if it is determined that the age of the user is 60 or more, the voice output speed of the character can be set to be 10% slower than the standard value.

본 발명의 실시 예에 따른 상기 입력부 230는 인공지능 캐릭터를 제작 또는 변경하기 위한 사용자 입력 및 증강현실에서 인공지능 캐릭터를 실행하기 위한 사용자 입력을 수신할 수 있다.Theinput unit 230 according to the embodiment of the present invention may receive a user input for creating or modifying an artificial intelligence character and a user input for executing an artificial intelligence character in the augmented reality.

본 발명의 실시 예에 따른 표시부 240는 카메라 촬영 화면을 표시하고, 카메라 촬영 화면상에 오버레이되는 인공지능 캐릭터를 표시할 수 있다. 또한 상기 표시부 240는 사용자 요청에 따라 인공지능 캐릭터의 외형이 변경되는 모습을 표시할 수 있다.Thedisplay unit 240 according to the embodiment of the present invention may display a camera shooting screen and display an artificial intelligence character overlaid on the camera shooting screen. In addition, thedisplay unit 240 may display the appearance of the artificial intelligent character changing according to a user's request.

본 발명의 실시 예에 따른 상기 오디오 처리부 250는 사용자 단말기에서 출력되는 인공지능 캐릭터의 답변 음성을 출력할 수 있다. 또한 상기 오디오 처리부 250는 사용자가 입력하는 음성(예, 인공지능 설정 변경을 요청하는 명령, 인공지능의 답변을 요청하는 질문 등)을 수신할 수 있다.Theaudio processing unit 250 according to the embodiment of the present invention can output the answer voice of the AI character output from the user terminal. In addition, theaudio processing unit 250 may receive a voice input by the user (e.g., a command for requesting a change of an AI setting, a question for requesting an AI response, etc.).

본 발명의 실시 예에 따른 상기 카메라부 260는 증강현실을 실행하기 위해 요구되는 카메라 영상을 촬영할 수 있다.Thecamera unit 260 according to the embodiment of the present invention can photograph a camera image required to implement an augmented reality.

제어부 270는 음성 인식 처리부 271 및 증강현실 영상 실행부 272를 포함하여 구성될 수 있다. 상기 음성 인식 처리부 271는 사용자의 음성을 패턴 분석하여 그 의미를 판단할 수 있다.Thecontrol unit 270 may include a speechrecognition processing unit 271 and an augmented realityimage execution unit 272. Thespeech recognition processor 271 can analyze the pattern of the user's voice and determine its meaning.

증강현실 영상 실행부 272는 증강현실용 인공지능 캐릭터를 실행하기 위한 어플리케이션을 실행할 수 있다. 상기 증강현실 영상 실행부 272는 어플리케이션이 실행되면 이에 대응하여 카메라 기능을 활성화시키도록 제어할 수 있다. 상기 증강현실 영상 실행부 272는 카메라 기능이 활성화되어 카메라를 통해 촬영되는 영상이 화면에 표시되는 동안, 서버 100로부터 특정 인공지능 캐릭터에 대한 정보가 제공되면 해당 인공지능 캐릭터의 영상 정보를 카메라 촬영 영상에 오버레이하여 표시할 수 있다. 이 때 상기 서버 100에서 제공하는 특정 인공지능 캐릭터는 사용자 단말기 200에서 특정 조건을 만족(예컨대, 지정 이미지 촬영)한 경우에 제공될 수 있으며, 인공지능 캐릭터 종류에 따라 트리거 정보도 달라질 수 있다. 예컨대, 어플리케이션에서 제공하는 인공지능 캐릭터 종류가 5가지라고 가정하면, 이를 증강현실상에서 표시하기 위한 조건도 5가지일 수 있다. 예컨대, 상기 5가지 캐릭터의 이름 및 표시하기 위한 지정 이미지가 모두 다르게 설정될 수 있다. 그리고 상기 지정 이미지는 텍스트 이미지를 포함할 수 있다.The augmented realityimage execution unit 272 can execute an application for executing the augmented reality artificial intelligence character. When the application is executed, the augmented realityimage execution unit 272 can control to activate the camera function corresponding to the application. If the augmented realityimage execution unit 272 provides information on a specific artificial intelligent character from theserver 100 while the image captured through the camera is displayed on the screen while the camera function is activated, As shown in Fig. At this time, the specific artificial intelligence character provided by theserver 100 may be provided when theuser terminal 200 satisfies a specific condition (for example, a designated image capturing), and the trigger information may also be changed according to the artificial intelligence character type. For example, assuming that there are five types of artificial intelligence characters provided by the application, there are five conditions for displaying them on the augmented reality. For example, the names of the five characters and the designated images for display may all be set differently. And the designated image may include a text image.

도 5는 본 발명의 실시 예에 따른 인공지능 캐릭터의 활용 모습을 도시한 도면이다.5 is a view showing an application of an artificial intelligence character according to an embodiment of the present invention.

도 5에 따르면, 사용자는 인공지능 캐릭터가 실행된 상태에서 음성을 입력하면, 인공지능 캐릭터가 입력된 사용자의 음성에 대응하는 답변을 음성으로 출력할 수 있다. 또한 인공지능 캐릭터는 외관 모습 뿐 아니라, 어투, 목소리 등의 요소도 캐릭터 별로 지정될 수 있다. 도 5에서 도시되는 바와 같이 특정 업체에서 제공되는 인공지능 캐릭터는 특정 업체의 마스코트 캐릭터로 그 모습이 구현될 수 있다.According to FIG. 5, when a user inputs a voice in a state in which the AI is executed, the AI can output a voice corresponding to the voice of the input user. The artificial intelligence character can be assigned not only the appearance but also the character, such as the tone and voice. As shown in FIG. 5, the artificial intelligence character provided by a specific company can be implemented as a mascot character of a specific company.

도 6은 본 발명의 실시 예에 따른 인공지능 캐릭터와 대화하기 위한 동작을 도시하는 도면이다.6 is a diagram illustrating an operation for communicating with an artificial intelligence character according to an embodiment of the present invention.

도 6의 601은 사용자 요청에 따라 인공지능 캐릭터가 화면에 표시되는 모습을 도시하고 있다. 상기 인공지능 캐릭터는 초기 표시될 시, 별도의 움직임이 없이 정지된 상태로 표시될 수 있다. 그리고 인공지능 캐릭터가 표시되는 화면의 일측에는 마이크 아이콘 602가 함께 표시될 수 있다. 사용자는 상기 마이크 아이콘 602을 선택하고 사용자 음성을 입력할 수 있다. 마이크 아이콘 602을 선택하여 사용자 음성을 입력하는 방식은 예컨대, 상기 마이크 아이콘 602을 길게 누르는 동안 사용자는 음성을 입력하고 음성 입력이 완료되면 상기 마이크 아이콘 602에 대한 터치를 해제하는 방식일 수 있다. 또는 상기 마이크 아이콘 602를 1차 터치 선택함에 따라 해당 마이크 아이콘이 603에서 도시되는 바와 같이 음성 입력중임을 표시하는 아이콘으로 변경되고, 입력중 아이콘 603이 표시되는 동안 음성 입력을 수행한 후 상기 입력중 아이콘 603을 다시 선택하여 해당 음성 입력을 완료하는 방식일 수 있다.6, an artificial intelligence character is displayed on the screen according to a user's request. When the AI character is initially displayed, it may be displayed in a stopped state without any movement. Amicrophone icon 602 may be displayed on one side of the screen on which the artificial intelligence character is displayed. The user can select themicrophone icon 602 and input a user voice. For example, when the user presses themicrophone icon 602 for a long period of time, the user may select themicrophone icon 602 to input a voice and release the touch of themicrophone icon 602 when voice input is completed. Alternatively, when themicrophone icon 602 is first touch-selected, the corresponding microphone icon is changed to an icon indicating the voice input as shown at 603, and voice input is performed while theinputting icon 603 is displayed, The user may select theicon 603 again to complete the voice input.

도 7은 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 동작에 관하여 도시하는 도면이다.7 is a diagram showing an operation for producing an artificial intelligence character by voice according to the embodiment of the present invention.

본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치 100의 제어부 170는 캐릭터를 생성할 시 제작자의 음성에 대응하는 설정값을 부여하여 제작할 수 있다. 예컨대, 도 7에서 도시되는 바와 같이, 제작자는 "30대, 남자, 마른 체형, 은행원 캐릭터 만들어줘."라고 음성을 입력할 경우, 상기 제어부 170는 인공지능 캐릭터 제작 장치 100 내에서 보유한 캐릭터 제작 데이터에 기반하여, 사용자 음성에 대응하는 설정값으로 캐릭터를 설정할 수 있다. 인공 지능 캐릭터 제작에 요구되는 설정값 종류는 (1)성별(남자/여자), (2)체형(마른/보통/통통 등), (3)직업별 의상(은행원/경찰관/소방관/의사 등)(4)연령별 정보(어린이/ 청소년/ 20대/30대 등) 등이 있을 수 있으며 각 설정값에 대응하는 이미지 및 영상정보가 구비되어 있을 수 있다. 또는 각 설정값에 대응하는 수치 정보(예, 마른 체형은 0.3, 보통 체형은 0.5 등으로 설정될 수 있다)가 기 저장되어 있을 수 있다. 이에 따라 사용자의 음성이 인식되면 상기 제어부 170는 기 저장된 설정값에 대응하는 이미지 또는 수치 정보를 적용하여 인공지능 캐릭터의 외형을 제작하거나 변경할 수 있다.Thecontrol unit 170 of the artificial intelligentcharacter producing apparatus 100 according to the embodiment of the present invention can produce a character by assigning a set value corresponding to the voice of the producer. For example, as shown in FIG. 7, when the producer inputs a voice saying "30 generations, a man, a skinny, a banker character ", thecontroller 170 reads out character production data stored in the artificial intelligentcharacter production apparatus 100 The character can be set to the set value corresponding to the user voice. The types of setting values required for artificial intelligence character production are (1) sex (male / female), (2) body type (dry / normal / plump), (3) occupational costume (banker / police / firefighter / (4) age-specific information (such as children / teenagers / 20s / 30s), and image and image information corresponding to each set value may be provided. Alternatively, numerical information corresponding to each setting value (e.g., 0.3 for the skinny type and 0.5 for the normal type) may be stored. Accordingly, when the user's voice is recognized, thecontrol unit 170 can create or change the appearance of the AI character by applying image or numerical information corresponding to the preset value.

도 8은 본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치에서 분야별 인공지능 캐릭터를 제작하는 동작을 도시한 도면이다.FIG. 8 is a diagram illustrating an operation for producing artificial intelligence characters for each field in the artificial intelligence character producing apparatus according to the embodiment of the present invention.

도 8을 참조하면, 본 발명의 다양한 실시 예에 따라 인공지능 캐릭터 제작 장치 100는 애니메이션 캐릭터 또는 영화 캐릭터의 다양한 이미지 정보 및 영상정보를 보유할 수 있고 이를 어플리케이션 운영에 지원할 수 있다. 사용자 단말기 200에서 레시피 및 요리 분야의 인공지능 캐릭터를 추천받으면 예컨대, 810에서 도시되는 화면과 같이 표시될 수 있다. 인공지능 캐릭터 제작 장치 100는 관심사 분야별 관련 캐릭터를 웹 등으로부터 수집하여 표시할 수 있다. 그리고 수집된 관련 캐릭터 정보는 해당 캐릭터와 관심사 항목의 연관성, 수집된 관련 캐릭터의 인기도 등을 평가하여 추천 캐릭터로 제안할 수 있다.Referring to FIG. 8, the artificial intelligentcharacter production apparatus 100 according to various embodiments of the present invention can hold various image information and image information of an animation character or a movie character and can support it in application operation. If theuser terminal 200 receives recommendation of an artificial intelligence character in the recipe and cooking field, it may be displayed as a screen shown at 810, for example. The artificial intelligentcharacter production apparatus 100 can collect and display related characters of interest fields from the web and the like. The collected related character information can be suggested as a recommended character by evaluating the association between the character and the interest item, the popularity of the collected related character, and the like.

다양한 관심사 항목중 '요리'항목이 존재할 수 있는데, 인공지능 캐릭터 제작 장치 100는 '요리' 분야와 관련성이 있다고 판단되는 정보를 수집하고 분류하여 순위를 설정할 수 있다. 예를 들면, 애니메이션에서 요리사로 등장하는 캐릭터 '상디'와 음식을 잘 먹는 캐릭터인 '저팔계' 등이 연관 캐릭터로 수집되고 사용자 단말기의 화면상에 810에서와 같이 추천 목록으로 표시될 수 있다. 사용자가 추천 목록에 표시된 캐릭터들 중 저팔계를 선택했다고 가정하면, 사용자 단말기의 화면에는 저팔계 모습의 인공지능 캐릭터 821가 820에서와 같이 표시될 수 있다. 그리고 상기 선택된 저팔계 모습의 인공지능 캐릭터 821는 사용자의 질문에 애니메이션 상에서 보여지던 해당 캐릭터 특유의 어투로 응답할 수 있다. 예컨대, 팥칼국수 만드는 법을 알려달라는 사용자의 질문에 상기 저팔계 모습의 인공지능 캐릭터 821는 저팔계라는 캐릭터의 특유 어투 822를 적용하여 답변을 출력할 수 있다. Among the various items of interest, there may be a 'cooking' item, and the artificial intelligentcharacter producing apparatus 100 can collect and classify information determined to be related to the 'cooking' field and set a ranking. For example, a character 'Sangdi' appearing as a chef in an animation and a 'Good Morning' character such as a food-eating character can be collected as an association character and displayed on a screen of the user terminal as a recommendation list as in 810. Assuming that the user selects the low-treble system among the characters displayed in the recommendation list, theartificial intelligence character 821 of the low-profile system can be displayed on the screen of the user terminal as shown at 820. [ Theartificial intelligence character 821 of the selected low-treble system can respond to the user's question with a character-specific tone shown on the animation. For example, in response to a user's inquiry about how to make an adzuki bean soup noodle, theartificial intelligence character 821 of the envelope shape can output an answer by applying aspecific note 822 of a character called a low treble system.

도 9는 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 과정에 대하여 도시한 순서도이다.FIG. 9 is a flowchart illustrating a process of producing an artificial intelligence character by voice according to an embodiment of the present invention.

본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치 100는 도 9에서 도시되는 바와 같은 순서로 음성 명령에 의한 인공지능 캐릭터 제작 과정을 구현할 수 있다.The artificial intelligentcharacter production apparatus 100 according to the embodiment of the present invention can implement the artificial intelligent character production process by voice command in the order as shown in FIG.

도 9를 참조하면, 먼저 인공지능 캐릭터의 제작 장치 100의 제어부 170는 제작자의 음성 명령에 의해 캐릭터 외형을 제작하기 위해, 인공지능 캐릭터의 외형 설정 모드를 실행하는 910동작을 수행할 수 있다. 상기 캐릭터의 외형 설정 모드는 예컨대, 인공지능 캐릭터가 제작 장치 100의 화면상에 표시되는 모든 상황을 의미할 수 있다.Referring to FIG. 9, thecontroller 170 of the artificial intelligentcharacter producing apparatus 100 may perform anoperation 910 of executing an appearance mode of the artificial intelligent character in order to produce a character contour by a voice command of a manufacturer. For example, the external appearance setting mode of the character may mean all situations in which an artificial intelligent character is displayed on the screen of themanufacturing apparatus 100. [

이후 상기 제어부 170는 제작자의 음성이 입력됨을 확인하는 915동작을 수행할 수 있다. 이에 따라 상기 제어부 170는 입력된 음성 내용 중 캐릭터 생성(또는 수정)에 관한 명령이 존재하는지 여부를 판단하는 920동작을 수행할 수 있다. 이 때 캐릭터 생성(또는 수정)에 관한 명령은 기 설정된 항목에 한하여 인식될 수 있다.Then, thecontrol unit 170 may perform anoperation 915 to confirm that the producer's voice is input. Accordingly, thecontroller 170 may performoperation 920 of determining whether there is a command for creating (or modifying) a character among the inputted voice contents. At this time, the command for character creation (or modification) can be recognized only for the predetermined item.

상기 제어부 170는 입력된 음성 내용 중 캐릭터 생성에 관한 명령이 존재한다고 판단한 경우, 명령을 추출하는 925동작을 수행할 수 있다. 상기 동작은 입력된 음성 내용들 중 명령과 관계없는 문구를 제거하는 동작일 수 있다. 이후 상기 제어부 170는 추출된 명령을 이에 매칭하는 프로그램 언어로 변환하고 이를 적용하는 930동작을 수행할 수 있다. 이 때 상기 프로그램 언어는 음성 명령에 대응하는 수치 정보 또는 이미지 정보에 대응하는 명령어로 구성될 수 있다. 이에 따라 제작자는 (1)짧은, (2)보통, (3)긴 머리카락 길이를 음성으로 주문할 수 있고, 제어부 170는 해당 음성 명령에 대응하는 프로그램 언어로 변환할 수 있으며, 각 음성 명령에 대응하는 프로그램언어는 예컨대 (1)은 0.1, (2)는 0.5 (3)은 1과 같이 해당 설정값(머리카락 길이)의 수치를 변경하도록 하는 명령어로 구현될 수 있다.If thecontrol unit 170 determines that there is a command for character creation among the input voice contents, thecontrol unit 170 may perform anoperation 925 for extracting a command. The operation may be an operation of removing the phrase irrelevant to the command among the inputted voice contents. Then, thecontroller 170 converts the extracted command into a programming language for matching the extracted command, and performs theoperation 930 for applying the converted command. At this time, the program language may be composed of numerical information corresponding to a voice command or a command corresponding to image information. Accordingly, the manufacturer can order (1) short, (2) normal, and (3) long hair lengths by speech, and thecontrol unit 170 can convert the program language into a program language corresponding to the voice command, The program language can be implemented by an instruction to change the numerical value of the corresponding set value (hair length), for example, (1) is 0.1, (2) is 0.5 (3)

이후 제어부 170는 명령이 적용된 캐릭터의 외형 변화를 표시하는 935동작을 수행할 수 있다.Thereafter, thecontroller 170 may perform anoperation 935 for displaying a change in the appearance of the character to which the command is applied.

이에 따라 인공지능 캐릭터 제작자는 캐릭터의 외형을 음성입력만으로 간단하게 생성하거나 변경하는 동작을 수행할 수 있다.Accordingly, the artificial intelligence character creator can perform an operation of simply creating or changing the outline of the character by voice input only.

다양한 실시 예에 따라 사용자 단말기 측에서도 음성 입력을 이용한 캐릭터 외형 변경을 수행하거나 자신이 원하는 외형의 캐릭터를 새로 생성할 수 있다. 예컨대, 사용자 단말기 200는 입력되는 사용자 음성을 서버 기능을 함께 수행하는 제작장치 100측에 전송하고, 상기 제작장치 100측에서 도 9의 과정을 거쳐 수행된 캐릭터 외형 변화 결과를 다시 사용자 단말기 200측에 제공하는 방식으로 사용자 단말기 200에서 음성 명령을 이용하여 캐릭터의 외형을 변경하거나 생성할 수 있다.According to various embodiments, the user terminal can also change the character appearance using the voice input, or can create a new character of the desired outline. For example, theuser terminal 200 transmits the input user voice to theproduction apparatus 100 that performs the server function together, and transmits the character appearance change result, which is performed through the process of FIG. 9, to theuser terminal 200 side Theuser terminal 200 can change or create the appearance of the character using voice commands.

본 발명의 다양한 실시 예에 따라 상기 서버 100는 자동으로 인공지능 캐릭터를 생성하되, 기존의 응답 내용 및 캐릭터의 생성 이력을 기반으로 생성할 수 있다. 이에 대하여 도 10, 도 11a 및 도 11b를 참조하여 설명하기로 한다.According to various embodiments of the present invention, theserver 100 may automatically generate an artificial intelligence character, based on existing response contents and character creation history. This will be described with reference to Figs. 10, 11A and 11B.

도 10은 본 발명의 실시 예에 따른 자동생성부의 구성을 도시한 블록도이다.10 is a block diagram showing a configuration of an automatic generation unit according to an embodiment of the present invention.

도 11a 및 도 11b는 본 발명의 실시 예에 따른 인공지능에 의해 추가의 인공지능 캐릭터가 생성되는 동작에 관하여 도시한 도면이다.11A and 11B are diagrams illustrating an operation in which an artificial intelligence character is generated by artificial intelligence according to an embodiment of the present invention.

상기 자동 생성부 174는 응답 기반 생성부 1741, 외형 기반 생성부 1742를 포함하여 구성될 수 있다.Theautomatic generation unit 174 may include a response-basedgeneration unit 1741 and an appearance-based-basedgeneration unit 1742.

상기 응답 기반 생성부 1741가 수행하는 응답 기반으로 인공지능 캐릭터를 생성하는 동작은 도 11a를 참조하여 설명될 수 있다. 상기 도 11a는 기 생성된 캐릭터 1과 기 생성된 캐릭터 2에 대해서 도시하고 있다. 상기 캐릭터 1과 캐릭터 2는 서로 다른 분야의 인공지능 캐릭터임을 가정할 수 있다. 또는 상기 캐릭터 1과 캐릭터 2는 서로 다른 사용자가 생성한 인공지능 캐릭터임을 가정할 수 있다.The operation of generating the artificial intelligence character based on the response performed by the response-basedgenerator 1741 can be described with reference to FIG. 11A. FIG. 11A shows the createdcharacter 1 and the createdcharacter 2. It can be assumed that thecharacter 1 and thecharacter 2 are artificial intelligent characters in different fields. Or that thecharacter 1 and thecharacter 2 are artificial intelligence characters generated by different users.

도 11a를 참조하면, 캐릭터 1에 투입된 질문에 대하여 답변이 산출되는 것에 대하여 도시되고 있다. 그리고 상기 11a는 캐릭터 1에 투입된 질문 a에 대하여는 a'가 산출되고, 질문 b에 대하여는 b'가 산출됨을 도시하고 있다. 이 때 상기 a, b, c의 차이는 각 질문의 문장 내용을 의미할 수도 있고, 질문의 분야를 의미할 수도 있다. 도 11a에 따르면, 캐릭터 1에 a, b, c 의 질문이 투입되어 각각의 질문에 대응하는 a', b', c'가 산출될 수 있고, 캐릭터 2에 d, e, f의 질문이 투입되어, 각각의 질문에 대응하는 d', e', f'가 산출될 수 있다.Referring to FIG. 11A, an answer is calculated for a question put in thecharacter 1. 11A shows that a 'is calculated for the question a put in thecharacter 1, and b' is calculated for the question b. In this case, the difference between a, b, and c may mean the content of the sentence of each question, or the field of the question. According to FIG. 11A, the questions a, b, and c are inputted to thecharacter 1, a ', b', and c 'corresponding to the respective questions can be calculated, and the question of d, e, So that d ', e', and f 'corresponding to each question can be calculated.

응답 기반 생성부 1741는 각 질문 또는 각 질문에 대응하는 응답 내용은 그 종류별로 횟수가 카운팅할 수 있다. 그리고 응답 횟수가 기 설정된 기준값 이상인 내용에 한하여 해당 내용은 새로운 인공지능 캐릭터를 생성하기 위한 기반 내용이 될 수 있다. 예컨대, a'의 출력횟수가 1회, b'의 출력횟수가 3회, c'의 출력횟수가 7회, d'의 출력횟수가 8회, e'의 출력횟수가 2회, f'의 출력횟수가 1회라고 가정하고, 기 설정된 기준값이 6회라고 가정하면, 상기 응답 기반 생성부 1741는 기 설정된 기준값을 초과한 c'와 d'를 이용해 새로운 인공지능을 생성할 수 있다.The response-basedgeneration unit 1741 can count the number of times for each question or each response type corresponding to each question. And the contents of the contents may be the base contents for generating a new artificial intelligence character only when the number of responses is equal to or greater than the preset reference value. For example, the number of times of output of a 'is 1, the output of b' is 3, the output of c 'is 7, the output of d' is 8, the output of e 'is 2, Assuming that the number of times of output is one and assuming that the preset reference value is six times, the response-basedgenerating unit 1741 can generate a new artificial intelligence using c 'and d' exceeding a preset reference value.

상기 c'와 d'가 특정 키워드를 포함하는 내용이면, 상기 응답 기반 생성부 1741는 상기 c'와 d'가 포함하는 키워드의 공통 주제를 판단하는 동작, 또는 상기 c'와 d'가 포함하는 키워드를 도출할 수 있는 질문(예. 기 입력된 질문인 c, d)을 추출하는 동작, 또는 상기 c'와 d'가 포함하는 키워드로 웹상에서 검색되는 질문 및 답변을 추출하는 동작을 포함하여 수행할 수 있다.If the contents c 'and d' are contents including a specific keyword, the response-basedgeneration unit 1741 determines whether the common subject of the keywords included in the c 'and d' Extracting a question capable of deriving a keyword (e.g., a previously input question c, d), or extracting a question and an answer searched on the web with the keyword included in the c 'and d' Can be performed.

만약 상기 c'와 d'가 키워드가 아닌 일 문장을 의미하는 경우, 상기 응답 기반 생성부 1741는 해당 문장을 도출하는, 기 입력된 질문 내용 및 기 입력된 이후 상기 응답 기반 생성부 1741는 기 설정된 기준값을 초과한 응답 항목(예, c', d' )과 관련하여 업데이트를 수행한 캐릭터 3을 제작할 수 있다. 예컨대, 상기 응답 기반 생성부 1741가 기준값을 초과한 응답 항목의 공통 주제(또는 분야)를 판단한 결과, '전자장치'로 판단되는 경우, 이후 상기 응답 기반 생성부 1741는 소정의 기간동안 '전자장치'와 관련된 웹상의 데이터를 수집하고 이를 학습하는 동작을 수행할 수 있다. 이 때 상기 '전자장치'와 관련하여 수집되는 데이터는 예컨대, '전자장치의 판매가격, 전자장치별 사양, 전자장치별 동작 원리' 등에 관한 정보일 수 있다.If the words c 'and d' mean one sentence other than a keyword, the response-basedgeneration unit 1741 generates the response sentence, It is possible to produce thecharacter 3 that has been updated with respect to the response item (e.g., c ', d') exceeding the reference value. For example, if the response-basedgeneration unit 1741 determines that the electronic device is the common topic (or field) of the response item exceeding the reference value, then the response-basedgeneration unit 1741 generates the response- ≪ / RTI > can collect data on the web associated with the ' The data collected in association with the 'electronic device' may be, for example, information on the sales price of the electronic device, the specification by the electronic device, the operation principle by the electronic device, and the like.

상기 과정을 통해 상기 응답 기반 생성부 1741는 사용자의 요청에 의해 생성된 인공지능 캐릭터 외에 사용자가 인공지능 캐릭터를 이용한 이력(질문 내역, 응답 내역, 응답 내역을 통해 추출된 주요 대화 주제, 응답 내역을 통해 추출된 키워드로 검색되는 내용 등)을 이용한 새로운 인공지능 캐릭터를 생성할 수 있다.Through the above process, the response-basedgeneration unit 1741 can generate a response based on the AI character (the question history, the response history, the main conversation topic extracted through the response history, the response history, etc.), in addition to the artificial intelligence character generated by the user's request The contents retrieved by the extracted keywords, etc.) can be generated.

캐릭터 1 및 캐릭터 2는 제작자가 학습시킨 범위에서 사용자의 질문에 대한 답변을 제공할 수 있을 것이다. 그러나 새롭게 생성된 캐릭터 3은 사용자의 기존의 인공지능 캐릭터 활용 이력을 기반으로 추가의 학습을 수행할 수 있으며, 그에 따라 캐릭터 3은 사용자가 갖는 특정 관심 분야에 있어서 답변 능력이 향상될 수 있다.Character 1 andcharacter 2 will be able to provide answers to the user's questions in the range learned by the creator. However, the newly createdcharacter 3 can perform additional learning based on the user's existing artificial intelligence character utilization history, and accordingly, thecharacter 3 can improve the ability to answer in the user's specific field of interest.

다양한 실시 예에 따라 상기 응답 기반 생성부 1741는 응답 항목의 기준값 초과 여부와 관계없이, 전체 응답 내용 중 가장 많이 산출된 응답 항목을 순위에 따라 추출하고 추출된 응답 항목과 관련된 데이터를 학습시킨 새로운 인공지능 캐릭터를 생성할 수도 있다.According to various embodiments, the response-basedgeneration unit 1741 extracts the response items that have been calculated the greatest among the entire response contents regardless of whether the response item exceeds the reference value or not, An intelligent character can also be created.

또한 상기 자동 생성부 174는 외형 기반 생성부 1742를 포함할 수 있는데, 상기 외형 기반 생성부 1742가 신규 인공지능 캐릭터를 생성하는 동작에 대하여 설명하는 도면은 11b와 같다. 도 11b를 참조하면, 외형 기반 생성부 1742는 사용자별 생성 캐릭터 외형 정보를 분류할 수 있다. 그리고 다양한 실시 예에 따라 상기 외형 기반 생성부 1742는 각 사용자를 사용자 1, 사용자 2 등으로 분류할 수 있다. 이 때 사용자 1 및 사용자 2 등을 분류하는 기준은 다양할 수 있으며, 예컨대 인공지능 캐릭터 활용 빈도가 될 수 있다. 예컨대, 상기 외형 기반 생성부 1742는 인공지능 캐릭터 활용 빈도가 가장 높은 1군 사용자 그룹을 사용자 1 로 지정하고, 그 다음으로 활용도가 높은 2군 사용자 그룹을 사용자 2로, 그 이하를 각각 사용자 3, 사용자 4로 설정하여 분류할 수 있다.Also, theautomatic generation unit 174 may include an appearance-based-basedgeneration unit 1742, and a diagram for explaining an operation of the appearance-basedgeneration unit 1742 to generate a new artificial intelligence character is shown in 11b. Referring to FIG. 11B, the appearance-based-basedgenerating unit 1742 can classify the appearance information of the generated character for each user. According to various embodiments, the appearance-basedgeneration unit 1742 may classify each user as auser 1, auser 2, and the like. In this case, the criteria for classifying theuser 1 and theuser 2 may be various, and for example, an artificial intelligence character may be used. For example, the appearance type basedgeneration unit 1742 designates a first group user group having the highest utilization frequency of the AI character as theuser 1, a second group user group having the next highest utilization as theuser 2,User 4 can be set and classified.

도 11b를 참조하면, 사용자 1 에 속하는 캐릭터가 캐릭터 1, 캐릭터 5, 캐릭터 7이고, 사용자 2에 속하는 캐릭터가 캐릭터 2, 캐릭터 6, 사용자 3에 속하는 캐릭터가 캐릭터 3, 마지막으로 사용자 4에 속하는 캐릭터가 캐릭터 4인 것으로 도시되고 있다. 이 때 각 캐릭터가 나타내는 도형은 캐릭터의 외형별 특징을 의미하는 것으로 가정하기로 한다. 예컨대, 상기 도형이 캐릭터의 얼굴형을 의미한다고 가정할 경우, 캐릭터 1, 캐릭터 2, 캐릭터 3은 사각 얼굴형을, 캐릭터 5 및 캐릭터 6은 둥근 얼굴형을, 캐릭터 7은 삼각, 캐릭터 4는 역삼각형의 얼굴형을 의미하는 것일 수 있다. 상기 도 11b와 같은 분류 체계는 특정한 1가지의 외형 특징에 한정되지 않고, 다수개의 외형 특징(예, 긴머리, 여성, 역삼각 얼굴형 캐릭터와 파마머리, 남성, 둥근 얼굴형 캐릭터 등으로 분류)에 따라 설정될 수 있다.11B, the character belonging to theuser 1 belongs to thecharacter 1, the character 5 and thecharacter 7, the character belonging to theuser 2 belongs to thecharacter 2, the character 6 belongs to thecharacter 3, thecharacter 3 belongs to thecharacter 3, Is thecharacter 4. In this case, it is assumed that the figure represented by each character means the characteristic of each character of the character. For example, if the figure refers to the face type of the character,character 1,character 2, andcharacter 3 are square face types, character 5 and character 6 are round face types,character 7 is triangular, It may be the face type of a triangle. 11B is not limited to one particular outline feature but may be classified into a plurality of outline features (for example, long hair, female, reverse omnidirectional face character, perm hair, male, round face type character, etc.) . ≪ / RTI >

외형 기반 생성부 1742는 각 사용자 그룹별 주요 사용 캐릭터가 도 11b에서와 같이 분류되고 있고, 캐릭터 분류 기준이 캐릭터의 얼굴형을 의미하는 것이라고 가정할 때, 상기 외형 기반 생성부 1742는 신규 캐릭터인 캐릭터 8을 생성 시, 다양한 사용자들에 의해 보편적으로 선호되는 캐릭터 외형 특징을 선택하는 방법(전체 사용자들의 공통 캐릭터 특징 추출), 인공지능 캐릭터 활용 빈도가 높은 사용자들이 선호하는 캐릭터 외형 특징을 선택하는 방법(사용자 그룹별 외형 선호 특징에 가중치 부여, 단, 사용자 1 그룹에서 사용자 4그룹으로 갈수록 가중치 차감) 등에 의해 선택된 외형 특징으로 캐릭터를 생성할 수 있다.11B, and the character classification reference means the face type of the character, the appearance-basedgeneration unit 1742 generates the appearance type based on thecharacter 8, a method of selecting a universally preferred character appearance feature by various users (common character feature extraction of all users), a method of selecting a character appearance feature preferred by users with a high utilization frequency of the AI character Weighting the outline preference features for each user group, but subtracting the weight from theuser 1 group to theuser 4 group), or the like.

다양한 실시 예에 따라 상기 외형 기반 생성부 1742가 생성하는 캐릭터의 외형은 상기 응답 기반 생성부 1741이 생성하는 인공지능 캐릭터의 외형이 될 수 있다. 즉, 다양한 실시 예에 따라 상기 응답 기반 생성부 1741가 생성하는 인공지능 캐릭터와 외형 기반 생성부 1742가 생성하는 인공지능 캐릭터는 동일한 캐릭터일 수도 있고, 별도의 상이한 캐릭터일 수도 있다.The outline of the character generated by the outline-basedgenerating unit 1742 may be the outline of the AI character generated by the response-basedgenerating unit 1741 according to various embodiments. That is, the artificial intelligence character generated by the response-basedgenerator 1741 and the artificial intelligence character generated by the appearance-based-basedgenerator 1742 may be the same character or different characters according to various embodiments.

상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Although the present invention has been described in detail with reference to the above examples, those skilled in the art will be able to make adaptations, changes and modifications to these examples without departing from the scope of the present invention. In other words, in order to achieve the intended effect of the present invention, all the functional blocks shown in the drawings are separately included or all the steps shown in the drawings are not necessarily followed in the order shown, It can be in the range.

100 : 인공지능 캐릭터 제작 장치
110 : 통신부
120 : 저장부
130 : 입력부
140 : 표시부
150 : 오디오 처리부
170 : 제어부
171 : 음성인식 처리부
172 : 캐릭터 생성부
173 : 증강현실 영상 생성부
174 : 자동 생성부
175 : 인공지능 관리부
176 : 인공지능 캐릭터 운영부
177 : 선호정보 판단부
100: Artificial intelligence character making device
110:
120:
130:
140:
150: Audio processor
170:
171: Speech recognition processor
172:
173: augmented reality image generation unit
174:
175: Artificial Intelligence Management
176: Artificial Intelligence Character Operator
177: Preference information judgment section

Claims (10)

Translated fromKorean
증강현실용 인공지능 캐릭터를 제작하기 위한 전자장치에 있어서,
사용자 단말기 및 웹으로부터 인공지능 캐릭터 생성에 요구되는 정보를 수신하고, 사용자 단말기에 완성된 인공지능 캐릭터를 이용한 서비스 콘텐츠를 전송하는 통신부;
인공지능 캐릭터 생성에 요구되는 캐릭터 제작 데이터를 저장하는 저장부;
음성 인식을 위해 제작자의 음성을 입력받고, 인공지능 캐릭터의 답변 내용을 음성으로 출력하는 오디오 처리부; 및
음성으로 입력된 제작자의 명령을 인식하고 상기 명령에 기반하여 인공지능 캐릭터를 생성하는 제어부를 포함하고,
상기 제어부는
입력된 음성을 분석하고, 해당 음성의 의미를 판단하는 음성 인식 처리부;
상기 음성 인식 처리부에 의해 인식된 제작자의 음성 내용 중 캐릭터 생성과 관련된 명령을 추출하고, 추출된 명령과 매칭되는 프로그램 언어를 이용하여 캐릭터 생성을 수행하되, 사용자 입력에 대응하여 인공 지능 캐릭터의 외형을 제작하는 캐릭터 생성부;
사용자 단말기로부터 수신된 사용자의 SNS 계정 정보, 사진 정보 및 캐릭터 생성 이력 정보를 포함하는 사용자 선호 정보를 추출하며,
상기 추출한 사용자 선호 정보를 기반으로 사용자별 캐릭터의 기본 설정값 지정하여 사용자 단말기에 제공하고, 상기 캐릭터의 기본 설정값은 어조, 목소리, 동작, 의상, 얼굴 및 체형을 항목으로 포함하는 선호 정보 판단부;
인공지능 캐릭터를 생성하여 표시하는 증강현실 영상 생성부; 및
제작자로부터 인공지능 캐릭터가 생성되는 주기, 특정 외형 설정값의 변화 정도 및 목소리 주파수의 변화 정도에 관한 조건을 입력받고, 상기 조건에 따라 인공지능 캐릭터의 외형 및 목소리의 특징이 주기별로 변경되도록 인공지능 캐릭터를 자동 생성 및 업데이트하는 자동 생성부;를 포함하고,
상기 증강현실 영상 생성부는
증강현실 동작 상황에서 인공지능 캐릭터가 표시되는 조건을 지정하되, 사용자 단말기의 위치, 사용자 단말기가 촬영하는 이미지 및 사용자 단말기에 입력되는 음성을 포함하여 인공지능 캐릭터의 표시 조건을 설정하는 지정 정보 생성부;
인공지능 캐릭터를 증강현실로 표시하기 위한 조건을 인식하는 환경 정보 인식부;
상기 환경 정보 인식부에 의해 기 설정된 조건에 일치하는 이벤트가 인식된 경우, 상기 조건과 관련된 인공 지능 캐릭터를 선택하고, 선택된 인공지능 캐릭터를 사용자 단말기의 카메라 촬영 화면에 겹쳐 표시하도록 제어하는 증강현실 적용부;를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
An electronic device for producing an artificial intelligence character for an augmented reality,
A communication unit for receiving information required for the artificial intelligence character generation from the user terminal and the web and transmitting the service contents using the artificial intelligence character to the user terminal;
A storage unit for storing character production data required for artificial intelligence character generation;
An audio processing unit for receiving a voice of a maker for voice recognition and outputting an answer of the AI character by voice; And
And a control unit for recognizing an instruction of a manufacturer inputted by voice and generating an artificial intelligence character based on the command,
The control unit
A speech recognition processor for analyzing the input speech and determining the meaning of the speech;
A character recognition unit for extracting a command related to character generation from the speech contents recognized by the speech recognition processing unit and generating a character using a programming language matched with the extracted command, A character generating unit for producing the character;
Extracts user preference information including SNS account information, photo information, and character creation history information of the user received from the user terminal,
A preference information determination unit that determines a preference value of a character based on the extracted user preference information and provides the preference value to a user terminal, and the preference value of the character includes a preference information, a voice, an action, a costume, ;
An augmented reality image generation unit for generating and displaying an artificial intelligence character; And
A condition for changing the appearance and voice characteristics of the artificial intelligent character is changed according to the conditions, and the artificial intelligence And an automatic generation unit for automatically generating and updating the character,
The augmented reality image generation unit
A designation information generating unit for designating a display condition of the artificial intelligent character including a position of the user terminal, an image captured by the user terminal, and a voice input to the user terminal, ;
An environment information recognition unit for recognizing a condition for displaying the artificial intelligence character as an augmented reality;
An augmented reality application for controlling an artificial intelligence character associated with the condition to be displayed so that the selected artificial intelligence character is superimposed on a camera shooting screen of the user terminal when an event matching the predetermined condition is recognized by the environment information recognition unit And an artificial intelligence character for augmented reality.
제 1항에 있어서,
상기 저장부는
사용자가 입력하는 질문에 대한 인공지능 캐릭터의 답변 항목을 포함하는 대화 데이터 및 사용자가 입력하는 질문의 룰 데이터를 저장하고,
상기 제어부는
상기 대화 데이터 및 룰 데이터에 기반하여 사용자가 입력하는 질문에 대응하는 답변을 산출하는 인공지능 관리부; 를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
The method according to claim 1,
The storage unit
Storing chat data including an answer item of an artificial intelligence character for a question inputted by a user and rule data of a question inputted by a user,
The control unit
An artificial intelligence management unit for calculating a response corresponding to a question input by a user based on the conversation data and rule data; And an artificial intelligence character for augmented reality.
제 1항에 있어서,
상기 캐릭터 생성부는
음성 인식부에서 인식한 사용자의 음성내용 중 캐릭터 생성에 관련된 명령을 추출하는 명령 추출부;
상기 명령 추출부에서 추출된 명령에 매칭되는 프로그램 언어의 존재 여부를 판단하고, 매칭되는 프로그램 언어가 확인되면, 상기 추출된 명령을 매칭되는 프로그램 언어로 변환하는 언어 변환부; 및
상기 프로그램 언어를 입력하여 인공지능 캐릭터의 외형을 생성하는 동작을 수행하는 명령 적용부;를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
The method according to claim 1,
The character generating unit
A command extracting unit for extracting a command related to character creation from voice contents of the user recognized by the voice recognition unit;
A language conversion unit for determining whether or not a program language matched with the command extracted by the command extraction unit exists, and converting the extracted command into a matched program language if a matching program language is identified; And
And an instruction application unit for inputting the program language and generating an appearance of the artificial intelligent character.
삭제delete삭제delete삭제delete제 1항에 있어서,
상기 제어부는
인공지능 캐릭터가 말하는 영상을 제공할 시, 말하는 내용에 대응하는 입모양 이미지를 적용하여 해당 영상을 출력하는 인공지능 캐릭터 운영부를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
The method according to claim 1,
The control unit
And an artificial intelligence character operating unit for applying a mouth-shaped image corresponding to the contents of the artificial intelligence character when the artificial intelligence character is presented and outputting the corresponding image.
삭제delete사용자 단말기 및 웹으로부터 인공지능 캐릭터 생성에 요구되는 정보를 수신하고, 사용자 단말기에 완성된 인공지능 캐릭터를 이용한 서비스 콘텐츠를 전송하는 통신부;
인공지능 캐릭터 생성에 요구되는 캐릭터 제작 데이터를 저장하는 저장부;
음성 인식을 위해 제작자의 음성을 입력받고, 인공지능 캐릭터의 답변 내용을 음성으로 출력하는 오디오 처리부; 및
음성으로 입력된 제작자의 명령을 인식하고 상기 명령에 기반하여 인공지능 캐릭터를 생성하는 제어부;를 포함하되,
상기 제어부는
상기 음성 인식 처리부에 의해 인식된 제작자의 음성 내용 중 캐릭터 생성과 관련된 명령을 추출하고, 추출된 명령과 매칭되는 프로그램 언어를 이용하여 캐릭터 생성을 수행하되, 사용자 입력에 대응하여 인공 지능 캐릭터의 외형을 제작하는 캐릭터 생성부;
사용자 단말기로부터 수신된 사용자의 SNS 계정 정보, 사진 정보, 캐릭터 생성 이력 정보 중 적어도 하나를 포함하여 사용자 선호 정보를 추출하며,
상기 추출한 사용자 선호 정보를 기반으로 사용자별 캐릭터의 기본 설정값 지정하여 사용자 단말기에 제공하고, 상기 캐릭터의 기본 설정값은 어조, 목소리, 동작, 의상, 얼굴 및 체형을 항목으로 포함하는 선호 정보 판단부;
인공지능 캐릭터를 생성하여 표시하는 증강현실 영상 생성부;및
제작자로부터 인공지능 캐릭터가 생성되는 주기, 특정 외형 설정값의 변화 정도 및 목소리 주파수의 변화 정도에 관한 조건을 입력받고, 상기 조건에 따라 인공지능 캐릭터의 외형 및 목소리의 특징이 주기별로 변경되도록 인공지능 캐릭터를 자동 생성 및 업데이트하는 자동 생성부;를 포함하고,
상기 증강현실 영상 생성부는
증강현실 동작 상황에서 인공지능 캐릭터가 표시되는 조건을 지정하되, 사용자 단말기의 위치, 사용자 단말기가 촬영하는 이미지, 사용자 단말기에 입력되는 음성 내용 중 적어도 하나를 포함하여 인공지능 캐릭터의 표시 조건을 설정하는 지정 정보 생성부;
인공지능 캐릭터를 증강현실로 표시하기 위한 조건을 인식하는 환경 정보 인식부;
상기 환경 정보 인식부에 의해 기 설정된 조건에 일치하는 이벤트가 인식된 경우, 상기 조건과 관련된 인공 지능 캐릭터를 선택하고, 선택된 인공지능 캐릭터를 사용자 단말기의 카메라 촬영 화면에 겹쳐 표시하도록 제어하는 증강현실 적용부;를 포함하는 증강현실용 인공지능 캐릭터의 제작 장치; 및
상기 인공지능 캐릭터의 제작 장치에서 제작된 인공지능 캐릭터에 대한 데이터를 수신하고, 증강현실에서 인공지능 캐릭터를 표시할지 여부를 판단하기 위한 조건이 되는 사용자 단말기의 상태 정보를 상기 인공지능 캐릭터의 제작 장치로 전송하는 통신부;
증강현실 실행에 요구되는 배경화면을 촬영하는 카메라부;
상기 카메라부가 촬영하는 배경화면 상에 상기 인공지능 캐릭터를 오버레이한 영상을 표시하는 표시부;
상기 인공지능 캐릭터로 전달할 음성 형태의 사용자 질문을 입력받고, 상기 인공지능 캐릭터의 상기 사용자 질문에 대한 답변을 음성으로 출력하는 오디오 처리부;
상기 카메라부가 촬영한 배경화면을 출력하되, 상기 인공지능 캐릭터의 제작 장치로부터 수신되는 신호에 따라 인공지능 캐릭터를 오버레이하여 표시하도록 제어하고, 인공지능 캐릭터에 입력되는 음성 형태의 사용자 질문을 인식 및 처리하여 상기 인공지능 캐릭터의 제작 장치로 전송하도록 제어하는 제어부;를 포함하는 사용자 단말기;로 구성되는 서비스 시스템.
A communication unit for receiving information required for the artificial intelligence character generation from the user terminal and the web and transmitting the service contents using the artificial intelligence character to the user terminal;
A storage unit for storing character production data required for artificial intelligence character generation;
An audio processing unit for receiving a voice of a maker for voice recognition and outputting an answer of the AI character by voice; And
And a control unit for recognizing an instruction of a manufacturer inputted by voice and generating an artificial intelligence character based on the command,
The control unit
A character recognition unit for extracting a command related to character generation from the speech contents recognized by the speech recognition processing unit and generating a character using a programming language matched with the extracted command, A character generating unit for producing the character;
Extracts user preference information including at least one of SNS account information of the user, photo information, and character creation history information received from the user terminal,
A preference information determination unit that determines a preference value of a character based on the extracted user preference information and provides the preference value to a user terminal, and the preference value of the character includes a preference information, a voice, an action, a costume, ;
An augmented reality image generation unit for generating and displaying an artificial intelligence character;
A condition for changing the appearance and voice characteristics of the artificial intelligent character is changed according to the conditions, and the artificial intelligence And an automatic generation unit for automatically generating and updating the character,
The augmented reality image generation unit
A condition for displaying the artificial intelligent character is set in the augmented reality operation state, and at least one of the position of the user terminal, the image captured by the user terminal, and the voice contents input to the user terminal is set to set the display condition of the artificial intelligent character A designation information generating unit;
An environment information recognition unit for recognizing a condition for displaying the artificial intelligence character as an augmented reality;
An augmented reality application for controlling an artificial intelligence character associated with the condition to be displayed so that the selected artificial intelligence character is superimposed on a camera shooting screen of the user terminal when an event matching the predetermined condition is recognized by the environment information recognition unit An artificial intelligence character for augmented reality including an artificial intelligence character; And
The state information of the user terminal, which is a condition for determining whether or not the artificial intelligent character is to be displayed in the augmented reality, is received from the artificial intelligent character producing apparatus of the artificial intelligent character, A communication unit for transmitting the information;
A camera unit for photographing a background screen required for executing an augmented reality;
A display unit for displaying an image overlaid on the artificial intelligence character on a background screen shot by the camera unit;
An audio processing unit for inputting a voice-type user question to be transmitted to the artificial intelligent character and outputting an answer to the user question of the artificial intelligent character as a voice;
Wherein the control unit controls the display unit to display the background image taken by the camera unit and overlay and display the artificial intelligence character according to a signal received from the artificial intelligence character production apparatus and to recognize and process the user query in the form of voice inputted into the artificial intelligence character And a control unit for controlling the artificial intelligence character to be transmitted to the artificial intelligence character production apparatus.
삭제delete
KR1020180014492A2018-02-062018-02-06Apparatus for making artificial intelligence character for augmented reality and service system using the sameActiveKR101992424B1 (en)

Priority Applications (2)

Application NumberPriority DateFiling DateTitle
KR1020180014492AKR101992424B1 (en)2018-02-062018-02-06Apparatus for making artificial intelligence character for augmented reality and service system using the same
PCT/KR2018/015964WO2019156332A1 (en)2018-02-062018-12-14Device for producing artificial intelligence character for augmented reality and service system using same

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020180014492AKR101992424B1 (en)2018-02-062018-02-06Apparatus for making artificial intelligence character for augmented reality and service system using the same

Publications (1)

Publication NumberPublication Date
KR101992424B1true KR101992424B1 (en)2019-06-24

Family

ID=67056058

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020180014492AActiveKR101992424B1 (en)2018-02-062018-02-06Apparatus for making artificial intelligence character for augmented reality and service system using the same

Country Status (2)

CountryLink
KR (1)KR101992424B1 (en)
WO (1)WO2019156332A1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20210040208A (en)*2019-10-022021-04-13최대철System for providing active artificial intelligence image character based on mobile device
KR20210093003A (en)*2020-01-172021-07-27마인드로직 주식회사Method and system for providing conversation with artificial intelligence character
KR20210108565A (en)*2020-02-262021-09-03최갑천Virtual contents creation method
KR20210129713A (en)*2020-03-312021-10-28베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Interactive object driving method, apparatus, device and storage medium
KR20210131415A (en)*2019-08-282021-11-02베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Interactive method, apparatus, device and recording medium
KR20220062868A (en)*2020-11-092022-05-17김종훈Method for providing experimental information using artificial intelligence and apparatus using the same
WO2022182064A1 (en)*2021-02-282022-09-01조지수Conversation learning system using artificial intelligence avatar tutor, and method therefor
KR102474122B1 (en)*2022-05-122022-12-06주식회사 윗유Method and apparatus for recommending products using augmented reality based on user type and user-related information
WO2023008842A1 (en)*2021-07-262023-02-02마인드로직 주식회사Artificial intelligence conversation engine learning method and system thereof
KR102544262B1 (en)*2022-08-192023-06-16(주)페르소나에이아이Electronic device providing two-way interaction service between user and meta-human on streaming basis
WO2023140577A1 (en)*2022-01-182023-07-27삼성전자 주식회사Method and device for providing interactive avatar service
KR20230123236A (en)*2022-02-162023-08-23이화여자대학교 산학협력단Stretchable display artificial intelligence speaker device equipped with celebrity npc and method for providing notification using the same
WO2023172063A1 (en)*2022-03-112023-09-14주식회사 쓰리디팩토리Open avatar provision server and open avatar provision program
KR20230165658A (en)*2022-05-272023-12-05주식회사 피치솔루션Method and apparatus for providing virtual reality service that can provide reliability of user avatars in virtual relity space
KR20240070209A (en)*2022-11-142024-05-21주식회사 딥파인Image processing system
KR20250054258A (en)*2023-10-132025-04-23이엔유 주식회사Industrial information providing system using avatars integrated with AI model that learned real-time information
KR20250073879A (en)2023-11-202025-05-27주식회사 렛시Method for providing augmented reality authoring services and platform operated thereby

Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20090001716A (en)*2007-05-142009-01-09이병수 Growing Intelligent Virtual Assistant Operating System and Its Methods
KR20150057424A (en)*2013-11-192015-05-28한국전자통신연구원A system and method for interaction with augmented reality avatar

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20050033918A (en)*2003-10-072005-04-14황후Electronic shopping system and the method which use an artificial intelligence avatar
KR102304023B1 (en)*2015-04-032021-09-24한국과학기술원System for providing interative design service based ar
KR20170112406A (en)*2016-03-312017-10-12한국전자통신연구원Apparatus and method for taking a picture with avatar in augmented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20090001716A (en)*2007-05-142009-01-09이병수 Growing Intelligent Virtual Assistant Operating System and Its Methods
KR20150057424A (en)*2013-11-192015-05-28한국전자통신연구원A system and method for interaction with augmented reality avatar

Cited By (28)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR20210131415A (en)*2019-08-282021-11-02베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Interactive method, apparatus, device and recording medium
KR102707660B1 (en)*2019-08-282024-09-19베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Interactive methods, apparatus, devices and recording media
KR102298070B1 (en)*2019-10-022021-09-07최대철System for providing active artificial intelligence image character based on mobile device
KR20210040208A (en)*2019-10-022021-04-13최대철System for providing active artificial intelligence image character based on mobile device
KR20210093003A (en)*2020-01-172021-07-27마인드로직 주식회사Method and system for providing conversation with artificial intelligence character
KR102823758B1 (en)*2020-01-172025-06-23마인드로직 주식회사Method and system for providing conversation with artificial intelligence character
KR20210108565A (en)*2020-02-262021-09-03최갑천Virtual contents creation method
KR102388465B1 (en)2020-02-262022-04-21최갑천Virtual contents creation method
KR102707613B1 (en)*2020-03-312024-09-19베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Methods, apparatus, devices and storage media for driving interactive objects
KR20210129713A (en)*2020-03-312021-10-28베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Interactive object driving method, apparatus, device and storage medium
KR20220062868A (en)*2020-11-092022-05-17김종훈Method for providing experimental information using artificial intelligence and apparatus using the same
KR102516702B1 (en)2020-11-092023-03-30김종훈Method for providing experimental information using artificial intelligence and apparatus using the same
WO2022182064A1 (en)*2021-02-282022-09-01조지수Conversation learning system using artificial intelligence avatar tutor, and method therefor
WO2023008842A1 (en)*2021-07-262023-02-02마인드로직 주식회사Artificial intelligence conversation engine learning method and system thereof
WO2023140577A1 (en)*2022-01-182023-07-27삼성전자 주식회사Method and device for providing interactive avatar service
KR20230123236A (en)*2022-02-162023-08-23이화여자대학교 산학협력단Stretchable display artificial intelligence speaker device equipped with celebrity npc and method for providing notification using the same
KR102657180B1 (en)2022-02-162024-04-12이화여자대학교 산학협력단Stretchable display artificial intelligence speaker device equipped with celebrity npc and method for providing notification using the same
WO2023172063A1 (en)*2022-03-112023-09-14주식회사 쓰리디팩토리Open avatar provision server and open avatar provision program
KR102474122B1 (en)*2022-05-122022-12-06주식회사 윗유Method and apparatus for recommending products using augmented reality based on user type and user-related information
KR20230165658A (en)*2022-05-272023-12-05주식회사 피치솔루션Method and apparatus for providing virtual reality service that can provide reliability of user avatars in virtual relity space
KR102610299B1 (en)2022-05-272023-12-06주식회사 피치솔루션Method and apparatus for providing virtual reality service that can provide reliability of user avatars in virtual relity space
KR102544262B1 (en)*2022-08-192023-06-16(주)페르소나에이아이Electronic device providing two-way interaction service between user and meta-human on streaming basis
KR20240070209A (en)*2022-11-142024-05-21주식회사 딥파인Image processing system
KR102710968B1 (en)*2022-11-142024-09-30주식회사 딥파인Image processing system
WO2024106567A1 (en)*2022-11-142024-05-23주식회사 딥파인Image processing system for augmented content conversion
KR20250054258A (en)*2023-10-132025-04-23이엔유 주식회사Industrial information providing system using avatars integrated with AI model that learned real-time information
KR102832877B1 (en)2023-10-132025-07-14이엔유 주식회사Industrial information providing system using avatars integrated with AI model that learned real-time information
KR20250073879A (en)2023-11-202025-05-27주식회사 렛시Method for providing augmented reality authoring services and platform operated thereby

Also Published As

Publication numberPublication date
WO2019156332A1 (en)2019-08-15

Similar Documents

PublicationPublication DateTitle
KR101992424B1 (en)Apparatus for making artificial intelligence character for augmented reality and service system using the same
JP7408048B2 (en) Anime character driving method and related device based on artificial intelligence
US12425716B2 (en)Content capture with audio input feedback
US12063321B2 (en)Modular camera interface with context-based display elements utilizing first and second lens
JP5866728B2 (en) Knowledge information processing server system with image recognition system
CN119359871A (en) Body pose estimation
US10127226B2 (en)Method for dialogue between a machine, such as a humanoid robot, and a human interlocutor utilizing a plurality of dialog variables and a computer program product and humanoid robot for implementing such a method
CN111339246A (en)Query statement template generation method, device, equipment and medium
US10204292B2 (en)User terminal device and method of recognizing object thereof
JP2018014094A (en)Virtual robot interaction method, system, and robot
CN113014471A (en)Session processing method, device, terminal and storage medium
JP2020507159A (en) Picture push method, mobile terminal and storage medium
US12271982B2 (en)Generating modified user content that includes additional text content
US20210224310A1 (en)Electronic device and story generation method thereof
CN115499613A (en)Video call method and device, electronic equipment and storage medium
US20250218087A1 (en)Generating modified user content that includes additional text content
US20220318325A1 (en)Determining classification recommendations for user content
CN112820265B (en)Speech synthesis model training method and related device
CN117689752A (en)Literary work illustration generation method, device, equipment and storage medium
CN117789306A (en)Image processing method, device and storage medium
CN115062131B (en) A human-computer interaction method and device based on multimodality
JP7371770B2 (en) Avatar control program, avatar control method, and information processing device
CN116434212A (en)Audio-visual combined character learning method, device, storage medium and audio-visual terminal
WO2022212669A1 (en)Determining classification recommendations for user content
CN119759215B (en) A method and system for interaction between virtual digital cultural relics and audiences

Legal Events

DateCodeTitleDescription
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20180206

PA0201Request for examination
PE0902Notice of grounds for rejection

Comment text:Notification of reason for refusal

Patent event date:20190228

Patent event code:PE09021S01D

E701Decision to grant or registration of patent right
PE0701Decision of registration

Patent event code:PE07011S01D

Comment text:Decision to Grant Registration

Patent event date:20190531

GRNTWritten decision to grant
PR0701Registration of establishment

Comment text:Registration of Establishment

Patent event date:20190618

Patent event code:PR07011E01D

PR1002Payment of registration fee

Payment date:20190618

End annual number:3

Start annual number:1

PG1601Publication of registration
PR1001Payment of annual fee

Payment date:20220413

Start annual number:4

End annual number:4

PR1001Payment of annual fee

Payment date:20230518

Start annual number:5

End annual number:5

PR1001Payment of annual fee

Payment date:20240618

Start annual number:6

End annual number:6

PR1001Payment of annual fee

Payment date:20250602

Start annual number:7

End annual number:7


[8]ページ先頭

©2009-2025 Movatter.jp