Movatterモバイル変換


[0]ホーム

URL:


KR102091006B1 - Display apparatus and method for controlling the display apparatus - Google Patents

Display apparatus and method for controlling the display apparatus
Download PDF

Info

Publication number
KR102091006B1
KR102091006B1KR1020190073988AKR20190073988AKR102091006B1KR 102091006 B1KR102091006 B1KR 102091006B1KR 1020190073988 AKR1020190073988 AKR 1020190073988AKR 20190073988 AKR20190073988 AKR 20190073988AKR 102091006 B1KR102091006 B1KR 102091006B1
Authority
KR
South Korea
Prior art keywords
voice
user
display
output
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190073988A
Other languages
Korean (ko)
Other versions
KR20190077268A (en
Inventor
차태환
박태제
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사filedCritical삼성전자주식회사
Priority to KR1020190073988ApriorityCriticalpatent/KR102091006B1/en
Publication of KR20190077268ApublicationCriticalpatent/KR20190077268A/en
Application grantedgrantedCritical
Publication of KR102091006B1publicationCriticalpatent/KR102091006B1/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

디스플레이 장치가 개시된다. 디스플레이 장치는, 디스플레이, 복수의 디스플레이 상황 별로 적용가능한 음성 명령의 예문을 저장하는 저장부 및 디스플레이 장치의 디스플레이 상황을 식별하고, 식별된 디스플레이 상황에서 실행 가능한 기능을 가이드하는 음성 명령의 예문을 포함하는 음성 명령 가이드를 디스플레이하도록 디스플레이를 제어하고, 음성 명령 가이드에 따라 사용자 음성이 입력되면, 사용자 음성에 대응되는 시스템 응답을 출력하는 제어부를 포함하며, 제어부는, 식별된 디스플레이 상황이 방송 프로그램을 디스플레이하는 상황이면 방송 프로그램과 관련된 기능을 실행할 수 있는 음성 명령을 포함하는 제1 음성 명령 가이드를 디스플레이하고, 식별된 디스플레이 상황이 어플리케이션을 실행하는 상황이면 어플리케이션과 관련된 기능을 실행할 수 있는 음성 명령을 포함하는 제2 음성 명령 가이드를 디스플레이하도록 디스플레이를 제어할 수 있다.Disclosed is a display device. The display device includes a display, a storage unit for storing example sentences of voice commands applicable to a plurality of display situations, and examples of voice commands for identifying display conditions of the display device and guiding functions executable in the identified display situations. Controlling the display to display a voice command guide, and when a user voice is input according to the voice command guide, includes a control unit that outputs a system response corresponding to the user voice, and the control unit displays the identified display situation to display the broadcast program. In a situation, a first voice command guide including a voice command capable of executing a function related to a broadcast program is displayed, and if the identified display situation is a situation in which the application is executed, a voice capable of executing a function related to the application It is possible to control the display to display a second voice command guide including a command.

Description

Translated fromKorean
디스플레이 장치 및 그의 제어 방법 { DISPLAY APPARATUS AND METHOD FOR CONTROLLING THE DISPLAY APPARATUS }DISPLAY APPARATUS AND METHOD FOR CONTROLLING THE DISPLAY APPARATUS}

본 발명은 디스플레이 장치 및 그의 제어 방법에 관한 것으로, 더욱 상세하게는 사용자의 음성에 따라 제어되는 디스플레이 장치 및 그의 제어 방법에 관한 것이다.The present invention relates to a display device and a control method thereof, and more particularly, to a display device controlled according to a user's voice and a control method thereof.

전자 기술의 발달에 힘입어 다양한 종류의 디스플레이 장치가 개발되어 보급되고 사용자의 요구에 따라 점차 다양한 기능을 구비하게 되었다. 특히, TV의 경우, 최근에는 인터넷과 연결되어 인터넷 서비스까지 지원하고, 사용자는 TV를 통해 많은 수의 디지털 방송 채널까지 시청할 수 있게 되었다.With the development of electronic technology, various types of display devices have been developed and distributed, and gradually have various functions according to user needs. In particular, in the case of TV, recently, it is connected to the Internet to support Internet services, and a user can watch a large number of digital broadcasting channels through TV.

한편, 최근에는 디스플레이 장치를 조금 더 편리하고 직관적으로 제어하기 위하여 음성 인식을 이용한 기술이 개발되고 있다. 특히, TV의 경우, 사용자의 음성을 인식하고, 볼륨 조절 또는 채널 변경과 같이 사용자의 음성에 대응되는 기능을 수행할 수 있게 되었다.Meanwhile, recently, a technology using voice recognition has been developed to control the display device a little more conveniently and intuitively. In particular, in the case of a TV, it is possible to recognize a user's voice and perform functions corresponding to the user's voice, such as volume adjustment or channel change.

그러나, 종래 사용자의 음성을 인식하는 디스플레이 장치들은 인식된 음성에 대응되는 기능을 제공할 뿐, 사용자에게 인터렉티브한 정보를 제공하지 못하는 점에서 한계가 존재하였다. 그리고, 이러한 기기를 처음 사용하는 사용자들은 어떠한 말로 어떠한 기능을 수행시킬 수 있는지 인지하지 못한다는 점에서, 디스플레이 장치의 사용에 제한이 있었다.However, conventional display devices that recognize a user's voice have limitations in that they only provide a function corresponding to the recognized voice and cannot provide interactive information to the user. In addition, there is a limitation in the use of the display device in that users who are using such a device for the first time do not know in what words and what functions can be performed.

본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은 디스플레이 장치의 현재 상황에서 적용 가능한 음성 명령 가이드를 제공하는 디스플레이 장치 및 그의 제어 방법을 제공함을 목적으로 한다.The present invention is in accordance with the above-mentioned needs, and an object of the present invention is to provide a display device and a control method thereof providing a voice command guide applicable in the current situation of the display device.

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 디스플레이 장치는, 출력부, 사용자의 음성을 수집하는 음성 수집부 및, 상기 사용자의 음성에 대응되는 시스템 응답을 출력하도록 상기 출력부를 제어하는 제어부를 포함하며, 상기 제어부는, 상기 디스플레이 장치의 현재 상황에서 적용 가능한 음성 명령 가이드를 출력하도록 제어할 수 있다.Display device according to an embodiment of the present invention for achieving the above object, the output unit, a voice collection unit for collecting the user's voice, and controls the output unit to output a system response corresponding to the user's voice The control unit may control to output a voice command guide applicable in the current situation of the display device.

여기에서, 상기 제어부는, 상기 사용자의 음성에 대응되는 시스템 응답이 출력되면, 상기 시스템 응답과 관련된 음성 명령 가이드를 출력할 수 있다.Here, when the system response corresponding to the user's voice is output, the control unit may output a voice command guide related to the system response.

또한, 상기 제어부는, 컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 상기 컨텐츠 리스트에 포함된 컨텐츠를 필터링하기 위한 음성 명령 가이드를 출력할 수 있다.In addition, when the searched content list is output according to the user's voice for content search, the controller may output a voice command guide for filtering the content included in the content list.

그리고, 상기 제어부는, 컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 상기 컨텐츠 리스트에 포함된 특정 컨텐츠를 실행하기 위한 음성 명령 가이드 및 상기 특정 컨텐츠의 세부 정보를 출력하기 위한 음성 명령 가이드 중 적어도 하나를 출력할 수 있다.In addition, when a list of contents searched according to a user's voice for content search is output, the controller outputs a voice command guide for executing specific content included in the content list and a voice command guide for outputting detailed information of the specific content At least one of them.

또한, 상기 제어부는, 어플리케이션 실행을 위한 사용자 음성에 따라 해당 어플리케이션 실행 화면이 출력되면, 상기 어플리케이션 실행 화면에서 적용 가능한 음성 명령 가이드를 출력할 수 있다.In addition, when a corresponding application execution screen is output according to a user's voice for executing an application, the controller may output a voice command guide applicable in the application execution screen.

그리고, 본 실시 예에 따른 디스플레이 장치는 상기 사용자의 음성을 제1 서버로 전송하고, 상기 제1 서버로부터 상기 사용자의 음성에 대응되는 텍스트 정보를 수신하는 제1 통신부 및, 상기 수신된 텍스트 정보를 제2 서버로 전송하는 제2 통신부를 더 포함하며, 상기 제어부는, 상기 텍스트 정보에 대응되는 응답 정보가 상기 제2 서버로부터 수신되면, 상기 응답 정보에 기초하여 상기 시스템 응답을 출력하도록 제어할 수 있다.In addition, the display device according to the present embodiment transmits the user's voice to the first server, and receives a text communication corresponding to the user's voice from the first server, and the received text information Further comprising a second communication unit for transmitting to the second server, the control unit, when the response information corresponding to the text information is received from the second server, it is possible to control to output the system response based on the response information have.

한편, 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법은 사용자의 음성을 수집하는 단계 및, 상기 사용자의 음성을 제1 서버로 전송하고, 상기 제1 서버로부터 상기 사용자의 음성에 대응되는 텍스트 정보를 수신하는 단계, 상기 수신된 텍스트 정보를 제2 서버로 전송하는 단계 및, 상기 텍스트 정보에 대응되는 응답 정보가 상기 제2 서버로부터 수신되면, 상기 응답 정보에 기초하여, 상기 사용자의 음성에 대응되는 시스템 응답을 출력하는 단계를 포함하며, 상기 출력하는 단계는, 상기 디스플레이 장치의 현재 상황에서 적용 가능한 음성 명령 가이드를 출력한다.On the other hand, the control method of the display device according to an embodiment of the present invention comprises the steps of collecting a user's voice, transmitting the user's voice to a first server, and text corresponding to the user's voice from the first server Receiving information, transmitting the received text information to a second server, and when response information corresponding to the text information is received from the second server, based on the response information, to the user's voice And outputting a corresponding system response, wherein the outputting outputs a voice command guide applicable in the current situation of the display device.

여기에서, 상기 출력하는 단계는, 상기 사용자의 음성에 대응되는 시스템 응답이 출력되면, 상기 시스템 응답과 관련된 음성 명령 가이드를 출력할 수 있다.Here, in the outputting step, when a system response corresponding to the user's voice is output, a voice command guide related to the system response may be output.

또한, 상기 출력하는 단계는, 컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 상기 컨텐츠 리스트에 포함된 컨텐츠를 필터링하기 위한 음성 명령 가이드를 출력할 수 있다.In addition, in the outputting step, when a searched content list is output according to a user's voice for content search, a voice command guide for filtering content included in the content list may be output.

그리고, 상기 출력하는 단계는, 컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 상기 컨텐츠 리스트에 포함된 특정 컨텐츠를 실행하기 위한 음성 명령 가이드 및 상기 특정 컨텐츠의 세부 정보를 출력하기 위한 음성 명령 가이드 중 적어도 하나를 출력할 수 있다.And, in the outputting step, when a searched content list is output according to a user's voice for content search, a voice command guide for executing specific content included in the content list and a voice for outputting detailed information of the specific content At least one of the command guides can be output.

또한, 상기 출력하는 단계는, 어플리케이션 실행을 위한 사용자 음성에 따라 해당 어플리케이션 실행 화면이 출력되면, 상기 어플리케이션 실행 화면에서 적용 가능한 음성 명령 가이드를 출력할 수 있다.In addition, in the outputting step, when a corresponding application execution screen is output according to a user's voice for executing an application, a voice command guide applicable to the application execution screen may be output.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 사용 가능한 음성에 대한 정보를 포함하는 음성 명령 가이드를 제공한다는 점에서, 대화형 시스템을 처음 사용하는 사용자들도 대화형 시스템을 편리하게 사용할 수 있게 된다. 또한, 사용자의 발화에 따라 출력된 시스템 응답과 관련된 음성 명령 가이드를 제공한다는 점에서, 사용자들은 발화한 이후의 상황에서 적용 가능한 음성을 자연스럽게 학습할 수 있게 된다.According to various embodiments of the present invention as described above, in that a voice command guide including information about available voices is provided, users who are new to the interactive system can conveniently use the interactive system. . In addition, in that a voice command guide related to a system response output according to a user's speech is provided, the users can naturally learn the applicable voice in a situation after speech.

도 1은 본 발명의 일 실시 예에 따른 대화형 시스템을 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 디스플레이 장치의 개략적인 블록도,
도 3은 도 2에 도시된 디스플레이 장치의 세부 구성을 설명하기 위한 블록도,
도 4는 도 1에 도시된 제1 서버에 대한 블록도,
도 5는 도 1에 도시된 제2 서버에 대한 블록도,
도 6 내지 도 11은 본 발명의 일 실시 예에 따른 음성 명령 가이드를 제공하는 방법을 설명하기 위한 도면들, 그리고
도 12는 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a view for explaining an interactive system according to an embodiment of the present invention,
2 is a schematic block diagram of a display device according to an embodiment of the present invention;
3 is a block diagram illustrating a detailed configuration of the display device shown in FIG. 2,
FIG. 4 is a block diagram of the first server shown in FIG. 1;
FIG. 5 is a block diagram of the second server shown in FIG. 1;
6 to 11 are diagrams for explaining a method for providing a voice command guide according to an embodiment of the present invention, and
12 is a flowchart illustrating a method of controlling a display device according to an embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 대화형 시스템을 설명하기 위한 도면이다. 도 1에 도시된 바와 같이, 대화형 시스템(1000)은 디스플레이 장치(100), 제1 서버(200) 및 제2 서버(300)를 포함한다.1 is a view for explaining an interactive system according to an embodiment of the present invention. As shown in FIG. 1, theinteractive system 1000 includes adisplay device 100, afirst server 200, and asecond server 300.

디스플레이 장치(100)는 디스플레이 장치(100)를 제어하기 위한 리모컨(미도시)에 의해 제어될 수 있다. 구체적으로, 디스플레이 장치(100)는 리모컨(미도시)으로부터 수신된 리모컨 제어 신호에 대응되는 동작을 수행할 수 있다. 예를 들어, 디스플레이 장치(100)가 도 1과 같은 TV로 구현된 경우, 디스플레이 장치(100)는 수신된 리모컨 제어 신호에 따라 전원 온/오프, 채널 전환, 볼륨 변경 등의 동작을 수행할 수 있다.Thedisplay device 100 may be controlled by a remote control (not shown) for controlling thedisplay device 100. Specifically, thedisplay apparatus 100 may perform an operation corresponding to a remote control control signal received from a remote control (not shown). For example, when thedisplay device 100 is implemented as a TV as shown in FIG. 1, thedisplay device 100 may perform operations such as power on / off, channel switching, and volume change according to the received remote control signal. have.

또한, 디스플레이 장치(100)는 사용자의 음성에 따라 다양한 동작을 수행할 수 있다.Also, thedisplay device 100 may perform various operations according to a user's voice.

구체적으로, 디스플레이 장치(100)는 수집된 사용자의 음성을 제1 서버(200)로 전송한다. 제1 서버(200)는 디스플레이 장치(100)로부터 사용자의 음성이 수신되면, 수신된 사용자의 음성을 텍스트 정보(또는, 텍스트)로 변환하고 텍스트 정보를 디스플레이 장치(100)로 전송한다.Specifically, thedisplay device 100 transmits the collected user's voice to thefirst server 200. When the user's voice is received from thedisplay device 100, thefirst server 200 converts the received user's voice into text information (or text) and transmits the text information to thedisplay device 100.

그리고, 디스플레이 장치(100)는 제1 서버(200)로부터 수신된 텍스트 정보를 제2 서버(300)로 전송한다. 제2 서버(300)는 디스플레이 장치(100)로부터 텍스트 정보가 수신되면, 수신된 텍스트 정보에 대응되는 응답 정보를 생성하여 디스플레이 장치(100)로 전송한다.Then, thedisplay device 100 transmits text information received from thefirst server 200 to thesecond server 300. When the text information is received from thedisplay device 100, thesecond server 300 generates response information corresponding to the received text information and transmits it to thedisplay device 100.

한편, 디스플레이 장치(100)는 제2 서버(300)로부터 수신된 응답 정보에 기초하여, 다양한 동작을 수행할 수 있다.Meanwhile, thedisplay apparatus 100 may perform various operations based on response information received from thesecond server 300.

구체적으로, 디스플레이 장치(100)는 사용자의 음성에 대응되는 기능을 수행할 수 있다. 즉, 디스플레이 장치(100)는 디스플레이 장치(100)에서 제공 가능한 기능 중 사용자의 음성에 대응되는 기능을 수행할 수 있다. 예를 들어, 디스플레이 장치(100)는 "○번(채널번호) 틀어줘"라는 사용자의 음성이 입력되면, 제2 서버(300)로부터 수신된 제어 명령에 기초하여 ○번을 선국하여 출력할 수 있다. 이를 위해, 제2 서버(300)는 사용자의 음성에 대응되는 기능을 수행하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다.Specifically, thedisplay device 100 may perform a function corresponding to the user's voice. That is, thedisplay device 100 may perform a function corresponding to a user's voice among functions provided by thedisplay device 100. For example, when the user's voice saying "turn number ○ (channel number)" is input, thedisplay device 100 can select and output number ○ based on the control command received from thesecond server 300. have. To this end, thesecond server 300 may transmit a control command for performing a function corresponding to the user's voice to thedisplay device 100.

이 경우, 디스플레이 장치(100)는 해당 기능에 대응되는 시스템 응답을 함께 제공할 수도 있다. 즉, 디스플레이 장치(100)는 사용자의 음성에 따라 수행된 기능에 대한 정보를 음성 및 UI 화면(텍스트, 이미지 등) 중 적어도 하나의 형태로 출력할 수 있다. 상술한 예의 경우, 디스플레이 장치(100)는 변경된 채널에 대한 정보 또는 채널 변경이 완료되었음을 나타내는 메시지를 음성 및 UI 화면 중 적어도 하나의 형태로 출력할 수 있다.In this case, thedisplay device 100 may also provide a system response corresponding to the corresponding function. That is, thedisplay apparatus 100 may output information on a function performed according to a user's voice in at least one form of a voice and a UI screen (text, image, etc.). In the case of the above-described example, thedisplay apparatus 100 may output information on the changed channel or a message indicating that the channel change is completed in the form of at least one of a voice and a UI screen.

또한, 디스플레이 장치(100)는 사용자의 음성에 대응되는 시스템 응답을 출력할 수 있다. 여기에서, 시스템 응답은 음성 및 UI 화면 중 적어도 하나의 형태로 출력될 수 있다. 예를 들어, 디스플레이 장치(100)는 특정 프로그램의 방송 시간을 문의하는 사용자의 음성이 입력되면, 해당 프로그램의 방송 시간을 음성 및 UI 화면 중 적어도 하나의 형태로 출력할 수 있다.Further, thedisplay device 100 may output a system response corresponding to the user's voice. Here, the system response may be output in at least one form of voice and UI screen. For example, when a voice of a user inquiring a broadcast time of a specific program is input, thedisplay apparatus 100 may output the broadcast time of the program in at least one form of a voice and a UI screen.

또한, 디스플레이 장치(100)는 현재 상황에서 적용 가능한 음성 명령 가이드를 출력할 수 있다. 구체적으로, 디스플레이 장치(100)는 사용자의 음성에 대응되는 시스템 응답이 출력되면, 시스템 응답과 관련된 음성 명령 가이드를 출력할 수 있다.Also, thedisplay apparatus 100 may output a voice command guide applicable in the current situation. Specifically, when the system response corresponding to the user's voice is output, thedisplay apparatus 100 may output a voice command guide related to the system response.

예를 들어, 디스플레이 장치(100)가 "오늘 방송 뭐해?"라는 사용자의 음성에 대한 시스템 응답으로 오늘 방송하는 방송 프로그램에 대한 리스트를 출력한 경우를 가정한다. 이 경우, 디스플레이 장치(100)는 "이 중에서 ○○○(채널명)에서 뭐해?", "이 중에서 ○○○(출연자 이름)이 출연하는 프로그램은 뭐야?", "이 중에서 ○○○(방송 프로그램 명) 찾아줘", "세 번째", "세 번째 상세 정보 보여줘" 등과 같이 시스템 응답으로 출력된 방송 프로그램에 대한 리스트에 대해 사용 가능한 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.For example, suppose that thedisplay apparatus 100 outputs a list of broadcast programs broadcast today as a system response to a user's voice, "What are you doing today?" In this case, thedisplay device 100 may ask, "What do you do in ○○○ (channel name)?", "What is the program that ○○○ (performer's name) appears in?", "In this, ○○○ (broadcast Program name) You can output information about the user's voice that is available for the list of broadcast programs output in response to the system, such as "Find me", "Third", and "Show third detail information". .

그리고, 디스플레이 장치(100)는 음성 명령 가이드에 포함된 사용자 음성이 수집된 경우, 그에 대응되는 동작을 수행할 수 있다. 상술한 예에서, 디스플레이 장치(100)는 "이 중에서 ○○○(채널명)에서 뭐해?"라는 사용자의 음성이 수집된 경우, 오늘 방송하는 방송 프로그램 중에서 ○○○(채널명)에서 제공하는 방송 프로그램에 대한 리스트를 출력할 수 있다. 또한, 디스플레이 장치(100)는 "세 번째"라는 사용자의 음성이 수집된 경우, 시스템 응답으로 출력된 리스트 상에서 세 번째 배치된 방송 프로그램을 선국하여 출력할 수 있다.In addition, when the user voice included in the voice command guide is collected, thedisplay apparatus 100 may perform an operation corresponding thereto. In the above-described example, when the voice of the user "What is ○○○ (channel name)?" Is collected, thedisplay apparatus 100 is a broadcast program provided by ○○○ (channel name) among broadcast programs broadcasted today. You can print a list of. In addition, when the voice of the user "third" is collected, thedisplay apparatus 100 may select and output the third arranged broadcast program on the list output in response to the system.

이와 같이 디스플레이 장치(100)는 음성 명령 가이드를 제공한다는 점에서, 대화형 시스템을 처음 사용하는 사용자들도 대화형 시스템을 편리하게 사용할 수 있게 된다. 또한, 디스플레이 장치(100)는 사용자의 발화에 따라 출력된 시스템 응답과 관련된 음성 명령 가이드를 제공한다는 점에서, 사용자들은 발화한 이후의 상황에서 적용 가능한 음성을 자연스럽게 학습할 수 있게 된다.In this way, since thedisplay apparatus 100 provides a voice command guide, users who are new to the interactive system can conveniently use the interactive system. In addition, since thedisplay apparatus 100 provides a voice command guide related to a system response output according to a user's speech, users can naturally learn the applicable voice in a situation after speech.

한편, 도 1에서 디스플레이 장치(100)는 TV인 것으로 도시하였지만, 이는 일 예에 불과하다. 즉, 디스플레이 장치(100)는 TV뿐만 아니라, 스마트폰과 같은 휴대폰, 데스크탑 PC, 노트북, 네비게이션 등과 같은 다양한 전자 장치로 구현될 수 있다.Meanwhile, in FIG. 1, thedisplay device 100 is illustrated as a TV, but this is only an example. That is, thedisplay device 100 may be implemented not only as a TV, but also as various electronic devices such as a mobile phone such as a smartphone, a desktop PC, a laptop, and navigation.

또한, 도 1에서 제1 서버(200) 및 제2 서버(300)가 별도의 서버로 구현되는 것으로 도시하였으나 이 역시 일 예에 불과하다. 즉, 제1 서버(200)와 제2 서버(300)를 포함하는 하나의 대화형 서버로 구현될 수 있음은 물론이다.In addition, although thefirst server 200 and thesecond server 300 are illustrated in FIG. 1 as being implemented as separate servers, this is only an example. That is, of course, it can be implemented as one interactive server including thefirst server 200 and thesecond server 300.

도 2는 본 발명의 일 실시 예에 따른 디스플레이 장치의 개략적인 블록도이다. 도 2에 도시된 바와 같이, 디스플레이 장치(100)는 출력부(110), 음성 수집부(120) 및 제어부(130)를 포함한다.2 is a schematic block diagram of a display device according to an exemplary embodiment of the present invention. 2, thedisplay apparatus 100 includes anoutput unit 110, avoice collection unit 120, and acontrol unit 130.

출력부(110)는 음성 및 영상 중 적어도 하나를 출력한다. 구체적으로, 출력부(110)는 음성 수집부(120)를 통해 수집된 사용자의 음성에 대응되는 시스템 응답을 음성 및 그래픽 UI 중 적어도 하나의 형태로 출력할 수 있다.Theoutput unit 110 outputs at least one of audio and video. Specifically, theoutput unit 110 may output a system response corresponding to the user's voice collected through thevoice collection unit 120 in at least one of voice and graphic UI.

이를 위해, 출력부(110)는 디스플레이부(미도시) 및 오디오 출력부(미도시)를 구비할 수 있다.To this end, theoutput unit 110 may include a display unit (not shown) and an audio output unit (not shown).

구체적으로, 디스플레이부(미도시)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현될 수 있다. 디스플레이부(미도시)는 디스플레이 장치(100)를 통해 제공 가능한 다양한 디스플레이 화면을 제공할 수 있다. 특히, 디스플레이부(미도시)는 사용자의 음성에 대응되는 시스템 응답을 텍스트, 이미지, 아이콘, GUI 중 적어도 하나를 포함하는 UI 화면을 구성하여 디스플레이할 수 있다.Specifically, the display unit (not shown) may be implemented with a liquid crystal display (LCD), an organic light emitting display (OLED), or a plasma display panel (PDP). . The display unit (not shown) may provide various display screens that can be provided through thedisplay device 100. In particular, the display unit (not shown) may display a system response corresponding to a user's voice by configuring a UI screen including at least one of text, image, icon, and GUI.

한편, 오디오 출력부(미도시)는 잭 등과 같은 출력 포트 또는 스피커 등으로 구현되어, 사용자의 음성에 대응되는 시스템 응답을 음성 형태로 출력할 수 있다.Meanwhile, the audio output unit (not shown) is implemented as an output port such as a jack or a speaker, and may output a system response corresponding to a user's voice in a voice form.

또한, 출력부(110)는 다양한 컨텐츠를 출력할 수 있다. 여기에서, 컨텐츠는 방송 컨텐츠, VOD(Videon On Demand, Premium Videon On Demand) 컨텐츠, DVD 컨텐츠 등을 포함할 수 있다. 예를 들어, 디스플레이부(미도시)는 컨텐츠를 구성하는 영상을 출력하고, 오디오 출력부(미도시)는 컨텐츠를 구성하는 오디오를 출력할 수 있다.In addition, theoutput unit 110 may output various contents. Here, the content may include broadcast content, VOD (Videon On Demand, Premium Videon On Demand) content, DVD content, and the like. For example, the display unit (not shown) may output an image constituting the content, and the audio output unit (not shown) may output audio constituting the content.

음성 수집부(120)는 사용자의 음성을 수집한다. 예를 들어, 음성 수집부(120)는 사용자의 음성을 수집하기 위한 마이크로 구현되어, 디스플레이 장치(100)에 내장되어 일체형을 이루거나, 디스플레이 장치(100)와 분리된 형태로 구현될 수 있다. 분리된 형태로 구현되는 경우, 음성 수집부(120)는 사용자가 손으로 쥐는 형태, 또는 식탁이나 테이블에 놓일 수 있는 형태로 구현될 수 있으며, 디스플레이 장치(100)와 유선 또는 무선 네트워크를 통하여 연결되어, 수집된 사용자의 음성을 디스플레이 장치(100)로 전송할 수 있다.Thevoice collection unit 120 collects a user's voice. For example, thevoice collection unit 120 is implemented as a microphone for collecting a user's voice, and is built into thedisplay device 100 to form an integral part or may be implemented in a form separate from thedisplay device 100. When implemented in a separate form, thevoice collection unit 120 may be implemented in a form held by a user by hand or placed on a table or a table, and is connected to thedisplay device 100 through a wired or wireless network. As a result, the collected user's voice may be transmitted to thedisplay device 100.

한편, 음성 수집부(120)는 수집된 음성이 사용자의 음성인지를 판단하고, 사용자의 음성에서 노이즈(예를 들어, 에어컨 소리, 청소기 소리, 음악 소리 등)를 필터링할 수도 있다.Meanwhile, thevoice collection unit 120 may determine whether the collected voice is the user's voice, and filter noise (eg, air conditioner sound, cleaner sound, music sound, etc.) from the user voice.

예를 들어, 음성 수집부(120)는 아날로그 형태의 사용자 음성이 입력되면, 이를 샘플링하여 디지털 신호로 변환한다. 그리고, 음성 수집부(120)는 변환된 디지털 신호의 에너지를 계산하여, 디지털 신호의 에너지가 기설정된 값 이상인지 여부를 판단한다.For example, when an analog-type user voice is input, thevoice collection unit 120 samples it and converts it into a digital signal. Then, thevoice collection unit 120 calculates the energy of the converted digital signal, and determines whether the energy of the digital signal is greater than or equal to a predetermined value.

디지털 신호의 에너지가 기설정된 값 이상인 경우, 음성 수집부(120)는 디지털 신호에서 노이즈 성분을 제거하여 제1 통신부(130)로 전달한다. 이때, 노이즈 성분은 가정 환경에서 발생할 수 있는 돌발성 잡음으로써, 에어컨 소리, 청소기 소리, 음악 소리 등이 포함될 수 있다. 한편, 디지털 신호의 에너지가 기설정된 값 미만인 경우, 음성 수집부(120)는 디지털 신호에 별다른 처리 과정을 수행하지 않고, 다른 입력을 기다린다.When the energy of the digital signal is greater than or equal to a predetermined value, thevoice collection unit 120 removes the noise component from the digital signal and transmits it to thefirst communication unit 130. At this time, the noise component is an unexpected noise that may occur in the home environment, and may include air conditioner sounds, cleaner sounds, and music sounds. On the other hand, when the energy of the digital signal is less than a predetermined value, thevoice collection unit 120 does not perform a specific processing process on the digital signal and waits for another input.

이에 따라, 사용자의 음성이 아닌 다른 소리에 의해 전체 오디오 처리 과정이 활성화되지 않아, 불필요한 전력 소모를 방지할 수 있다.Accordingly, the entire audio processing process is not activated by a sound other than the user's voice, thereby preventing unnecessary power consumption.

제1 통신부(130)는 제1 서버(도 1의 200)와 통신을 수행한다. 구체적으로, 제1 통신부(130)는 사용자의 음성을 제1 서버(200)로 전송하고, 사용자의 음성에 대응되는 텍스트 정보를 제1 서버(200)로부터 수신할 수 있다.Thefirst communication unit 130 communicates with the first server (200 in FIG. 1). Specifically, thefirst communication unit 130 may transmit the user's voice to thefirst server 200 and receive text information corresponding to the user's voice from thefirst server 200.

제2 통신부(140)는 제2 서버(도 1의 300)와 통신을 수행한다. 구체적으로, 제2 통신부(140)는 수신된 텍스트 정보를 제2 서버(300)로 전송하고, 텍스트 정보에 대응되는 응답 정보를 제2 서버(300)로부터 수신할 수 있다.Thesecond communication unit 140 communicates with the second server (300 in FIG. 1). Specifically, thesecond communication unit 140 may transmit the received text information to thesecond server 300 and receive response information corresponding to the text information from thesecond server 300.

이를 위해, 제1 통신부(130) 및 제2 통신부(140)는 다양한 통신 방식을 이용하여 제1 서버(200) 및 제2 서버(300)와 통신을 수행할 수 있다.To this end, thefirst communication unit 130 and thesecond communication unit 140 may communicate with thefirst server 200 and thesecond server 300 using various communication methods.

예를 들어, 제1 통신부(130) 및 제2 통신부(140)는 유/무선 LAN(Local Area Network), WAN, 이더넷, 블루투스(Bluetooth), 지그비(Zigbee), USB(Universal Serial Bus), IEEE 1394, 와이파이(Wifi) 등을 이용하여, 제1 서버(200) 및 제2 서버(300)와 통신을 수행할 수 있다. 이를 위해, 제1 통신부(130) 및 제2 통신부(140)는 각 통신 방식에 대응되는 칩 또는 입력 포트 등을 구비할 수 있다. 예를 들어, 유선 LAN 방식으로 통신을 수행하는 경우, 제1 통신부(130) 및 제2 통신부(140)는 유선 LAN 카드(미도시) 및 입력 포트(미도시)를 구비할 수 있다.For example, thefirst communication unit 130 and thesecond communication unit 140 are wired / wireless local area network (LAN), WAN, Ethernet, Bluetooth, Zigbee, USB (Universal Serial Bus), IEEE Using 1394, Wi-Fi, etc., communication with thefirst server 200 and thesecond server 300 may be performed. To this end, thefirst communication unit 130 and thesecond communication unit 140 may include a chip or an input port corresponding to each communication method. For example, when performing communication in a wired LAN method, thefirst communication unit 130 and thesecond communication unit 140 may include a wired LAN card (not shown) and an input port (not shown).

한편, 상술한 실시 예에서는, 디스플레이 장치(100)가 제1 서버(200) 및 제2 서버(300)와 통신을 수행하기 위해, 별도의 통신부(130, 140)를 구비하는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 디스플레이 장치(100)는 하나의 통신 모듈을 통해 제1 서버(200) 및 제2 서버(300)와 통신을 할 수 있음은 물론이다.On the other hand, in the above-described embodiment, it has been described that thedisplay device 100 is provided withseparate communication units 130 and 140 to perform communication with thefirst server 200 and thesecond server 300. It is just an example. That is, thedisplay apparatus 100 can communicate with thefirst server 200 and thesecond server 300 through one communication module.

또한, 상술한 실시 예에서는, 제1 통신부(130) 및 제2 통신부(140)는 제1 서버(200) 및 제2 서버(300)와 통신을 수행하는 것으로 설명하였으나, 이는 일 예에 불과하다. 즉, 제1 통신부(130) 및 제2 통신부(140)는 웹 서버(미도시)에 연결되어 웹 브라우징을 수행할 수도 있다.Also, in the above-described embodiment, thefirst communication unit 130 and thesecond communication unit 140 are described as performing communication with thefirst server 200 and thesecond server 300, but this is only an example. . That is, thefirst communication unit 130 and thesecond communication unit 140 may be connected to a web server (not shown) to perform web browsing.

제어부(150)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 즉, 제어부(150)는 출력부(110), 음성 수집부(120), 제1 통신부(130) 및 제2 통신부(140)의 동작을 제어할 수 있다. 제어부(150)는 CPU(central processing unit) 및 디스플레이 장치(100)를 제어하기 위한 모듈 및 데이터를 저장하는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.Thecontrol unit 150 controls the overall operation of thedisplay device 100. That is, thecontrol unit 150 may control the operation of theoutput unit 110, thevoice collection unit 120, thefirst communication unit 130, and thesecond communication unit 140. Thecontrol unit 150 may include a module for controlling the central processing unit (CPU) and thedisplay device 100, and a read only memory (ROM) and random access memory (RAM) for storing data.

구체적으로, 제어부(150)는 음성 수집부(120)를 통해 사용자의 음성을 수집하고, 수집된 사용자의 음성을 제1 서버(200)로 전송하도록 제1 통신부(130)를 제어할 수 있다. 그리고, 제어부(150)는 사용자의 음성에 대응되는 텍스트 정보가 수신되면, 수신된 텍스트 정보를 제2 서버(300)로 전송하도록 제2 통신부(140)를 제어할 수 있다.Specifically, thecontrol unit 150 may control thefirst communication unit 130 to collect a user's voice through thevoice collection unit 120 and transmit the collected user's voice to thefirst server 200. Then, when the text information corresponding to the user's voice is received, thecontrol unit 150 may control thesecond communication unit 140 to transmit the received text information to thesecond server 300.

한편, 제어부(150)는 사용자의 음성에 대응되는 시스템 응답을 출력하도록 출력부(110)를 제어할 수 있다. 구체적으로, 제어부(150)는 텍스트 정보에 대응되는 응답 정보가 제2 서버(300)로부터 수신되면, 응답 정보에 기초하여 사용자의 음성에 대응되는 시스템 응답을 출력하도록 출력부(110)를 제어할 수 있다.Meanwhile, thecontrol unit 150 may control theoutput unit 110 to output a system response corresponding to the user's voice. Specifically, when the response information corresponding to the text information is received from thesecond server 300, thecontrol unit 150 controls theoutput unit 110 to output a system response corresponding to the user's voice based on the response information. You can.

여기에서, 응답 정보는 시스템 응답을 출력하기 위한 시스템 응답 정보를 포함할 수 있다.Here, the response information may include system response information for outputting a system response.

일 예로, 시스템 응답 정보는 사용자의 음성에 대해 디스플레이 장치(100)에서 출력되는 시스템 응답이 텍스트 형식으로 표현된 것으로, 제어부(150)는 시스템 응답 정보에 기초하여 사용자의 음성에 대응되는 시스템 응답을 음성 및 UI 화면 중 적어도 하나의 형태로 출력하도록 제어할 수 있다.For example, in the system response information, a system response output from thedisplay device 100 is expressed in a text format with respect to the user's voice, and thecontroller 150 generates a system response corresponding to the user's voice based on the system response information. It can be controlled to output in at least one form of voice and UI screen.

구체적으로, 제어부(150)는 TTS(Text to Speech) 엔진을 이용하여, 텍스트 형태의 시스템 응답 정보를 음성으로 변환하여 출력부(110)를 통해 출력할 수 있다. 여기에서, TTS 엔진은 텍스트를 음성으로 변환하기 위한 모듈로서, 종래 개시되어 있는 다양한 TTS 알고리즘을 이용하여 텍스트를 음성으로 변환할 수 있다. 또한, 제어부(150)는 시스템 응답 정보를 구성하는 텍스트가 포함되도록 UI 화면을 구성하여 출력부(110)를 통해 출력할 수도 있다.Specifically, thecontrol unit 150 may convert the text type system response information into voice using a text to speech (TTS) engine and output it through theoutput unit 110. Here, the TTS engine is a module for converting text to speech, and can convert text to speech using various conventionally disclosed TTS algorithms. In addition, thecontrol unit 150 may configure the UI screen to include text constituting the system response information and output it through theoutput unit 110.

예를 들어, TV로 구현된 디스플레이 장치(100)가 "가장 인기 있는 프로그램 명을 알려줘"라는 사용자의 음성을 수집하면, 제2 서버(300)는 "가장 인기 있는 프로그램은 ○○○(방송 프로그램 명칭) 입니다"를 텍스트 형식으로 표현하여 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 제어부(150)는 텍스트 형식으로 표현된 "가장 인기 있는 프로그램은 ○○○(방송 프로그램 명칭) 입니다"를 음성으로 변환하여 출력부(110)를 통해 출력하거나, "가장 인기 있는 프로그램은 ○○○(방송 프로그램 명칭) 입니다"라는 텍스트가 포함되도록 UI 화면을 구성하여 출력부(110)를 통해 출력하도록 제어할 수 있다. 또한, 제어부(150)는 음성 및 GUI를 조합하여 출력할 수도 있다.For example, when thedisplay device 100 implemented as a TV collects a user's voice saying “tell me the name of the most popular program,” thesecond server 300 reads, “The most popular program is ○○○ (broadcast program Name) is expressed in a text format and transmitted to thedisplay device 100. In this case, thecontrol unit 150 converts the "most popular program is ○○○ (the name of the broadcast program)" expressed in text format into voice, and outputs it through theoutput unit 110, or "The most popular program is It is possible to control the UI screen to be output through theoutput unit 110 by configuring the UI screen to include the text “○○○ (the name of the broadcast program)”. Also, thecontrol unit 150 may output a combination of voice and GUI.

한편, 상술한 실시 예에서, 제2 서버(300)로부터 전송되는 시스템 응답 정보는 디스플레이 장치(100)에서 출력되는 시스템 응답이 텍스트 형식으로 표현된 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 시스템 응답 정보는 디스플레이 장치(100)에서 출력되는 시스템 응답을 구성하는 음성 데이터 자체이거나, 시스템 응답을 구성하는 음성 데이터의 일부이거나, 디스플레이 장치(100)에 기저장된 음성 또는 텍스트를 이용하여 시스템 응답을 출력하기 위한 제어 신호의 형태가 될 수 있다.On the other hand, in the above-described embodiment, the system response information transmitted from thesecond server 300 is described as the system response output from thedisplay device 100 expressed in text format, but this is only an example. That is, the system response information is the voice data itself constituting the system response output from thedisplay device 100, or part of the voice data constituting the system response, or the system using the voice or text pre-stored in thedisplay device 100 It can be in the form of a control signal to output a response.

이에 따라, 제어부(150)는 시스템 응답 정보의 형태를 고려하여, 시스템 응답을 출력할 수 있다.Accordingly, thecontroller 150 may output the system response in consideration of the form of the system response information.

구체적으로, 제어부(150)는 시스템 응답을 구성하는 음성 데이터 자체가 수신되면, 해당 데이터를 출력부(110)에서 출력가능한 형태로 처리하여 음성 형태로 출력할 수 있다.Specifically, when the voice data itself constituting the system response is received, thecontroller 150 may process the data in a form that can be output by theoutput unit 110 and output the voice data.

다른 한편, 제어부(150)는 시스템 응답을 출력하기 위한 제어 신호가 수신되면, 디스플레이 장치(100)에 기저장된 데이터들 중에서 제어 신호에 매칭되는 데이터를 검색하고, 검색된 음성 또는 텍스트 데이터를 출력가능한 형태로 처리하여 출력부(110)를 통해 출력할 수 있다. 이를 위해, 디스플레이 장치(100)는 시스템 응답을 제공하기 위한 음성 또는 텍스트 데이터를 저장하고 있을 수 있다. 예를 들어, 디스플레이 장치(100)는 "채널 변경이 완료되었습니다"와 같은 완전한 문장 형태의 데이터를 저장하고 있을 수 있으며, 또한 "채널 ...번으로 변경하였습니다"와 같은 문장을 구성하는 일부 데이터를 저장하고 있을 수 있다. 이 경우, 해당 문장을 완성시키는 채널 명은 제2 서버(300)로부터 수신될 수 있다.On the other hand, when a control signal for outputting a system response is received, thecontroller 150 searches for data matching the control signal among data pre-stored in thedisplay apparatus 100 and outputs the searched voice or text data. It can be processed and output through theoutput unit 110. To this end, thedisplay device 100 may store voice or text data for providing a system response. For example, thedisplay device 100 may store data in the form of a complete sentence such as "Channel change is completed", and also some data constituting a sentence such as "Channel changed to #". May be storing. In this case, the channel name completing the sentence may be received from thesecond server 300.

다른 예로, 시스템 응답 정보는 사용자의 음성에 대해 디스플레이 장치(100)에서 시스템 응답을 출력하기 위한 다양한 정보를 포함할 수 있다.As another example, the system response information may include various information for outputting a system response from thedisplay device 100 for the user's voice.

구체적으로, 시스템 응답 정보는 사용자의 발화 의도에 따라 검색된 컨텐츠에 대한 정보를 포함할 수 있다. 즉, 제2 서버(300)는 사용자의 음성에 포함된 발화 의도에 부합하는 컨텐츠를 검색하고, 검색된 컨텐츠에 대한 정보(가령, 컨텐츠 명칭, 장르, 방송 시간, 출연진, 컨텐츠에 대한 썸네일 이미지, 컨텐츠가 방송되는 채널명, 채널 번호, 제작진 등 중 적어도 하나)를 디스플레이 장치(100)로 전송할 수 있다.Specifically, the system response information may include information on the searched content according to the user's intention to speak. That is, thesecond server 300 searches for content that satisfies the intention of speech included in the user's voice, and information about the searched content (eg, content name, genre, broadcast time, cast, thumbnail image for content, content) It may transmit at least one of a channel name, a channel number, a production team, etc. to be broadcast) to thedisplay device 100.

예를 들어, TV로 구현된 디스플레이 장치(100)가 "오늘 방송 뭐해?"라는 사용자의 음성을 수집하면, 제2 서버(300)는 EPG(Electronic Program Guide) 정보에 기초하여 오늘 방송하는 방송 프로그램을 검색하고, 검색된 방송 프로그램에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다.For example, when thedisplay device 100 implemented as a TV collects a user's voice saying "What are you doing today?", Thesecond server 300 broadcasts today based on EPG (Electronic Program Guide) information. And search and transmit information about the searched broadcast program to thedisplay device 100.

이에 따라, 제어부(150)는 제2 서버(300)로부터 수신된 정보에 기초하여 컨텐츠 리스트를 생성하고, 생성된 컨텐츠 리스트를 출력할 수 있다. 이 경우, 제어부(150)는 음성 및 UI 화면 중 적어도 하나의 형태로 컨텐츠 리스트를 출력할 수 있다.Accordingly, thecontroller 150 may generate a content list based on the information received from thesecond server 300 and output the generated content list. In this case, thecontroller 150 may output a content list in at least one form of voice and UI screen.

예를 들어, 제어부(150)는 사용자의 음성에 대한 시스템 응답으로 오늘 방송하는 프로그램에 대한 리스트를 포함하는 UI 화면을 구성하고, 이를 출력할 수 있다. 이때, 제어부(150)는 검색된 컨텐츠가 방송 시간 순으로 나열되도록 컨텐츠 리스트를 생성할 수 있다.For example, thecontroller 150 may configure a UI screen including a list of programs broadcast today and output it as a system response to a user's voice. At this time, thecontroller 150 may generate a content list so that the searched contents are listed in order of broadcast time.

또한, 제어부(150)는 검색된 컨텐츠와 관련된 다양한 정보를 검색 리스트에 부가할 수 있다. 예를 들어, 제어부(150)는 제2 서버(300)로부터 수신된 방송 프로그램에 대한 정보에 기초하여, 검색된 방송 프로그램의 명칭, 방송 시간, 방송 프로그램을 제공하는 채널명, 채널 번호, 제작사 중 적어도 하나를 검색 리스트에 부가할 수 있다.Further, thecontroller 150 may add various information related to the searched content to the search list. For example, thecontrol unit 150 based on information on the broadcast program received from thesecond server 300, at least one of the name of the searched broadcast program, the broadcast time, the channel name providing the broadcast program, the channel number, and the manufacturer Can be added to the search list.

다만, 상술한 예에서는 제2 서버(300)가 컨텐츠에 대한 정보를 디스플레이 장치(100)로 전송하고, 디스플레이 장치(100)가 수신된 정보를 이용하여 컨텐츠 리스트를 생성하고 이를 시스템 응답으로 출력하는 것으로 설명하였으나, 이는 일 예에 불과하다.However, in the above-described example, thesecond server 300 transmits information on the content to thedisplay device 100, and thedisplay device 100 generates a content list using the received information and outputs the content list as a system response It has been described, but this is only an example.

즉, 제2 서버(300)는 판단된 발화 의도에 대한 정보를 디스플레이 장치(100)로 전송하고, 디스플레이 장치(100)가 판단된 발화 의도에 대한 정보에 기초하여, 사용자의 음성에 대응되는 시스템 응답을 출력할 수도 있다.That is, thesecond server 300 transmits the information on the determined utterance intention to thedisplay device 100, and based on the information on the determined utterance intention, thedisplay device 100 responds to the user's voice You can also print out a response.

예를 들어, 제2 서버(300)가 사용자의 음성에 포함된 발화 의도가 오늘 방송하는 방송 프로그램에 대한 정보를 요청하는 것으로 판단한 경우, 제2 서버(300)는 오늘 방송하는 방송 프로그램에 대한 리스트를 출력하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다. 이에 따라, 제어부(150)는 EPG 정보에 기초하여 오늘 방송하는 방송 프로그램을 검색하고, 검색된 방송 프로그램에 대한 리스트를 시스템 응답으로 출력할 수 있다.For example, when thesecond server 300 determines that the intention to utter the voice included in the user's voice requests information about the broadcast program broadcast today, thesecond server 300 lists the broadcast programs broadcast today. A control command for outputting may be transmitted to thedisplay device 100. Accordingly, thecontroller 150 may search for a broadcast program broadcast today based on EPG information, and output a list of the searched broadcast programs as a system response.

한편, 응답 정보는 디스플레이 장치(100)의 기능을 제어하기 위한 제어 명령을 포함할 수 있다. 여기에서, 제어 명령은 디스플레이 장치(100)에서 실행 가능한 기능 중 사용자의 음성에 대응되는 기능을 실행하기 위한 명령을 포함할 수 있다. 이에 따라, 제어부(150)는 제2 서버(300)로부터 수신된 제어 명령에 기초하여, 사용자의 음성에 대응되는 기능이 실행되도록 디스플레이 장치(100)의 각 구성요소를 제어할 수 있다.Meanwhile, the response information may include a control command for controlling the function of thedisplay device 100. Here, the control command may include a command for executing a function corresponding to a user's voice among functions executable in thedisplay device 100. Accordingly, thecontrol unit 150 may control each component of thedisplay apparatus 100 so that a function corresponding to a user's voice is executed based on a control command received from thesecond server 300.

예를 들어, 디스플레이 장치(100)가 "볼륨을 높여줘"라는 사용자의 음성을 수집하면, 제2 서버(300)는 디스플레이 장치(100)의 볼륨을 증가시키기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 제어부(150)는 제어 명령에 기초하여 출력부(110)를 통해 출력되는 오디오의 볼륨을 증가시킬 수 있다. 또한, 디스플레이 장치(100)가 "웹 브라우저 실행해줘"라는 사용자의 음성을 수집하면, 제2 서버(300)는 웹 브라우징과 관련된 어플리케이션 실행을 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 제어부(150)는 제어 명령에 기초하여 기저장된 어플리케이션 중 웹 브라우징을 위한 어플리케이션을 실행할 수 있다.For example, when thedisplay apparatus 100 collects a user's voice “Please turn up the volume,” thesecond server 300 sends a control command to increase the volume of thedisplay apparatus 100 to thedisplay apparatus 100. Can transmit. In this case, thecontrol unit 150 may increase the volume of audio output through theoutput unit 110 based on the control command. In addition, when thedisplay apparatus 100 collects a user's voice saying "Please run a web browser", thesecond server 300 may transmit a control command for executing an application related to web browsing to thedisplay apparatus 100. In this case, thecontroller 150 may execute an application for web browsing among pre-stored applications based on the control command.

다만, 이는 일 예일 뿐, 제어부(150)는 수집된 사용자의 음성에 따라 전원 온/오프, 채널 변경 등 다양한 동작이 수행되도록 디스플레이 장치(100)의 각 구성요소를 제어할 수도 있다.However, this is only an example, and thecontroller 150 may control each component of thedisplay apparatus 100 to perform various operations such as power on / off and channel change according to the collected user's voice.

또한, 응답 정보는 제어 명령에 따라 실행된 기능과 관련된 시스템 응답 정보를 포함할 수 있다. 이 경우, 제어부(150)는 제어 명령에 따른 기능을 수행하고, 시스템 응답 정보에 기초하여 실행된 기능과 관련된 시스템 응답을 음성 및 UI 화면 중 적어도 하나의 형태로 출력하도록 제어할 수 있다.In addition, the response information may include system response information related to a function executed according to a control command. In this case, thecontrol unit 150 may perform a function according to a control command and control to output a system response related to a function executed based on the system response information in at least one form of voice and UI screen.

예를 들어, TV로 구현된 디스플레이 장치(100)가 "채널을 11번으로 변경해줘"라는 사용자의 음성을 수집하면, 제2 서버(300)는 디스플레이 장치(100)의 채널을 11번으로 변경하기 위한 제어 명령과 "채널을 11번으로 변경하였습니다"를 텍스트 형식으로 표현하여 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 제어부(150)는 제어 명령에 기초하여 출력부(110)를 통해 출력되는 방송 채널을 11번으로 변경한다. 그리고, 제어부(150)는 "채널을 11번으로 변경하였습니다"를 음성으로 변환하여 출력부(110)를 통해 출력하거나, "채널을 11번으로 변경하였습니다"라는 텍스트가 포함되도록 UI 화면을 구성하여 출력부(110)를 통해 출력하도록 제어할 수 있다.For example, when thedisplay device 100 implemented as a TV collects a user's voice saying "Change the channel to 11", thesecond server 300 changes the channel of thedisplay device 100 to 11 The control command and the " changed channel number 11 " can be expressed in text format and transmitted to thedisplay device 100. In this case, thecontrol unit 150 changes the broadcast channel output through theoutput unit 110 to 11 based on the control command. Then, thecontrol unit 150 converts the "channel has been changed to number 11" into voice and outputs it through theoutput unit 110, or the UI screen is configured to include the text "the channel has been changed to number 11". It can be controlled to output through theoutput unit 110.

상술한 바와 같이, 제어부(150)는 수집된 사용자의 음성에 따라, 다양한 동작을 수행할 수 있다. 즉, 제어부(150)는 사용자의 음성에 대응되는 시스템 응답을 출력하거나, 사용자의 음성에 대응되는 기능을 실행하도록 제어할 수 있다.As described above, thecontroller 150 may perform various operations according to the collected user's voice. That is, thecontroller 150 may control to output a system response corresponding to the user's voice or to execute a function corresponding to the user's voice.

한편, 디스플레이 장치(100)에서 별도의 기능을 실행함이 없이 사용자의 음성에 대응되는 시스템 응답을 출력하는 경우는, 사용자의 음성이 디스플레이 장치(100)에서 실행될 수 없는 기능을 실행시키고자 하는 경우를 더 포함할 수 있다.On the other hand, when thedisplay device 100 outputs a system response corresponding to the user's voice without executing a separate function, when the user's voice wants to execute a function that cannot be executed in thedisplay device 100 It may further include.

예를 들어, 디스플레이 장치(100)가 화상통화 기능을 지원하지 않는 TV로 구현된 경우를 가정한다. 이 경우, 디스플레이 장치(100)에서 "XXX에게 전화 걸어줘"라는 사용자의 음성을 수집하면, 제2 서버(300)는 화상통화 수행을 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다. 하지만, 디스플레이 장치(100)에서는 해당 제어 명령에 대응되는 기능이 지원되지 않는다는 점에서, 제어부(150)는 제2 서버(300)로부터 수신된 제어 명령을 인식할 수 없게 된다. 이 경우, 제어부(150)는 "지원되지 않는 기능입니다"라는 시스템 응답을 출력부(110)를 통해 음성 및 GUI 중 적어도 하나의 형태로 출력할 수 있다.For example, it is assumed that thedisplay device 100 is implemented as a TV that does not support a video call function. In this case, when the voice of the user "Call XXX" is collected by thedisplay apparatus 100, thesecond server 300 may transmit a control command for performing a video call to thedisplay apparatus 100. However, since the function corresponding to the corresponding control command is not supported in thedisplay device 100, thecontrol unit 150 cannot recognize the control command received from thesecond server 300. In this case, thecontroller 150 may output a system response of “This is an unsupported function” in the form of at least one of voice and GUI through theoutput unit 110.

한편, 제어부(150)는 디스플레이 장치(100)의 현재 상황에서 적용 가능한 음성 명령 가이드를 출력하도록 제어할 수 있다.Meanwhile, thecontroller 150 may control to output a voice command guide applicable in the current situation of thedisplay device 100.

여기에서, 현재 상황은 초기 화면을 출력하거나, 컨텐츠를 출력하거나, 어플리케이션을 실행하는 등과 같이 디스플레이 장치(100)에서 특정 기능이 실행되고 있는 상황을 포함할 수 있다. 또한, 초기 화면은 디스플레이 장치(100)가 사용자의 음성에 의해 제어되는 대화형 모드에서 최초로 제공되는 화면을 포함할 수 있다. 예를 들어, 제어부(150)는 디스플레이 장치(100)의 조작 패널에 마련된 특정 키가 선택되거나, 리모컨(미도시)로부터 특정 리모컨 제어 신호가 수신되면, 대화형 모드로 동작하여 초기 화면을 디스플레이하고 사용자가 발화한 음성을 수집할 수 있다.Here, the current situation may include a situation in which a specific function is being executed in thedisplay device 100, such as outputting an initial screen, outputting content, or executing an application. In addition, the initial screen may include a screen initially provided in an interactive mode in which thedisplay apparatus 100 is controlled by a user's voice. For example, when a specific key provided on the operation panel of thedisplay device 100 is selected, or when a specific remote control signal is received from a remote controller (not shown), thecontroller 150 operates in an interactive mode to display an initial screen. Voices spoken by the user can be collected.

구체적으로, 제어부(150)는 초기 화면을 출력하거나, 컨텐츠를 출력하거나, 어플리케이션을 실행하는 등과 같이 특정 기능이 실행되고 있는 상황에서 특정 동작을 실행할 수 있는 사용자의 음성을 나타내는 음성 명령 가이드를 출력할 수 있다.Specifically, thecontroller 150 may output a voice command guide indicating a user's voice capable of executing a specific operation in a situation in which a specific function is executed, such as outputting an initial screen, outputting content, or executing an application. You can.

예를 들어, 초기 화면이 출력되는 상황에서 출력되는 음성 명령 가이드는 "오늘 방송 뭐해?", "재미있는 거 없어?", "새로 나온 영화 뭐 있어?", "인기있는 거 추천해줘", "○○○(채널명)을 틀어줘", "웹 브라우저 실행해줘" 등과 같이 디스플레이 장치(100)에서 수행 가능한 동작을 실행할 수 있는 사용자의 음성을 포함할 수 있다.For example, the voice command guide that is output when the initial screen is displayed is "What are you doing today?", "Are there any interesting things?", "Are there any new movies?", "Recommend popular ones", "○ It may include a user's voice capable of executing an action that can be performed on thedisplay device 100, such as "Play ○○ (channel name)", "Run a web browser."

또한, 컨텐츠가 출력되고 있는 상황에서 출력되는 음성 명령 가이드는 컨텐츠에 대해 적용 가능한 사용자의 음성을 포함할 수 있다. 예를 들어, 컨텐츠가 출력되고 있는 상황에서의 음성 명령 가이드는 "오늘 방송 뭐해?", "재미있는 거 없어?", "새로 나온 영화 뭐 있어?", "인기있는 거 추천해줘", "○○○(채널명)을 틀어줘", "볼륨 올려줘" 등과 같이 컨텐츠를 검색하거나 컨텐츠를 제어(컨텐츠 변경, 볼륨 변경)할 수 있는 사용자의 음성을 포함할 수 있다.In addition, the voice command guide output when the content is being output may include a user's voice applicable to the content. For example, a voice command guide in a situation where content is being output includes "What are you doing today?", "Are there any interesting things?", "Are there any new movies?", "Recommend popular ones", "○○ ○ (Channel name) "," volume up ", and the like, may include a user's voice to search for content or to control the content (content change, volume change).

또한, 어플리케이션이 실행되고 있는 상황에서 출력되는 음성 명령 가이드는 어플리케이션 실행 화면에서 적용 가능한 음성 명령 가이드가 될 수 있다. 예를 들어, 웹 브라우징을 위한 어플리케이션이 실행되어 웹 페이지 화면이 디스플레이되고 있는 상황에서의 음성 명령 가이드는 "홈 페이지", "즐겨 찾기", "새로 고침", "새 페이지 열기", "현재 페이지 닫기", "뒤로", "앞으로", "종료" 등과 같이 웹 페이지 화면에서 특정 기능을 실행하는데 사용될 수 있는 사용자의 음성을 포함할 수 있다Also, the voice command guide output when the application is being executed may be a voice command guide applicable in the application execution screen. For example, a voice command guide in a situation where an application for web browsing is executed and the web page screen is being displayed includes "home page", "favorite", "refresh", "open new page", "current page" Can contain the user's voice that can be used to perform certain functions on the web page screen, such as "Close", "Back", "Forward", "Exit", etc.

또한, 제어부(150)는 사용자의 음성에 대응되는 시스템 응답이 출력되면, 시스템 응답과 관련된 음성 명령 가이드를 출력할 수 있다. 즉, 제어부(150)는 사용자의 발화 의도에 부합하는 시스템 응답을 출력하고, 출력된 시스템 응답에 대해 특정 동작을 실행할 수 있는 사용자의 음성을 나타내는 음성 명령 가이드를 출력할 수 있다.In addition, when a system response corresponding to a user's voice is output, thecontroller 150 may output a voice command guide related to the system response. That is, thecontroller 150 may output a system response that satisfies the user's utterance intention, and may output a voice command guide indicating a user's voice capable of executing a specific operation on the output system response.

구체적으로, 제어부(150)는 컨텐츠 검색을 위한 사용자의 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 컨텐츠 리스트에 포함된 컨텐츠를 필터링하기 위한 음성 명령 가이드를 출력할 수 있다. 즉, 제어부(150)는 컨텐츠를 검색하기 위한 발화 의도를 갖는 사용자의 음성이 수신되면 사용자의 음성에 따라 검색된 컨텐츠에 대한 리스트를 시스템 응답으로 출력하고, 리스트에 포함된 컨텐츠 중에서 특정 컨텐츠를 재차 검색하기 위해 사용될 수 있는 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.Specifically, when a searched content list is output according to a user's voice for content search, thecontroller 150 may output a voice command guide for filtering content included in the content list. That is, when a voice of a user having an intention to speak to search for a content is received, thecontroller 150 outputs a list of the searched content according to the user's voice as a system response, and searches for specific content again among the content included in the list It can output information about the user's voice that can be used to the voice command guide.

예를 들어, "오늘 방송 뭐해?"라는 사용자의 음성이 수집된 경우, 제어부(150)는 오늘 방송하는 방송 프로그램에 대한 리스트를 시스템 응답으로 출력할 수 있다. 이 경우, 제어부(150)는 "이 중에서 ○○○(채널명)은 뭐해?", "이 중에서 다큐멘터리 프로는 뭐야?", "이 중에서 ○○○(출연자 이름)이 출연하는 거 찾아줘", "이 중에서 ○○○(방송 프로그램 명칭) 찾아줘" 등과 같이 오늘 방송하는 방송 프로그램에 대한 리스트에서 특정 컨텐츠를 선별하는데 사용될 수 있는 사용자 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.For example, when a user's voice "What are you broadcasting today?" Is collected, thecontroller 150 may output a list of broadcast programs broadcast today as a system response. In this case, thecontrol unit 150 asks, "What is ○○○ (channel name)?", "What is the documentary pro?", "Find out what ○○○ (the performer's name) is appearing among them", It is possible to output information about a user's voice that can be used to select specific content from a list of broadcast programs broadcast today, such as "Find out ○○○ (name of the broadcast program)".

또한, 제어부(150)는 컨텐츠 검색을 위한 사용자의 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 컨텐츠 리스트에 포함된 특정 컨텐츠를 실행하기 위한 음성 명령 가이드 및 특정 컨텐츠의 세부 정보를 출력하기 위한 음성 명령 가이드 중 적어도 하나를 출력할 수 있다. 여기에서, 세부 정보는 컨텐츠 명칭, 방송 시간, 출연진, 줄거리, 컨텐츠를 제공하는 채널 번호, 채널 명 중 적어도 하나를 포함할 수 있다.In addition, when the searched content list is output according to the user's voice for content search, thecontrol unit 150 provides a voice command guide for executing specific content included in the content list and a voice command guide for outputting detailed information of the specific content At least one of them. Here, the detailed information may include at least one of a content name, a broadcast time, a cast, a story line, a channel number providing content, and a channel name.

즉, 제어부(150)는 컨텐츠를 검색하기 위한 발화 의도를 갖는 사용자의 음성이 수신되면 사용자의 음성에 따라 검색된 컨텐츠에 대한 리스트를 시스템 응답으로 출력하고, 리스트에 포함된 컨텐츠 중에서 특정 컨텐츠를 실행하기 위해 사용될 수 있거나, 특정 컨텐츠에 대한 세부 정보를 출력하기 위해 사용될 수 있는 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.That is, thecontroller 150 outputs a list of contents searched according to the user's voice as a system response when a user's voice having an intent to speak to search the content is received, and executes specific contents among the contents included in the list It may be used to output information about the user's voice, which can be used to output detailed information about a specific content.

예를 들어, "오늘 방송 뭐해?"라는 사용자의 음성이 수집된 경우, 제어부(150)는 오늘 방송하는 방송 프로그램에 대한 리스트를 시스템 응답으로 출력할 수 있다. 이 경우, 제어부(150)는 "세 번째", "세 번째 상세 정보 보여줘" 등과 같이 오늘 방송하는 방송 프로그램에 대한 리스트에서 특정 방송 프로그램을 실행하거나, 특정 방송 프로그램에 대한 세부 정보를 출력하기 위해 사용할 수 있는 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.For example, when a user's voice "What are you broadcasting today?" Is collected, thecontroller 150 may output a list of broadcast programs broadcast today as a system response. In this case, thecontroller 150 may be used to execute a specific broadcast program from a list of broadcast programs broadcast today, such as "Third", "Show third details", or to output detailed information about a specific broadcast program. Information about the user's voice can be output as a voice command guide.

또한, 제어부(150)는 어플리케이션 실행을 위한 사용자 음성에 따라 해당 어플리케이션 실행 화면이 출력되면, 어플리케이션 실행 화면에서 적용 가능한 음성 명령 가이드를 출력할 수 있다. 즉, 제어부(150)는 어플리케이션을 실행하기 위한 발화 의도를 갖는 사용자의 음성이 수신되면 사용자의 음성에 대응되는 어플리케이션을 실행하고, 해당 어플리케이션에서 특정 기능을 수행하기 위해 사용될 수 있는 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.In addition, when the corresponding application execution screen is output according to the user's voice for executing the application, thecontroller 150 may output a voice command guide applicable in the application execution screen. That is, when a voice of a user having an intent to speak to receive an application is received, thecontrol unit 150 executes an application corresponding to the user's voice, and the user's voice can be used to perform a specific function in the application. Information can be output as a voice command guide.

예를 들어, "웹 브라우저 실행해줘"라는 사용자의 음성이 수집된 경우, 제어부(150)는 웹 브라우징을 위한 어플리케이션을 실행하여 웹 페이지 화면을 출력할 수 있다. 이 경우, 제어부(150)는 "홈 페이지", "즐겨 찾기", "새로 고침", "새 페이지 열기", "현재 페이지 닫기", "뒤로", "앞으로", "종료" 등과 같이 웹 페이지 화면에서 특정 기능을 실행하는데 사용될 수 있는 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.For example, when a user's voice "Run web browser" is collected, thecontroller 150 may execute an application for web browsing to output a web page screen. In this case, thecontrol unit 150 may display a web page such as "home page", "favorite", "refresh", "open new page", "close current page", "back", "forward", "end", etc. The voice command guide may output information about a user's voice that can be used to execute a specific function on the screen.

이 경우, 제어부(150)는 기설정된 기간 주기 또는 특정 기능이 실행된 시점에서 음성 명령 가이드를 출력할 수 있다.In this case, thecontrol unit 150 may output a voice command guide at a predetermined period or a specific function is executed.

예를 들어, 제어부(150)는 기설정된 기간 주기마다 디스플레이 장치(100)의 현재 상황에서 적용 가능한 음성 명령 가이드를 출력할 수 있다. 또한, 제어부(150)는 초기 화면이 출력되거나, 컨텐츠가 출력되거나, 어플리케이션이 실행되거나, 사용자의 음성에 대응되는 시스템 응답이 출력되는 시점에 음성 명령 가이드를 출력할 수도 있다. 또한, 제어부(150)는 초기 화면이 출력되거나, 컨텐츠가 출력되거나, 어플리케이션이 실행되거나, 사용자의 음성에 대응되는 시스템 응답이 출력되는 시점에 음성 명령 가이드를 출력하고, 기설정된 시간 주기마다 음성 명령 가이드를 재차 출력할 수도 있다.For example, thecontrol unit 150 may output a voice command guide applicable in the current situation of thedisplay apparatus 100 for each predetermined period period. In addition, thecontrol unit 150 may output a voice command guide when an initial screen is output, content is output, an application is executed, or a system response corresponding to a user's voice is output. In addition, thecontrol unit 150 outputs a voice command guide when an initial screen is output, content is output, an application is executed, or a system response corresponding to a user's voice is output, and a voice command is performed at a predetermined time period. You can print the guide again.

이를 위해, 디스플레이 장치(100)는 현재 상황에서 적용 가능한 사용자의 음성에 대한 정보를 저장할 수 있다. 즉, 디스플레이 장치(100)는 각 상황에서 사용 가능한 사용자의 음성에 대한 정보를 저장할 수 있다. 이에 따라, 제어부(150)는 기저장된 정보를 이용하여 디스플레이 장치(100)의 현재 상황에서 적용 가능한 사용자의 음성에 대한 정보를 판단하고, 판단된 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.To this end, thedisplay device 100 may store information about a user's voice applicable in the current situation. That is, thedisplay device 100 may store information about a user's voice usable in each situation. Accordingly, thecontroller 150 determines information about the user's voice applicable in the current situation of thedisplay device 100 using the pre-stored information, and outputs the determined user's voice information as a voice command guide. You can.

예를 들어, 제어부(150)는 컨텐츠 검색을 위한 사용자의 음성에 따라 검색된 컨텐츠에 대한 리스트가 출력되면, 컨텐츠 리스트가 출력된 상황에서 컨텐츠를 필터링하거나, 특정 컨텐츠를 실행하거나, 특정 컨텐츠에 대한 세부 정보를 출력하기 위한 사용자의 음성이 사용될 수 있다고 판단한다. 이에 따라, 제어부(150)는 기저장된 정보 중에서 컨텐츠 리스트가 출력된 상황에서 사용될 수 있는 사용자의 음성에 대한 정보를 검출하고, 이를 음성 명령 가이드로 출력할 수 있다.For example, when a list of contents searched according to a user's voice for content search is output, thecontroller 150 filters the content in the context in which the content list is output, executes specific content, or details about specific content It is determined that the user's voice for outputting information can be used. Accordingly, thecontroller 150 may detect information about a user's voice that can be used in a situation in which a content list is output from among pre-stored information, and output it as a voice command guide.

한편, 상술한 예에서는 디스플레이 장치(100)가 현재 상황에서 적용 가능한 사용자의 음성에 대한 정보를 저장하는 것으로 설명하였으나, 이는 일 예에 불과하다. 즉, 제2 서버(300)는 디스플레이 장치(100)의 현재 상황에 따라 출력될 수 있는 음성 명령 가이드에 대한 정보를 디스플레이 장치(100)로 전송하고, 제어부(150)는 수신된 정보를 이용하여 음성 명령 가이드를 출력할 수 있다.Meanwhile, in the above-described example, it has been described that thedisplay apparatus 100 stores information about a user's voice applicable in the current situation, but this is only an example. That is, thesecond server 300 transmits information on the voice command guide that can be output according to the current situation of thedisplay device 100 to thedisplay device 100, and thecontroller 150 uses the received information A voice command guide can be output.

예를 들어, "오늘 방송 뭐해"라는 사용자의 음성에 대해, 제2 서버(300)는 오늘 방송하는 방송 프로그램에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 디스플레이 장치(100)는 수신된 정보를 이용하여 오늘 방송하는 방송 프로그램에 대한 리스트를 시스템 응답으로 출력한다는 점에서, 제2 서버(300)는 "세 번째", "세 번째 상세 정보 보여줘", "이 중에서 ○○○(채널명)은 뭐해?", "이 중에서 다큐멘터리 프로는 뭐야?", "이 중에서 ○○○(출연자 이름)이 출연하는 거 찾아줘", "이 중에서 ○○○(방송 프로그램 명칭) 찾아줘" 등과 같이 시스템 응답으로 출력된 방송 프로그램 리스트에서 적용 가능한 사용자의 음성에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다. 이 경우, 제어부(150)는 수신된 정보를 이용하여 방송 프로그램 리스트에서 사용될 수 있는 사용자의 음성에 대한 정보를 음성 명령 가이드로 출력할 수 있다.For example, with respect to a user's voice saying "What are you doing today?", Thesecond server 300 may transmit information about a broadcast program broadcast today to thedisplay device 100. In this case, since thedisplay apparatus 100 outputs a list of broadcast programs broadcast today using the received information as a system response, thesecond server 300 shows "third" and "third detailed information." "," What is ○○○ (channel name) in this? "," What is the documentary pro? "," Of these, please find what ○○○ (performer's name) appears "," of which is ○○○ (Broadcast program name) Please send information about the applicable user's voice from the list of broadcast programs output in response to the system to thedisplay device 100. In this case, thecontroller 150 may output information about the user's voice that can be used in the broadcast program list using the received information as a voice command guide.

도 3은 도 2에 도시된 디스플레이 장치의 세부 구성을 설명하기 위한 블록도이다. 도 3에 따르면, 디스플레이 장치(100)는 도 2에 도시된 구성요소 외에 저장부(160), 수신부(170), 신호 처리부(180), 리모컨 신호 수신부(191), 입력부(193) 및 인터페이스부(195)를 더 포함할 수 있다. 이들 각 구성요소는 제어부(150)에 의해 제어될 수 있다. 한편, 도 3에 도시된 구성요소들 중 도 2에 도시된 구성요소와 중복되는 구성요소들은 그 기능이 동일하므로 자세한 설명은 생략하도록 한다.FIG. 3 is a block diagram illustrating a detailed configuration of the display device illustrated in FIG. 2. According to FIG. 3, thedisplay device 100 includes astorage unit 160, areception unit 170, asignal processing unit 180, a remote controlsignal reception unit 191, aninput unit 193 and an interface unit in addition to the components shown in FIG. 2 (195) may be further included. Each of these components can be controlled by thecontrol unit 150. Meanwhile, among the components illustrated in FIG. 3, components overlapping with those illustrated in FIG. 2 have the same function, and thus detailed description will be omitted.

저장부(160)는 디스플레이 장치(100)를 동작시키기 위해 필요한 각종 프로그램 등이 저장되는 저장매체로서, 메모리, HDD(Hard Disk Drive) 등으로 구현가능하다. 예를 들어, 저장부(160)는 제어부(150)의 동작 수행을 위한 프로그램을 저장하기 위한 ROM, 제어부(150)의 동작 수행에 따른 데이터를 일시적으로 저장하기 위한 RAM 등을 구비할 수 있다. 또한 각종 참조 데이터를 저장하기 위한 EEROM(Electrically Erasable and Programmable ROM) 등을 더 구비할 수 있다.Thestorage unit 160 is a storage medium in which various programs required for operating thedisplay device 100 are stored, and may be implemented as a memory, a hard disk drive (HDD), or the like. For example, thestorage 160 may include a ROM for storing a program for performing the operation of thecontroller 150, a RAM for temporarily storing data according to the operation of thecontroller 150, and the like. In addition, an EEROM (Electrically Erasable and Programmable ROM) for storing various reference data may be further provided.

특히, 저장부(160)는 디스플레이 장치(100)는 현재 상황에서 적용 가능한 사용자의 음성에 대한 정보를 저장할 수 있다. 이에 따라, 제어부(150)는 디스플레이 장치(100)의 현재 상황에서 적용 가능한 사용자의 음성에 대한 정보를 판단하고, 판단된 사용자의 음성을 리스트 형태로 출력하도록 제어할 수 있다.In particular, thestorage 160 may display information about a user's voice applicable to thedisplay device 100 in the current situation. Accordingly, thecontrol unit 150 may control to determine information on a user's voice applicable in the current situation of thedisplay device 100 and output the determined user's voice in a list form.

수신부(170)는 다양한 컨텐츠를 수신한다. 구체적으로, 수신부(170)는 방송 네트워크를 이용하여 방송 프로그램을 전송하는 방송국 또는 인터넷을 이용하여 컨텐츠 파일을 전송하는 웹 서버로부터 컨텐츠를 수신할 수 있다.Thereceiver 170 receives various contents. Specifically, the receivingunit 170 may receive content from a broadcasting station transmitting a broadcast program using a broadcasting network or a web server transmitting a content file using the Internet.

방송국으로부터 컨텐츠를 수신하는 실시 예의 경우에는, 수신부(170)는 튜너(미도시), 복조기(미도시), 등화기(미도시) 등과 같은 구성을 포함하는 형태로 구현될 수 있다. 반면, 웹 서버와 같은 소스로부터 컨텐츠를 수신하는 실시 예의 경우에는, 수신부(170)는 네트워크 인터페이스 카드(미도시)로 구현될 수 있다.In the case of an embodiment of receiving content from a broadcasting station, thereceiver 170 may be implemented in a form including a tuner (not shown), a demodulator (not shown), an equalizer (not shown), and the like. On the other hand, in an embodiment of receiving content from a source such as a web server, the receivingunit 170 may be implemented as a network interface card (not shown).

신호 처리부(180)는 수신부(170) 또는 인터페이스부(195)를 통해 수신된 컨텐츠가 출력부(110)를 통해 출력될 수 있도록 컨텐츠에 대한 신호처리를 수행한다.Thesignal processing unit 180 performs signal processing on the content so that the content received through thereception unit 170 or the interface unit 195 can be output through theoutput unit 110.

구체적으로, 신호 처리부(180)는 컨텐츠에 포함된 영상에 대해 디코딩, 스케일링 및 프레임 레이트 변환 등의 동작을 수행하여, 디스플레이부(111)에서 출력 가능한 형태로 변환할 수 있다. 또한, 신호 처리부(180)는 컨텐츠에 포함된 오디오 신호에 대해 디코딩 등의 신호 처리를 수행하여 오디오 출력부(112)에서 출력 가능한 형태로 변환할 수 있다.Specifically, thesignal processing unit 180 may perform operations such as decoding, scaling, and frame rate conversion on the image included in the content, and convert it into a form that can be output by thedisplay unit 111. In addition, thesignal processing unit 180 may perform signal processing such as decoding on an audio signal included in the content and convert it into a form that can be output by theaudio output unit 112.

리모컨 신호 수신부(191)는 외부의 리모컨으로부터 입력되는 제어 신호를 수신한다. 제어부(150)는 리모컨 신호 수신부(191)에 입력된 제어 신호에 기초하여, 다양한 동작을 실행할 수 있다. 예를 들어, 제어부(150)는 리모컨 신호 수신부(191)로부터 입력된 제어 신호에 따라, 전원 온/오프, 채널 변경, 볼륨 조절 등의 동작을 실행할 수 있다.The remote controlsignal receiving unit 191 receives a control signal input from an external remote control. Thecontroller 150 may execute various operations based on the control signal input to the remotecontrol signal receiver 191. For example, thecontroller 150 may perform operations such as power on / off, channel change, volume adjustment, etc. according to a control signal input from the remotecontrol signal receiver 191.

입력부(193)는 다양한 사용자 명령을 입력받는다. 제어부(150)는 입력부(193)에서 입력된 사용자 명령에 대응되는 동작을 실행할 수 있다. 예를 들어, 제어부(150)는 입력부(193)에서 입력된 사용자 명령에 따라 전원 온/오프, 채널 변경, 볼륨 조절 등을 실행할 수 있다.Theinput unit 193 receives various user commands. Thecontrol unit 150 may execute an operation corresponding to a user command input from theinput unit 193. For example, thecontroller 150 may execute power on / off, channel change, volume adjustment, etc. according to a user command input from theinput unit 193.

이를 위해, 입력부(193)는 입력 패널로 구현될 수 있다. 입력 패널은 터치패드(Touch Pad) 혹은 각종 기능키, 숫자키, 특수키, 문자키 등을 구비한 키패드(Key Pad) 또는 터치 스크린(Touch Screen) 방식으로 이루어질 수 있다.To this end, theinput unit 193 may be implemented as an input panel. The input panel may be made of a touch pad or a key pad or a touch screen with various function keys, numeric keys, special keys, character keys, and the like.

인터페이스부(195)는 외부 장치(미도시)와 통신을 수행한다. 여기에서, 외부 기기(미도시)는 다양한 유형의 전자 장치로 구현되어, 디스플레이 장치(100)로 컨텐츠를 전송할 수 있다.The interface unit 195 communicates with an external device (not shown). Here, the external device (not shown) may be implemented as various types of electronic devices, and transmit content to thedisplay device 100.

가령, 디스플레이 장치(100)가 TV로 구현된 경우, 외부 기기(미도시)는 셋탑박스, 음향 기기, 게임기 등과 같이 디스플레이 장치(100)에 연결되어 기능을 수행할 수 있는 다양한 형태의 전자 장치로 구현될 수 있다.For example, when thedisplay device 100 is implemented as a TV, an external device (not shown) is an electronic device of various types that can be connected to thedisplay device 100 to perform functions, such as a set-top box, sound device, or game machine. Can be implemented.

예를 들어, 인터페이스부(195)는 HDMI, USB 등의 각종 유선 통신 방식, 블루투스, 지그비 등의 무선 통신 방식에 따라 외부 기기(미도시)와 통신을 수행할 수 있다. 이를 위해, 인터페이스부(195)는 각 통신 방식에 대응되는 칩 또는 입력 포트 등을 구비할 수 있다. 예를 들어, HDMI 통신 방식에 따라 외부 기기(미도시)와 통신을 수행하는 경우, 인터페이스부(195)는 HDMI 포트를 구비할 수 있다.For example, the interface unit 195 may communicate with an external device (not shown) according to various wired communication methods such as HDMI and USB, and wireless communication methods such as Bluetooth and Zigbee. To this end, the interface unit 195 may include a chip or an input port corresponding to each communication method. For example, when communicating with an external device (not shown) according to an HDMI communication method, the interface unit 195 may include an HDMI port.

도 4는 도 1에 도시된 제1 서버에 대한 블록도이다. 도 4에 도시된 바와 같이, 제1 서버(200)는 통신부(210) 및 제어부(220)를 포함한다.FIG. 4 is a block diagram of the first server illustrated in FIG. 1. As shown in FIG. 4, thefirst server 200 includes acommunication unit 210 and acontrol unit 220.

통신부(210)는 디스플레이 장치(100)와 통신을 수행한다. 구체적으로, 통신부(210)는 디스플레이 장치(100)로부터 사용자의 음성을 수신하고, 사용자의 음성에 대응되는 텍스트 정보를 디스플레이 장치(100)로 전송할 수 있다. 이를 위해, 통신부(210)는 다양한 통신 모듈을 포함할 수 있다.Thecommunication unit 210 communicates with thedisplay device 100. Specifically, thecommunication unit 210 may receive a user's voice from thedisplay device 100 and transmit text information corresponding to the user's voice to thedisplay device 100. To this end, thecommunication unit 210 may include various communication modules.

제어부(220)는 제1 서버(200)의 전반적인 동작을 제어한다. 특히, 제어부(220)는 디스플레이 장치(100)로부터 사용자의 음성이 수신되면, 사용자의 음성에 대응되는 텍스트 정보를 생성하고, 이를 디스플레이 장치(100)로 전송하도록 통신부(210)를 제어한다.Thecontrol unit 220 controls the overall operation of thefirst server 200. In particular, when the user's voice is received from thedisplay device 100, thecontrol unit 220 controls thecommunication unit 210 to generate text information corresponding to the user's voice and transmit it to thedisplay device 100.

구체적으로, 제어부(220)는 STT(Speech to Text) 엔진을 이용하여, 사용자의 음성에 대응되는 텍스트 정보를 생성할 수 있다. 여기에서, STT 엔진은 음성 신호를 텍스트로 변환하기 위한 모듈로서, 종래 개시되어 있는 다양한 STT 알고리즘을 이용하여 음성 신호를 텍스트로 변환할 수 있다.Specifically, thecontroller 220 may generate text information corresponding to a user's voice using a speech to text (STT) engine. Here, the STT engine is a module for converting speech signals into text, and can convert speech signals into text using various conventionally disclosed STT algorithms.

예를 들어, 제어부(220)는 수신된 사용자의 음성 내에서 사용자가 발화한 음성의 시작과 끝을 검출하여 음성 구간을 판단한다. 구체적으로, 제어부(220)는 수신된 음성 신호의 에너지를 계산하고, 계산된 에너지에 따라 음성 신호의 에너지 레벨을 분류하여, 동적 프로그래밍을 통해 음성 구간을 검출할 수 있다. 그리고, 제어부(220)은 검출된 음성 구간 내에서 음향 모델(Acoustic Model)을 기초로 음성의 최소 단위인 음소를 검출하여 음소 데이터를 생성하고, 생성된 음소 데이터에 HMM(Hidden Markov Model) 확률 모델을 적용하여 사용자의 음성을 텍스트로 변환할 수 있다.For example, thecontrol unit 220 determines the voice section by detecting the start and end of the voice uttered by the user within the received user's voice. Specifically, thecontroller 220 may calculate the energy of the received voice signal, classify the energy level of the voice signal according to the calculated energy, and detect the voice section through dynamic programming. Then, thecontroller 220 detects a phoneme that is the smallest unit of speech based on an acoustic model within the detected voice section, generates phoneme data, and generates a HMM (Hidden Markov Model) probability model in the generated phoneme data. You can convert the user's voice to text by applying.

도 5는 도 1에 도시된 제2 서버에 대한 블록도이다. 도 5에 도시된 바와 같이, 제2 서버(300)는 통신부(310), 저장부(320) 및 제어부(330)를 포함한다.FIG. 5 is a block diagram of the second server illustrated in FIG. 1. As shown in FIG. 5, thesecond server 300 includes acommunication unit 310, astorage unit 320, and acontrol unit 330.

통신부(310)는 디스플레이 장치(100)와 통신을 수행한다. 구체적으로, 통신부(310)는 디스플레이 장치(100)로부터 텍스트 정보를 수신하고, 텍스트 정보에 대응되는 응답 정보를 디스플레이 장치(100)로 전송할 수 있다. 이를 위해, 통신부(310)는 다양한 통신 모듈을 포함할 수 있다.Thecommunication unit 310 communicates with thedisplay device 100. Specifically, thecommunication unit 310 may receive text information from thedisplay device 100 and transmit response information corresponding to the text information to thedisplay device 100. To this end, thecommunication unit 310 may include various communication modules.

또한, 통신부(310)는 웹 서버(미도시)에 연결되어 웹 브라우징을 수행할 수도 있다. 즉, 제어부(330)는 다양한 키워드를 통신부(310)를 통해 웹 서버(미도시)로 전송하여 웹 브라우징을 수행하고, 키워드에 따라 검색된 웹 검색을 수신할 수 있다.Also, thecommunication unit 310 may be connected to a web server (not shown) to perform web browsing. That is, thecontrol unit 330 may transmit various keywords to the web server (not shown) through thecommunication unit 310 to perform web browsing and receive the searched web search according to the keywords.

저장부(320)는 디스플레이 장치(100)로부터 수신된 텍스트 정보에 대응되는 응답 정보를 생성하기 위한 다양한 정보를 저장한다.Thestorage unit 320 stores various information for generating response information corresponding to text information received from thedisplay device 100.

구체적으로, 저장부(320)는 서비스 도메인별 대화 패턴을 저장한다. 여기에서, 서비스 도메인은 사용자가 발화한 음성이 속하는 주제에 따라 "방송", "VOD", "어플 관리", "기기 제어", "정보(날씨, 주식, 뉴스 등) 제공" 등으로 구분될 수 있다. 하지만, 이는 일 예일 뿐, 서비스 도메인은 상술한 주제 외에도 다양한 주제에 따라 구분될 수 있음은 물론이다.Specifically, thestorage unit 320 stores a conversation pattern for each service domain. Here, the service domain may be divided into "broadcast", "VOD", "app management", "device control", and "provision of information (weather, stock, news, etc.)" according to the subject to which the voice uttered by the user belongs. You can. However, this is only an example, and of course, the service domain may be classified according to various topics in addition to the above-described topics.

보다 구체적으로, 저장부(320)는 각 서비스 도메인별 말뭉치(corpus) 데이터베이스를 구비할 수 있다. 여기에서, 말뭉치 데이터베이스는 예문 및 그에 대한 답변을 저장하는 형태로 구현될 수 있다.More specifically, thestorage unit 320 may include a corpus database for each service domain. Here, the corpus database may be implemented in a form of storing example sentences and answers thereto.

즉, 저장부(320)는 각 서비스 도메인별로 복수의 예문 및 각 예문에 대한 답변을 저장할 수 있다. 또한, 저장부(320)는 예문을 해석하기 위한 정보 및 예문에 대응되는 답변을 각 예문마다 태깅(tagging)하여 저장할 수 있다.That is, thestorage unit 320 may store a plurality of example sentences and answers to each example sentence for each service domain. Also, thestorage unit 320 may store information for interpreting an example sentence and an answer corresponding to the example sentence by tagging each example sentence.

예를 들어, 방송 서비스 도메인 내에 "○○○(방송 프로그램명)은 언제 해?"라는 예문이 저장된 경우를 가정한다.For example, it is assumed that the example sentence "When is ○○○ (the name of a broadcast program)?" Stored in the broadcast service domain.

이 경우, 저장부(320)는 "○○○(방송 프로그램명)은 언제 해?"와 같은 예문을 해석하기 위한 정보를 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "○○○(방송 프로그램명)은 언제 해?"와 같은 예문에서 "○○○(방송 프로그램명)"은 방송 프로그램 명칭을 나타내며, "언제"는 방송 시간 문의를 나타내며, "해?"는 예문의 타입이 의문문인 것을 나타내는 정보를 해당 예문에 태깅하여 저장할 수 있다. 또한, 저장부(320)는 "~은 언제 해?"라는 형식을 갖는 예문의 앞부분에는 방송 프로그램과 관련된 단어가 배치된다는 정보를 해당 예문에 태깅하여 저장할 수 있다. 여기에서, 방송 프로그램과 관련된 단어는 방송 프로그램 명칭, 출연자, 연출자 등이 포함될 수 있다.In this case, thestorage unit 320 may tag and store information for interpreting an example sentence such as "When do you do ○○○ (the name of a broadcast program)?" Specifically, in the example sentence such as "When is ○○○ (the name of the broadcast program)?", Thestorage unit 320 indicates the name of the broadcast program, and "when" is the broadcast time. Represents an inquiry, and "Do?" Can store information indicating that the type of example sentence is a question statement by tagging the example sentence. In addition, thestorage unit 320 may tag and store information indicating that words related to a broadcast program are arranged at the front of an example sentence having the format "When do you do ~?" Here, words related to the broadcast program may include a broadcast program name, a performer, and a director.

또한, 저장부(320)는 "○○○(방송 프로그램명)은 언제 해?"에 대한 답변을 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "○○○(방송 프로그램명)은 언제 해?"에 대한 답변으로 "문의하신 <방송 프로그램 명칭>의 방송 시간은 <방송 시간> 입니다"를 태깅하여 저장할 수 있다.In addition, thestorage unit 320 may tag and store the answer to “When do you do ○○○ (the name of the broadcast program)” in the corresponding example sentence. Specifically, thestorage unit 320 can be stored by tagging "Broadcasting time of <Broadcasting program name> inquired is <Broadcasting time>" in response to "When is ○○○ (Broadcasting program name)?" have.

다른 예로, 방송 서비스 도메인 내에 "오늘 방송 뭐해?"라는 예문이 저장된 경우를 가정한다.As another example, it is assumed that the example sentence "What are you doing today?" Is stored in the broadcast service domain.

이 경우, 저장부(320)는 "오늘 방송 뭐해?"와 같은 예문을 해석하기 위한 정보를 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "방송"은 방송 프로그램을 나타내며, "오늘", "방송", "뭐"는 오늘 방송되는 방송 프로그램 문의를 나타내며, "해?"는 예문의 타입이 의문문인 것은 나타내는 정보를 해당 예문에 태깅하여 저장할 수 있다. 또한, 저장부(320)는 "~ 방송 뭐해?"라는 형식을 갖는 예문의 앞부분에는 방송 시간(가령, 지금, 내일 등)과 관련된 단어가 배치된다는 정보를 해당 예문에 태깅하여 저장할 수 있다.In this case, thestorage 320 may tag and store information for interpreting an example sentence such as "What are you doing today?" Specifically, thestorage unit 320, "broadcast" refers to a broadcast program, "today", "broadcast", "what" indicates a broadcast program inquiry that is being broadcast today, and "Do you?" It can store the information it represents by tagging the example. In addition, thestorage unit 320 may tag and store information indicating that words related to a broadcast time (eg, now, tomorrow, etc.) are arranged at the front of an example sentence having the format "~ What are you broadcasting?"

또 다른 예로, 기기 제어 서비스 도메인 내에 "○번(채널 번호) 틀어줘"라는 예문이 저장된 경우를 가정한다.As another example, it is assumed that the example sentence "Play number ○ (channel number)" is stored in the device control service domain.

이 경우, 저장부(320)는 "○번(채널 번호) 틀어줘"와 같은 예문을 해석하기 위한 정보를 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "○번(채널 번호) 틀어줘"와 같은 예문에서 "○번(채널 번호)"은 채널 번호를 나타내며, "틀어"는 채널 선국 명령을 나타내며, "줘"는 예문의 타입이 요청문인 것을 나타내는 정보를 해당 예문에 태깅하여 저장할 수 있다. 또한, 저장부(320)는 "~ 틀어줘"라는 형식을 갖는 예문의 앞부분에는 방송 프로그램과 관련된 단어가 배치된다는 정보를 해당 예문에 태깅하여 저장할 수 있다. 여기에서, 방송 프로그램과 관련된 단어는 채널 번호, 채널 명, 방송 프로그램명, 출연자, 연출자 등이 될 수 있다.In this case, thestorage unit 320 may tag and store information for interpreting an example sentence, such as "turn ○ (channel number)". Specifically, thestorage unit 320 in the example sentence such as "Turn on ○○ (channel number)" means "○ (channel number)" represents the channel number, "Turn on" represents the channel selection command, and "Give" May tag and store information indicating that the type of example sentence is a request statement. In addition, thestorage unit 320 may tag and store information indicating that words related to a broadcast program are arranged in the front portion of the example sentence having the format "~ turn". Here, words related to a broadcast program may be a channel number, a channel name, a broadcast program name, a performer, a director, and the like.

또한, 저장부(320)는 "○번(채널 번호) 틀어줘"에 대한 답변을 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "○번(채널 번호)을 틀어줘"에 대한 답변으로 "<채널 번호>으로 채널을 변경하였습니다"를 태깅하여 저장할 수 있다.In addition, thestorage unit 320 may tag and store the answer to "Play No. ○ (channel number)" in the corresponding example sentence. Specifically, thestorage unit 320 may store the tagging " I changed the channel to " <channel number> &quot;

또 다른 예로, 기기 제어 서비스 도메인 내에 "○○(어플리케이션 명칭) 실행해줘"라는 예문이 저장된 경우를 가정한다.As another example, it is assumed that the example sentence "Execute ○○ (application name)" is stored in the device control service domain.

이 경우, 저장부(320)는 "○○(어플리케이션 명칭) 실행해줘"와 같은 예문을 해석하기 위한 정보를 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "○○(어플리케이션 명칭) 실행해줘"와 같은 예문에서 "○○(어플리케이션 명칭)"은 어플리케이션 명칭을 나타내며, "실행"는 어플리케이션 실행 명령을 나타내며, "줘"는 예문의 타입이 요청문인 것을 나타내는 정보를 해당 예문에 태깅하여 저장할 수 있다.In this case, thestorage unit 320 may tag and store information for interpreting an example sentence such as "Please run ○○ (application name)". Specifically, thestorage unit 320 in the example sentence such as "Please run ○○ (application name)", "○○ (application name)" represents the application name, "execute" represents the application execution command, and "give" May tag and store information indicating that the type of example sentence is a request statement.

또한, 저장부(320)는 "~ 실행해줘"라는 형식을 갖는 예문의 앞부분에는 디스플레이 장치(100)에서 실행가능한 기능과 관련된 단어가 배치된다는 정보를 해당 예문에 태깅하여 저장할 수 있다. 여기에서, 디스플레이 장치(100)에서 실행가능한 기능과 관련된 단어는 각종 어플리케이션 명칭, 화상 통화 등과 같이 디스플레이 장치(100)에서 실행 가능한 다양한 기능에 대한 명칭이 될 수 있다.In addition, thestorage unit 320 may tag and store information that words related to functions executable in thedisplay device 100 are arranged in the front portion of the example sentence having the format "~ run". Here, words related to functions executable in thedisplay device 100 may be names of various functions executable in thedisplay device 100, such as various application names and video calls.

또 다른 예로, 기기 제어 서비스 도메인 내에 "더보기"라는 예문이 저장된 경우를 가정한다.As another example, it is assumed that the example sentence "see more" is stored in the device control service domain.

이 경우, 저장부(320)는 "더보기"와 같은 예문을 해석하기 위한 정보를 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "더보기"와 같은 예문에 디스플레이 장치(100)에서 사용 가능한 음성에 대한 정보를 요청하는 발화 의도가 포함된 것을 나타내는 정보를 해당 예문에 태깅하여 저장할 수 있다.In this case, thestorage 320 may tag and store information for interpreting an example sentence, such as "See more". Specifically, thestorage unit 320 may tag and store information indicating that an intention to request information about a voice usable in thedisplay device 100 is included in an example sentence such as "See more" in the corresponding example sentence.

또한, 저장부(320)는 각 예문에 디스플레이 장치(100)를 제어하기 위한 제어 명령을 태깅하여 저장할 수 있다. 특히, 저장부(320)는 디스플레이 장치(100)를 제어하기 위한 사용자의 음성에 대응되는 예문에 디스플레이 장치(100)를 제어하기 위한 제어 명령을 태깅하여 저장할 수 있다.In addition, thestorage unit 320 may tag and store a control command for controlling thedisplay device 100 in each example sentence. In particular, thestorage unit 320 may tag and store a control command for controlling thedisplay device 100 in an example sentence corresponding to a user's voice for controlling thedisplay device 100.

상술한 예에서, 저장부(320)는 "○번(채널 번호) 틀어줘"와 같은 예문에 디스플레이 장치(100)의 채널을 ○번으로 변경하기 위한 제어 명령을 태깅하여 저장할 수 있다. 또한, 저장부(320)는 "○○(어플리케이션 명칭) 실행해줘"와 같은 예문에 디스플레이 장치(100)에서 ○○(어플리케이션 명칭)을 실행하기 위한 제어 명령을 태깅하여 저장할 수 있다. 또한, 저장부(320)는 "더보기"와 같은 예문에 디스플레이 장치(100)에서 사용 가능한 음성을 출력하기 위한 제어 명령을 태깅하여 저장할 수 있다.In the above-described example, thestorage 320 may tag and store a control command for changing the channel of thedisplay device 100 to ○ in an example such as "Turn on ○ (channel number)". In addition, thestorage unit 320 may tag and store a control command for executing ○○ (application name) in thedisplay device 100 in an example such as "Please execute ○○ (application name)". In addition, thestorage unit 320 may tag and store a control command for outputting a voice usable in thedisplay device 100 in an example such as "See more".

한편, 저장부(320)에 저장되는 예문 및 그에 대한 답변에 대해 상술하였다. 하지만, 이는 일 예일 뿐이며, 서비스 도메인별로 다양한 예문 및 그에 대한 답변이 저장될 수 있음은 물론이다.Meanwhile, the example sentences stored in thestorage unit 320 and the answers thereto have been described above. However, this is only an example, and it is needless to say that various example sentences and answers to the service domains may be stored.

제어부(330)는 제2 서버(300)의 전반적인 동작을 제어한다. 특히, 디스플레이 장치(100)로부터 사용자의 음성에 대응되는 텍스트 정보가 수신되면, 제어부(330)는 수신된 텍스트 정보에 대응하는 응답 정보를 생성하고, 생성된 응답 정보를 통신부(310)를 통해 디스플레이 장치(100)로 전송하도록 제어할 수 있다.Thecontrol unit 330 controls the overall operation of thesecond server 300. In particular, when text information corresponding to a user's voice is received from thedisplay device 100, thecontrol unit 330 generates response information corresponding to the received text information, and displays the generated response information through thecommunication unit 310. It can be controlled to transmit to thedevice 100.

구체적으로, 제어부(330)는 텍스트 정보를 분석하여 사용자의 음성에 포함된 발화 의도를 판단하고, 판단된 발화 의도에 대응되는 응답 정보를 생성하여 디스플레이 장치(100)로 전송하도록 통신부(310)를 제어할 수 있다.Specifically, thecontrol unit 330 analyzes the text information to determine the speech intention included in the user's voice, and generates the response information corresponding to the determined speech intention to transmit thecommunication unit 310 to thedisplay device 100 Can be controlled.

이를 위해, 제어부(330)는 수신된 텍스트 정보에 매칭되는 대화 패턴이 존재하는 말뭉치 데이터베이스를 검출하여, 사용자의 음성이 속하는 서비스 도메인을 판단할 수 있다.To this end, thecontrol unit 330 may detect a corpus database in which a conversation pattern matching the received text information exists, and determine a service domain to which the user's voice belongs.

구체적으로, 제어부(330)는 수신된 텍스트 정보를 각 서비스 도메인별로 저장된 예문과 비교하고, 수신된 텍스트 정보에 매칭되는 예문이 속하는 서비스 도메인을 사용자의 음성이 속하는 서비스 도메인으로 판단할 수 있다.Specifically, thecontrol unit 330 may compare the received text information with an example sentence stored for each service domain, and determine a service domain to which the example text matching the received text information belongs is a service domain to which the user's voice belongs.

예를 들어, 제어부(320)는 디스플레이 장치(100)로부터 "○○○(방송 프로그램명)은 언제 해?" 또는 "오늘 방송 뭐해?"라는 텍스트가 수신되면 디스플레이 장치(100)에서 수집한 사용자의 음성이 방송 서비스 도메인에 속하는 것으로 판단할 수 있다. 또한, 제어부(320)는 디스플레이 장치(100)로부터 "○번(채널 번호) 틀어줘" 또는 "○○(어플리케이션 명칭)을 실행해줘"라는 텍스트가 수신되면 디스플레이 장치(100)에서 수집한 사용자의 음성이 기기 제어 서비스 도메인에 속하는 것으로 판단할 수 있다.For example, thecontrol unit 320 from thedisplay device 100, "When is ○○○ (the name of the broadcast program)?" Alternatively, when the text "What are you doing today?" Is received, it may be determined that the voice of the user collected by thedisplay device 100 belongs to the broadcast service domain. In addition, thecontrol unit 320 receives the text "Please turn on (○) (channel number)" or "run ○○ (application name)" from thedisplay device 100 of the user collected by thedisplay device 100 It can be determined that the voice belongs to the device control service domain.

한편, 제어부(330)는 수신된 텍스트 정보에 매칭되는 예문이 존재하지 않는 경우, 통계적으로 사용자의 음성이 속하는 도메인을 판단할 수 있다.Meanwhile, if there is no example sentence matching the received text information, thecontroller 330 may statistically determine a domain to which the user's voice belongs.

예를 들어, 디스플레이 장치(100)가 "○번(채널 번호) 틀어주세요"을 수집하고, 수집된 사용자의 음성에 대한 텍스트를 제2 서버(300)로 전송한 경우를 가정한다. 이 경우, 제어부(330)는 HMM(Hidden Markov Model), CRF(Condition Random Fields), SVM(Support Vector Machine) 등의 분류 모델을 사용하여 사용자의 음성이 "○번(채널 번호) 틀어줘"와 통계적으로 유사한 것으로 판단하고, "○번(채널 번호) 틀어주세요"는 기기 제어 서비스 도메인에 속하는 것으로 판단할 수 있다.For example, it is assumed that thedisplay apparatus 100 collects " Please turn on (○) (channel number) " and transmits text about the collected user's voice to thesecond server 300. In this case, thecontrol unit 330 uses a classification model such as HMM (Hidden Markov Model), CRF (Condition Random Fields), and SVM (Support Vector Machine), so that the user's voice is “play ○ (channel number)” and It can be judged as statistically similar, and it can be judged that "Please turn ○ (channel number)" belongs to the device control service domain.

그리고, 제어부(330)는 기저장된 예문과 통계적으로 유사한 것으로 판단된 텍스트 정보를 저장할 수도 있다. 이 경우, 제어부(330)는 텍스트 정보를 통계적으로 유사한 예문이 속하는 서비스 도메인의 또 다른 예문으로 저장할 수 있다. 또한, 제어부(330)는 기저장된 예문을 참조하여, 새롭게 저장되는 예문을 해석하기 위한 정보 및 그에 대응되는 답변을 새롭게 저장되는 예문에 태깅하여 저장할 수 있다.In addition, thecontrol unit 330 may store text information determined to be statistically similar to the pre-stored example sentences. In this case, thecontrol unit 330 may store text information as another example sentence of a service domain to which a statistically similar example sentence belongs. In addition, thecontrol unit 330 may tag and store information for interpreting the newly stored example sentence and a corresponding answer in the newly stored example sentence with reference to the previously stored example sentence.

예를 들어, "○번(채널 번호) 틀어주세요"를 새로운 예문으로 저장하는 경우를 가정한다.For example, suppose that "Please turn on the number ○ (channel number)" as a new example sentence.

이 경우, 제어부(330)는 "○번(채널 번호) 틀어줘"를 참조하여 "○번(채널 번호) 틀어주세요"와 같은 예문을 해석하기 위한 정보를 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 제어부(330)는 "○번(채널 번호) 틀어주세요"와 같은 예문에서 "○번(채널 번호)"은 채널 번호를 나타내며, "틀어"는 채널 선국 명령을 나타내며, "주세요"는 예문의 타입이 요청문인 것을 나타내는 정보를 해당 예문에 태깅하여 저장할 수 있다. 또한, 저장부(320)는 "~ 틀어주세요"라는 형식을 갖는 예문의 앞부분에는 방송 프로그램과 관련된 단어가 배치된다는 정보를 해당 예문에 태깅하여 저장할 수 있다. 여기에서, 방송 프로그램과 관련된 단어는 채널 번호, 방송국명, 방송 프로그램명, 출연자, 연출자 등이 될 수 있다.In this case, thecontrol unit 330 may tag and store information for interpreting an example sentence such as "Turn on ○ (channel number)" with reference to "Turn on ○ (channel number)". Specifically, thecontrol unit 330 in the example sentence such as "Please turn on ○ (channel number)", "No. ○ (channel number)" indicates the channel number, "Turn on" indicates the channel selection command, and "Please" Information indicating that the type of example sentence is a request statement may be tagged and stored in the corresponding example sentence. In addition, thestorage unit 320 may tag and store information indicating that words related to a broadcast program are arranged in the front portion of the example sentence having the format “~ turn on”. Here, words related to the broadcast program may be a channel number, a broadcasting station name, a broadcast program name, a performer, a director, and the like.

또한, 저장부(320)는 "○번(채널 번호) 틀어주세요"에 대한 답변을 해당 예문에 태깅하여 저장할 수 있다. 구체적으로, 저장부(320)는 "○번(채널 번호을 틀어주세요"에 대한 답변으로 "<채널 번호>으로 채널을 변경하였습니다"를 태깅하여 저장할 수 있다.In addition, thestorage unit 320 may tag and store the answer to "Please turn on ○ (channel number)" in the corresponding example sentence. Specifically, thestorage unit 320 may store the tagging "I changed the channel to <channel number>" in response to "No. ○ (Please turn on the channel number").

한편, 제어부(330)는 디스플레이 장치(100)로부터 수신된 텍스트 정보에 매칭되는 예문이 복수 개 존재하고 이들이 서로 다른 서비스 도메인에 속하는 경우, 통계적으로 분석하여 사용자의 음성이 속하는 서비스 도메인으로 판단할 수 있다.Meanwhile, when a plurality of example sentences matching text information received from thedisplay apparatus 100 exist and they belong to different service domains, thecontroller 330 may statistically analyze to determine the service domain to which the user's voice belongs. have.

구체적으로, 제어부(330)는 디스플레이 장치(100)로부터 수신된 텍스트 정보를 구성하는 단어(또는, 형태소)가 각 서비스 도메인 내에서 존재하는 빈도수에 기초하여 각 단어(또는, 형태소)에 가중치를 부여하고, 부여된 가중치를 고려하여 사용자의 음성이 속하는 서비스 도메인으로 판단할 수 있다.Specifically, thecontrol unit 330 assigns a weight to each word (or morpheme) based on the frequency of words (or morphemes) constituting text information received from thedisplay device 100 in each service domain. And, it may be determined as a service domain to which the user's voice belongs, considering the assigned weight.

예를 들어, "○○○(방송 프로그램 명칭) 틀어줘"라는 예문이 방송 서비스 도메인 및 VOD 서비스 도메인에 각각 저장된 상태에서, "○○○(방송 프로그램 명칭) 틀어줘"와 같은 텍스트가 디스플레이 장치(100)로부터 수신된 경우를 가정한다.For example, in the state in which the example sentences “Play ○○○ (name of the broadcast program)” are stored in the broadcast service domain and the VOD service domain, text such as “Play ○○○ (name of the broadcast program)” is displayed on the display device. Assume a case received from (100).

이 경우, 제어부(330)는 "○○○(방송 프로그램 명칭) 틀어줘"에 매칭되는 예문이 방송 서비스 도메인 및 VOD 서비스 도메인에 존재하는 것으로 판단하고, "○○○(방송 프로그램 명칭) 틀어줘"를 구성하는 단어(또는, 형태소)인 "틀어" 및 "줘"가 각 서비스 도메인 내에서 존재하는 빈도수에 기초하여 각 서비스 도메인 별로 "틀어" 및 "줘"에 가중치를 부여할 수 있다.In this case, thecontrol unit 330 determines that an example sentence matching “Play ○○○ (Broadcast program name)” exists in the broadcast service domain and the VOD service domain, and turn “○○○ (Broadcast program name) Weights of "twist" and "give" may be weighted for each service domain based on the frequency of "twist" and "give", which are words (or morphemes) constituting "," in each service domain.

예를 들어, 제어부(330)는 방송 서비스 도메인 내에 저장된 전체 예문들 중에서 "틀어"를 포함하는 예문이 차지하는 비율을 방송 서비스 도메인에서 "틀어"의 가중치로 산출하고, 방송 서비스 도메인 내에 저장된 전체 예문들 중에서 "줘"를 포함하는 예문이 차지하는 비율을 방송 서비스 도메인에서 "줘"의 가중치로 산출할 수 있다.For example, thecontrol unit 330 calculates a percentage of the example sentences including "twist" among all example sentences stored in the broadcast service domain as a weight of "twist" in the broadcast service domain, and the total example sentences stored in the broadcast service domain Among them, the ratio occupied by the example sentences including "give me" may be calculated as the weight of "give" in the broadcast service domain.

이와 마찬가지 방법으로, 제어부(330)는 VOD 서비스 도메인 내에 저장된 전체 예문들 중에서 "틀어"를 포함하는 예문이 차지하는 비율을 VOD 서비스 도메인에서 "틀어"의 가중치로 산출하고, VOD 서비스 도메인 내에 저장된 전체 예문들 중에서 "줘"를 포함하는 예문이 차지하는 비율을 VOD 서비스 도메인에서 "줘"의 가중치로 산출할 수 있다.In this way, thecontrol unit 330 calculates a percentage of the example sentences including "twist" among all example sentences stored in the VOD service domain as a weight of "twist" in the VOD service domain, and the total example sentences stored in the VOD service domain Among them, the ratio occupied by the example sentences including "give me" can be calculated as the weight of "give" in the VOD service domain.

이후, 제어부(330)는 각 단어에 대해 부여된 가중치를 연산하여 사용자의 음성이 속하는 서비스 도메인을 판단할 수 있다. 상술한 예에서, 제어부(330)는 방송 서비스 도메인 내에서 "틀어"와 "줘" 각각에 부여된 가중치를 서로 곱한 결과와 VOD 서비스 도메인 내에서 "틀어"와 "줘" 각각에 부여된 가중치를 서로 곱한 결과를 비교하고, 결과값이 큰 서비스 도메인에 사용자의 음성이 속하는 것으로 판단할 수 있다.Thereafter, thecontroller 330 may calculate a weight assigned to each word to determine a service domain to which the user's voice belongs. In the above-described example, thecontrol unit 330 multiplies the weights assigned to each of “twist” and “give” in the broadcast service domain and the weights assigned to “twist” and “give” in the VOD service domain. It is possible to compare the results multiplied with each other and determine that the user's voice belongs to a service domain having a large result value.

즉, 제어부(330)는 방송 서비스 도메인 내에서 부여된 가중치에 기초하여 산출된 결과값이 VOD 서비스 도메인 내에서 부여된 가중치에 기초하여 산출된 결과값보다 큰 경우, "○○○(방송 프로그램 명칭) 틀어줘"는 방송 서비스 도메인에 속하는 것으로 판단할 수 있다. 이와 반대로, 제어부(330)는 VOD 서비스 도메인 내에서 부여된 가중치에 기초하여 산출된 결과값이 방송 서비스 도메인 내에서 부여된 가중치에 기초하여 산출된 결과값보다 큰 경우, "○○○(방송 프로그램 명칭)을 틀어줘"는 VOD 서비스 도메인에 속하는 것으로 판단할 수 있다.That is, when the result value calculated based on the weight assigned in the broadcast service domain is greater than the result value calculated based on the weight assigned in the VOD service domain, thecontrol unit 330 displays "○○○ (the name of the broadcast program. ) Turn on "can be determined to belong to the broadcast service domain. On the contrary, if the result value calculated based on the weight assigned in the VOD service domain is greater than the result value calculated based on the weight assigned in the broadcast service domain, thecontroller 330 displays "○○○ (broadcast program "Turn on the name)" can be determined to belong to the VOD service domain.

하지만, 이는 일 예일 뿐이며 제어부(330)는 다양한 방식을 통해 통계적으로 사용자의 음성이 속하는 서비스 도메인을 판단할 수 있다.However, this is only an example, and thecontroller 330 may statistically determine a service domain to which the user's voice belongs through various methods.

이후, 제어부(330)는 사용자의 음성이 속하는 서비스 도메인에 기초하여, 사용자의 음성으로부터 화행(dialogue act), 주행(main action) 및 구성요소(component slot)(또는, 개체명)를 추출한다.Thereafter, thecontrol unit 330 extracts a dialogue act, a main action, and a component slot (or an entity name) from the user's voice based on a service domain to which the user's voice belongs.

여기에서, 화행은 문장의 형태와 관련된 분류 기준으로, 해당 문장이 서술문(Statement), 요청문(Request) 또는 의문문(Question)인지를 나타내는 것이다.Here, the dialogue act is a classification criterion related to the form of a sentence, and indicates whether the sentence is a statement, a request, or a question.

주행은 해당 발화가 특정 도메인에서 대화를 통해 원하는 행위를 나타내는 의미적 정보이다. 예를 들어, 방송 서비스 도메인에서, 주행은 TV 전원 온/오프, 방송 프로그램 찾기, 방송 프로그램 시간 찾기, 방송 프로그램 예약 등을 포함할 수 있다. 다른 예로, 기기 제어 도메인에서, 주행은 기기 전원 온/오프, 재생, 일시 정지 등을 포함할 수 있다.Driving is semantic information that indicates the desired behavior of the utterance through a conversation in a specific domain. For example, in the broadcast service domain, driving may include turning on / off TV power, finding a broadcast program, finding a broadcast program time, and scheduling a broadcast program. As another example, in the device control domain, driving may include device power on / off, playback, pause, and the like.

구성요소는 발화에 나타나는 특정 도메인에 대한 개체 정보 즉, 특정 도메인에서 의도하는 행동의 의미를 구체화하기 위해서 부가되는 정보이다. 예를 들어, 방송 서비스 도메인에서 구성요소는 장르, 방송 프로그램명, 방송 시간, 채널명, 배우 이름 등을 포함할 수 있으며, 기기 제어 서비스 도메인에서 구성요소는 외부 기기 명칭, 제조사 등을 포함할 수 있다.The component is individual information about a specific domain appearing in the speech, that is, information added to specify the meaning of the intended action in the specific domain. For example, components in the broadcast service domain may include genre, broadcast program name, broadcast time, channel name, actor name, etc., and components in the device control service domain may include external device names, manufacturers, and the like. .

그리고, 제어부(330)는 추출된 화행, 주행 및 구성요소를 이용하여 사용자의 음성에 포함된 발화 의도를 판단하고, 판단된 발화 의도에 대응되는 응답 정보를 생성하여 디스플레이 장치(100)로 전송할 수 있다.Then, thecontrol unit 330 determines the intention to utter the speech included in the user's voice using the extracted dialogue act, driving, and components, and generates response information corresponding to the determined intention to transmit to thedisplay apparatus 100 have.

여기에서, 응답 정보는 디스플레이 장치(100)에서 시스템 응답을 출력하기 위한 시스템 응답 정보를 포함한다. 이를 위해, 제어부(330)는 판단된 발화 의도에 대한 답변을 저장부(320)에서 추출하고, 추출된 답변을 텍스트로 변환하여 시스템 응답 정보를 생성할 수 있다. 또한, 제어부(330)는 판단된 발화 의도에 대응되는 정보를 검색하고, 검색된 정보를 이용하여 시스템 응답 정보를 생성할 수 있다.Here, the response information includes system response information for outputting a system response from thedisplay device 100. To this end, thecontroller 330 may extract a response to the determined speech intent from thestorage unit 320 and convert the extracted answer into text to generate system response information. In addition, thecontrol unit 330 may search for information corresponding to the determined utterance intention, and generate system response information using the searched information.

또한, 응답 정보는 사용자의 음성에 대응되는 기능을 실행하기 위한 제어 명령을 포함할 수 있다. 여기에서, 제어 명령은 사용자의 음성에 대응되는 기능을 수행하도록 디스플레이 장치(100)를 제어하기 위한 제어 명령을 포함할 수 있다. 이를 위해, 제어부(330)는 판단된 발화 의도에 대응되는 제어 명령을 생성하고, 생성된 제어 명령을 디스플레이 장치(100)로 전송하도록 제어할 수 있다.In addition, the response information may include a control command for executing a function corresponding to the user's voice. Here, the control command may include a control command for controlling thedisplay device 100 to perform a function corresponding to the user's voice. To this end, thecontrol unit 330 may generate a control command corresponding to the determined utterance intention, and control the generated control command to be transmitted to thedisplay device 100.

이하에서는, 제어부(330)가 사용자의 음성에 대응되는 응답 정보를 생성하는 보다 구체적인 방법을 예를 들어 설명하도록 한다.Hereinafter, a more specific method in which thecontrol unit 330 generates response information corresponding to the user's voice will be described as an example.

먼저, 제어부(330)는 사용자의 음성과 매칭되는 예문 또는 사용자의 음성과 통계적으로 유사한 것으로 판단된 예문에 태깅된 정보를 이용하여, 사용자의 음성에서 화행, 주행 및 구성요소를 추출하고, 사용자의 음성에 대응되는 응답 정보를 생성하여 디스플레이 장치(100)로 전송할 수 있다.First, thecontrol unit 330 extracts dialogue acts, driving, and components from the user's voice using information tagged in the example sentence that matches the user's voice or the example sentence determined to be statistically similar to the user's voice, and The response information corresponding to the voice may be generated and transmitted to thedisplay device 100.

예를 들어, 디스플레이 장치(100)로부터 텍스트 "○○○(방송 프로그램 명칭)은 언제 해?"가 수신된 경우를 가정한다.For example, it is assumed that the text "When do you do ○○○ (name of a broadcast program)?" Is received from thedisplay device 100.

이 경우, 제어부(330)는 수신된 텍스트가 방송 서비스 도메인에 속하는 것으로 판단하고, 방송 서비스 도메인 내에서 수신된 텍스트와 매칭되는 예문인 "○○○(방송 프로그램명)은 언제 해?"에 태깅된 정보를 이용하여 사용자의 음성에서 화행, 주행 및 구성요소를 추출하고, 그에 대한 응답 정보를 생성할 수 있다.In this case, thecontrol unit 330 determines that the received text belongs to the broadcast service domain, and tags the example sentence “○○○ (broadcast program name)?” That matches the text received in the broadcast service domain. Using the information, the dialogue act, driving and components can be extracted from the user's voice, and response information can be generated.

즉, 방송 서비스 도메인에 저장된 예문인 "○○○(방송 프로그램 명칭)은 언제 해?"에는 예문을 해석하기 위한 정보로, "○○○(방송 프로그램 명칭)"은 방송 프로그램을 나타내고, "언제"는 방송 시간 문의를 나타내며, "해?"는 예문의 타입이 의문문인 것을 나타내는 정보가 태깅되어 있다. 따라서, 제어부(330)는 이들 정보를 참조하여 디스플레이 장치(100)로부터 수신된 텍스트 "○○○(방송 프로그램 명칭)은 언제 해?"의 화행은 의문문이고 주행은 방송 시간 문의이고 구성요소는 ○○○(방송 프로그램 명칭)인 것으로 판단할 수 있다. 그에 따라, 제어부(330)는 사용자의 음성에 포함된 발화 의도는 "○○○"에 대한 "방송 시간"을 "문의"하는 것으로 판단할 수 있다.That is, in the broadcast service domain, the example sentence “○○○ (name of the broadcast program)?” Is information for interpreting the example sentence, and “○○○ (name of the broadcast program)” indicates the broadcast program, and “when "Indicates a broadcast time inquiry, and" Do you? "Is tagged with information indicating that the type of example sentence is a question. Therefore, thecontrol unit 330 refers to these information, and when the text "○○○ (the name of the broadcast program) is received" from thedisplay device 100 is questionable, driving is a broadcast time inquiry and components are ○ It can be judged to be ○○ (name of the broadcast program). Accordingly, thecontroller 330 may determine that the utterance intention included in the user's voice is "inquiry" of "broadcast time" for "○○○".

또한, 제어부(330)는 방송 서비스 도메인에 저장된 예문인 "○○○(방송 프로그램 명칭)은 언제 해?"에 태깅된 답변을 저장부(320)에서 검색하고, 태깅된 답변을 이용하여 시스템 응답 정보를 생성할 수 있다.In addition, thecontrol unit 330 searches thestorage unit 320 for answers tagged in the example sentence "When is ○○○ (the name of the broadcast program)" stored in the broadcasting service domain, and uses the tagged answer to respond to the system? Information can be generated.

즉, 제어부(330)는 방송 서비스 도메인에 저장된 예문인 "○○○(방송 프로그램 명칭)은 언제 해?"에 태깅된 답변인 "문의하신 <방송 프로그램 명칭>의 방송 시간은 <방송 시간> 입니다"를 사용자의 음성에 대응되는 답변으로 검색한다.That is, thecontrol unit 330 is a response to the tagging of the example sentence "○○○ (the name of the broadcast program)?" "Is searched as an answer corresponding to the user's voice.

이 경우, 제어부(330)는 검색된 답변에 포함된 블랭크를 완성하여, 완전한 형태의 문장을 생성할 수 있다.In this case, thecontrol unit 330 may generate a complete sentence by completing the blank included in the searched answer.

예를 들어, 제어부(330)는 "문의하신 <방송 프로그램 명칭>의 방송 시간은 <방송 시간> 입니다"와 같은 답변에서 블랭크 <방송 프로그램 명>는 방송 프로그램명인 "○○○(방송 프로그램 명칭)"을 기입할 수 있다. 그리고, 제어부(330)는 EPG(Electronic Program Guide) 정보를 통해 "○○○(방송 프로그램 명칭)"의 방송 시간을 검색하고 검색된 방송 시간을 또 다른 블랭크인 <방송 시간>에 기입할 수 있다. 이에 따라, 제어부(330)는 "문의하신 ○○○(방송 프로그램 명칭)의 방송 시간은 토요일 7시입니다"라는 완전한 형태의 문장을 사용자의 음성에 대응되는 시스템 응답 정보로 생성하고, 생성된 시스템 응답 정보를 디스플레이 장치(100)로 전송할 수 있다.For example, thecontrol unit 330, in response to a response such as "The broadcast time of the <program name> inquired is <broadcast time>", the blank <broadcast program name> is the broadcast program name "○○○ (the name of the broadcast program). You can enter ". Then, thecontrol unit 330 may search for a broadcast time of "○○○ (name of a broadcast program)" through EPG (Electronic Program Guide) information and write the searched broadcast time in another blank, <broadcast time>. Accordingly, thecontrol unit 330 generates a complete sentence of "Inquiry ○○○ (the broadcast program name) is 7:00 on Saturday" as system response information corresponding to the user's voice, and the generated system Response information may be transmitted to thedisplay device 100.

이에 따라, 디스플레이 장치(100)는 제2 서버(300)로부터 수신된 시스템 응답 정보에 기초하여, "문의하신 ○○○(방송 프로그램명)의 방송 시간은 토요일 7시입니다"를 음성 및 UI 화면 중 적어도 하나의 형태로 출력할 수 있다.Accordingly, thedisplay device 100 displays a voice and UI screen based on the system response information received from thesecond server 300, "The broadcast time of the inquired ○○○ (the name of the broadcast program) is 7:00 on Saturday". It can be output in at least one form.

다른 예로, 디스플레이 장치(100)로부터 텍스트 "오늘 방송 뭐해?"가 수신된 경우를 가정한다.As another example, it is assumed that the text “What are you broadcasting today?” Is received from thedisplay device 100.

이 경우, 제어부(330)는 수신된 텍스트가 방송 서비스 도메인에 속하는 것으로 판단하고, 방송 서비스 도메인 내에서 수신된 텍스트와 매칭되는 예문인 "오늘 방송 뭐해?"에 태깅된 정보를 이용하여 사용자의 음성에서 화행, 주행 및 구성요소를 추출하고, 그에 대한 응답 정보를 생성할 수 있다.In this case, thecontrol unit 330 determines that the received text belongs to the broadcast service domain, and uses the information tagged in the "What are you broadcasting today?" Example text matching the received text in the broadcast service domain. From the dialogue act, driving and components can be extracted and response information can be generated.

즉, 방송 서비스 도메인에 저장된 예문인 "오늘 방송 뭐해?"에는 예문을 해석하기 위한 정보로, "방송"은 방송 프로그램을 나타내고, "오늘", "방송", "뭐해"는 오늘 방송되는 방송 프로그램 문의를 나타내며, "해?"는 예문의 타입이 의문문인 것을 나타내는 정보가 태깅되어 있다. 따라서, 제어부(330)는 이들 정보를 참조하여 디스플레이 장치(100)로부터 수신된 텍스트 "오늘 방송 뭐해?"의 화행은 의문문이고 주행은 오늘 방송되는 방송 프로그램 문의이고 구성요소는 방송 프로그램인 것으로 판단할 수 있다. 이에 따라, 제어부(330)는 사용자의 음성에 포함된 발화 의도는 "오늘" 방송되는 "방송 프로그램"을 "문의"하는 것으로 판단할 수 있다.In other words, "What are you doing today?" Is an example sentence stored in the broadcast service domain. This is information for interpreting the examples. "Broadcast" indicates a broadcast program, and "Today", "Broadcast", and "What Are You?" It indicates an inquiry, and "Are you sure?" Is tagged with information indicating that the type of example sentence is a question. Therefore, thecontrol unit 330 may determine that the dialogue act of the text "What are you doing today?" Is a question, the driving is a broadcast program inquiry that is broadcast today, and the component is a broadcast program, referring to these information. You can. Accordingly, thecontroller 330 may determine that the utterance intention included in the user's voice is "inquiry" of the "broadcast program" broadcast "today".

이 경우, 제어부(330)는 EPG 정보를 참조하여 오늘 방송하는 방송 프로그램을 검색하고, 검색된 방송 프로그램에 대한 정보(가령, 컨텐츠 명칭, 장르, 방송 시간, 출연진, 컨텐츠에 대한 썸네일 이미지, 컨텐츠가 방송되는 채널명, 제작진 등 중 적어도 하나)를 디스플레이 장치(100)로 전송하도록 통신부(310)를 제어할 수 있다.In this case, thecontrol unit 330 searches for a broadcast program broadcast today with reference to EPG information, and information about the searched broadcast program (eg, content name, genre, broadcast time, cast, thumbnail image for content, broadcast content) Thecommunication unit 310 may be controlled to transmit the at least one channel name, the production team, and the like to thedisplay device 100.

또한, 제어부(330)는 판단된 발화 의도에 대한 정보를 디스플레이 장치(100로 전송하도록 통신부(310)를 제어할 수도 있다. 즉, 제어부(330)는 사용자의 발화 의도가 오늘 방송하는 방송 프로그램에 대한 정보를 문의하는 것으로 판단된 경우, 오늘 방송하는 방송 프로그램에 대한 리스트를 출력하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다.In addition, thecontrol unit 330 may control thecommunication unit 310 to transmit information on the determined utterance intention to thedisplay device 100. That is, thecontrol unit 330 may be used to broadcast programs in which a user's utterance intention is broadcast today. If it is determined to inquire about the information, a control command for outputting a list of broadcast programs broadcast today can be transmitted to thedisplay device 100.

또한, 제어부(330)는 검색된 방송 프로그램에 대한 정보 및 판단된 발화 의도에 대한 정보를 함께 디스플레이 장치(100)로 전송하도록 제어할 수도 있다.In addition, thecontrol unit 330 may control to transmit information on the searched broadcast program and information on the determined intention to speak to thedisplay apparatus 100 together.

이에 따라, 디스플레이 장치(100)는 제2 서버(300)로부터 수신된 정보에 기초하여, 오늘 방송하는 방송 프로그램에 대한 리스트를 음성 및 UI 화면 중 하나의 형태로 출력할 수 있다.Accordingly, based on the information received from thesecond server 300, thedisplay apparatus 100 may output a list of broadcast programs broadcasted today in one of voice and UI screens.

또 다른 예로, 디스플레이 장치(100)로부터 텍스트 "○번(채널 번호) 틀어줘"가 수신된 경우를 가정한다.As another example, it is assumed that the text " Play No. ○ (channel number) " is received from thedisplay device 100.

이 경우, 제어부(330)는 수신된 텍스트가 기기 제어 도메인에 속하는 것으로 판단하고, 기기 제어 서비스 도메인 내에서 수신된 텍스트와 매칭되는 예문인 "○번(채널 번호) 틀어줘"에 태깅된 정보를 이용하여 사용자의 음성에서 화행, 주행 및 구성요소를 추출하고, 그에 대한 응답 정보를 생성할 수 있다.In this case, thecontrol unit 330 determines that the received text belongs to the device control domain, and displays the information tagged in "Turn on ○ (channel number)", an example sentence matching the received text in the device control service domain. Using it, the dialogue act, driving and components can be extracted from the user's voice, and response information can be generated.

즉, 기기 제어 서비스 도메인에 저장된 예문인 "○번(채널 번호) 틀어줘"에는 예문을 해석하기 위한 정보로, "○번(채널 번호)"은 채널 번호를 나타내고, "틀어"는 방송 선국 명령을 나타내며, "줘"는 예문의 타입이 요청문인 것을 나타내는 정보가 태깅되어 있다. 따라서, 제어부(330)는 이들 정보를 참조하여 디스플레이 장치(100)로부터 수신된 텍스트 "○번(채널 번호)을 틀어줘"의 화행은 요청문이고 주행은 방송 선국 명령이고 구성요소는 ○번(채널 번호)인 것으로 판단할 수 있다. 그에 따라, 제어부(330)는 사용자의 음성에 포함된 발화 의도는 "○번"에 대한 "방송 선국"을 "요청"하는 것으로 판단할 수 있다.That is, the example sentence stored in the device control service domain, "play number ○ (channel number)" is information for interpreting the example sentence, "number ○ (channel number)" indicates a channel number, and "turn" indicates a broadcast tuning command. Indicates, and information indicating that the type of the example sentence is a request statement is tagged. Therefore, thecontrol unit 330 refers to the information, and the dialogue act of the text “Play number ○ (channel number)” received from thedisplay apparatus 100 is a request statement, driving is a broadcast tuning command, and the component is an ○ number ( Channel number). Accordingly, thecontroller 330 may determine that the utterance intention included in the user's voice is "request" the "broadcast channel" for "No. ○".

또한, 제어부(330)는 방송 서비스 도메인에 저장된 예문인 "○번(채널 번호) 틀어줘"에 태깅된 답변을 저장부(320)에서 검색하고, 태깅된 답변을 이용하여 응답 정보를 생성할 수 있다.In addition, thecontrol unit 330 may search thestorage unit 320 for the answer tagged in the example sentence "play number ○ (channel number)" stored in the broadcast service domain, and generate response information using the tagged answer. have.

즉, 제어부(330)는 방송 서비스 도메인에 저장된 예문인 "○번(채널 번호) 틀어줘"에 태깅된 답변인 "<채널 번호>으로 채널을 변경하였습니다"를 사용자의 음성에 대응되는 답변으로 검색한다.In other words, thecontrol unit 330 searches for an answer corresponding to the user's voice by searching for an answer to the voice of "<Channel number>", which is the tagging of the example sentence "Play channel number (○)" stored in the broadcast service domain. do.

이 경우, 제어부(330)는 검색된 답변에 포함된 블랭크를 완성하여, 완전한 형태의 문장을 생성할 수 있다.In this case, thecontrol unit 330 may generate a complete sentence by completing the blank included in the searched answer.

예를 들어, 제어부(330)는 "<채널 번호>으로 채널을 변경하였습니다"와 같은 답변에서 블랭크 <채널 번호>는 채널 번호인 "○번(채널 번호)"을 기입할 수 있다. 이에 따라, 제어부(330) "○번으로 채널을 변경하였습니다 "라는 완전한 형태의 문장을 사용자의 음성에 대응되는 시스템 응답 정보로 생성하고, 생성된 시스템 응답 정보를 디스플레이 장치(100)로 전송할 수 있다.For example, thecontrol unit 330 may fill in the blank <channel number> with a channel number "○ (channel number)" in a response such as "I changed the channel to <channel number>". Accordingly, thecontrol unit 330 may generate a sentence in a complete form of “Changed the channel to No. ○” as system response information corresponding to a user's voice, and transmit the generated system response information to thedisplay device 100. .

또한, 제어부(330)는 기기 제어 도메인에 저장된 예문인 "○번(채널 번호)을 틀어줘"에 태깅된 제어 명령을 저장부(320)에서 검색하고, 태깅된 제어 명령을 디스플레이 장치(100)로 전송하도록 제어할 수 있다. 즉, 제어부(330)는 기기 제어 도메인에 저장된 예문인 "○번(채널 번호)을 틀어줘"에 태깅된 디스플레이 장치(100)의 채널을 ○번으로 변경하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다.In addition, thecontrol unit 330 searches for a control command tagged in the example sentence "Turn on (○ channel number)" stored in the device control domain in thestorage unit 320 and displays the tagged control command in thedisplay device 100. Can be controlled to transmit. That is, thecontrol unit 330 displays the control command for changing the channel of thedisplay device 100 tagged to "Turn on ○ (channel number)", which is an example sentence stored in the device control domain, to the ○ number. Can be transferred to.

이에 따라, 디스플레이 장치(100)는 제2 서버(300)로부터 수신된 제어 명령에 기초하여 ○번으로 채널을 변경하고, 제2 서버(300)로부터 수신된 시스템 응답 정보에 기초하여 "○번으로 채널을 변경하였습니다"를 음성 및 UI 화면 중 적어도 하나의 형태로 출력할 수 있다.Accordingly, thedisplay apparatus 100 changes the channel to ○ based on the control command received from thesecond server 300, and changes the channel to “○ based on the system response information received from thesecond server 300. The channel has been changed "can be output in at least one of voice and UI screen.

한편, 상술한 예에서, 제어부(330)가 예문에 태깅된 제어 명령에 기초하여 디스플레이 장치(100)의 기능을 실행시키기 위한 제어 명령을 생성하는 것으로 설명하였으나 이는 일 예에 불과하다.Meanwhile, in the above-described example, it has been described that thecontrol unit 330 generates a control command for executing the function of thedisplay apparatus 100 based on the control command tagged in the example sentence, but this is only an example.

즉, 제어부(330)는 판단된 발화 의도에 기초하여 제어 명령을 생성하고, 이를 디스플레이 장치(100)로 전송할 수 있다. 예를 들어, 제어부(330)는 사용자의 발화 의도가 ○번에 대한 방송 선국을 요청인 것으로 판단된 경우, ○번으로 채널을 변경하기 위한 제어 명령을 생성하여 디스플레이 장치(100)로 전송할 수 있다.That is, thecontrol unit 330 may generate a control command based on the determined intention to speak, and transmit it to thedisplay device 100. For example, when it is determined that the user's utterance intention is a request for a broadcasting channel for number ○, thecontrol unit 330 may generate a control command for changing the channel to number ○ and transmit it to thedisplay device 100. .

또한, 상술한 예에서, 제어부(330)는 디스플레이 장치(100)의 기능을 실행하기 위한 제어 명령 전송 시, 시스템 응답을 출력하기 위한 시스템 응답 정보를 함께 전송하는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 제어부(330)는 사용자의 발화 의도에 따라 디스플레이 장치(100)의 기능을 실행하기 위한 제어 명령만을 디스플레이 장치(100)로 전송할 수도 있다.In addition, in the above-described example, thecontrol unit 330 is described as transmitting system response information for outputting a system response when transmitting a control command for executing a function of thedisplay device 100, but this is only an example. . That is, thecontrol unit 330 may transmit only a control command for executing a function of thedisplay apparatus 100 to thedisplay apparatus 100 according to a user's intention to speak.

이 경우, 디스플레이 장치(100)는 별도의 시스템 응답을 출력하지 않거나, 디스플레이 장치(100) 내에 기저장된 데이터를 이용하여 시스템 응답을 출력할 수 있다.In this case, thedisplay device 100 may not output a separate system response, or may output a system response using data stored in thedisplay device 100.

또 다른 예로, 디스플레이 장치(100)로부터 텍스트 "○○(어플리케이션 명칭) 실행해줘"가 수신된 경우를 가정한다.As another example, it is assumed that the text "O ○ (application name) run" is received from thedisplay device 100.

이 경우, 제어부(330)는 수신된 텍스트가 기기 제어 도메인에 속하는 것으로 판단하고, 기기 제어 서비스 도메인 내에서 수신된 텍스트와 매칭되는 예문인 "○○(어플리케이션 명칭) 실행해줘"에 태깅된 정보를 이용하여 사용자의 음성에서 화행, 주행 및 구성요소를 추출하고, 그에 대한 응답 정보를 생성할 수 있다.In this case, thecontrol unit 330 determines that the received text belongs to the device control domain, and displays information tagged in "execute ○○ (application name)", which is an example sentence matching the received text in the device control service domain. Using it, the dialogue act, driving and components can be extracted from the user's voice, and response information can be generated.

즉, 기기 제어 서비스 도메인에 저장된 예문인 "○○(어플리케이션 명칭) 실행해줘"에는 예문을 해석하기 위한 정보로, "○○(어플리케이션 명칭)"은 어플리케이션 명칭을 나타내고, "실행"은 어플리케이션 실행 명령을 나타내며, "해줘"는 예문의 타입이 요청문인 것을 나타내는 정보가 태깅되어 있다. 따라서, 제어부(330)는 이들 정보를 참조하여 디스플레이 장치(100)로부터 수신된 텍스트 "○○(어플리케이션 명칭) 실행해줘"의 화행은 요청문이고 주행은 어플리케이션 실행 명령이고 구성요소는 ○○(어플리케이션 명칭)인 것으로 판단할 수 있다. 그에 따라, 제어부(330)는 사용자의 음성에 포함된 발화 의도는 "○○(어플리케이션 명칭)"에 대한 "어플리케이션 실행"을 "요청"하는 것으로 판단할 수 있다.In other words, "execute ○○ (application name)", an example sentence stored in the device control service domain, is information for interpreting the example sentence, "○○ (application name)" represents an application name, and "execute" represents an application execution command. The information indicating that the type of example sentence is a request statement is tagged. Accordingly, thecontrol unit 330 refers to the information, and the dialogue act of the text “O ○ (application name) run” received from thedisplay apparatus 100 is a request statement, driving is an application execution command, and a component is ○○ (application Name). Accordingly, thecontroller 330 may determine that the utterance intention included in the user's voice is "request" the "application execution" for "○○ (application name)".

이 경우, 제어부(330)는 기기 제어 도메인에 저장된 예문인 "○○(어플리케이션 명칭) 실행해줘"에 태깅된 제어 명령을 저장부(320)에서 검색하고, 태깅된 제어 명령을 디스플레이 장치(100)로 전송하도록 제어할 수 있다. 즉, 제어부(330)는 기기 제어 도메인에 저장된 예문인 "○○(어플리케이션 명칭) 실행해줘"에 태깅된 디스플레이 장치(100)에서 ○○(어플리케이션 명칭)을 실행하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다.In this case, thecontrol unit 330 searches thestorage unit 320 for a control command that is tagged in the example sentence "Please execute the application name (○○)" stored in the device control domain, and displays the tagged control command in thedisplay device 100. Can be controlled to transmit. That is, thecontrol unit 330 displays a control command for executing ○○ (application name) in thedisplay device 100 tagged with the example sentence "Please run the application name (○○)" stored in the device control domain. ).

이에 따라, 디스플레이 장치(100)는 제2 서버(300)로부터 수신된 제어 명령에 기초하여 ○○(어플리케이션 명칭)을 실행할 수 있다.Accordingly, thedisplay apparatus 100 may execute ○○ (application name) based on the control command received from thesecond server 300.

한편, 상술한 예에서, 제어부(330)가 예문에 태깅된 제어 명령에 기초하여 디스플레이 장치(100)의 기능을 실행시키기 위한 제어 명령을 생성하는 것으로 설명하였으나 이는 일 예에 불과하다.Meanwhile, in the above-described example, it has been described that thecontrol unit 330 generates a control command for executing the function of thedisplay apparatus 100 based on the control command tagged in the example sentence, but this is only an example.

즉, 제어부(330)는 판단된 발화 의도에 기초하여 제어 명령을 생성하고, 이를 디스플레이 장치(100)로 전송할 수 있다. 예를 들어, 제어부(330)는 사용자의 발화 의도가 ○○(어플리케이션 명칭)에 대한 실행의 요청인 것으로 판단된 경우, ○○(어플리케이션 명칭)을 실행하기 위한 제어 명령을 생성하여 디스플레이 장치(100)로 전송할 수 있다.That is, thecontrol unit 330 may generate a control command based on the determined intention to speak, and transmit it to thedisplay device 100. For example, if it is determined that the user's utterance intention is a request to execute ○○ (application name), thecontrol unit 330 generates a control command for executing ○○ (application name) to display device 100 ).

한편, 제어부(330)는 사용자의 음성과 통계적으로 유사한 것으로 예문에 태깅된 정보를 이용하여, 사용자의 음성에서 화행, 주행 및 구성요소를 추출하고, 그에 대한 응답 정보를 생성할 수 있다.Meanwhile, thecontroller 330 may extract dialogue acts, driving and components from the user's voice, and generate response information using the information tagged in the example sentence as statistically similar to the user's voice.

예를 들어, 디스플레이 장치(100)로부터 텍스트 "△△△(방송 프로그램명)은 언제 해?"가 수신된 경우를 가정한다.For example, it is assumed that the text "DELTA DELTA DELTA (name of broadcast program) is received from thedisplay device 100" is received.

이 경우, 제어부(330)는 텍스트 "△△△(방송 프로그램명)은 언제 해?"는 방송 서비스 도메인 내에 저장된 예문인 "○○○(방송 프로그램명)은 언제 해?"와 통계적으로 유사한 것으로 판단할 수 있다. 이에 따라, 제어부(330)는 방송 서비스 도메인 내에 저장된 예문인 "○○○(방송 프로그램명)은 언제 해?"에 태깅된 정보를 이용하여 사용자의 음성에서 화행, 주행 및 구성요소를 추출하고, 그에 대한 응답 정보를 생성할 수 있다.In this case, thecontrol unit 330 is statistically similar to the text "When do you do △△△ (broadcast program name)?", Which is an example sentence stored in the broadcasting service domain, "When do you do ○○○ (broadcast program name)?" I can judge. Accordingly, thecontrol unit 330 extracts dialogue acts, driving, and components from the user's voice using information tagged in the example sentence "When is ○○○ (the name of the broadcast program)" stored in the broadcast service domain, Response information can be generated.

즉, 방송 서비스 도메인에 저장된 예문인 "○○○(방송 프로그램명)은 언제 해?"에는 예문을 해석하기 위한 정보로, "~은 언제 해?"의 앞부분에는 방송 프로그램과 관련된 단어가 배치된다는 정보가 태깅되어 있다. 따라서, 제어부(330)는 방송 프로그램과 관련된 단어인 방송 프로그램명, 출연자, 연출자 등 중에서 "△△△(방송 프로그램명)"가 어떠한 의미를 갖는 단어인지 검색한다.That is, the example sentence stored in the broadcasting service domain, "When is ○○○ (the name of the broadcast program?)" Is information for interpreting the example sentence, and the word related to the broadcasting program is placed in the front part of "When is it?" Information is tagged. Accordingly, thecontrol unit 330 searches for a word having a meaning of “△△△ (broadcast program name)” among broadcast program names, performers, and directors, which are words related to a broadcast program.

이를 위해, 저장부(320)는 각 서비스 도메인 별로 구성요소에 대한 정보를 저장하는 개체명 사전 또는 TIMEX 사전 등을 포함할 수 있다.To this end, thestorage unit 320 may include an entity name dictionary or a TIMEX dictionary that stores information on components for each service domain.

즉, 제어부(330)는 개체명 사전 또는 TIMEX 사전 등을 참조하여 "△△△(방송 프로그램명)"가 어떠한 의미를 갖는 단어인지를 검색하여, "△△△(방송 프로그램명)"가 방송 프로그램명을 나타내는 단어인 것으로 판단할 수 있다.That is, thecontrol unit 330 searches for the word “△△△ (broadcast program name)” by referring to the individual name dictionary or the TIMEX dictionary, and “△△△ (broadcast program name)” is broadcast. It can be judged to be a word indicating the program name.

다만, 이는 일 예일 뿐, 제어부(330)는 EPG 정보 등을 이용하여 "△△△(방송 프로그램명)"가 어떠한 의미를 갖는 단어인지를 검색할 수도 있고, 기저장된 예문과 CRF(Conditional Random Field)를 이용하여 "△△△(방송 프로그램명)"가 어떠한 의미를 갖는 단어인지를 검색할 수도 있다.However, this is only an example, and thecontrol unit 330 may search for a word having a meaning of “△△△ (broadcast program name)” using EPG information or the like, and previously stored example sentences and CRFs (Conditional Random Field) ) To search for the meaning of "△△△" (broadcast program name).

이에 따라, 제어부(330)는 디스플레이 장치(100)로부터 수신된 텍스트 "△△△(방송 프로그램명)은 언제 해?"의 화행은 의문문이고 주행은 방송 시간 문의이고 구성요소는 △△△(방송 프로그램명)인 것으로 판단할 수 있다. 그리고, 제어부(330)는 사용자의 음성에 포함된 발화 의도는 "△△△에 대한 "방송 시간"을 "문의"하는 것으로 판단할 수 있다.Accordingly, thecontrol unit 330 is the question of the text "△△△ (when broadcast program name) received from thedisplay device 100" is questionable, driving is a broadcast time inquiry and component is △△△ (broadcast Program name). In addition, thecontroller 330 may determine that the intention of utterance included in the user's voice is to "inquire" the "broadcast time" for "Δ △△".

또한, 제어부(330)는 방송 서비스 도메인에 저장된 예문인 "○○○(방송 프로그램명)은 언제 해?"에 태깅된 답변을 이용하여, "△△△(방송 프로그램명)은 언제 해?"에 대한 시스템 응답 정보를 생성하고, 생성된 시스템 응답 정보를 디스플레이 장치(100)로 전송할 수 있다.In addition, thecontroller 330 uses the answer tagged in the example sentence "When is ○○○ (the name of the broadcast program)" stored in the broadcast service domain, and when is "△△△ (the name of the broadcast program)?" The system response information for the system may be generated, and the generated system response information may be transmitted to thedisplay device 100.

즉, 제어부(330)는 방송 서비스 도메인에 저장된 예문인 "○○○(방송 프로그램명)은 언제 해?"에 태깅된 답변인 "문의하신 <방송 프로그램 명>의 방송 시간은 <방송 시간> 입니다"를 사용자의 음성에 대응되는 답변으로 검색한다. 그리고, 제어부(330)는 "문의하신 △△△(방송 프로그램명)의 방송 시간은 수요일 11시입니다"라는 완전한 형태의 문장을 사용자의 음성에 대응되는 시스템 응답 정보로 생성하고, 생성된 시스템 응답 정보를 디스플레이 장치(100)로 전송할 수 있다.In other words, thecontrol unit 330 is a response to the tagging of the example sentence "○○○ (the name of the broadcast program)?" "Is searched as an answer corresponding to the user's voice. In addition, thecontrol unit 330 generates a complete sentence of "the broadcast time of the inquired △△△ (the broadcast program name) is 11:00 on Wednesday" as system response information corresponding to the user's voice, and the generated system response Information may be transmitted to thedisplay device 100.

한편, 제어부(330)는 디스플레이 장치(100)에서 출력되는 시스템 응답의 일부 문장 데이터를 저장하고 있는 경우, 해당 문장을 완성시키기 위한 일부 텍스트만을 디스플레이 장치(100)로 전송하도록 제어할 수 있다.Meanwhile, when some sentence data of a system response output from thedisplay device 100 is stored, thecontroller 330 may control to transmit only some text for completing the sentence to thedisplay device 100.

예를 들어, 디스플레이 장치(100)에 "문의하신 <방송 프로그램 명>의 방송 시간은 <방송 시간> 입니다"와 같은 답변이 기저장된 경우, 제어부(330)는 디스플레이 장치(100)에 저장된 답변을 완전한 형태의 문장으로 구성하기 위해 사용자가 문의하는 방송 프로그램 명 및 그의 방송 시간을 텍스트 형태로 디스플레이 장치(100)로 전송하도록 제어할 수 있다. 이 경우, 제어부(330)는 디스플레이 장치(100)에 기저장된 답변을 출력하기 위한 별도의 제어 신호를 디스플레이 장치(100)로 전송할 수 있다.For example, when an answer such as "the broadcast time of the <broadcast program name> inquired is <broadcast time>" previously stored in thedisplay device 100, thecontrol unit 330 receives the answer stored in thedisplay device 100. In order to form a complete sentence, it is possible to control the name of a broadcast program inquired by a user and its broadcast time to be transmitted to thedisplay device 100 in text form. In this case, thecontrol unit 330 may transmit a separate control signal for outputting a pre-stored answer to thedisplay device 100 to thedisplay device 100.

이에 따라, 디스플레이 장치(100)는 제2 서버(300)로부터 수신된 텍스트를 기저장된 답변에 기입하여 "문의하신 ○○○(방송 프로그램명)의 방송 시간은 토요일 7시입니다"를 시스템 응답으로 출력할 수 있다.Accordingly, thedisplay device 100 writes the text received from thesecond server 300 in the pre-stored answer, and the system response is "The broadcast time of the inquiry ○○○ (the name of the broadcast program) is 7:00 on Saturday". Can print

한편, 상술한 실시 예에서, 제어부(330)는 예문에 태깅된 정보를 이용하여 화행, 주행 및 구성요소를 추출하는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 제어부(330)는 사용자의 음성에서 MaxEnt(Maximum Entropy Classifier)를 이용하여 화행, 주행을 추출하고, CRF(Conditional Random Field)를 이용하여 구성요소를 추출할 수도 있다.Meanwhile, in the above-described embodiment, thecontroller 330 has been described as extracting dialogue acts, driving, and components using information tagged in the example sentence, but this is only an example. That is, thecontroller 330 may extract dialogue acts and driving using MaxEnt (Maximum Entropy Classifier) from the user's voice, and extract components using CRF (Conditional Random Field).

하지만, 이들 실시 예에 한정되는 것은 아니며 제어부(330)는 이미 공지된 다양한 방식을 통해 사용자의 음성으로부터 화행, 주행 및 구성요소를 추출할 수도 있다.However, the present invention is not limited to these embodiments, and thecontroller 330 may extract dialogue acts, driving, and components from the user's voice through various known methods.

한편, 제어부(330)는 현재 수신된 사용자의 음성에 포함된 사용자의 발화 의도를 판단할 수 없는 경우, 이전에 수신된 사용자의 음성에 참조하여, 현재 수신된 사용자의 음성에 포함된 사용자의 발화 의도를 판단할 수 있다.On the other hand, when thecontrol unit 330 cannot determine a user's speech intention included in the voice of the currently received user, referring to the voice of the previously received user, the user's speech included in the voice of the currently received user You can judge your intentions.

구체적으로, 제어부(330)는 이전에 수신된 사용자의 음성이 속하는 서비스 도메인을 기초로 현재 수신된 사용자의 음성에 포함된 사용자의 발화 의도를 판단할 수 없는 경우, 이전에 수신된 사용자의 음성에 참조하여, 현재 수신된 사용자의 음성에 포함된 사용자의 발화 의도를 판단할 수 있다.Specifically, when the user's speech intention included in the voice of the currently received user cannot be determined based on the service domain to which the voice of the previously received user belongs, thecontrol unit 330 may determine the voice of the previously received user. With reference, it is possible to determine a user's utterance intention included in the voice of the currently received user.

예를 들어, 제어부(330)는 현재 수신된 사용자의 음성을 말뭉치 데이터베이스에 저장된 대화 패턴과 비교하여 현재 수신된 사용자의 음성이 대화 패턴에서 최초 사용자 발화에 해당하는지 여부를 판단하고, 최초 사용자 발화에 해당하지 않는 것으로 판단되면 이전에 수신된 사용자의 음성을 참조하여 현재 수신된 사용자의 음성에 포함된 사용자의 발화 의도를 판단할 수 있다.For example, thecontrol unit 330 compares the voice of the currently received user with the conversation pattern stored in the corpus database to determine whether the voice of the currently received user corresponds to the first user's speech in the conversation pattern, and If it is determined that it is not applicable, the user's speech intention included in the voice of the currently received user may be determined by referring to the voice of the previously received user.

이를 위해, 저장부(320)는 각 서비스 도메인에서 각 예문을 계층적으로 저장할 수 있다. 즉, 저장부(320)는 각 서비스 도메인에서 사용자가 최초로 발화할 수 있는 사용자의 음성에 매칭되는 예문을 최상위 계층으로 저장하고, 사용자가 이후 발화할 수 있는 사용자의 음성에 매칭되는 예문을 계층적으로 저장할 수 있다.To this end, thestorage 320 may hierarchically store each example sentence in each service domain. That is, thestorage unit 320 stores example sentences matching the user's voice that the user can speak for the first time in each service domain as the top layer, and hierarchical examples that match the user's voice that the user can subsequently speak. Can be saved as

예를 들어, 저장부(320)는 방송 서비스 도메인 내에서 "오늘 방송 뭐해?"를 최상위 계층으로 저장하고, "세 번째", "세 번째 상세 정보 보여줘", "이 중에서 ○○○(채널명)은 뭐해?", "이 중에서 다큐멘터리 프로는 뭐야?", "이 중에서 ○○○(출연자 이름)이 출연하는 거 찾아줘", "이 중에서 ○○○(방송 프로그램 명칭) 찾아줘" 등과 같은 예문을 "오늘 방송 뭐해?"에 대한 하위 계층으로 저장할 수 있다.For example, thestorage unit 320 stores "What are you broadcasting today?" In the broadcast service domain as the top layer, and "third", "show third detail information", "of these ○○○ (channel name) What do you do? "," What is the documentary pro? "," Find out what ○○○ (the performer's name) appears "," Find out ○○○ (the name of the broadcast program) " Can be stored as a lower layer for "What are you doing broadcasting today?"

다른 예로, 저장부(320)는 기기 제어 도메인 내에서 "○○○(어플리케이션 명칭) 실행해줘"를 최상위 계층으로 저장할 수 있다. 여기에서, ○○○(어플리케이션 명칭)이 웹 브라우징 어플리케이션인 경우, 저장부(320)는 "홈 페이지", "즐겨 찾기", "새로 고침", "새 페이지 열기", "현재 페이지 닫기", "뒤로", "앞으로", "종료"와 같이 웹 브라우징 어플리케이션에서 실행 가능한 예문을 "○○○(어플리케이션 명칭) 실행해줘"에 대한 하위 계층으로 저장할 수 있다.As another example, thestorage unit 320 may store “run ○○○ (application name)” in the device control domain as a top layer. Here, if ○○○ (application name) is a web browsing application, thestorage unit 320 includes "home page", "favorite", "refresh", "open new page", "close current page", Examples such as "back", "forward", and "exit" can be stored as sub-layers for "execute ○○○ (application name)" executable in a web browsing application.

한편, 이하에서는 이전에 수신된 사용자의 음성에 참조하여, 현재 수신된 사용자의 음성에 포함된 사용자의 발화 의도를 판단하는 방법을 구체적인 예를 들어 설명하도록 한다.Meanwhile, hereinafter, a method of determining a user's speech intention included in the voice of the currently received user will be described as a specific example with reference to the voice of the previously received user.

먼저, "오늘 방송 뭐해?"라는 사용자의 음성이 입력된 후, "이 중에서 ○○○(채널명)에서 뭐해?"라는 사용자의 음성이 입력된 경우를 가정한다. 이 경우, 제어부(330)는 "이 중에서 ○○○(채널명)에서 뭐해?"라는 사용자의 음성이 방송 서비스 도메인 내에서 최초 사용자 발화에 해당되지 않는 것으로 판단되면, 이전에 수신된 "오늘 방송 뭐해?"라는 사용자 음성에 기초하여, "이 중에서 ○○○(채널명)에서 뭐해?"의 발화 의도를 판단할 수 있다.First, it is assumed that a user's voice "What are you broadcasting today?" Is input, and then a user's voice "What are you doing in ○○○ (channel name)?" In this case, if it is determined that the voice of the user "What is ○○○ (channel name)" does not correspond to the first user's utterance in the broadcast service domain, thecontrol unit 330 previously received "What do you broadcast today?" ? ", Based on the user's voice, it is possible to determine the utterance intention of" What do you do in ○○○ (channel name)? "

즉, 제어부(330)는 이전에 수신된 사용자 음성인 "오늘 방송 뭐해?"를 이용하여 "이 중에서 ○○○(채널명)에서 뭐해?"의 발화 의도를 오늘 방송하는 프로그램 중 "○○○(채널명)"에서 방송되는 "방송 프로그램"을 "문의"하는 것으로 판단할 수 있다.That is, thecontrol unit 330 uses the previously received voice of the user "What are you doing today?" Channel name). "

이에 따라, 제어부(330)는 판단된 발화 의도에 대응되는 응답 정보를 생성하여 디스플레이 장치(100)로 전송할 수 있다. 즉, 상술한 예에서, 제어부(330)는 판단된 발화 의도에 따라, 오늘 방송하는 프로그램 중 ○○○(채널명)에서 방송되는 방송 프로그램을 검색하고, 검색된 방송 프로그램에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다.Accordingly, thecontroller 330 may generate response information corresponding to the determined utterance intention and transmit it to thedisplay apparatus 100. That is, in the above-described example, thecontrol unit 330 searches for a broadcast program broadcast in ○○○ (channel name) among programs broadcast today according to the determined intention to speak, and displays information about the searched broadcast program 100 ).

또한, "오늘 방송 뭐해?"라는 사용자의 음성이 입력된 후, "세 번째"라는 사용자의 음성이 입력된 경우를 가정한다. 이 경우, 제어부(330)는 "세 번째"라는 사용자의 음성이 방송 서비스 도메인 내에서 최초 사용자 발화에 해당되지 않는 것으로 판단되면, 이전에 수신된 "오늘 방송 뭐해?"라는 사용자 음성에 기초하여, "세 번째"의 발화 의도를 판단할 수 있다.Also, it is assumed that the voice of the user "third" is input after the voice of the user "What are you doing today?" In this case, if it is determined that the user's voice "third" does not correspond to the first user's utterance in the broadcast service domain, thecontroller 330 is based on the previously received user's voice "What are you doing today?" You can judge the intent of the "third" utterance.

구체적으로, 제어부(330)는 이전에 수신된 사용자 음성인 "오늘 방송 뭐해?"에 따라 디스플레이 장치(100)에서 출력된 방송 프로그램에 대한 리스트에서 "세 번째"에 배치된 "방송 프로그램"에 대한 "선국"을 "요청"하는 것으로 판단할 수 있다. 이에 따라, 제어부(330)는 판단된 발화 의도에 대응되는 응답 정보를 생성하여 디스플레이 장치(100)로 전송할 수 있다. 즉, 상술한 예에서, 제어부(330)는 판단된 발화 의도에 따라, 디스플레이 장치(100)에서 출력된 방송 프로그램에 대한 리스트에서 세 번째 배치된 방송 프로그램을 선국하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다.Specifically, thecontrol unit 330 for the "broadcast program" disposed in the "third" in the list of broadcast programs output from thedisplay device 100 according to the previously received user voice "What are you doing today?" It can be judged as "requesting" the "selection". Accordingly, thecontroller 330 may generate response information corresponding to the determined utterance intention and transmit it to thedisplay apparatus 100. That is, in the above-described example, thecontrol unit 330 displays a control command for tuning a third arranged broadcast program from the list of broadcast programs output from thedisplay device 100 according to the determined intention to speak. ).

한편, 상술한 예에서는 "오늘 방송 뭐해?"라는 사용자의 음성이 입력된 후, "이 중에서 ○○○(채널명)에서 뭐해?" 및 "세 번째"리는 사용자의 음성이 수신된 경우를 가정하였으나, 이는 일 예일 뿐이다. 즉, 이들 예외에도 계층적으로 다양한 예문이 이전에 수신된 사용자의 음성에 기초하여 해석될 수 있음은 물론이다.On the other hand, in the above-described example, after the voice of the user "What are you broadcasting today?" Is inputted, "What are you doing in ○○○ (channel name)?" And " third " assuming that the user's voice is received, but this is only an example. That is, it goes without saying that even with these exceptions, various hierarchical examples can be interpreted based on the voice of a previously received user.

또 다른 예로, "○○○(웹 브라우징 어플리케이션 명칭) 실행해줘"라는 사용자의 음성이 입력된 후, "새로 고침"이라는 사용자의 음성이 입력된 경우를 가정한다. 이 경우, 제어부(330)는 "새로 고침"이라는 사용자의 음성이 기기 제어 서비스 도메인 내에서 최초 사용자 발화에 해당되지 않는 것으로 판단되면, 이전에 수신된 "○○○(웹 브라우징 어플리케이션 명칭) 실행해줘"라는 사용자의 음성에 기초하여 "새로 고침"의 발화 의도를 판단할 수 있다.As another example, it is assumed that the voice of the user "refresh" is input after the user's voice "Please run ○○○ (web browsing application name)" is input. In this case, if it is determined that the voice of the user "refresh" does not correspond to the first user utterance within the device control service domain, thecontrol unit 330 executes the previously received "○○○ (web browsing application name)" It is possible to determine the utterance intention of "refresh" based on the user's voice.

즉, 제어부(330)는 이전에 수신된 사용자의 음성인 "○○○(웹 브라우징 어플리케이션 명칭) 실행해줘"를 이용하여 "새로 고침"의 발화 의도를 "웹 브라우징 화면"에 대한 "새로 고침"을 "요청"하는 것으로 판단할 수 있다.That is, thecontrol unit 330 uses the voice of the user previously received, "Please run ○○○ (web browsing application name)" to "refresh" the intention of uttering "refresh" for "web browsing screen". Can be judged as "requesting".

이에 따라, 제어부(330)는 판단된 발화 의도에 대응되는 응답 정보를 생성하여 디스플레이 장치(100)로 전송할 수 있다. 즉, 상술한 예에서, 제어부(330)는 판단된 발화 의도에 따라, 웹 브라우징 화면에 대한 새로 고침이 실행하도록 하는 제어 명령을 디스플레이 장치(100)로 전송할 수 있다.Accordingly, thecontroller 330 may generate response information corresponding to the determined utterance intention and transmit it to thedisplay apparatus 100. That is, in the above-described example, thecontroller 330 may transmit a control command to thedisplay apparatus 100 to cause the web browsing screen to be refreshed according to the determined intention to speak.

한편, 상술한 예에서는 "○○○(웹 브라우징 어플리케이션 명칭) 실행해줘"라는 사용자의 음성이 입력된 후, "새로 고침"이라는 사용자의 음성이 수신된 경우를 가정하였으나, 이는 일 예일 뿐이다. 즉, 이들 예외에도 계층적으로 다양한 예문이 이전에 수신된 사용자의 음성에 기초하여 해석될 수 있음은 물론이다.Meanwhile, in the above-described example, it is assumed that the voice of the user “refresh” is received after the voice of the user “execute ○○○ (name of the web browsing application)” is input, but this is only an example. That is, it goes without saying that even with these exceptions, various hierarchical examples can be interpreted based on the voice of a previously received user.

또한, 상술한 예에서, 제어부(330)가 현재 수신된 사용자의 음성이 대화 패턴에서 최초 사용자 발화에 해당하는지 여부를 판단하고, 최초 사용자 발화에 해당하지 않는 것으로 판단되면 이전에 수신된 사용자의 음성을 참조하여 현재 수신된 사용자의 음성에 포함된 사용자의 발화 의도를 판단하는 것으로 설명하였으나, 이는 일 예에 불과하다.In addition, in the above-described example, thecontrol unit 330 determines whether the voice of the currently received user corresponds to the first user's speech in the conversation pattern, and when it is determined that the first user's speech is not spoken, the voice of the previously received user Although it has been described with reference to determining the user's speech intention included in the voice of the currently received user, this is only an example.

즉, 제어부(330)는 이전에 수신된 사용자의 음성이 포함된 서비스 도메인에 기초하여, 현재 수신된 사용자의 음성에 포함된 발화 의도를 판단할 수 없는 경우에도 이전에 수신된 사용자의 음성을 이용할 수 있다.That is, thecontrol unit 330 may use the voice of the previously received user even if it is not possible to determine the utterance intention included in the voice of the currently received user based on the service domain including the voice of the previously received user. You can.

예를 들어, "오늘 방송 뭐해?"라는 사용자의 음성이 입력된 후, "이 중에서 ○○○(채널명)에서 뭐해?"라는 사용자의 음성이 입력된 경우를 가정한다. 이 경우, 제어부(330)는 방송 서비스 도메인 내에서 "이 중에서 ○○○(채널명)에서 뭐해?"라는 사용자의 음성에 포함된 발화 의도를 판단할 수 없으므로, 이전에 수신된 "오늘 방송 뭐해?"라는 사용자 음성에 기초하여, "이 중에서 ○○○(채널명)에서 뭐해?"의 발화 의도를 판단할 수 있다.For example, suppose a user's voice "What are you broadcasting today?" Is input, and then a user's voice "What are you doing in ○○○ (channel name)?" In this case, thecontrol unit 330 cannot determine the utterance intention included in the user's voice, "What are you doing in the ○○○ (channel name)?" In the broadcast service domain. Based on the user's voice, "What can I do with ○○○ (channel name)?"

즉, 제어부(330)는 이전에 수신된 사용자 음성인 "오늘 방송 뭐해?"를 이용하여 "이 중에서 ○○○(채널명)에서 뭐해?"의 발화 의도를 오늘 방송하는 프로그램 중 "○○○(채널명)"에서 방송되는 "방송 프로그램"을 "문의"하는 것으로 판단할 수 있다.That is, thecontrol unit 330 uses the previously received user voice "What are you doing today?" Channel name). "

다른 예로, 제어부(330)는 "○○○(웹 브라우징 어플리케이션 명칭) 실행해줘"라는 사용자의 음성이 입력된 후, "새로 고침"이라는 사용자의 음성이 입력된 경우를 가정한다. 이 경우, 제어부(330)는 기기 제어 서비스 도메인 내에서 "새로 고침"이라는 사용자의 음성에 포함된 발화 의도를 판단할 수 없으므로, 이전에 수신된 "○○○(웹 브라우징 어플리케이션 명칭) 실행해줘"라는 사용자의 음성에 기초하여 "새로 고침"의 발화 의도를 판단할 수 있다.As another example, it is assumed that thecontroller 330 inputs the user's voice "Please run ○○○ (web browsing application name)" and then the user's voice "refresh". In this case, since thecontrol unit 330 cannot determine the utterance intention included in the user's voice "refresh" in the device control service domain, please execute the previously received "○○○ (web browsing application name)" Based on the user's voice, it is possible to determine the utterance intention of "refresh".

즉, 제어부(330)는 이전에 수신된 사용자의 음성인 "○○○(웹 브라우징 어플리케이션 명칭) 실행해줘"를 이용하여 "새로 고침"의 발화 의도를 "웹 브라우징 화면"에 대한 "새로 고침"을 "요청"하는 것으로 판단할 수 있다.That is, thecontrol unit 330 uses the voice of the user previously received, "Please run ○○○ (web browsing application name)" to "refresh" the intention of uttering "refresh" for "web browsing screen". Can be judged as "requesting".

한편, 저장부(320)는 디스플레이 장치(100)에서 음성 명령 가이드로 출력되는 사용자의 음성에 대한 정보를 저장할 수 있다. 즉, 저장부(320)는 디스플레이 장치(100)의 각 상황에서 사용 가능한 사용자의 음성에 대한 정보를 저장할 수 있다.Meanwhile, thestorage unit 320 may store information about a user's voice output from thedisplay device 100 as a voice command guide. That is, thestorage unit 320 may store information about a user's voice that can be used in each situation of thedisplay device 100.

이에 따라, 제어부(330)는 기저장된 정보를 이용하여 디스플레이 장치(100)의 현재 상황에서 적용 가능한 사용자의 음성에 대한 정보를 판단하고, 판단된 사용자의 음성에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다.Accordingly, thecontroller 330 determines information about the user's voice applicable in the current situation of thedisplay device 100 using the pre-stored information, and transmits the determined information about the user's voice to thedisplay device 100. Can transmit.

예를 들어, "오늘 방송 뭐해"라는 사용자의 음성이 수신된 경우, 제어부(330)는 "오늘 방송 뭐해"라는 사용자의 음성은 "오늘" 방송하는 "방송 프로그램"을 "문의"하는 것으로 발화 의도를 판단하고, 오늘 방송하는 방송 프로그램에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다. 이때, 제어부(330)는 "세 번째", "세 번째 상세 정보 보여줘", "이 중에서 ○○○(채널명)은 뭐해?", "이 중에서 다큐멘터리 프로는 뭐야?", "이 중에서 ○○○(출연자 이름)이 출연하는 거 찾아줘", "이 중에서 ○○○(방송 프로그램 명칭) 찾아줘" 등과 같이 시스템 응답으로 출력된 방송 프로그램 리스트에서 적용 가능한 사용자의 음성에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다.For example, if a user's voice "What are you doing today" is received, thecontroller 330 intends to utter the user's voice "What is it today?" It is possible to determine, and transmit information about a broadcast program that is broadcast today to thedisplay device 100. At this time, thecontrol unit 330 is "third", "show me the third detail information", "What is ○○○ (channel name)?", "What is the documentary pro?", "Of which ○○○ Display the information about the user's voice applicable in the list of broadcast programs output in response to the system, such as "Find what the (performer's name) appears", "Find out ○○○ (name of the broadcast program)". ).

다른 예로, "○○(웹 브라우징과 관련된 어플리케이션 명칭) 실행해줘"라는 사용자의 음성이 수신된 경우, 제어부(330)는 "○○(웹 브라우징과 관련된 어플리케이션 명칭) 실행해줘"라는 사용자의 음성은 "○○(웹 브라우징과 관련된 어플리케이션 명칭)"에 대한 "실행"을 "요청"하는 것으로 발화 의도를 판단하고, ○○(웹 브라우징과 관련된 어플리케이션 명칭)을 실행하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다. 이때, 제어부(330)는 "홈 페이지", "즐겨 찾기", "새로 고침", "새 페이지 열기", "현재 페이지 닫기", "뒤로", "앞으로", "종료" 등과 같이 디스플레이 장치(100)에서 실행된 어플리케이션에서 적용 가능한 사용자의 음성에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다.As another example, when the user's voice "Please run ○○ (application name related to web browsing)" is received, thecontroller 330 may execute the user's voice "Execute ○○ (application name related to web browsing)" Thedisplay device 100 determines a utterance intention by "requesting" "execute" for "○○ (application name related to web browsing)" and displays a control command for executing ○○ (application name related to web browsing) 100 ). At this time, thecontroller 330 may display devices such as "home page", "favorite", "refresh", "open new page", "close current page", "back", "forward", "end", etc. In the application executed in 100), information on the user's voice applicable to the application may be transmitted to thedisplay device 100.

이하에서는 도 6 내지 도 11을 참조하여, 본 발명의 다양한 실시 예에 대해 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described with reference to FIGS. 6 to 11.

제어부(150)는 도 6과 같이 초기 화면(410)을 디스플레이한다. 이때, 제어부(150)는 도 7a 내지 도 7c와 같이 음성 명령 가이드(420)를 초기 화면(410)의 일 영역에 디스플레이할 수 있다.Thecontroller 150 displays theinitial screen 410 as shown in FIG. 6. At this time, thecontroller 150 may display thevoice command guide 420 on one area of theinitial screen 410 as shown in FIGS. 7A to 7C.

음성 명령 가이드(420)에는 "오늘 방송 뭐해?", "재미있는 거 없어?", "새로 나온 영화 뭐 있어?", "인기있는 거 추천해줘", "EBB(채널명) 틀어줘", "웹 브라우저 실행해줘" 등과 같이 디스플레이 장치(100)에서 수행 가능한 기능을 실행시킬 수 있는 사용자의 음성을 나타내는 텍스트가 슬라이드 쇼 형태로 디스플레이될 수 있다.In thevoice command guide 420, "What are you doing broadcasting today?", "Are there any interesting things?", "Are there any new movies?", "Recommend popular ones", "Turn on EBB (channel name)", "Web browser "Please do it", etc. The text representing the user's voice capable of executing a function executable on thedisplay device 100 may be displayed in the form of a slide show.

이때, 도 8a 내지 도 8c와 같이 사용자가 "오늘 방송 뭐해?"라고 발화한 경우, 제어부(150)는 제2 서버(300)로부터 수신된 응답 정보에 기초하여 오늘 방송하는 방송 프로그램에 대한 리스트(430)를 시스템 응답으로 출력할 수 있다. 그리고, 제어부(150)는 시스템 응답으로 출력된 리스트(430)에서 적용 가능한 사용자의 음성을 나타내는 음성 명령 가이드(440)를 출력할 수 있다.At this time, as shown in FIGS. 8A to 8C, when the user utters "What are you broadcasting today?", Thecontroller 150 lists the broadcast programs broadcast today based on the response information received from the second server 300 ( 430) as a system response. In addition, thecontroller 150 may output avoice command guide 440 indicating a user's voice applicable from thelist 430 output as a system response.

도 8a 내지 도 8c를 참조하면, 음성 명령 가이드(440)에는 "세 번째", "세 번째 상세 정보 보여줘", "이 중에서 SBC(채널명)는 뭐해?", "이 중에서 다큐멘터리 프로는 뭐야?", "이 중에서 Peter(출연자 이름)가 출연하는 거 찾아줘", "이 중에서 The Show(방송 프로그램 명칭) 찾아줘" 등과 같이, 시스템 응답으로 출력된 방송 프로그램에 대한 리스트(430)에서 적용 가능한 사용자의 음성을 나타내는 텍스트가 슬라이드 쇼 형태로 디스플레이될 수 있다.8A to 8C, in thevoice command guide 440, "third", "show third detail", "What is SBC (channel name)?", "What is the documentary pro?" Users who are applicable in thelist 430 for broadcast programs output in response to the system, such as, "Find out what Peter (the performer's name) appears among", "Find the Show (the name of the broadcast program) among them" Text representing the voice of may be displayed in the form of a slide show.

한편, 제어부(150)는 수집된 사용자의 음성에 대한 정보를 출력할 수 있다. 예를 들어, 제어부(150)는 제1 서버(200)로부터 사용자의 음성에 대응되는 텍스트 정보가 수신되면, 수신된 텍스트 정보를 포함하도록 UI를 생성하여 화면 상에 출력할 수 있다. 즉, 제어부(150)는 도 8a 내지 도 8c과 같이, "오늘 방송 뭐해"(450)를 출력할 수 있다.Meanwhile, thecontrol unit 150 may output information about the collected user's voice. For example, when the text information corresponding to the user's voice is received from thefirst server 200, thecontrol unit 150 may generate a UI to include the received text information and output it on the screen. That is, thecontrol unit 150 may output the “what are you doing today” 450, as shown in FIGS. 8A to 8C.

이에 따라, 사용자가 "이 중에서 SBC(채널명)는 뭐해?"라고 발화한 경우, 제어부(150)는 제2 서버(300)로부터 수신된 응답 정보에 기초하여 오늘 방송하는 방송 프로그램 중 SBC(채널명)에서 제공하는 방송 프로그램에 대한 리스트를 시스템 응답으로 출력할 수 있다.Accordingly, when the user utters "What is SBC (channel name)?", Thecontroller 150 is based on the response information received from thesecond server 300, and the SBC (channel name) of the broadcast programs broadcast today. The list of the broadcast programs provided by can be output as a system response.

한편, 제어부(150)는 올바른 사용자의 음성을 유도하기 위한 가이드를 출력할 수도 있다. 이를 위해, 제2 서버(300)는 올바른 사용자의 음성을 유도하기 위한 가이드 정보를 디스플레이 장치(100)로 전송할 수 있다.Meanwhile, thecontrol unit 150 may output a guide for inducing the correct user's voice. To this end, thesecond server 300 may transmit guide information for inducing the correct user's voice to thedisplay device 100.

구체적으로, 제어부(330)는 수신된 텍스트 정보에 매칭되는 예문이 존재하지 않는 경우, 통계적으로 유사한 예문을 판단할 수 있음은 전술한 바 있다. 이에 따라, 제어부(330)는 수신된 사용자의 음성과 통계적으로 유사한 예문에 대한 정보를 응답 정보와 함께 디스플레이 장치(100)로 전송할 수 있다.Specifically, it has been described above that thecontrol unit 330 may determine a statistically similar example sentence when there is no example sentence matching the received text information. Accordingly, thecontrol unit 330 may transmit information on an example sentence statistically similar to the received user's voice to thedisplay apparatus 100 together with the response information.

예를 들어 도 9와 같이, 사용자가 "방송 뭐해?"라고 발화한 경우, 제어부(330)는 "방송 뭐해?"가 기저장된 예문 중에서 "오늘 방송 뭐해?"와 통계적으로 유사한 것으로 판단하고, "오늘 방송 뭐해?"를 텍스트 형식으로 표현하여 디스플레이 장치(100)로 전송할 수 있다. 이에 따라, 제어부(150)는 "다음에는 "오늘 방송 뭐해"로 말해보세요"와 같은 UI를 생성하여, 올바른 사용자의 음성을 유도하기 위한 가이드(460)로 출력할 수 있다.For example, as shown in FIG. 9, when the user utters "What are you broadcasting?", Thecontroller 330 determines that "What are you doing today?" Is statistically similar to "What are you doing today?" What are you doing today? "Can be expressed in text format and transmitted to thedisplay device 100. Accordingly, thecontrol unit 150 may generate a UI such as "Next time, say" What do you do today "?" And output it as a guide 460 for inducing the correct user's voice.

이 경우에도, 제어부(150)는 수집된 사용자의 음성에 대한 정보를 출력할 수 있다. 즉, 제어부(150)는 도 9와 같이, "방송 뭐해"(470)를 출력할 수 있다.Even in this case, thecontroller 150 may output information about the collected user's voice. That is, as shown in FIG. 9, thecontrol unit 150 may output “what do you broadcast” 470.

한편, 상술한 실시 예들은 음성 명령 가이드가 출력되는 형태의 일 예일 뿐이며, 음성 명령 가이드는 다양한 형태로 제공될 수 있다.Meanwhile, the above-described embodiments are only examples of a form in which a voice command guide is output, and the voice command guide may be provided in various forms.

예를 들어, 제어부(150)는 도 10a 및 도 10b와 같이 초기 화면(510)이 출력된 상태에서 "오늘 방송 뭐해?"라는 사용자의 음성이 수집되면, 오늘 방송하는 프로그램에 대한 리스트(520)를 시스템 응답으로 출력하고, 리스트(520)에 대해 사용 가능한 사용자의 음성에 대한 정보를 포함하는 음성 명령 가이드(530)를 출력할 수 있다. 구체적으로, 제어부(150)는 도 10b와 같이 "첫 번째", "두 번째",... 등과 같은 음성 명령 가이드(530)를 출력할 수 있다.For example, when the voice of the user "What are you broadcasting today?" Is collected while theinitial screen 510 is output, as shown in FIGS. 10A and 10B, thecontrol unit 150 lists 520 programs that are broadcast today. Output as a system response, and output avoice command guide 530 including information about a user's voice available for thelist 520. Specifically, thecontrol unit 150 may output avoice command guide 530 such as "first", "second", ... as shown in FIG. 10B.

한편, 도 11은 초기 화면이 디스플레이된 상태에서 사용자가 "더보기"를 발화한 경우를 도시한다. 이 경우, 제2 서버(300)는 디스플레이 장치(100)에서 사용 가능한 음성에 대한 정보를 출력하기 위한 제어 명령을 디스플레이 장치(100)로 전송할 수 있다.Meanwhile, FIG. 11 shows a case in which the user utters "more" while the initial screen is displayed. In this case, thesecond server 300 may transmit a control command for outputting information about the voice usable in thedisplay device 100 to thedisplay device 100.

이에 따라, 제어부(150)는 수신된 제어 명령에 기초하여, 도 11과 같이 사용 가능한 사용자의 음성에 대한 정보를 포함하는 UI(610)를 생성하여 출력할 수 있다. 한편, 디스플레이 장치(100)에서 사용 가능한 음성에 대한 정보는 디스플레이 장치(100)에 기저장되어 있거나, 제2 서버(300)로부터 수신될 수 있다.Accordingly, thecontrol unit 150 may generate and output aUI 610 including information about a user's voice that can be used as shown in FIG. 11 based on the received control command. Meanwhile, information on voices usable in thedisplay device 100 may be pre-stored in thedisplay device 100 or may be received from thesecond server 300.

도 12는 본 발명의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.12 is a flowchart illustrating a method of controlling a display device according to an embodiment of the present invention.

먼저, 사용자의 음성을 수집한다(S1210).First, a user's voice is collected (S1210).

이후, 사용자의 음성을 제1 서버로 전송하고, 제1 서버로부터 사용자의 음성에 대응되는 텍스트 정보를 수신한다(S1220). 그리고, 수신된 텍스트 정보를 제2 서버로 전송한다(S1230).Thereafter, the user's voice is transmitted to the first server, and text information corresponding to the user's voice is received from the first server (S1220). Then, the received text information is transmitted to the second server (S1230).

텍스트 정보에 대응되는 응답 정보가 제2 서버로부터 수신되면, 응답 정보에 기초하여, 사용자의 음성에 대응되는 시스템 응답을 출력한다(S1240). 이때, 디스플레이 장치의 현재 상황에서 적용 가능한 음성 명령 가이드를 출력할 수 있다.When the response information corresponding to the text information is received from the second server, the system response corresponding to the user's voice is output based on the response information (S1240). At this time, a voice command guide applicable in the current situation of the display device may be output.

구체적으로, 사용자의 음성에 대응되는 시스템 응답이 출력되면, 시스템 응답과 관련된 음성 명령 가이드를 출력할 수 있다.Specifically, when a system response corresponding to a user's voice is output, a voice command guide related to the system response may be output.

이 경우, 컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 컨텐츠 리스트에 포함된 컨텐츠를 필터링하기 위한 음성 명령 가이드를 출력할 수 있다.In this case, when the searched content list is output according to the user's voice for content search, a voice command guide for filtering the content included in the content list may be output.

또한, 컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 출력되면, 컨텐츠 리스트에 포함된 특정 컨텐츠를 실행하기 위한 음성 명령 가이드 및 특정 컨텐츠의 세부 정보를 출력하기 위한 음성 명령 가이드 중 적어도 하나를 출력할 수 있다.In addition, when a searched content list is output according to the user's voice for content search, at least one of a voice command guide for executing specific content included in the content list and a voice command guide for outputting detailed information of the specific content may be output. Can.

또한, 어플리케이션 실행을 위한 사용자 음성에 따라 해당 어플리케이션 실행 화면이 출력되면, 어플리케이션 실행 화면에서 적용 가능한 음성 명령 가이드를 출력할 수 있다.In addition, when a corresponding application execution screen is output according to a user's voice for executing an application, a voice command guide applicable to the application execution screen may be output.

이에 대해서는, 도 1 내지 도 11에서 구체적으로 설명한 바 있다는 점에서 구체적인 중복 설명은 생략하기로 한다.In this regard, detailed overlapping descriptions will be omitted in that they have been specifically described in FIGS. 1 to 11.

또한, 본 발명에 따른 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.In addition, a non-transitory computer readable medium in which a program for sequentially performing a control method according to the present invention is stored may be provided.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium means a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short time, such as registers, caches, and memory. Specifically, the various applications or programs described above may be stored and provided in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 디스플레이 장치 및 서버에 대해 도시한 상술한 블록도에서는 버스(bus)를 미도시하였으나, 디스플레이 장치 및 서버에서 각 구성요소 간의 통신은 버스를 통해 이루어질 수도 있다. 또한, 각 디바이스에는 상술한 다양한 단계를 수행하는 CPU, 마이크로 프로세서 등과 같은 프로세서가 더 포함될 수도 있다.In addition, although the bus is not illustrated in the above-described block diagram showing the display device and the server, communication between each component in the display device and the server may be performed through the bus. Further, each device may further include a processor, such as a CPU or a microprocessor, which performs the various steps described above.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.

100 : 디스플레이 장치110 : 출력부
120 : 음성수집부130 : 제1 통신부
140 : 제2 통신부150 : 제어부
100: display device 110: output unit
120: voice collection unit 130: the first communication unit
140: second communication unit 150: control unit

Claims (12)

Translated fromKorean
디스플레이 장치에 있어서,
디스플레이;
상기 디스플레이 장치의 디스플레이 상황 별로 적용가능한 음성 명령에 대응되는 복수의 예문을 저장하는 저장부;
사용자의 음성을 수집하는 음성 수집부; 및
상기 사용자의 음성에 대응되는 시스템 응답을 출력하도록 상기 디스플레이를 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 저장된 복수의 예문 중, 상기 디스플레이 장치의 특정 디스플레이 상황에서 실행 가능한 기능을 가이드하는 음성 명령에 대응되는 예문을 포함하는 음성 명령 가이드를 출력하도록 상기 디스플레이를 제어하며,
상기 특정 디스플레이 상황은 초기 화면 출력, 컨텐츠 출력, 어플리케이션 실행 또는 상기 시스템 응답의 출력 중 적어도 하나를 포함하고,
상기 음성 명령 가이드는, 상기 디스플레이 상에 디스플레이되는 컨텐츠와 별개로 디스플레이되고 상기 음성 명령의 예문에 대응되는 텍스트를 포함하는 디스플레이 장치.
In the display device,
display;
A storage unit for storing a plurality of example sentences corresponding to voice commands applicable to display conditions of the display device;
A voice collection unit for collecting a user's voice; And
Includes a control unit for controlling the display to output a system response corresponding to the user's voice;
The control unit,
Among the plurality of stored example sentences, the display is controlled to output a voice command guide including example sentences corresponding to voice commands for guiding functions executable in a specific display situation of the display device,
The specific display situation includes at least one of initial screen output, content output, application execution, or output of the system response,
The voice command guide is displayed separately from the content displayed on the display and includes text corresponding to an example sentence of the voice command.
제1항에 있어서,
상기 제어부는,
상기 시스템 응답이 출력되면, 상기 시스템 응답과 관련된 기능을 가이드하는 음성 명령의 예문을 포함하는 음성 명령 가이드를 디스플레이하도록 상기 디스플레이를 제어하는, 디스플레이 장치.
According to claim 1,
The control unit,
When the system response is output, the display device controls the display to display a voice command guide including an example sentence of a voice command that guides a function related to the system response.
제1항에 있어서,
상기 어플리케이션의 실행은,
외부 장치와 관련된 어플리케이션의 실행 및 웹 브라우징을 위한 어플리케이션의 실행 중 적어도 하나를 포함하는, 디스플레이 장치.
According to claim 1,
The execution of the application,
A display device comprising at least one of execution of an application related to an external device and execution of an application for web browsing.
제1항에 있어서,
상기 제어부는,
상기 사용자 음성이 입력되면 상기 사용자 음성을 서버로 전송하고,
상기 서버로부터 상기 사용자 음성에 대응되는 응답 정보를 수신하고,
상기 응답 정보에 기초하여 상기 시스템 응답을 출력하도록 상기 디스플레이를 제어하는, 디스플레이 장치.
According to claim 1,
The control unit,
When the user voice is input, the user voice is transmitted to a server,
Receiving response information corresponding to the user's voice from the server,
And control the display to output the system response based on the response information.
제1항에 있어서,
상기 제어부는,
컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 상기 시스템 응답으로 출력되면, 상기 컨텐츠 리스트에 포함된 컨텐츠를 필터링하기 위한 음성 명령 가이드를 디스플레이하도록 상기 디스플레이를 제어하는, 디스플레이 장치.
According to claim 1,
The control unit,
When a content list searched according to a user's voice for content search is output as the system response, the display device controls the display to display a voice command guide for filtering content included in the content list.
제1항에 있어서,
상기 제어부는,
컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 상기 시스템 응답으로 출력되면, 상기 컨텐츠 리스트에 포함된 특정 컨텐츠를 실행하기 위한 음성 명령 가이드 및 상기 특정 컨텐츠의 세부 정보를 출력하기 위한 음성 명령 가이드 중 적어도 하나를 디스플레이하도록 상기 디스플레이를 제어하는, 디스플레이 장치.
According to claim 1,
The control unit,
When a list of contents searched according to a user's voice for content search is output as the system response, at least one of a voice command guide for executing specific content included in the content list and a voice command guide for outputting detailed information of the specific content And controlling the display to display one.
디스플레이 장치의 디스플레이 상황 별로 적용가능한 음성 명령에 대응되는 복수의 예문을 저장하는 디스플레이 장치의 제어 방법에 있어서,
사용자의 음성을 수집하는 단계; 및
상기 사용자의 음성에 대응되는 시스템 응답을 디스플레이하는 단계;를 포함하며,
상기 제어 방법은,
상기 저장된 복수의 예문 중, 상기 디스플레이 장치의 특정 디스플레이 상황에서 실행 가능한 기능을 가이드하는 음성 명령에 대응되는 예문을 포함하는 음성 명령 가이드를 디스플레이하는 단계;를 더 포함하며,
상기 특정 디스플레이 상황은 초기 화면 출력, 컨텐츠 출력, 어플리케이션 실행 또는 상기 시스템 응답의 출력 중 적어도 하나를 포함하고,
상기 음성 명령 가이드는, 상기 디스플레이 상에 디스플레이되는 컨텐츠와 별개로 디스플레이되고 상기 음성 명령의 예문에 대응되는 텍스트를 포함하는 제어 방법.
In the control method of the display device for storing a plurality of example sentences corresponding to the applicable voice command for each display situation of the display device,
Collecting a user's voice; And
And displaying a system response corresponding to the user's voice.
The control method,
Further comprising the step of displaying a voice command guide including an example sentence corresponding to a voice command for guiding a function executable in a specific display situation of the display device among the stored plurality of example sentences;
The specific display situation includes at least one of initial screen output, content output, application execution, or output of the system response,
The voice command guide includes a text displayed separately from the content displayed on the display and including text corresponding to an example sentence of the voice command.
제7항에 있어서,
상기 시스템 응답이 디스플레이되면, 상기 시스템 응답과 관련된 기능을 가이드하는 음성 명령의 예문을 포함하는 음성 명령 가이드를 디스플레이하는 단계;를 더 포함하는, 제어 방법.
The method of claim 7,
And when the system response is displayed, displaying a voice command guide including an example sentence of a voice command that guides a function related to the system response.
제7항에 있어서,
상기 어플리케이션의 실행은,
외부 장치와 관련된 어플리케이션의 실행 및 웹 브라우징을 위한 어플리케이션의 실행 중 적어도 하나를 포함하는, 제어 방법.
The method of claim 7,
The execution of the application,
And at least one of execution of an application related to an external device and execution of an application for web browsing.
제7항에 있어서,
상기 시스템 응답을 디스플레이하는 단계는,
상기 사용자 음성이 입력되면 상기 사용자 음성을 서버로 전송하는 단계;
상기 서버로부터 상기 사용자 음성에 대응되는 응답 정보를 수신하는 단계; 및
상기 응답 정보에 기초하여 상기 시스템 응답을 디스플레이하는 단계;를 포함하는, 제어 방법.
The method of claim 7,
Displaying the system response,
Transmitting the user voice to a server when the user voice is input;
Receiving response information corresponding to the user voice from the server; And
And displaying the system response based on the response information.
제7항에 있어서,
컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 상기 시스템 응답으로 디스플레이되면, 상기 컨텐츠 리스트에 포함된 컨텐츠를 필터링하기 위한 음성 명령 가이드를 디스플레이하는 단계;를 더 포함하는, 제어 방법.
The method of claim 7,
And displaying a voice command guide for filtering the content included in the content list when the content list searched according to the user's voice for content search is displayed as the system response.
제7항에 있어서,
컨텐츠 검색을 위한 사용자 음성에 따라 검색된 컨텐츠 리스트가 상기 시스템 응답으로 디스플레이되면, 상기 컨텐츠 리스트에 포함된 특정 컨텐츠를 실행하기 위한 음성 명령 가이드 및 상기 특정 컨텐츠의 세부 정보를 출력하기 위한 음성 명령 가이드 중 적어도 하나를 디스플레이하는 단계;를 더 포함하는, 제어 방법.
The method of claim 7,
At least one of a voice command guide for executing specific content included in the content list and a voice command guide for outputting detailed information of the specific content when a content list searched according to a user voice for content search is displayed as the system response Displaying one; further comprising, a control method.
KR1020190073988A2019-06-212019-06-21Display apparatus and method for controlling the display apparatusActiveKR102091006B1 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020190073988AKR102091006B1 (en)2019-06-212019-06-21Display apparatus and method for controlling the display apparatus

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020190073988AKR102091006B1 (en)2019-06-212019-06-21Display apparatus and method for controlling the display apparatus

Related Parent Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020160014073ADivisionKR20160022326A (en)2016-02-042016-02-04Display apparatus and method for controlling the display apparatus

Publications (2)

Publication NumberPublication Date
KR20190077268A KR20190077268A (en)2019-07-03
KR102091006B1true KR102091006B1 (en)2020-03-19

Family

ID=67258903

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020190073988AActiveKR102091006B1 (en)2019-06-212019-06-21Display apparatus and method for controlling the display apparatus

Country Status (1)

CountryLink
KR (1)KR102091006B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2003030150A1 (en)*2001-09-272003-04-10Matsushita Electric Industrial Co., Ltd.Dialogue apparatus, dialogue parent apparatus, dialogue child apparatus, dialogue control method, and dialogue control program
JP2010072507A (en)*2008-09-222010-04-02Toshiba CorpSpeech recognition search system and speech recognition search method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR101897492B1 (en)*2011-06-072018-09-13삼성전자주식회사Display apparatus and Method for executing hyperlink and Method for recogniting voice thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2003030150A1 (en)*2001-09-272003-04-10Matsushita Electric Industrial Co., Ltd.Dialogue apparatus, dialogue parent apparatus, dialogue child apparatus, dialogue control method, and dialogue control program
JP2010072507A (en)*2008-09-222010-04-02Toshiba CorpSpeech recognition search system and speech recognition search method

Also Published As

Publication numberPublication date
KR20190077268A (en)2019-07-03

Similar Documents

PublicationPublication DateTitle
US9520133B2 (en)Display apparatus and method for controlling the display apparatus
KR101309794B1 (en)Display apparatus, method for controlling the display apparatus and interactive system
US20190333515A1 (en)Display apparatus, method for controlling the display apparatus, server and method for controlling the server
US9230559B2 (en)Server and method of controlling the same
US20140195244A1 (en)Display apparatus and method of controlling display apparatus
US20140195230A1 (en)Display apparatus and method for controlling the same
KR20180014137A (en)Display apparatus and method for controlling the display apparatus
KR102091006B1 (en)Display apparatus and method for controlling the display apparatus
KR102160756B1 (en)Display apparatus and method for controlling the display apparatus
KR20160022326A (en)Display apparatus and method for controlling the display apparatus
KR20170038772A (en)Display apparatus and method for controlling the display apparatus

Legal Events

DateCodeTitleDescription
A107Divisional application of patent
A201Request for examination
PA0107Divisional application

Comment text:Divisional Application of Patent

Patent event date:20190621

Patent event code:PA01071R01D

Filing date:20160204

Application number text:1020160014073

PA0201Request for examination
E902Notification of reason for refusal
PE0902Notice of grounds for rejection

Comment text:Notification of reason for refusal

Patent event date:20190701

Patent event code:PE09021S01D

PG1501Laying open of application
E701Decision to grant or registration of patent right
PE0701Decision of registration

Patent event code:PE07011S01D

Comment text:Decision to Grant Registration

Patent event date:20200128

PR0701Registration of establishment

Comment text:Registration of Establishment

Patent event date:20200313

Patent event code:PR07011E01D

PR1002Payment of registration fee

Payment date:20200316

End annual number:3

Start annual number:1

PG1601Publication of registration
PR1001Payment of annual fee

Payment date:20240228

Start annual number:5

End annual number:5


[8]ページ先頭

©2009-2025 Movatter.jp