Movatterモバイル変換


[0]ホーム

URL:


KR20140073232A - Mobil terminal and Operating Method for the Same - Google Patents

Mobil terminal and Operating Method for the Same
Download PDF

Info

Publication number
KR20140073232A
KR20140073232AKR1020120141228AKR20120141228AKR20140073232AKR 20140073232 AKR20140073232 AKR 20140073232AKR 1020120141228 AKR1020120141228 AKR 1020120141228AKR 20120141228 AKR20120141228 AKR 20120141228AKR 20140073232 AKR20140073232 AKR 20140073232A
Authority
KR
South Korea
Prior art keywords
input
emoticon
user
portable terminal
emoticons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020120141228A
Other languages
Korean (ko)
Inventor
김태호
황정환
김재동
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사filedCritical엘지전자 주식회사
Priority to KR1020120141228ApriorityCriticalpatent/KR20140073232A/en
Publication of KR20140073232ApublicationCriticalpatent/KR20140073232A/en
Withdrawnlegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명의 실시예에 따른 휴대 단말기의 동작 방법은, 메시지 입력창을 표시하는 단계, 사용자의 모션(motion) 입력을 감지하는 단계, 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘 데이터 중에서, 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별하는 단계와 판별한 이모티콘을 메시지 입력창에 표시하는 단계를 포함한다. 이에 따라,이모티콘을 더 빠르고 편리하게 입력하고 전송할 수 있어, 사용자의 편의성을 향상시킬 수 있다.A method of operating a portable terminal according to an exemplary embodiment of the present invention includes displaying a message input window, detecting a motion input of a user, detecting at least one of a type of detected motion input, an input time, Determining one or more emoticons corresponding to the sensed motion input from among the previously stored emoticon data and displaying the determined emoticons on the message input window. Accordingly, it is possible to input and transmit the emoticons more quickly and conveniently, thereby improving convenience for the user.

Description

Translated fromKorean
휴대 단말기 및 그 동작 방법{Mobil terminal and Operating Method for the Same}Technical Field [0001] The present invention relates to a mobile terminal and an operating method thereof,

본 발명은 휴대 단말기 및 그 동작 방법에 관한 것으로, 더욱 상세하게는 이모티콘을 빠르고 편리하게 입력하고 전송할 수 있는, 휴대 단말기 및 그 동작 방법에 관한 것이다.BACKGROUND OF THEINVENTION 1. Field of the Invention [0002] The present invention relates to a portable terminal and an operation method thereof, and more particularly, to a portable terminal and an operation method of the portable terminal capable of quickly and conveniently inputting and transmitting emoticons.

휴대 단말기는 휴대가 가능하면서 음성 및 영상 통화를 수행할 수 있는 기능, 정보를 입·출력할 수 있는 기능, 및 데이터를 저장할 수 있는 기능 등을 하나 이상 갖춘 휴대용 기기이다. 이러한 휴대 단말기는 그 기능이 다양화됨에 따라, 사진이나 동영상의 촬영, 음악 파일이나 동영상 파일의 재생, 게임, 방송의 수신, 무선 인터넷 등과 같은 복잡한 기능들을 갖추게 되었으며, 종합적인 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.A portable terminal is a portable device having one or more functions capable of carrying out voice and video communication, capable of inputting and outputting information, and storing data, while being portable. As the functions of the portable terminal have diversified, they have complicated functions such as photographing and photographing of a movie, playback of a music file or a video file, reception of a game, reception of broadcasting, wireless Internet, etc., and a comprehensive multimedia device .

이러한 멀티미디어 기기의 형태로 구현된 휴대 단말기에는, 복잡한 기능을 구현하기 위해 하드웨어나 소프트웨어적 측면에서 새로운 시도들이 다양하게 적용되고 있다. 일 예로 사용자가 쉽고 편리하게 기능을 검색하거나 선택하기 위한 유저 인터페이스(User Interface) 환경 등이 있다.In order to implement a complex function in a portable terminal implemented in the form of multimedia devices, various attempts have been made in terms of hardware and software. For example, there is a user interface environment in which a user can easily and conveniently search for or select a function.

한편, 휴대 단말기를 통한 다양한 소셜 네트워크 서비스, 채팅 서비스, 메시지 서비스의 이용이 증가하고 있다.On the other hand, various social network services, chat services, and message services are increasingly used through mobile terminals.

따라서, 본 발명의 목적은, 사용자 편의성이 향상된 휴대 단말기 및 그 동작 방법을 제공함에 있다.Accordingly, it is an object of the present invention to provide a mobile terminal with improved user convenience and an operation method thereof.

또한, 본 발명의 목적은, 이모티콘을 더 빠르고 편리하게 입력하고 전송할 수 있는 휴대 단말기 및 그 동작 방법을 제공함에 있다.It is also an object of the present invention to provide a mobile terminal and an operation method thereof that can input and transmit emoticons more quickly and conveniently.

본 발명의 실시예에 따른 휴대 단말기의 동작 방법은, 메시지 입력창을 표시하는 단계, 사용자의 모션(motion) 입력을 감지하는 단계, 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘 데이터 중에서, 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별하는 단계와 판별한 이모티콘을 메시지 입력창에 표시하는 단계를 포함한다.A method of operating a portable terminal according to an exemplary embodiment of the present invention includes displaying a message input window, detecting a motion input of a user, detecting at least one of a type of detected motion input, an input time, Determining one or more emoticons corresponding to the sensed motion input from among the previously stored emoticon data and displaying the determined emoticons on the message input window.

본 발명의 실시예에 따른 휴대 단말기는, 메시지 입력창을 표시하는 디스플레이부, 사용자의 모션(motion) 입력을 감지하는 센싱부, 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘 데이터 중에서, 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별하는 제어부를 포함하고, 제어부는 판별한 이모티콘을 메시지 입력창에 표시하도록 제어하는 것을 특징으로 한다.A portable terminal according to an exemplary embodiment of the present invention includes a display unit for displaying a message input window, a sensing unit for sensing a motion input of the user, a type of motion input, an input time, And a controller for discriminating one or more emoticons corresponding to the sensed motion input from the stored emoticon data, wherein the control unit controls the emoticon determined to be displayed on the message input window.

본 발명의 실시예에 따르면, 이모티콘을 더 빠르고 편리하게 입력하고 전송할 수 있어, 사용자의 편의성을 향상시킬 수 있다.According to the embodiment of the present invention, it is possible to input and transmit the emoticons more quickly and conveniently, thereby improving convenience for the user.

도 1은 본 발명의 일실시예에 따른 휴대 단말기의 블럭도,
도 2는 본 발명의 일실시예에 따른 휴대 단말기의 전면 사시도,
도 3은 본 발명의 일실시예에 따른 휴대 단말기의 후면 사시도,
도 4는 본 발명의 일실시예에 따른 휴대 단말기의 동작 방법이 도시된 순서도,
도 5 내지 도 14는 본 발명에 따른 휴대 단말기의 동작 방법의 다양한 실시예를 설명하기 위해 참조되는 도면,
도 15는 본 발명의 일실시예에 따른 휴대 단말기의 블럭도이다.
1 is a block diagram of a portable terminal according to an embodiment of the present invention;
2 is a front perspective view of a mobile terminal according to an embodiment of the present invention,
3 is a rear perspective view of a portable terminal according to an embodiment of the present invention,
4 is a flowchart illustrating an operation method of a portable terminal according to an embodiment of the present invention.
5 to 14 are drawings referred to explain various embodiments of a method of operating a portable terminal according to the present invention.
15 is a block diagram of a portable terminal according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

본 명세서에서 기술되는 휴대 단말기에는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 카메라, 네비게이션, 타블렛 컴퓨터(tablet computer), 이북(e-book) 단말기 등이 포함된다. 또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The portable terminal described in the present specification may be used in various applications such as a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a camera, tablet computers, e-book terminals, and the like. In addition, suffixes "module" and " part "for the components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.

도 1은 본 발명의 일 실시 예에 따른 휴대 단말기의 블록도이다. 도 1을 참조하여 본 발명의 일 실시 예에 따른 휴대 단말기를 기능에 따른 구성요소 관점에서 살펴보면 다음과 같다.1 is a block diagram of a portable terminal according to an embodiment of the present invention. Referring to FIG. 1, a mobile terminal according to an embodiment of the present invention will be described in terms of components according to functions.

도 1을 참조하면, 휴대 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 및 전원 공급부(190)를 포함할 수 있다. 이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다.1, theportable terminal 100 includes awireless communication unit 110, an audio / video (A / V)input unit 120, auser input unit 130, asensing unit 140, anoutput unit 150,A controller 160, aninterface 170, acontroller 180, and apower supply 190. When such components are implemented in practical applications, two or more components may be combined into one component, or one component may be divided into two or more components as necessary.

무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(113), 무선 인터넷 모듈(115), 근거리 통신 모듈(117), 및 GPS 모듈(119) 등을 포함할 수 있다.Thewireless communication unit 110 may include abroadcast receiving module 111, amobile communication module 113, awireless Internet module 115, a shortdistance communication module 117, and aGPS module 119.

방송수신 모듈(111)은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 방송관리 서버는, 방송 신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기 생성된 방송 신호 및 방송관련 정보 중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다.Thebroadcast receiving module 111 receives at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel. At this time, the broadcast channel may include a satellite channel, a terrestrial channel, and the like. The broadcast management server may refer to a server for generating and transmitting at least one of a broadcast signal and broadcast related information and a server for receiving at least one of the generated broadcast signal and broadcast related information and transmitting the broadcast signal to the terminal.

방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. 방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈(113)에 의해 수신될 수 있다. 방송관련 정보는 다양한 형태로 존재할 수 있다.The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal. The broadcast-related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information can also be provided through a mobile communication network, in which case it can be received by themobile communication module 113. Broadcast-related information can exist in various forms.

방송수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 또한, 방송수신 모듈(111)은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. 방송수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.Thebroadcast receiving module 111 receives broadcast signals using various broadcasting systems. In particular, thebroadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S) ), Digital Video Broadcast-Handheld (DVB-H), Integrated Services Digital Broadcast-Terrestrial (ISDB-T), and the like. In addition, thebroadcast receiving module 111 may be configured to be suitable for all broadcasting systems that provide broadcasting signals, as well as the digital broadcasting system. The broadcast signal and / or broadcast related information received through thebroadcast receiving module 111 may be stored in thememory 160.

이동통신 모듈(113)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.Themobile communication module 113 transmits and receives a radio signal to at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

무선 인터넷 모듈(115)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(115)은 휴대 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.Thewireless Internet module 115 refers to a module for wireless Internet access, and thewireless Internet module 115 can be embedded in themobile terminal 100 or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), NFC(Near Field Communication) 등이 이용될 수 있다.The short-range communication module 117 refers to a module for short-range communication. Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and Near Field Communication (NFC) may be used as the short distance communication technology.

GPS(Global Position System) 모듈(119)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다.A GPS (Global Position System)module 119 receives position information from a plurality of GPS satellites.

A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(123) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The A / V (Audio / Video)input unit 120 is for inputting an audio signal or a video signal, and may include acamera 121 and amicrophone 123. Thecamera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. Then, the processed image frame can be displayed on thedisplay unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by thecamera 121 may be stored in thememory 160 or transmitted to the outside through thewireless communication unit 110. [ Thecamera 121 may be equipped with two or more cameras according to the configuration of the terminal.

마이크(123)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(113)를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크 (123)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 사용될 수 있다.Themicrophone 123 receives an external sound signal by a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through themobile communication module 113 and output when the voice data is in the call mode. Themicrophone 123 may be a variety of noise reduction algorithms for eliminating noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자 입력부(130)는 사용자의 누름 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전) 등으로 구성될 수 있다. 또한, 사용자 입력부(130)는 키를 회전시키는 조그 휠 또는 조그 방식이나 조이스틱과 같이 조작하는 방식이나, 핑거 마우스 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.Theuser input unit 130 generates key input data that the user inputs to control the operation of the terminal. Theuser input unit 130 may include a key pad, a dome switch, and a touch pad (static / static) capable of receiving commands or information by a user's pressing or touching operation. Theuser input unit 130 may be a jog wheel for rotating the key, a jog type or a joystick, or a finger mouse. Particularly, when the touch pad has a mutual layer structure with thedisplay unit 151 described later, it can be called a touch screen.

센싱부(140)는 휴대 단말기(100)의 개폐 상태, 휴대 단말기(100)의 위치, 사용자 접촉 유무 등과 같이 휴대 단말기(100)의 현 상태를 감지하여 휴대 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 휴대 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수 있다.Thesensing unit 140 senses the current state of theportable terminal 100 such as the open / close state of theportable terminal 100, the position of theportable terminal 100, Thereby generating a sensing signal. For example, when theportable terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. In addition, a sensing function related to whether or not thepower supply unit 190 is powered on, whether theinterface unit 170 is coupled to an external device, and the like can be handled.

센싱부(140)는 근접센서(141), 압력센서(143), 및 모션 센서(145) 등을 포함할 수 있다. 근접센서(141)는 휴대 단말기(100)로 접근하는 물체나, 휴대 단말기(100)의 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. 근접센서(141)는, 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. 또한, 사용자가 휴대 단말기(100)의 어느 면을 쥐고 있는지 여부를 감지할 수 있다. 근접센서(141)는 구성 태양에 따라 2개 이상이 구비될 수 있다.Thesensing unit 140 may include aproximity sensor 141, apressure sensor 143, amotion sensor 145, and the like. Theproximity sensor 141 can detect the presence of an object approaching theportable terminal 100 or an object existing near theportable terminal 100 without mechanical contact. Theproximity sensor 141 can detect a nearby object by using a change in the alternating magnetic field or a change in the static magnetic field, or a rate of change in capacitance. In addition, it is possible to detect whether the user holds the surface of theportable terminal 100. Theproximity sensor 141 may be equipped with two or more sensors according to the configuration.

압력센서(143)는 휴대 단말기(100)에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. 압력센서(143)는 사용환경에 따라 휴대 단말기(100)에서 압력의 검출이 필요한 부위에 설치될 수 있다.Thepressure sensor 143 can detect whether the pressure is applied to theportable terminal 100, the magnitude of the pressure, and the like. Thepressure sensor 143 may be installed at a portion where the pressure of theportable terminal 100 is required depending on the use environment.

만일, 압력센서(143)가 디스플레이부(151)에 설치되는 경우, 압력센서(143)에서 출력되는 신호에 따라, 디스플레이부(151)를 통한 터치 입력과, 터치 입력보다 더 큰 압력이 가해지는 압력터치 입력을 식별할 수 있다. 또한, 압력센서(143)에서 출력되는 신호에 따라, 압력터치 입력시 디스플레이부(151)에 가해지는 압력의 크기도 알 수 있다.When thepressure sensor 143 is installed on thedisplay unit 151, the touch input through thedisplay unit 151 and the pressure applied by the touch input The pressure touch input can be identified. Also, the magnitude of the pressure applied to thedisplay unit 151 at the time of the pressure touch input can be determined according to the signal output from thepressure sensor 143. [

만일, 압력센서(143)가 휴대 단말기(100)의 외곽부에 배치되는 경우, 압력을 검출하여 사용자가 휴대 단말기(100)의 어느 면을 쥐고 있는지 여부를 감지할 수 있다.If thepressure sensor 143 is disposed at the outer periphery of theportable terminal 100, it is possible to detect whether the user holds the surface of theportable terminal 100 by detecting the pressure.

모션 센서(145)는 가속도 센서, 자이로 센서 등을 이용하여 휴대 단말기(100)의 위치나 움직임 등을 감지한다. 모션 센서(145)에 사용될 수 있는 가속도 센서는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있다.Themotion sensor 145 detects the position and movement of theportable terminal 100 using an acceleration sensor, a gyro sensor, or the like. An acceleration sensor that can be used for themotion sensor 145 is a device that converts an acceleration change in one direction into an electric signal and is widely used along with the development of MEMS (micro-electromechanical systems) technology.

가속도 센서에는, 자동차의 에어백 시스템에 내장되어 충돌을 감지하는데 사용하는 큰 값의 가속도를 측정하는 것부터, 사람 손의 미세한 동작을 인식하여 게임 등의 입력 수단으로 사용하는 미세한 값의 가속도를 측정하는 것까지 다양한 종류가 있다. 가속도 센서는 보통 2축이나 3축을 하나의 패키지에 실장하여 구성되며, 사용 환경에 따라서는 Z축 한 축만 필요한 경우도 있다. 따라서, 어떤 이유로 Z축 방향 대신 X축 또는 Y축 방향의 가속도 센서를 써야 할 경우에는 별도의 조각 기판을 사용하여 가속도 센서를 주 기판에 세워서 실장할 수도 있다.The acceleration sensor measures the acceleration of a small value built in the airbag system of an automobile and recognizes the minute motion of the human hand and measures the acceleration of a large value used as an input means such as a game There are various types. Acceleration sensors are usually constructed by mounting two or three axes in one package. Depending on the usage environment, only one axis of Z axis is required. Therefore, when the acceleration sensor in the X-axis direction or the Y-axis direction is used instead of the Z-axis direction for some reason, the acceleration sensor may be mounted on the main substrate by using a separate piece substrate.

또한, 자이로 센서는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향을 감지할 수 있다.The gyro sensor is a sensor for measuring the angular velocity, and it can sense the direction of rotation with respect to the reference direction.

한편, 센싱부(140)는 사용자 인증을 위한 센서들을 포함할 수 있다. 예를 들어, 사용자의 생체 정보를 통하여 사용자 인증을 수행하는 경우, 체온, 지문, 홍채, 얼굴 등을 인식하기 위한 센서를 구비할 수 있고, 휴대 단말기(100)에 설정되는 사용자 인증 방법에 따라 필요한 센서를 구비할 수 있다.Meanwhile, thesensing unit 140 may include sensors for user authentication. For example, when the user authentication is performed through the user's biometric information, a sensor for recognizing a body temperature, a fingerprint, an iris, a face, and the like may be provided. In accordance with a user authentication method set in themobile terminal 100, A sensor may be provided.

출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것이다. 출력부(150)에는 디스플레이부(151), 음향출력 모듈(153), 알람부(155), 및 햅틱 모듈(157) 등이 포함될 수 있다.Theoutput unit 150 is for outputting an audio signal, a video signal, or an alarm signal. Theoutput unit 150 may include adisplay unit 151, anaudio output module 153, analarm unit 155, and ahaptic module 157.

디스플레이부(151)는 휴대 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어 휴대 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 휴대 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다.Thedisplay unit 151 displays and outputs the information processed by theportable terminal 100. For example, when theportable terminal 100 is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When theportable terminal 100 is in the video communication mode or the photographing mode, the photographed or received images can be displayed individually or simultaneously, and the UI and the GUI are displayed.

한편, 전술한 바와 같이, 디스플레이부(151)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이부(151)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.Meanwhile, as described above, when thedisplay unit 151 and the touch pad have a mutual layer structure to constitute a touch screen, thedisplay unit 151 may be an input device capable of inputting information by a user's touch in addition to the output device Can also be used.

만일, 디스플레이부(151)가 터치스크린으로 구성되는 경우, 터치스크린 패널, 터치스크린 패널 제어기 등을 포함할 수 있다. 이 경우, 터치스크린 패널은 외부에 부착되는 투명한 패널로서, 휴대 단말기(100)의 내부 버스에 연결될 수 있다. 터치스크린 패널은 접촉 결과를 주시하고 있다가, 터치입력이 있는 경우 대응하는 신호들을 터치스크린 패널 제어기로 보낸다. 터치스크린 패널 제어기는 그 신호들을 처리한 다음 대응하는 데이터를 제어부(180)로 전송하여, 제어부(180)가 터치입력이 있었는지 여부와 터치스크린의 어느 영역이 터치 되었는지 여부를 알 수 있도록 한다.If thedisplay unit 151 is configured as a touch screen, it may include a touch screen panel, a touch screen panel controller, and the like. In this case, the touch screen panel is a transparent panel attached to the outside, and can be connected to the internal bus of theportable terminal 100. The touch screen panel keeps a watch on the contact result, and if there is a touch input, sends the corresponding signals to the touch screen panel controller. The touch screen panel controller processes the signals, and then transmits corresponding data to thecontroller 180 so that thecontroller 180 can determine whether the touch input has been made and which area of the touch screen has been touched.

디스플레이부(151)는 전자종이(e-Paper)로 구성될 수도 있다. 전자종이(e-Paper)는 일종의 반사형 디스플레이로서, 기존의 종이와 잉크처럼 높은 해상도, 넓은 시야각, 밝은 흰색 배경으로 우수한 시각 특성을 가진다. 전자종이(e-Paper)는 플라스틱, 금속, 종이 등 어떠한 기판상에도 구현이 가능하고, 전원을 차단한 후에도 화상이 유지되고 백라이트(back light) 전원이 없어 휴대 단말기(100)의 배터리 수명이 오래 유지될 수 있다. 전자종이로는 정전화가 충전된 반구형 트위스트 볼을 이용하거나, 전기영동법 및 마이크로 캡슐 등을 이용할 수 있다.Thedisplay unit 151 may be formed of an e-paper. Electronic paper (e-Paper) is a kind of reflective display, and has excellent visual characteristics such as high resolution, wide viewing angle and bright white background as conventional paper and ink. The electronic paper (e-paper) can be implemented on any substrate such as plastic, metal, paper, and the image is retained even after the power is shut off, and the battery life of theportable terminal 100 is long Can be maintained. As the electronic paper, a hemispherical twist ball filled with a telephone can be used, or an electrophoresis method and a microcapsule can be used.

이외에도 디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. 그리고, 휴대 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수도 있다. 예를 들어, 휴대 단말기(100)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.In addition, thedisplay unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three- (3D display). In addition, there may be two ormore display units 151 according to the embodiment of theportable terminal 100. For example, theportable terminal 100 may include an external display unit (not shown) and an internal display unit (not shown) at the same time.

음향출력 모듈(153)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(153)은 휴대 단말기(100)에서 수행되는 기능, 예를 들어, 호 신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. 이러한 음향출력 모듈(153)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.Theaudio output module 153 outputs audio data received from thewireless communication unit 110 or stored in thememory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, Thesound output module 153 outputs sound signals related to functions performed in theportable terminal 100, for example, a call signal reception tone, a message reception tone, and the like. Thesound output module 153 may include a speaker, a buzzer, and the like.

알람부(155)는 휴대 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 휴대 단말기(100)에서 발생하는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(155)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 알람부(155)는 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 신호를 출력할 수 있다. 또한, 알람부(155)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. 이러한 알람부(155)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. 휴대 단말기(100)에서 이벤트 발생 알림을 위한 신호는 디스플레이부(151)나 음향출력 모듈(153)를 통해서도 출력될 수 있다.Thealarm unit 155 outputs a signal for notifying the occurrence of an event of theportable terminal 100. Examples of events occurring in theportable terminal 100 include call signal reception, message reception, and key signal input. Thealarm unit 155 outputs a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal. For example, it is possible to output a signal in a vibration mode. Thealarm unit 155 can output a signal to notify when a call signal is received or a message is received. Also, when the key signal is inputted, thealarm unit 155 can output the signal as the feedback to the key signal input. The user can recognize the occurrence of an event through the signal output by thealarm unit 155. A signal for notifying the occurrence of an event in theportable terminal 100 may also be output through thedisplay unit 151 or thesound output module 153. [

햅틱 모듈(haptic module)(157)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(157)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. 햅틱 모듈(157)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(157)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.Thehaptic module 157 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by thehaptic module 157 is a vibration effect. When thehaptic module 157 generates vibration with a haptic effect, the intensity and pattern of the vibration generated by thehaptic module 157 can be converted, and the different vibrations can be synthesized and output or sequentially output.

햅틱 모듈(157)은 진동 외에도, 접촉 피부 면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열이 가능한 소자를 이용한 냉/온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. 햅틱 모듈(157)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(157)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.In addition to the vibration, thehaptic module 157 may be provided with a function of stimulating by a pin arrangement vertically moving with respect to the contact skin surface, an effect of stimulating air through the injection or suction force of the air through the injection port or the suction port, A variety of tactile effects such as an effect of stimulation through the contact of the electrode (eletrode), an effect of stimulation by electrostatic force, and an effect of cold / warm reproduction using a device capable of endothermic or exothermic can be generated. Thehaptic module 157 can be implemented not only to transmit the tactile effect through direct contact but also to feel the tactile effect through the muscular sense of the user's finger or arm. Thehaptic module 157 may include two or morehaptic modules 157 according to the configuration of theportable terminal 100.

메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.Thememory 160 may store a program for processing and controlling thecontrol unit 180 and may store a function for temporarily storing input or output data (e.g., a phone book, a message, a still image, .

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 휴대 단말기(100)는 인터넷(internet)상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.Thememory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM , And a ROM. ≪ / RTI > In addition, theportable terminal 100 may operate a web storage for storing thememory 150 on the Internet.

인터페이스부(170)는 휴대 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 휴대 단말기(100)에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리 카드(Memory card), SIM(Subscriber Identification Module) 카드, UIM(User Identity Module) 카드 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자, 이어폰 등이 있다. 인터페이스부(170)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 휴대 단말기(100) 내부의 각 구성 요소에 전달할 수 있고, 휴대 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.Theinterface unit 170 serves as an interface with all external devices connected to theportable terminal 100. Examples of the external device connected to theportable terminal 100 include a wired / wireless headset, an external charger, a wired / wireless data port, a memory card, a SIM (Subscriber Identification Module) card, a UIM An audio input / output (I / O) terminal, a video I / O (input / output) terminal, and an earphone. Theinterface unit 170 receives data from the external device or receives power from the external device and transmits the data to each component in theportable terminal 100 so that data in theportable terminal 100 can be transmitted to the external device .

인터페이스부(170)는 휴대 단말기(100)가 외부 크래들(cradle)과 연결될 때 연결된 크래들로부터의 전원이 휴대 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 크래들에서 입력되는 각종 명령 신호가 휴대 단말기(100)로 전달되는 통로가 될 수 있다.Theinterface unit 170 is a path through which power from the cradle connected when theportable terminal 100 is connected to the external cradle is supplied to theportable terminal 100 or various command signals inputted from the cradle by the user are carried And may be a passage to be transmitted to the terminal 100.

제어부(180)는 통상적으로 상기 각부의 동작을 제어하여 휴대 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 재생 모듈(181)을 구비할 수도 있다. 멀티미디어 재생 모듈(181)은 제어부(180) 내에 하드웨어로 구성될 수도 있고, 제어부(180)와 별도로 소프트웨어로 구성될 수도 있다.Thecontroller 180 typically controls the operation of the respective units to control the overall operation of themobile terminal 100. For example, voice communication, data communication, video communication, and the like. In addition, thecontrol unit 180 may include amultimedia playback module 181 for multimedia playback. Themultimedia playback module 181 may be configured in hardware in thecontroller 180 or separately from software in thecontroller 180. [

그리고, 전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.Thepower supply unit 190 receives external power and internal power under the control of thecontroller 180 and supplies power necessary for operation of the respective components.

이와 같은 구성의 휴대 단말기(100)는 유무선 통신 시스템 및 위성 기반 통신 시스템을 포함하여, 프레임(frame) 또는 패킷(packet)을 통하여 데이터(data)를 전송할 수 있는 통신 시스템에서 동작 가능하도록 구성될 수 있다.Themobile terminal 100 having such a configuration can be configured to be operable in a communication system capable of transmitting data through a frame or a packet, including a wired / wireless communication system and a satellite-based communication system. have.

도 2는 본 발명의 일 실시 예에 따른 휴대 단말기를 전면에서 바라본 사시도이고, 도 3은 도 2에 도시된 휴대 단말기의 후면 사시도이다. 이하에서는 도 2 및 도 3을 참조하여, 본 발명과 관련된 휴대 단말기를 외형에 따른 구성요소 관점에서 살펴 보기로 한다. 또한, 이하에서는 설명의 편의상, 폴더 타입, 바 타입, 스윙타입, 슬라이더 타입 등과 같은 여러 타입의 휴대 단말기들 중에서 전면 터치스크린이 구비되어 있는, 바 타입의 휴대 단말기를 예로 들어 설명한다. 그러나, 본 발명은 바 타입의 휴대 단말기에 한정되는 것은 아니고 전술한 타입을 포함한 모든 타입의 휴대 단말기에 적용될 수 있다.FIG. 2 is a perspective view of a portable terminal according to an exemplary embodiment of the present invention, and FIG. 3 is a rear perspective view of the portable terminal shown in FIG. 2. Referring to FIG. Hereinafter, the portable terminal according to the present invention will be described with reference to FIGS. 2 and 3 in terms of components according to the external form. Hereinafter, for convenience of description, a bar-type portable terminal having a front touch screen among various types of portable terminals such as a folder type, a bar type, a swing type, a slider type, etc. will be described as an example. However, the present invention is not limited to a bar-type portable terminal, but can be applied to all types of portable terminals including the above-mentioned type.

도 2를 참조하면, 휴대 단말기(100)의 외관을 이루는 케이스는, 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된다. 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된 공간에는 각종 전자부품들이 내장된다.Referring to FIG. 2, the case constituting the outer appearance of theportable terminal 100 is formed by the front case 100-1 and the rear case 100-2. Various electronic components are incorporated in the space formed by the front case 100-1 and the rear case 100-2.

본체, 구체적으로 프론트 케이스(100-1)에는 디스플레이부(151), 제1 음향출력모듈(153a), 제1 카메라(121a), 및 제1 내지 제3 사용자 입력부(130a, 130b, 130c)가 배치될 수 있다. 그리고, 리어 케이스(100-2)의 측면에는 제4 사용자 입력부(130d), 제5 사용자 입력부(130e), 및 마이크(123)가 배치될 수 있다.Thedisplay unit 151, the firstsound output module 153a, thefirst camera 121a, and the first through thirduser input units 130a, 130b, and 130c are connected to the main body, specifically, the front case 100-1 . A fourthuser input unit 130d, a fifthuser input unit 130e, and amicrophone 123 may be disposed on a side surface of the rear case 100-2.

디스플레이부(151)는 터치패드가 레이어 구조로 중첩됨으로써, 디스플레이부(151)가 터치스크린으로 동작하여 사용자의 터치에 의한 정보의 입력이 가능하도록 구성할 수도 있다.Thedisplay unit 151 may be constructed such that the touch pad is overlapped with the layer structure so that thedisplay unit 151 operates as a touch screen so that information can be input by a user's touch.

제1 음향출력 모듈(153a)은 리시버 또는 스피커의 형태로 구현될 수 있다. 제1 카메라(121a)는 사용자 등에 대한 이미지 또는 동영상을 촬영하기에 적절한 형태로 구현될 수 있다. 그리고, 마이크(123)는 사용자의 음성, 기타 소리 등을 입력받기 적절한 형태로 구현될 수 있다.The firstacoustic output module 153a may be implemented in the form of a receiver or a speaker. Thefirst camera 121a may be implemented in a form suitable for capturing an image or a moving image of a user. Themicrophone 123 may be implemented in a form suitable for receiving a user's voice, other sounds, and the like.

제1 내지 제5 사용자 입력부(130a, 130b, 130c, 130d, 130e)와 후술하는 제6 및 제7 사용자 입력부(130f, 130g)는 사용자 입력부(130)라 통칭할 수 있으며, 사용자가 촉각적인 느낌을 주면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The first through fifthuser input units 130a130b 130c 130d and 130e and the sixth and seventhuser input units 130f and 130g described below may be collectively referred to as auser input unit 130, Any manner can be employed in a tactile manner.

예를 들어, 사용자 입력부(130)는 사용자의 누름 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 돔 스위치 또는 터치 패드로 구현되거나, 키를 회전시키는 휠 또는 조그 방식이나 조이스틱과 같이 조작하는 방식 등으로도 구현될 수 있다. 기능적인 면에서, 제1 내지 제3 사용자 입력부(130a, 130b, 130c)는 시작, 종료, 스크롤 등과 같은 명령을 입력하기 위한 것이고, 제4 사용자 입력부(130d)는 동작 모드의 선택 등을 입력하기 위한 것이다. 또한, 제5 사용자 입력부(130e)는 휴대 단말기(100) 내의 특수한 기능을 활성화하기 위한 핫 키(hot-key)로서 작동할 수 있다.For example, theuser input unit 130 may be embodied as a dome switch or a touch pad capable of receiving a command or information by a user's pressing or touching operation, or may be a wheel, a jog type or a joystick Or the like. In a functional aspect, the first to thirduser input units 130a, 130b and 130c are for inputting commands such as start, end, and scroll, and the fourthuser input unit 130d is for inputting a selection of an operation mode, . In addition, the fifthuser input unit 130e may operate as a hot-key for activating a special function in theportable terminal 100. [

도 3을 참조하면, 리어 케이스(100-2)의 후면에는 제2 카메라(121b)가 추가로 장착될 수 있으며, 리어 케이스(100-2)의 측면에는 제6 및 제7 사용자 입력부(130f, 130g)와, 인터페이스부(170)가 배치될 수 있다. 3, asecond camera 121b may be additionally mounted on a rear surface of the rear case 100-2. On the side surface of the rear case 100-2, a sixth and a seventhuser input units 130f, 130g, and aninterface unit 170 may be disposed.

제2 카메라(121b)는 제1 카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지며, 제1 카메라(121a)와 서로 다른 화소를 가질 수 있다. 제2 카메라(121b)에 인접하게는 플래쉬(미도시)와 거울(미도시)이 추가로 배치될 수도 있다. 또한, 제2 카메라(121b) 인접하게 다른 카메라를 더 설치하여 3차원 입체 영상의 촬영을 위해 사용할 수도 있다.Thesecond camera 121b has a photographing direction substantially opposite to that of thefirst camera 121a, and may have pixels different from those of thefirst camera 121a. A flash (not shown) and a mirror (not shown) may be additionally disposed adjacent to thesecond camera 121b. In addition, another camera may be installed adjacent to thesecond camera 121b to use it for shooting a three-dimensional stereoscopic image.

플래쉬는 제2 카메라(121b)로 피사체를 촬영하는 경우에 상기 피사체를 향해 빛을 비추게 된다. 거울은 사용자가 제2 카메라(121b)를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.The flash illuminates the subject when the subject is photographed by thesecond camera 121b. The mirror enables the user to illuminate the user's own face or the like when the user intends to photograph (self-photograph) himself / herself using thesecond camera 121b.

리어 케이스(100-2)에는 제2 음향출력 모듈(미도시)가 추가로 배치될 수도 있다. 제2 음향출력 모듈은 제1 음향출력 모듈(153a)와 함께 스테레오 기능을 구현할 수 있으며, 스피커폰 모드로 통화를 위해 사용될 수도 있다.A second sound output module (not shown) may be further disposed in the rear case 100-2. The second sound output module may implement the stereo function together with the firstsound output module 153a, and may be used for talking in the speakerphone mode.

인터페이스부(170)는 외부 기기와 데이터가 교환되는 통로로 사용될 수 있다. 그리고, 프론트 케이스(100-1) 및 리어 케이스(100-2)의 일 영역에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(미도시)가 배치될 수 있다. 안테나는 리어 케이스(100-2)에서 인출 가능하게 설치될 수 있다.Theinterface unit 170 can be used as a path for exchanging data with an external device. An antenna for receiving broadcast signals (not shown) may be disposed in one area of the front case 100-1 and the rear case 100-2 in addition to the antenna for communication. The antenna may be installed to be capable of being drawn out from the rear case 100-2.

리어 케이스(100-2) 측에는 휴대 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착될 수 있다. 전원공급부(190)는, 예를 들어 충전 가능한 배터리로서, 충전 등을 위하여 리어 케이스(100-2)에 착탈 가능하게 결합될 수 있다.Apower supply unit 190 for supplying power to theportable terminal 100 may be mounted on the rear case 100-2. Thepower supply unit 190 may be a rechargeable battery, for example, and may be detachably coupled to the rear case 100-2 for charging or the like.

한편, 본 실시 예에서, 제2 카메라(121b) 등이 리어 케이스(100-2)에 배치되는 것으로 설명하였으나, 반드시 이에 제한되는 것은 아니다.On the other hand, in the present embodiment, thesecond camera 121b and the like are disposed in the rear case 100-2, but the present invention is not limited thereto.

또한, 제2 카메라(121b)가 별도로 구비되지 않더라도, 제1 카메라(121a)를 회전 가능하게 형성되어 제2 카메라(121b)의 촬영 방향까지 촬영 가능하도록 구성될 수도 있다.Also, thefirst camera 121a may be rotatably formed so that thesecond camera 121b can be photographed up to the photographing direction, even if thesecond camera 121b is not separately provided.

도 4는 본 발명의 일실시예에 따른 휴대 단말기의 동작 방법이 도시된 순서도이고, 도 5 내지 도 14는 본 발명에 따른 휴대 단말기의 동작 방법의 다양한 실시예를 설명하기 위해 참조되는 도면이다.FIG. 4 is a flowchart illustrating an operation method of a mobile terminal according to an embodiment of the present invention, and FIGS. 5 to 14 are referred to for illustrating various embodiments of a method of operating the mobile terminal according to the present invention.

도면들을 참조하면, 소셜 네트워크 서비스 또는 문자 메시지 서비스 또는 멀티미디어 메시지 서비스 등 메시지 서비스의 실행(S410)에 따라, 메시지 입력창을 디스플레이부(151)에 표시할 수 있다.(S420)Referring to the drawings, a message input window may be displayed on thedisplay unit 151 according to the execution of a message service such as a social network service, a text message service, or a multimedia message service (S410).

또는, 특정 메시지 서비스의 실행 없이, 메시지 입력창을 디스플레이부(151)에 표시할 수 있다.(S420)Alternatively, the message input window may be displayed on thedisplay unit 151 without executing the specific message service (S420)

이 경우에, 사용자는 메시지를 입력한 후, 이메일(e-mail), 메모(memo), 소셜 네트워크 서비스, 문자 메시지 서비스, 멀티미디어 메시지 서비스 등 입력된 메시지의 이용 형태를 결정할 수 있다.In this case, after inputting the message, the user can determine the usage form of the inputted message such as e-mail, memo, social network service, text messaging service, multimedia message service and the like.

이모티콘(Emoticon)은, 감정(Emotion)과 아이콘(Icon)의 합성어로써, 문자와 기호, 숫자 등을 조합하여 여러 가지 감정을 표현한 것이다.Emoticon is a combination of Emotion and Icon. It is a combination of letters, symbols, and numbers to express various emotions.

한편, 소셜 네트워크 서비스, 채팅 서비스, 메시지 서비스의 이용 증가에 따라, 이모티콘은 단순한 문자, 기호, 숫자의 조합 외에도, 그림, 캐릭터, 애니메이션 등 이미지를 이용하여 더욱 다양하게 감정 및 상태를 나타내는 표현 입력 수단으로 이용되고 있으며, 그 종류와 수가 크게 증가하고 있다.Meanwhile, as the use of social network services, chat services, and message services is increasing, emoticons can be displayed in a variety of forms such as a picture, a character, an animation, etc., And their types and numbers are increasing.

하지만, 이러한 이모티콘 입력을 위해서 사용자는 많은 단계를 거쳐야하는 불편함이 있다. 다양한 SNS를 이용하는 사용자 증가하고 있고, 단순한 텍스트(Text) 전송보다는 감정을 표현할 수 있는 이모티콘 사용이 증가하고 있으나, 이모티콘 선택 및 전송 방법이 간단하지 않다.However, there are inconveniences that the user has to go through many steps in order to input such emoticons. The number of users using various SNSs is increasing, and the use of emoticons that express emotions rather than simple text transmission is increasing, but the method of selecting and transmitting emoticons is not simple.

도 5는 소정 소셜 네트워크 서비스를 이용하면서, 이모티콘을 전송하는 과정의 일예를 도시한 것이다.FIG. 5 shows an example of a process of transmitting emoticons while using a predetermined social network service.

도 5를 참조하면, 소셜 네트워크 서비스, 메시지 서비스 등을 실행한 상태에서 이모티콘 입력을 원할 경우에, 사용자는 먼저 이모티콘 입력 아이콘(510)을 선택해야 한다. 또한, 사용자는 많은 이모티콘 중 입력하고자 하는 이모티콘을 검색하고 선택해야 한다.Referring to FIG. 5, when the user desires to input an emoticon while executing a social network service, a message service, or the like, the user must first select theemoticon input icon 510. In addition, the user must search for and select emoticons to input among many emoticons.

한편, 입력 가능한 이모티콘들은 이모티콘 제공자, 감정, 상태 등 소정 기준에 따라 분류되어 사용자의 이용에 도움을 줄 수 있다. 도 5의 예에서는 이모티콘들이 복수의 그룹으로 분류되고, 사용자는 탭 메뉴(520)를 통하여 소정 이모티콘 그룹을 선택할 수 있다.On the other hand, emoticons that can be input are classified according to predetermined criteria such as emoticon provider, emotion, and status, and can help the user. In the example of FIG. 5, the emoticons are classified into a plurality of groups, and the user can select a predetermined emoticon group through thetab menu 520.

사용자가 탭 메뉴(520) 중 어느 하나(521)를 선택하면, 선택된 항목에 포함되는 이모티콘들(530)이 화면에 표시된다. 이모티콘들(530)의 수가 많은 경우에는 스크롤(scroll) 등으로 한 화면에 표시되지 않는 이모티콘들을 확인하고 선택할 수 있다.When the user selects one of thetab menus 520, theemoticons 530 included in the selected item are displayed on the screen. When the number ofemoticons 530 is large, it is possible to check and select emoticons which are not displayed on a screen by scrolling or the like.

이후, 사용자가 입력하고자 하는 이모티콘(531)을 선택하면, 선택된 이모티콘이 메시지 입력창(540)에 표시되고, 사용자의 전송 명령(550)에 따라 선택된 이모티콘을 상대방 측에 전송하고, 전송 결과(560)를 디스플레이부(151)에 표시할 수 있다.Thereafter, when the user selects theemoticon 531 to be input, the selected emoticon is displayed in themessage input window 540, and the emoticon selected in accordance with thetransmission instruction 550 of the user is transmitted to the counterpart side. Can be displayed on thedisplay unit 151. [

한편, 도 5에서는 선택된 항목(521)에 포함되는 이모티콘들(530)이 선택 및 전송된 상태에서도 도시되어 있으나, 이는 설명의 편의를 위한 것으로, 사용자의 선택 또는 이모티콘의 전송 후에 이모티콘들(530)의 표시를 종료할 수 있다.5, although theemoticones 530 included in the selecteditem 521 are selected and transmitted, theemoticones 530 are displayed for convenience of explanation. After the selection of the user or transmission of the emoticon, Can be ended.

한편, 도 5를 참조하여 설명한 이모티콘을 전송하는 과정과 같이, 사용자는 이모티콘을 전송하기 위해서, 5단계 이상의 동작을 수행해야 하는 불편함이 있다.Meanwhile, as in the case of transmitting the emoticon described with reference to FIG. 5, the user has to perform an operation of five or more steps in order to transmit the emoticon.

따라서, 본 발명은 이모티콘을 더욱 빠르고 편리하게 입력할 수 있는 방법을제공하고자 한다.Therefore, the present invention aims to provide a method for inputting emoticons more quickly and conveniently.

본 발명의 실시예에 따른 휴대 단말기(100)는 센싱부(140)를 통하여 사용자의 모션(motion) 입력을 감지할 수 있다.(S430) 특히, 모션 입력 감지 단계(S430)는, 가속도 센서, 자이로 센서, 압력 센서 중 적어도 하나를 구비하는 센싱부(140)를 통하여 상기 모션 입력을 감지할 수 있다.Themobile terminal 100 according to the exemplary embodiment of the present invention may sense a user's motion input through thesensing unit 140. In operation S430, A gyro sensor, and a pressure sensor. Thesensing unit 140 may sense the motion input.

또한, 휴대 단말기(100)는 센싱부(140) 또는 터치 스크린 디스플레이부(151)를 통하여 터치 입력을 감지할 수 있다.In addition, theportable terminal 100 may sense the touch input through thesensing unit 140 or the touchscreen display unit 151. [

한편, 제어부(180)는 상기 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘(Emoticon) 데이터 중에서, 상기 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별할 수 있다.(S440)On the other hand, thecontroller 180 determines one or more emoticons corresponding to the sensed motion input from the previously stored emoticon data based on at least one of the type, the input time, and the input intensity of the sensed motion input (S440)

저장부(160)에는 상기 감지한 모션 입력의 종류, 입력 시간, 입력 강도에 따라 매칭되는 이모티콘이 저장되어 있고, 데이터는 이모티콘 테이블 형태로 저장되고, 관리될 수 있다.In thestorage unit 160, emoticons matched according to the type, the input time, and the input intensity of the detected motion input are stored, and the data can be stored and managed in the form of an emoticon table.

이모티콘 테이블은, 사용자의 다양한 감정 상태를 데이터로 수치화하여 감정 상태를 판단하기 위한 모션 입력의 종류, 강도, 방향들의 기준값 정보를 포함할 수 있다. 또한, 이모티콘 테이블은, 해당 기준값을 만족하는 경우에 대응하는 이모티콘들을 연계하여 저장할 수 있다. 또한, 이모티콘 테이블은, 이모티콘과 연관된 진동 효과, 음향 효과 등 다양한 효과를 출력할 수 있도록, 효과 관련 데이터를 포함할 수 있다.The emoticon table may include reference value information of types, strengths, and directions of motion inputs for digitizing the various emotional states of the user into data to determine the emotional state. In addition, the emoticon table can associate and store emoticon corresponding to the corresponding reference value. In addition, the emoticons table may include effect-related data so as to output various effects such as a vibration effect and a sound effect associated with the emoticons.

제어부(180)는, 이모티콘 테이블 호출하여, 모션 입력에 대응하는 이모티콘을 판별할 수 있고, 부가 가능한 효과 정보를 판별할 수 있다. 한편, 각 테이블은, 다른 전자기기와의 호환을 위해, 표준화된 테이블일 수 있다. 또한, 서로 다른 규격의 테이블일 경우, 이를 변환하는 것도 가능하다. 예를 들어, 네트워크 등을 통하여 수신되는 테이블을 변환하여, 이를 저장부(160)에 저장하는 것도 가능하다.Thecontrol unit 180 can identify the emoticon corresponding to the motion input by calling the emoticon table, and can determine the effect information that can be added. On the other hand, each table may be a standardized table for compatibility with other electronic devices. In the case of tables of different standards, it is also possible to convert them. For example, it is also possible to convert a table received through a network and store it in thestorage unit 160.

제어부(180)는 감지된 모션 입력을 분석하고, 모션 입력과 가장 유사한 감정 상태의 이모티콘을 검색할 수 있다. 예를 들어, 사용자의 모션을 분석하여, 놀람,기쁨, 우울, 슬픔 등 사용자의 감정 상태를 판별할 수 있고, 판별한 감정 상태에 대응하는 이모티콘 중 적어도 하나를 사용자에게 제공할 수 있다.Thecontrol unit 180 may analyze the detected motion input and search for the emoticon of the emotion state most similar to the motion input. For example, the user's motion can be analyzed to determine the user's emotional state such as alarm, joy, depression, sadness, and at least one of the emoticon corresponding to the determined emotional state can be provided to the user.

따라서, 본 발명의 실시예에 따른 휴대 단말기(100)는 센싱부(140) 등을 통하여 사용자의 모션(motion) 입력을 감지하고, 상기 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘(Emoticon) 데이터 중에서, 상기 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별할 수 있다.Accordingly, theportable terminal 100 according to the embodiment of the present invention senses a motion input of the user through thesensing unit 140, and detects at least one of the type, input time, and input intensity of the sensed motion input , It is possible to identify one or more emoticons corresponding to the sensed motion input from the previously stored emoticon data.

이후, 상기 판별한 이모티콘을 디스플레이부(151)의 상기 메시지 입력창에 표시할 수 있다.(S450) 이에 따라, 본 발명은 더욱 빠르고 간단하게 이모티콘을 입력할 수 있어, 사용자의 편의성을 향상시킬 수 있다.The emoticon can be displayed on the message input window of the display unit 151 (S450). The present invention can input the emoticon more quickly and easily, thereby improving the user's convenience. have.

도 6a 내지 도 6c를 참조하면, 소셜 네트워크 서비스 또는 문자 메시지 서비스 또는 멀티미디어 메시지 서비스의 실행에 따라, 디스플레이부(151)에는 메시지 입력창 이모티콘 입력 아이콘(620), 전송 메뉴(630), 송신하거나 수신한 메시지가 표시되는 메시지 화면(640)을 표시할 수 있다. 6A to 6C, according to the execution of the social network service, the text message service or the multimedia message service, thedisplay unit 151 displays a message input windowemoticon input icon 620, atransmission menu 630, Amessage screen 640 on which a message is displayed can be displayed.

사용자는 이모티콘 입력 아이콘(620)을 선택함으로써, 통상적인 방법에 따라 이모티콘을 입력할 수 있다.By selecting theemoticon input icon 620, the user can input the emoticon according to a conventional method.

또는, 제어부(180)는 센싱부(140) 등을 통하여 사용자의 모션(motion) 입력을 판별할 수 있고, 사용자는 모션 입력의 한 단계 동작을 통하여 이모티콘을 입력할 수 있다.Alternatively, thecontrol unit 180 may determine the motion input of the user through thesensing unit 140 or the like, and the user may input the emoticon through one step of the motion input.

예를 들어, 도 6b와 같이, 사용자가 휴대 단말기(100)를 때리는 동작(650)을 하면, 모션 센서(145)는 가속도 센서, 자이로 센서 등을 이용하여 동작(650)에 따른 휴대 단말기(100)의 위치나 움직임 변화 등을 감지할 수 있다. 특히, 가속도 센서는, 손의 미세한 동작을 인식하여 게임 등의 입력 수단으로 사용하는 미세한 값의 가속도를 측정할 수 있다.6B, when the user performs anoperation 650 to hit theportable terminal 100, themotion sensor 145 detects the movement of theportable terminal 100 according to theoperation 650 using an acceleration sensor, a gyro sensor, ), And the like. Particularly, the acceleration sensor recognizes the minute motion of the hand and can measure the acceleration of a minute value used as an input means of a game or the like.

상기 이모티콘 판별 단계(S440)에서 상기 제어부(180)는, 상기 모션 입력의 회전 방향, 횟수, 가속도 변화, 그립(grip) 압력 변화에 매칭되는 이모티콘을 판별할 수 있다.In the emoticon discrimination step S440, thecontroller 180 can discriminate the emoticon matching the rotation direction, the number of times, the acceleration change, and the grip pressure change of the motion input.

예를 들어, 제어부(180)는, 모션 입력 시간은 짧고, 휴대 단말기(100)의 위치나 움직임 변화가 1회 이루어진 경우, 사용자의 모션 입력을 휴대 단말기(100)를 때리는 동작(650)으로 판별할 수 있다.For example, when the motion input time is short and the position and the movement of theportable terminal 100 are changed once, thecontroller 180 determines that the motion input of the user is anoperation 650 to hit theportable terminal 100 can do.

또한, 사용자의 터치(touch) 여부도 동작 판별에 참고할 수 있다. 상기 모션 입력 감지 단계(S430)는, 디스플레이부(151)틀 통하여 입력되는 터치 입력 여부, 터치 입력의 강도 및 유지시간을 감지할 수 있을 뿐만 아니라, 터치 면적 및 모양을 감지할 수 있다.Also, whether or not the user touches can be referred to in the operation determination. The motion input sensing step (S430) can detect whether the touch input is inputted through thedisplay unit 151, the intensity and the holding time of the touch input, and can also detect the touch area and the shape.

한편, 도 6c를 참고하면, 상기 제어부(180)는 기저장된 이모티콘 중 판별한 동작(650)에 대응하는 이모티콘(531)을 메시지 입력창(610)에 표시하도록 제어할 수 있다. 이에 따라, 도 5를 참조하여 설명한 것과 같이 5단계 이상의 동작으로 입력했던 이모티콘을 동작 한번으로 입력할 수 있다.6C, thecontroller 180 can control theemoticon 531 corresponding to the discriminatedoperation 650 among the emoticons stored in themessage input window 610 to be displayed. Accordingly, as described with reference to FIG. 5, the emoticon that has been input by the operation of five or more steps can be inputted by one operation.

이후, 본 발명의 일실시예에 따른 휴대 단말기의 동작 방법은, 전송 명령을 수신하는 단계(S460)와 상기 이모티콘에 기초한 데이터를 수신측 단말기 또는 서비스 서버에 전송하는 단계(S470)를 더 포함할 수 있다.Hereinafter, an operation method of the mobile terminal according to an embodiment of the present invention may further include a step of receiving a transmission command (S460) and transmitting the data based on the emoticon to a receiving terminal or a service server (S470) .

사용자는 메시지 입력창에 표시된 이모티콘이 자신이 입력하려는 이모티콘이 맞으면, 전송하도록 전송 명령을 입력할 수 있다. 사용자의 전송 명령에 따라 휴대 단말기(100)는 수신측 단말기 또는 서비스 서버로 상기 이모티콘에 기초한 데이터를 전송할 수 있다.The user can input a transmission command to transmit the emoticon displayed in the message input window if the emoticon to be inputted is correct. Theportable terminal 100 can transmit data based on the emoticon to the receiving terminal or the service server according to the transmission instruction of the user.

또는, 실시예에 따라서는 판별한 이모티콘을 사용자의 명령 없이 자동 전송할 수도 있다.Alternatively, the emoticon determined according to the embodiment may be automatically transmitted without the user's instruction.

한편, 휴대 단말기(100)는 선택된 이모티콘 데이터 자체를 전송하거나, 수신측 단말기가 선택된 이모티콘과 동일하거나 가장 유사한 이모티콘을 출력할 수 있도록 관련 정보를 포함한 데이터를 전송할 수 있다.Meanwhile, theportable terminal 100 may transmit the selected emoticon data itself, or may transmit data including the related information so that the receiving terminal can output emoticon which is the same as or similar to the selected emoticon.

또한, 상기 전송 단계(S470)는, 상기 이모티콘과 연관된 진동 효과, 음향 효과 발생을 위한 데이터를 더 전송하는 것을 특징으로 할 수 있다In addition, the transmitting step (S470) may further transmit data for generating a vibration effect and a sound effect associated with the emoticon

수신측 단말은 직접 수신하거나 서비스 제공자를 통하여 수신한 데이터에 기초하여 이모티콘을 표시할 수 있을 뿐만 아니라, 진동 또는 오디오 효과를 출력할 수 있다.The receiving terminal can not only display the emoticons based on data received directly via the service provider, but also can output vibration or audio effects.

한편, 본 발명의 일실시예에 따른 휴대 단말기의 동작 방법은, 사용자의 모션 입력에 대응하는 이모티콘이 여러 개 존재하는 경우, 해당하는 이모티콘을 표시한 후에, 입력되는 사용자의 명령에 기초하여, 상기 표시된 이모티콘 중 적어도 하나를 선택하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method of operating a mobile terminal, the method comprising: displaying a corresponding emoticon when a plurality of emoticons corresponding to a user's motion input are present; And selecting at least one of the displayed emoticons.

한편, 실시예에 따라서는, 상기 메시지 입력창이 표시되는 경우 또는 소셜 네트워크 서비스, 메시지 서비스 등 관련 기능이 실행되는 경우에, 상기 모션 입력 감지를 위한 센싱부를 활성화하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the method may further include activating a sensing unit for sensing the motion input when the message input window is displayed or a related function such as a social network service or a message service is executed.

즉, 통상적인 사용 환경에서는 센싱부 중 적어도 일부 센서를 오프(off)하거나, 최소한의 동작만을 동작시키다가, 필요한 경우에, 사용자의 모션 입력 감지에 필요한 센서, 기능을 활성화함으로써, 전원을 효율적으로 관리할 수 있다.That is, in a normal use environment, at least some of the sensors in the sensing unit are turned off, only the minimum operation is performed, and when necessary, the sensors and functions necessary for sensing the motion input of the user are activated, Can be managed.

한편 제어부(180)는, 상기 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘 데이터 중에서, 상기 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별할 수 있다. 또한, 제어부(180)는, 상기 모션 입력의 이동 방향, 회전 방향, 횟수, 가속도 변화, 그립(grip) 압력 변화에 매칭되는 이모티콘을 선택할 수 있다.On the other hand, thecontrol unit 180 may discriminate one or more emoticons corresponding to the sensed motion input from the stored emoticon data based on at least one of the type, input time, and input intensity of the sensed motion input. In addition, thecontroller 180 may select emoticons matched with the movement direction, the rotation direction, the number of times, the acceleration change, and the grip pressure change of the motion input.

도 7a 내지 도 11b는, 본 발명의 실시예에 따른 모션 입력 및 상기 모션 입력에 대응하여 판별된 후, 전송되는 이모티콘의 다양한 예들을 도시한 것이다.FIGS. 7A and 11B show various examples of the emoticon transmitted after being discriminated according to the motion input and the motion input according to the embodiment of the present invention.

이모티콘은 감정을 표현하는 이미지, 문자, 숫자, 기호 또는 그 조합이므로, 사용자의 감정을 표현하는 모션(motion)을 매칭할 수 있다.The emoticon is an image, a letter, a number, a symbol, or a combination thereof expressing emotions, so that a motion representing a user's emotions can be matched.

예를 들어, 도 7a와 도 7b를 참조하면, 사용자가 고개를 끄덕이듯이 휴대 단말기(100)를 움직이면, 오케이 등 승낙, 동의를 나타내는 이모티콘을 선택하고 전송할 수 있다. 이 경우에, 센싱부(140)는 휴대 단말기의 상하 방향의 회전 및 각도 등을 센싱할 수 있고, 제어부(180)는 사용자가 휴대 단말기(100)를 끄덕이는 동작 및 대응하는 이모티콘을 결정할 수 있다.For example, referring to FIGS. 7A and 7B, when the user moves theportable terminal 100 like a nod, the user can select and transmit an emoticon indicating acceptance or consent. In this case, thesensing unit 140 may sense the rotation and the angle of the portable terminal in the up-and-down direction, and thecontroller 180 may determine the operation of nodding theportable terminal 100 and the corresponding emoticon have.

도 8a와 도 8b를 참조하면, 사용자가 고개를 가로 젓듯이 휴대 단말기(100)를 움직이면, 거절을 나타내는 이모티콘을 선택하고 전송할 수 있다. 이 경우에, 센싱부(140)는 휴대 단말기의 좌우 방향의 회전 및 각도 등을 센싱할 수 있고, 제어부(180)는 사용자의 모션 입력 및 대응하는 이모티콘을 결정할 수 있다.Referring to FIGS. 8A and 8B, when the user moves theportable terminal 100 in such a manner that the user stands on the head, the emoticon indicating rejection can be selected and transmitted. In this case, thesensing unit 140 can sense the rotation and the angle of the portable terminal in the horizontal direction, and thecontroller 180 can determine the user's motion input and the corresponding emoticon.

도 9a와 도 9b를 참조하면, 사용자가 당황하여 혼미한 정신을 표현하는 것처럼 휴대 단말기(100)를 움직이면, 제어부(180)는 혼란스럽거나 당황스러운 감정 상태를 나타내는 이모티콘을 선택하고 전송하도록 제어할 수 있다.Referring to FIGS. 9A and 9B, when the user moves theportable terminal 100 as if to express a confused spirit, thecontrol unit 180 can control to select and transmit emoticon indicating confused or embarrassed emotional states have.

제어부(180)는 동일하지 않은 방향으로 회전하는 다수의 회전 모션을 감지하면, 당황스러운 감정 상태를 나타내는 이모티콘을 선택하고 전송하도록 제어할 수 있다.When thecontrol unit 180 detects a plurality of revolving motions rotating in the same direction, it is possible to control to select and transmit the emoticon indicating the embarrassed emotional state.

도 10a와 도 10b를 참조하면, 사용자가 휴대 단말기(100)의 특정 부위를 꽉 움켜쥐면, 제어부(180)는 분노의 감정 상태를 나타내는 이모티콘을 선택하고 전송하도록 제어할 수 있다.Referring to FIGS. 10A and 10B, when the user grasps a specific portion of theportable terminal 100, thecontroller 180 may control the emoticon indicating the emotional state of the anger to be selected and transmitted.

압력센서(143)는 휴대 단말기(100)에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. 따라서, 검출된 압력의 크기가 일정 이상인 경우에만 소정 동작이 수행되도록 설정함으로써, 대응 동작을 빠르게 수행하면서도 오동작을 방지할 수 있다.Thepressure sensor 143 can detect whether the pressure is applied to theportable terminal 100, the magnitude of the pressure, and the like. Therefore, by setting the predetermined operation to be performed only when the magnitude of the detected pressure is equal to or greater than a predetermined value, a malfunction can be prevented while quickly performing the corresponding operation.

한편, 압력센서(143)는 사용환경에 따라 휴대 단말기(100)에서 압력의 검출이 필요한 부위에 설치될 수 있다. 압력센서(143)는 휴대 단말기(100)의 테두리 부분에 배치될 수 있다. 또는, 휴대 단말기(100)의 테두리 중 사용자가 휴대 단말기(100)를 파지하기 위하여 잡을 가능성이 큰 좌,우 측면에 배치될 수 있다. 또는, 휴대 단말기(100)의 측면 중 일면에 배치될 수 있다. 또는, 압력센서(143)는 측면의 일부 영역, 예를 들어, 하단 영역에 배치될 수 있다.On the other hand, thepressure sensor 143 may be installed in a part where the pressure of theportable terminal 100 is required according to the use environment. Thepressure sensor 143 may be disposed at a rim portion of theportable terminal 100. Or may be disposed on the left and right sides of the edge of theportable terminal 100 where the user is likely to catch theportable terminal 100 in order to grasp it. Or may be disposed on one side of the side surface of theportable terminal 100. Alternatively, thepressure sensor 143 may be disposed in a partial area of the side surface, for example, the bottom area.

제어부(180)는 압력 센서(143)를 통하여 소정 기준치 이상의 압력이 감지되거나 압력의 증가율이 기준치 이상인 경우에, 사용자의 감정 상태가 화난 상태인 것으로 판정하고, 대응하는 이모티콘을 선택할 수 있다. 또한, 수신측 단말이 진동 효과 등을 출력하도록 효과 관련 데이터를 전송할 수 있다.Thecontrol unit 180 can determine that the user's emotional state is an angry state and select the corresponding emoticon when the pressure detected by thepressure sensor 143 exceeds a predetermined reference value or the rate of pressure increase is equal to or higher than the reference value. Further, the effect-related data can be transmitted so that the receiving-side terminal outputs a vibration effect or the like.

도 11a와 도 11b를 참조하면, 사용자가 휴대 단말기(100)의 특정 부위, 특히 디스플레이부(100)에 입을 접촉하면, 제어부(180)는 접촉된 면적 및 모양을 판별하여 입맞춤이나 애정 표현과 연관된 이모티콘을 선택하고 전송하도록 제어할 수 있다. 또한, 수신측 단말이 음향 효과 등을 출력하도록 효과 관련 데이터를 전송할 수 있다.11A and 11B, when a user touches a specific portion of theportable terminal 100, particularly, thedisplay portion 100, thecontroller 180 determines the contact area and the shape of the contact portion, You can control to select and send emoticons. Further, the receiving-side terminal can transmit effect-related data so as to output a sound effect or the like.

한편, 본 발명의 일실시예에 따른 휴대 단말기의 동작 방법은, 사용자의 모션 입력에 대응하는 이모티콘이 여러 개 존재하는 경우, 해당하는 이모티콘을 표시한 후에, 입력되는 사용자의 명령에 기초하여, 상기 표시된 이모티콘 중 적어도 하나를 선택하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method of operating a mobile terminal, the method comprising: displaying a corresponding emoticon when a plurality of emoticons corresponding to a user's motion input are present; And selecting at least one of the displayed emoticons.

도 12를 참조하면, 사용자의 모션 입력에 대응하는 복수의 이모티콘들(1211, 1212)이 메시지 입력창(1210)에 표시될 수 있다. 사용자는 표시된 복수의 이모티콘들(1211, 1212) 전부를 전송하거나, 일부 이모티콘을 선택하여 전송할 수 있다.Referring to FIG. 12, a plurality ofemoticons 1211 and 1212 corresponding to a user's motion input may be displayed in themessage input window 1210. The user may transmit all of the plurality of displayedemoticons 1211 and 1212, or may select and transmit some emoticons.

도 13의 (a)는 메시지 입력창(1310)에 사용자의 모션 입력에 대응하는 복수의 이모티콘들(1311, 1312)이 표시되고, 복수의 이모티콘들(1311, 1312)은 각각 삭제 메뉴를 포함하는 예를 도시한 것이다. 사용자는 삭제 메뉴를 터치함으로써 대응하는 이모티콘을 삭제할 수 있다.13A shows a plurality ofemoticons 1311 and 1312 corresponding to a user's motion input in amessage input window 1310 and a plurality ofemoticons 1311 and 1312 each include a delete menu FIG. The user can delete the corresponding emoticon by touching the delete menu.

도 13의 (b)는 메시지 입력창(1320)이 아닌 다른 영역에 사용자의 모션 입력에 대응하는 복수의 이모티콘들(1321, 1322)이 표시되는 예를 도시한 것이다. 사용자가 복수의 이모티콘들(1321, 1322) 중 전송할 이모티콘을 선택하면, 메시지 입력창(1320)에 선택된 이모티콘이 표시될 수 있다.13B shows an example in which a plurality ofemoticons 1321 and 1322 corresponding to a user's motion input are displayed in an area other than themessage input window 1320. [ When the user selects an emoticon to be transmitted among the plurality ofemoticons 1321 and 1322, the emoticon selected in themessage input window 1320 can be displayed.

한편, 상기 이모티콘 표시 단계(S450)는, 상기 감지한 모션 입력의 입력 시간, 입력 강도 중 적어도 하나에 비례하여 크기 또는 갯수를 상이하게 표시하는 것을 특징으로 할 수 있다.Meanwhile, the emoticon display step (S450) may display the size or the number in proportion to at least one of the input time and the input intensity of the sensed motion input.

도 14의 (a)를 참조하면, 터치 입력 등 사용자의 다양한 모션 입력 시간에 비례하여 시간이 길어질수록 동일한 이모티콘의 입력 개수를 증가시킬 수 있다.Referring to FIG. 14 (a), the input number of the same emoticon can be increased as the time increases in proportion to various motion input times of a user such as a touch input.

도 14의 (b)를 참조하면, 터치 입력 등 사용자의 다양한 모션 입력 시간에 비례하여 시간이 길어질수록 동일한 이모티콘의 표시 크기를 증가시킬 수 있다.Referring to (b) of FIG. 14, the display size of the same emoticon can be increased as the time increases in proportion to the user's various motion input times such as touch input.

도 15는 본 발명의 일실시예에 따른 휴대 단말기의 블럭도이다. 더욱 자세히는 도 1의 제어부(180)의 일예(180a)를 상세히 도시한 것이다.15 is a block diagram of a portable terminal according to an embodiment of the present invention. More specifically, an example 180a of thecontrol unit 180 of FIG. 1 is shown in detail.

도 15를 참조하면, 제어부(180a)는 입력 판단부(1510), 입력 처리부(1520), 이모티콘 처리부(1530), 음향 효과 처리부(1540), 진동 효과 처리부(1550)를 포함할 수 있다.15, thecontrol unit 180a may include aninput determination unit 1510, aninput processing unit 1520, anemoticon processing unit 1530, a soundeffect processing unit 1540, and a vibrationeffect processing unit 1550.

이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 제어부(180a) 외부에 별도로 구비될 수 있다.When such components are implemented in practical applications, two or more components may be combined into one component, or one component may be divided into two or more components as necessary. Further, thecontrol unit 180a may be provided separately.

상기 입력 판단부(1510)는 사용자의 행동을 각 입력 수단에서의 입력 여부를 판단할 수 있다. 예를 들어, 센싱부(140), 디스플레이부(151)를 통하여 사용자의 모션 입력, 터치 입력 등이 있는지 판단할 수 있다. 또한, 카메라(121)로부터의 획득하는 영상 데이터를 입력받을 수도 있다.Theinput determination unit 1510 can determine whether a user's action is input by each input means. For example, thesensing unit 140 and thedisplay unit 151 may determine whether a user has a motion input or a touch input. In addition, image data to be acquired from thecamera 121 may be input.

제어부(180a)는 소셜 네트워크 서비스, 메시지 서비스 등의 실행에 따라, 모션 입력 감지를 위하여 센싱부(140)를 활성화할 수 있다.Thecontrol unit 180a may activate thesensing unit 140 to sense motion input according to execution of a social network service, a message service, and the like.

한편, 상기 입력 판단부(1510)는 입력 종류에 따라 동작하는 구성요소들을 포함할 수 있다. 예를 들어, 상기 입력 판단부(1510)는 터치 입력 판단부(1511), 그립(grip) 입력 판단부(1512), 모션 입력 판단부(1513)를 포함할 수 있다.Meanwhile, theinput determination unit 1510 may include elements that operate according to the input type. For example, theinput determination unit 1510 may include a touchinput determination unit 1511, a gripinput determination unit 1512, and a motioninput determination unit 1513.

모션 이벤트가 발생하면 센싱된 로우 데이터(raw data)는 필터링 되고 보정되어 입력 처리부(1520)로 전달될 수 있다.When a motion event occurs, the sensed raw data may be filtered, corrected, and transmitted to theinput processing unit 1520.

입력 처리부(1520)는 다양한 효과를 위해 입력시간 및 입력세기(강도)를 판단할 수 있고, 입력시간 처리부(1521)와 입력강도 처리부(1522)를 포함할 수 있다.Theinput processing unit 1520 can determine the input time and the input intensity (intensity) for various effects, and can include the inputtime processing unit 1521 and the inputintensity processing unit 1522.

이모티콘 처리부(1530)는 메모리(160)를 검색하여 모션 입력에 대응하는 이모티콘을 선정하는 이모티콘 종류 선정부(1531)와 다양한 효과를 위해 이모티콘 숫자 및 이모티콘 크기를 판단하는 이모티콘 숫자/크기 연산부(1532)를 포함할 수 있다.Theemoticon processing unit 1530 includes an emoticon type selection unit 1531 for selecting the emoticon corresponding to the motion input by searching thememory 160 and an emoticon number /size calculation unit 1532 for determining the emoticon number and emoticon size for various effects. . ≪ / RTI >

입력 처리부(1520)는 모션들을 인지하여 각 모션들을 대표 값으로 변환할 수 있다. 제스처를 인지하는 알고리즘이 사용되며 각 대표 값들의 수는 이모티콘의 수와 일치할 수 있다. 또는 각 대표 값은 복수의 이모티콘에 대응할 수 있다.Theinput processing unit 1520 can recognize the motions and convert each motion into a representative value. A gesture aware algorithm is used and the number of each representative value can match the number of emoticons. Alternatively, each representative value may correspond to a plurality of emoticons.

이모티콘 처리부(1530)는 각 대표 값들과 그에 해당하는 각 이모티콘을 일대일로 매핑하거나, 소정 조건을 만족하는 복수의 이모티콘을 선정할 수 있다.Theemoticon processing unit 1530 may map each representative value and each corresponding emoticon to one-to-one mapping, or may select a plurality of emoticons satisfying a predetermined condition.

한편, 음향 효과 처리부(1540)는 해당하는 음향효과를 선정하는 음향 효과 선택부(1541)와 다양한 효과를 위해 시간 및 크기를 판단하는 음향 효과 시간/크기 처리부(1542)를 포함할 수 있다.Thesound effect processor 1540 may include a sound effect selector 1541 for selecting a corresponding sound effect and a sound effect time /size processor 1542 for determining time and size for various effects.

또한, 진동 효과 처리부(1550)는 해당하는 진동효과를 선정하는 진동 효과 선택부(1551)와 다양한 효과를 위해 시간/크기를 판단하는 진동 효과 시간/크기 처리부(1552)를 포함할 수 있다.The vibrationeffect processing unit 1550 may include a vibration effect selecting unit 1551 for selecting a corresponding vibration effect and a vibration effect time /size processing unit 1552 for determining a time / size for various effects.

송신측 단말도 음향 출력 모듈(153) 및 햅틱 모듈(1570)을 통하여 효과를 출력할 수 있다.The transmitting terminal can also output the effect through theacoustic output module 153 and the haptic module 1570.

메모리(160)는 모션 입력에 기초한 이모티콘을 판별하기 위한 기준값 정보를 저장할 수 있고, 다양한 이모티콘을 저장할 수 있다.Thememory 160 may store reference value information for discriminating emoticons based on the motion input, and may store various emoticons.

한편, 무선 통신부(110)는 제어부(181a)의 제어에 따라, 결정된 이모티콘에 기초한 데이터를 수신측 단말 또는 서비스 제공자에게 전송할 수 있다.On the other hand, thewireless communication unit 110 can transmit data based on the determined emoticons to the receiving terminal or the service provider under the control of the control unit 181a.

본 발명에 따르면, 휴대 단말기의 진동, 휴대 단말기를 때리는 행위, 상하 회전, 좌우 회전, 꽉 쥐는 행위 등 다양한 모션을 감지하여 그에 맞는 이모티콘을 바로 입력할 수 있다According to the present invention, it is possible to detect various motions such as vibration of the portable terminal, hitting the portable terminal, up / down rotation, left / right rotation, tight gripping,

본 발명의 실시예에 따르면, 더욱 빠르고 편리하게 이모티콘을 입력하고 전송할 수 있어, 사용자의 편의성을 향상시킬 수 있다.According to the embodiment of the present invention, it is possible to input and transmit the emoticons more quickly and conveniently, thereby improving convenience for the user.

본 발명에 따른 휴대 단말기 및 그 동작 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The portable terminal according to the present invention and its operation method are not limited to the configuration and method of the embodiments described above but the embodiments can be applied to all or a part of each embodiment Or may be selectively combined.

한편, 본 발명은 휴대 단말기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the present invention can be implemented as a processor-readable code in a processor-readable recording medium provided in a portable terminal. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium readable by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and also a carrier wave such as transmission over the Internet. In addition, the processor readable recording medium may be distributed over networked computer systems so that code readable by the processor in a distributed manner can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention.

110 : 무선 통신부 120 : A/V 입력부
130 : 사용자 입력부 140 : 센싱부
150 : 출력부 151 : 디스플레이부
160 : 메모리 170 : 인터페이스부
180 : 제어부
110: wireless communication unit 120: A / V input unit
130: user input unit 140: sensing unit
150: output unit 151: display unit
160: memory 170: interface section
180:

Claims (11)

Translated fromKorean
메시지 입력창을 표시하는 단계;
사용자의 모션(motion) 입력을 감지하는 단계;
상기 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘(Emoticon) 데이터 중에서, 상기 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별하는 단계; 및,
상기 판별한 이모티콘을 상기 메시지 입력창에 표시하는 단계;를 포함하는 휴대 단말기의 동작 방법.
Displaying a message input window;
Sensing a user's motion input;
Determining at least one emoticon corresponding to the sensed motion input from previously stored emoticon data based on at least one of the type, the input time, and the input intensity of the sensed motion input; And
And displaying the determined emoticon on the message input window.
제1항에 있어서,
상기 모션 입력 감지 단계는, 가속도 센서, 자이로 센서, 압력 센서 중 적어도 하나를 구비하는 센싱부를 통하여 상기 모션 입력을 감지하는 것을 특징으로 하는 휴대 단말기의 동작 방법.
The method according to claim 1,
Wherein the motion input sensing step senses the motion input through a sensing unit including at least one of an acceleration sensor, a gyro sensor, and a pressure sensor.
제1항에 있어서,
상기 이모티콘 판별 단계는, 상기 모션 입력의 이동 방향, 회전 방향, 횟수, 가속도 변화, 그립(grip) 압력 변화에 매칭되는 이모티콘을 선택하는 것을 특징으로 하는 휴대 단말기의 동작 방법.
The method according to claim 1,
Wherein the emoticon discriminating step selects an emoticon matched with a movement direction, a rotation direction, a number of times, an acceleration change, and a grip pressure change of the motion input.
제1항에 있어서,
상기 이모티콘 표시 단계는, 상기 감지한 모션 입력의 입력 시간, 입력 강도 중 적어도 하나에 비례하여 크기 또는 갯수를 상이하게 표시하는 것을 특징으로 하는 휴대 단말기의 동작 방법.
The method according to claim 1,
Wherein the emoticon display step displays the size or the number of the emoticon differently in proportion to at least one of an input time and an input intensity of the sensed motion input.
제1항에 있어서,
상기 모션 입력 감지 단계는, 디스플레이부틀 통하여 입력되는 터치 입력의 모양을 감지하는 것을 특징으로 하는 휴대 단말기의 동작 방법.
The method according to claim 1,
Wherein the motion input sensing step senses the shape of the touch input input through the display unit.
제1항에 있어서,
상기 표시된 이모티콘 중 적어도 하나를 선택하는 단계;를 더 포함하는 휴대 단말기의 동작 방법.
The method according to claim 1,
And selecting at least one of the displayed emoticons.
제1항에 있어서,
전송 명령을 수신하는 단계;와
상기 이모티콘에 기초한 데이터를 수신측 단말기 또는 서비스 서버에 전송하는 단계;를 더 포함하는 휴대 단말기의 동작 방법.
The method according to claim 1,
Receiving a transmission command;
And transmitting data based on the emoticons to a receiving terminal or a service server.
제7항에 있어서,
상기 전송 단계는, 상기 이모티콘과 연관된 진동 효과, 음향 효과 발생을 위한 데이터를 더 전송하는 것을 특징으로 하는 휴대 단말기의 동작 방법.
8. The method of claim 7,
Wherein the transmitting step further transmits data for generating a vibration effect and a sound effect associated with the emoticon.
제1항에 있어서,
소셜 네트워크 서비스 또는 문자 메시지 서비스 또는 멀티미디어 메시지 서비스를 실행하는 단계;를 더 포함하는 휴대 단말기의 동작 방법.
The method according to claim 1,
Executing a social network service or a text message service or a multimedia message service.
제9항에 있어서,
상기 모션 입력 감지를 위한 센싱부를 활성화하는 단계;를 더 포함하는 휴대 단말기의 동작 방법.
10. The method of claim 9,
And activating a sensing unit for sensing the motion input.
메시지 입력창을 표시하는 디스플레이부;
사용자의 모션(motion) 입력을 감지하는 센싱부;
상기 감지한 모션 입력의 종류, 입력 시간, 입력 강도 중 적어도 하나에 기초하여, 기저장된 이모티콘(Emoticon) 데이터 중에서, 상기 감지한 모션 입력과 대응하는 하나 이상의 이모티콘을 판별하는 제어부;를 포함하고,
상기 제어부는 상기 판별한 이모티콘을 상기 메시지 입력창에 표시하도록 제어하는 것을 특징으로 하는 휴대 단말기.


A display unit for displaying a message input window;
A sensing unit sensing a motion input of the user;
And a controller for discriminating at least one emoticon corresponding to the sensed motion input from previously stored emoticon data based on at least one of the type, the input time, and the input intensity of the sensed motion input,
Wherein the control unit controls the display unit to display the determined emoticons on the message input window.


KR1020120141228A2012-12-062012-12-06Mobil terminal and Operating Method for the SameWithdrawnKR20140073232A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020120141228AKR20140073232A (en)2012-12-062012-12-06Mobil terminal and Operating Method for the Same

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020120141228AKR20140073232A (en)2012-12-062012-12-06Mobil terminal and Operating Method for the Same

Publications (1)

Publication NumberPublication Date
KR20140073232Atrue KR20140073232A (en)2014-06-16

Family

ID=51126833

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020120141228AWithdrawnKR20140073232A (en)2012-12-062012-12-06Mobil terminal and Operating Method for the Same

Country Status (1)

CountryLink
KR (1)KR20140073232A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2016190640A1 (en)*2015-05-222016-12-01삼성전자 주식회사Method for controlling mobile terminal, and mobile terminal
WO2018043998A1 (en)*2016-09-052018-03-08삼성전자 주식회사Electronic device and control method therefor
KR102017857B1 (en)*2018-05-182019-09-03주식회사 카카오Operating method of terminal for displaying tilting emoticon and the terminal thereof
US10425523B2 (en)2015-05-222019-09-24Samsung Electronics Co., Ltd.Method for controlling mobile terminal, and mobile terminal
US20230214107A1 (en)*2014-09-022023-07-06Apple Inc.User interface for receiving user input
US11918857B2 (en)2016-06-112024-03-05Apple Inc.Activity and workout updates
US11921998B2 (en)2020-05-112024-03-05Apple Inc.Editing features of an avatar
US12093515B2 (en)2014-07-212024-09-17Apple Inc.Remote user interface
US12147655B2 (en)2021-05-212024-11-19Apple Inc.Avatar sticker editor user interfaces
US12184969B2 (en)2016-09-232024-12-31Apple Inc.Avatar creation and editing
US12299642B2 (en)2014-06-272025-05-13Apple Inc.Reduced size user interface
US12417596B2 (en)2022-09-232025-09-16Apple Inc.User interfaces for managing live communication sessions
US12430013B2 (en)2014-08-022025-09-30Apple Inc.Context-specific user interfaces

Cited By (16)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US12361388B2 (en)2014-06-272025-07-15Apple Inc.Reduced size user interface
US12299642B2 (en)2014-06-272025-05-13Apple Inc.Reduced size user interface
US12093515B2 (en)2014-07-212024-09-17Apple Inc.Remote user interface
US12430013B2 (en)2014-08-022025-09-30Apple Inc.Context-specific user interfaces
US20230214107A1 (en)*2014-09-022023-07-06Apple Inc.User interface for receiving user input
WO2016190640A1 (en)*2015-05-222016-12-01삼성전자 주식회사Method for controlling mobile terminal, and mobile terminal
US10425523B2 (en)2015-05-222019-09-24Samsung Electronics Co., Ltd.Method for controlling mobile terminal, and mobile terminal
US11918857B2 (en)2016-06-112024-03-05Apple Inc.Activity and workout updates
US12274918B2 (en)2016-06-112025-04-15Apple Inc.Activity and workout updates
WO2018043998A1 (en)*2016-09-052018-03-08삼성전자 주식회사Electronic device and control method therefor
US12184969B2 (en)2016-09-232024-12-31Apple Inc.Avatar creation and editing
KR102017857B1 (en)*2018-05-182019-09-03주식회사 카카오Operating method of terminal for displaying tilting emoticon and the terminal thereof
US11921998B2 (en)2020-05-112024-03-05Apple Inc.Editing features of an avatar
US12379834B2 (en)2020-05-112025-08-05Apple Inc.Editing features of an avatar
US12147655B2 (en)2021-05-212024-11-19Apple Inc.Avatar sticker editor user interfaces
US12417596B2 (en)2022-09-232025-09-16Apple Inc.User interfaces for managing live communication sessions

Similar Documents

PublicationPublication DateTitle
KR20140073232A (en)Mobil terminal and Operating Method for the Same
KR101252169B1 (en)Mobile terminal and operation control method thereof
KR101678812B1 (en)Mobile terminal and operation control method thereof
KR101685363B1 (en)Mobile terminal and operation method thereof
KR101657549B1 (en)Mobile terminal and control method thereof
KR102058043B1 (en)Image display apparatus and method for operating the same
KR20100023605A (en)Mobile terminal equipped with plural display units and control method thereof
US20160004388A1 (en)Operation method of portable terminal
KR20150068175A (en)Operating Method for Mobil terminal
US20140145966A1 (en)Electronic device with touch input display system using head-tracking to reduce visible offset for user input
KR101626307B1 (en)Mobile terminal and operation control method thereof
KR20140074651A (en)Mobile terminal and operation method thereof
KR20150039999A (en)Mobile terminal and operation method thereof
KR20120001477A (en) Mobile terminal and its operation method
KR20140064116A (en)Mobil terminal and operating method for the same
KR101883179B1 (en)Mobile terminal and operation method thereof
KR20150084579A (en)Mobile terminal and operation method thereof
KR20110133295A (en) Mobile terminal and its operation method
KR101661974B1 (en)Mobile terminal and operation method thereof
KR20150081694A (en)Mobile terminal and operation method thereof
KR20140040457A (en)Mobile terminal and operating method for the same
KR101982775B1 (en)Mobile terminal and Operationg method thereof
KR101685349B1 (en)Mobile terminal and operation method thereof
EP2735942A1 (en)Electronic device with touch input display system using head-tracking to reduce visible offset for user input
KR20150024145A (en)Method of operating a Mobile Terminal

Legal Events

DateCodeTitleDescription
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20121206

PG1501Laying open of application
PC1203Withdrawal of no request for examination
WITNApplication deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid

[8]ページ先頭

©2009-2025 Movatter.jp