





본 발명은 앞을 가린 물체를 감지하고, 그에 따라 최적의 디스플레이 환경을 제공하는 차량용 네비게이션 시스템 및 그 제어방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation system for a vehicle and a control method thereof, which detect an obstructed object and thereby provide an optimal display environment.
최근 스마트폰을 이용한 네비게이션 사용 빈도가 증가함에 따라, 별도의 거치대를 이용하여 스마트폰을 거치하는 운전자도 있으나, 거치대를 사용하지 않는 운전자도 다수이다. 여기서 별도의 거치대를 사용하지 않는 운전자들의 상당수가 순정 네비게이션(AVN: Audio/Video/Navigation) 시스템의 디스플레이 앞에 스마트폰을 눕혀서 사용하는 경향이 있다.Recently, as the frequency of using navigation using smartphones has increased, some drivers use a separate cradle to mount a smartphone, but a number of drivers do not use a cradle. Here, a large number of drivers who do not use a separate cradle tends to use the smartphone in front of the display of the AVN (Audio / Video / Navigation) system.
도 1은 네비게이션 디스플레이 상에 스마트폰이 위치한 형태의 일례를 나타낸다.1 shows an example of a form in which a smartphone is placed on a navigation display.
도 1의 (a)와 같이 네비게이션(100)의 하우징 하단에 스마트폰(200)이 거치됨에 따라, 도 1의 (b)와 같이 스마트폰 크기에 해당하는 네비게이션 디스플레이의 일부(200')가 가려지게 된다. 이러한 경우, 주행 중 스마트폰 활용에도 용이하고 본인이 주로 사용하는 네비게이션 어플리케이션의 사용에도 용이하지만, 차량의 네비게이션 디스플레이를 통해 운전자에게 반드시 전달되어야 하는 경고나 정보가 스마트폰에 의해 가려져 불편함이 발생한다.1 (a), a portion 200 'of a navigation display corresponding to a size of a smartphone is covered as shown in FIG. 1 (b) as the
본 발명은 네비게이션 앞을 가리는 물체가 있더라도 운전자에게 필요한 정보를 제공할 수 있는 네비게이션 시스템 및 그 제어방법을 제공하기 위한 것이다.The present invention provides a navigation system and a control method thereof that can provide necessary information to a driver even if there is an obstacle in front of navigation.
특히, 본 발명은 네비게이션을 가리는 물체의 위치와 크기에 대응하여 운전자에게 필요한 정보를 제공할 수 있는 네비게이션 시스템 및 그 제어방법을 제공하기 위한 것이다.In particular, the present invention is to provide a navigation system and a control method thereof that can provide information necessary for a driver in correspondence with the position and size of an object to obscure the navigation.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.
상기와 같은 과제를 해결하기 위해 본 발명의 일 실시예에 따른 차량의 네비게이션 제어방법은, 네비게이션 상의 물체를 감지하는 단계; 상기 감지된 물체에 의해 가려지는 네비게이션의 영역을 판단하는 단계; 및 상기 판단된 영역에 대응하여, 상기 네비게이션에 구비된 디스플레이 패널의 디스플레이 구성을 변경하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a navigation control method for a vehicle, including: sensing an object on a navigation system; Determining an area of navigation that is obscured by the sensed object; And changing a display configuration of the display panel provided in the navigation corresponding to the determined area.
또한, 본 발명의 일 실시예에 따른 차량의 네비게이션 시스템은, 디스플레이 패널을 구비하는 네비게이션; 상기 디스플레이 패널 상의 물체를 감지하는 감지부; 상기 감지된 물체에 의해 가려지는 상기 디스플레이 패널의 영역을 판단하고, 상기 판단된 영역에 대응하여, 상기 디스플레이 패널의 디스플레이 구성이 변경되도록 제어하는 제어부를 포함할 수 있다.According to another aspect of the present invention, there is provided a vehicle navigation system including: a navigation device having a display panel; A sensing unit for sensing an object on the display panel; And a control unit for determining an area of the display panel to be blocked by the detected object and controlling the display configuration of the display panel to be changed corresponding to the determined area.
본 발명의 적어도 일 실시예에 의하면, 다음과 같은 효과가 있다.According to at least one embodiment of the present invention, there are the following effects.
네비게이션 앞의 물체에 의해 가려지는 영역에 표시되는 정보가 고려되어 네비게이션의 디스플레이가 변경되므로, 운전자에게 필요한 정보가 효과적으로 전달될 수 있다.The information displayed on the area covered by the object ahead of the navigation is considered, and the display of the navigation is changed, so that the information necessary for the driver can be effectively transmitted.
특히, 네비게이션을 가리는 물체의 크기와 위치가 고려되므로 보다 효과적으로 변경된 디스플레이 정보가 제공될 수 있다.Particularly, since the size and position of the object to be covered by the navigation are considered, the changed display information can be provided more effectively.
본 발명에서 얻은 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.
도 1은 네비게이션 디스플레이 상에 스마트폰이 위치한 형태의 일례를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 전방의 물체를 고려한 네비게이션 시스템 제어 방법의 일례를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 감지부 구성의 일례를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 감지부를 통해 물체에 의해 가려지는 네비게이션 디스플레이의 영역이 판단되는 과정의 일례를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 네비게이션 화면 구성이 변경되는 과정의 일례를 나타낸다.
도 6은 본 발명의 일 실시예에 따른 네비게이션 시스템 구성의 일례를 나타내는 블럭도이다.1 shows an example of a form in which a smartphone is placed on a navigation display.
2 shows an example of a navigation system control method considering an object ahead in accordance with an embodiment of the present invention.
3 shows an example of a configuration of a sensing unit according to an embodiment of the present invention.
4 is a view for explaining an example of a process of determining a region of a navigation display screened by an object through a sensing unit according to an embodiment of the present invention.
5 illustrates an example of a process of changing a navigation screen configuration according to an embodiment of the present invention.
6 is a block diagram illustrating an example of a navigation system configuration according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
본 발명의 일 실시예에서는 네비게이션의 디스플레이 앞에 화면을 가리는 물체가 있더라도, 네비게이션 시스템이 이를 감지하고, 그에 대응하여 디스플레이 구성을 변경하여 운전자에게 필요한 정보를 효과적으로 전달하도록 할 것을 제안한다.According to an embodiment of the present invention, even if there is an object that covers the screen in front of the display of the navigation system, the navigation system senses the object and changes the display configuration accordingly so as to effectively transmit necessary information to the driver.
이를 위하여, 본 실시예가 적용되는 네비게이션은, 적어도 일부 영역에 화면 배치를 자유롭게 변경할 수 있는 디스플레이 패널(예를 들어, LCD, LED, OLED 디스플레이 등)이 적용되는 것이 바람직하다.To this end, it is preferable that a display panel (for example, an LCD, an LED, an OLED display, or the like) to which the arrangement of screens can be freely changed at least in some areas is applied to the navigation to which the present embodiment is applied.
도 2는 본 발명의 일 실시예에 따른 전방의 물체를 고려한 네비게이션 시스템 제어 방법의 일례를 나타낸다.2 shows an example of a navigation system control method considering an object ahead in accordance with an embodiment of the present invention.
도 2를 참조하면, 먼저 네비게이션 디스플레이 상의 물체가 감지될 수 있다(S210). 이를 위하여 소정 구조의 감지 수단이 사용될 수 있는데, 감지 수단의 구체적인 형태는 도 3을 참조하여 후술하기로 한다.Referring to FIG. 2, an object on the navigation display may be first sensed (S210). For this purpose, a sensing means of a predetermined structure may be used, and a specific form of the sensing means will be described later with reference to FIG.
감지 수단을 통해 물체에 가려진 영역이 판단되면(S220), 판단된 영역에 대응하여 디스플레이 구성이 변경될 수 있다(S230).If an area obscured by the object is determined through the sensing means (S220), the display configuration may be changed corresponding to the determined area (S230).
여기서 디스플레이 구성이 변경된다고 함은, 가려진 것으로 판단된 영역 내에 위치하는 적어도 일부 정보가, 디스플레이 패널 중 가려지지 않은 부분으로 이동되어 표시됨을 의미할 수 있다. 여기서 가려진 것으로 판단된 영역 내의 정보는 반드시 디스플레이 패널 상에 표시되는 정보일 필요는 없다. 예를 들어, 디스플레이 패널 상이 아닌 고정된 위치에 토글 타입으로 점등되는 경고등이 가려진 것으로 판단되는 영역 상에 있는 경우, 디스플레이 패널에서 가려지지 않은 임의의 영역에서 해당 경고등과 동일한 기능을 수행하는 디스플레이 객체가 표시될 수 있다.Here, the change of the display configuration means that at least some information located in the area that is determined to be hidden is displayed and displayed on a portion of the display panel that is not covered. The information in the area determined to be occluded here does not necessarily have to be information displayed on the display panel. For example, when a warning light that is turned on in a toggle type is displayed on an area that is determined to be hidden in a fixed position other than the display panel, a display object that performs the same function as the warning light in an arbitrary area not covered by the display panel Can be displayed.
또한, 디스플레이 구성이 변경된다고 함은, 가려진 것으로 판단된 영역 내에 위치하는 정보의 위치만이 변경되는 것이 아니라, 그 크기나 배치 형태까지 변경됨을 의미할 수도 있다.In addition, the change of the display configuration may mean that the position of the information located in the area that is judged to be hidden is not changed but the size and arrangement type are changed.
이하에서는 본 실시예에 적용될 수 있는 감지 수단(이하, 편의상 "감지부"라 칭함)를 상세히 설명한다.Hereinafter, the sensing means (hereinafter referred to as "sensing portion" for convenience) applicable to the present embodiment will be described in detail.
감지부는 디스플레이의 적어도 일부를 가리는 물체(즉, 스마트폰)의 존재 여부 및 위치를 감지하고, 그에 대한 정보를 후술할 제어부로 전달하는 기능을 수행한다. 디스플레이 패널을 가리는 물체는 사람의 신체가 아닌 물체가 상정되는 바, 정전식이나 감압식으로 물체를 감지하기 보다는, 광선 매트릭스 기반의 감지 방법이 바람직하다. 광선 매트릭스 기반의 감지부 구조를 도 3을 참조하여 설명한다.The sensing unit senses the presence and position of an object (i.e., a smartphone) covering at least a part of the display, and transmits information about the presence and position of the object to the control unit, which will be described later. Since an object that covers the display panel is assumed to be an object other than a human body, a ray matrix based sensing method is preferable to sensing an object by electrostatic or pressure-sensitive methods. The light-matrix-based detection unit structure will be described with reference to FIG.
도 3은 본 발명의 일 실시예에 따른 감지부 구성의 일례를 나타낸다.3 shows an example of a configuration of a sensing unit according to an embodiment of the present invention.
도 3의 (a)를 참조하면, 본 실시예에 따른 감지부는 디스플레이(100)의 베젤(프레임)에 배치될 수 있다. 보다 구체적으로, 감지부는 한 쌍의 발광부(310a, 320a)와 그로부터 조사되는 광선(Light Beam)을 감지하는 수광부(310b, 320b)로 구성될 수 있다. 발광부들과 수광부들은 각각 가로, 세로 방향으로 1조씩 서로 마주보게 배치되어, 도 3의 (b)와 같이 디스플레이 전면에 광선 그리드(330)를 생성하게 된다.Referring to FIG. 3 (a), the sensing unit according to the present embodiment may be disposed on a bezel (frame) of the
만약 물체가 디스플레이 패널에 접촉(또는 충분히 근접)되면 발광부에서 조사되는 광선이 가려지게 되어 해당 접촉 부위(340)와 가로/세로 방향으로 일직선상에 있는 수광부에서는 광선을 제대로 감지할 수 없다. 따라서, 광선을 감지하지 못한 수광부의 각 X, Y 좌표를 통해 물체의 위치를 감지할 수 있게 된다.If the object contacts (or is sufficiently close to) the display panel, the light beam emitted from the light emitting portion is blocked, and the light ray can not be detected properly in the light receiving portion that is in a straight line with the
이때, 수광부 및 발광부 각각에 배치되는 발광 소자 및 수광 소자의 개수는 좌표의 정밀도를 향상시키므로, 발광 소자/수광 소자 쌍(즉, 이하, 편의상 "센서"라 칭함)의 개수는 스마트폰이 거치될 때 가려질 소지가 있는 정보/경고등의 개수를 고려하여 결정되는 것이 바람직하다. 또한, 광선은 적외선(IR)일 수도 있고, 가시광선일 수도 있다.At this time, since the number of light emitting elements and light receiving elements disposed in each of the light receiving unit and the light emitting unit improves the accuracy of coordinates, the number of light emitting element / light receiving element pairs (hereinafter, It is desirable to determine the number of information / warning lamps which are likely to be blocked when the information is displayed. Further, the light beam may be infrared (IR) or visible light.
이하에서는 도 4를 참조하여 물체에 의해 가려지는 영역이 판단되는 과정을 설명한다.Hereinafter, a process of determining an area covered by an object will be described with reference to FIG.
도 4는 본 발명의 일 실시예에 따른 감지부를 통해 물체에 의해 가려지는 네비게이션 디스플레이의 영역이 판단되는 과정의 일례를 설명하기 위한 도면이다.4 is a view for explaining an example of a process of determining a region of a navigation display screened by an object through a sensing unit according to an embodiment of the present invention.
도 4에서는 세로 방향으로 8개의 센서가, 가로 방향으로 10개의 센서가 각각 배치된 감지부가 적용되는 경우를 가정한다.In FIG. 4, it is assumed that a sensing unit in which eight sensors are arranged in the vertical direction and ten sensors are arranged in the horizontal direction is applied.
본 실시예에서는 디스플레이의 제어부가 각 경고등이나 안내정보의 위치를 미리 알고 있을 것을 가정한다. 예를 들어, 도 4의 (a)에서 제어부는 시간 정보는 (01, A) 좌표에 위치하고, 나침반은 (01, H) 좌표에 위치하고 있음을 알고 있다.In this embodiment, it is assumed that the control unit of the display knows the position of each warning lamp or guide information in advance. For example, in FIG. 4A, the controller knows that the time information is located at the (01, A) coordinate and the compass is located at the (01, H) coordinate.
이러한 네비게이션에 스마트폰을 기대어 놓을 경우, 도 4의 (b)와 같이 스마트폰(200)의 최상단부만이 네비게이션(100)의 디스플레이와 접촉하게 된다. 따라서, 스마트폰(200)이 세로 방향으로 광선을 조사하는(즉 가로로 배치되는) 발광부(310a)의 광선들은 자신의 가로 길이만큼 가리게 된다. 그러나, 스마트폰(200)은 가로 방향으로 광선을 조사하는 발광부(320a)의 광선들 중 최 상단부의 위치에 대응되는 발광 소자(321a)의 광선(만)을 가리게 된다.4 (b), only the uppermost portion of the
따라서, 감지부는 스마트폰의 최상단부에 해당하는 Y좌표(만)을 획득하게 되므로, 실제 가려지는 위치를 올바르게 판단하기 위하여, 제어부에서는 감지된 Y 좌표의 하방으로는 모두 물체에 의해 가려졌다고 판단하는 것이 바람직하다.Accordingly, since the sensing unit acquires only the Y coordinate (only) corresponding to the uppermost portion of the smartphone, in order to correctly determine the actual obstruction position, the controller determines that all of the detected Y coordinates are covered by the object .
예를 들어, 도 4의 (c)와 같이 감지부에서 감지된 물체의 위치가 (02, E) 부터 (08, E) 까지라고 할 경우, 제어부는 (02, E), (02, F), (02, G), (02, H)부터 (08, E), (08, F), (08, G), (08, H) 모두를 포함하는 영역(200')이 모두 물체에 의해 가려졌다고 판단할 수 있다.For example, when the position of the object sensed by the sensing unit is (02, E) to (08, E) as shown in FIG. 4C, , The region 200 'including all of (02, G), (02, H) to (08, E), (08, F), It can be judged that it is obscured.
상술한 바와 같이 물체에 의해 가려진 영역이 판단되면, 가려진 영역 내에 위치하는 어떠한 정보/경고등이 가려지지 않은 디스플레이 패널에 표시될지 결정될 필요가 있다. 이를 위해, 본 실시예에서는 정보/경고등의 우선 순위에 따라 복수의 그룹으로 구분하고, 가려지는 영역의 크기/위치에 따라 복수의 표시 상태로 구분할 것을 제안한다.When the area covered by the object is determined as described above, it is necessary to determine what information / warning lamps located in the obscured area will be displayed on the uncovered display panel. To this end, in the present embodiment, it is proposed to divide the information / warning light into a plurality of groups according to the priority order, and divide the information into a plurality of display states according to the size / position of the area to be covered.
일례로, 정보/경고등은 우선순위에 따라 A/B/C의 세 그룹으로 구분될 수 있다. 구체적으로, 주행중 운전자에게 반드시 전달되어야 하는 정보는 A그룹에 포함시켜 반드시 표시해줄 수 있다. 또한, B/C그룹은 안전에 직결되는 정보는 아니지만 운전자에게 유용한 정보를 포함할 수 있다.For example, information / warning lights can be divided into three groups of A / B / C according to their priority. Specifically, the information that must be delivered to the driver during driving is always included in the A group and displayed. In addition, the B / C group may not contain information directly related to safety, but may include useful information to the driver.
이러한 그룹 구분의 일례를 정리하면, 아래 표 1과 같다.An example of such a grouping is summarized in Table 1 below.
Group B (key information)
(운전 중 자주 확인하는 정보)Relatively important information on driving
(Information that is frequently checked during driving)
Group C (General Information)
(운전 중 자주 확인하지 않는 정보)Non-critical information for driving
(Information not frequently checked during driving)
Others (Gauge type)
Current setting information displayed at a specific position on the screen only during operation
또한, 제어부는 우선순위에 의한 경고등 및 정보 표시를 위해 물체를 감지한 위치로부터 디스플레이 패널의 최상단까지의 거리를 계산하여 화면 구성 변경 시, 정보표시가 가능한 영역을 계산하고, 아래 표 2와 같이 복수의 표시 상태로 구분할 수 있다.In addition, the control unit calculates the distance from the position where the object is detected to the top of the display panel in order to display the warning light and the information in order of priority, calculates an area capable of information display upon changing the screen configuration, As shown in FIG.
How to display
STATE 1
Display all A / B / C groups in the navigation display space
STATE 2
STATE 3
Only A / B group is displayed in the navigation display area
STATE 4
STATE 5
Not displayed
이하에서는 상술한 그룹 분할과 표시 상태 구분에 따라 네비게이션의 화면 구성이 변경되는 구체적인 형태를 설명한다.Hereinafter, a specific form in which the screen configuration of the navigation is changed according to the above-described group division and display state classification will be described.
도 5는 본 발명의 일 실시예에 따른 네비게이션 화면 구성이 변경되는 과정의 일례를 나타낸다.5 illustrates an example of a process of changing a navigation screen configuration according to an embodiment of the present invention.
도 5의 (a)를 참조하면, 스마트폰이 네비게이션 위에 놓여짐에 따라, 제어부는 가려진 영역(200')를 감지부를 통해 판단한다. 그 결과, 해당 영역(200')의 크기는 표시 상태 1에 해당하고, A/B/C 각 그룹에 해당하는 정보(510, 520, 530)가 가려진 것으로 판단되어, 제어부는 도 5의 (b)와 같이 각 그룹에 해당하는 정보들을 가려지지 않은 위치(510', 520', 530')로 옮겨 표시해줄 수 있다.Referring to FIG. 5 (a), as the smart phone is placed on the navigation, the control unit determines the hidden area 200 'through the sensing unit. As a result, it is determined that the size of the area 200 'corresponds to the display state 1 and that the
다음으로, 도 6을 참조하여 전술한 실시예를 수행할 수 있는 네비게이션 시스템의 구조를 설명한다.Next, the structure of a navigation system capable of performing the above-described embodiment with reference to FIG. 6 will be described.
도 6은 본 발명의 일 실시예에 따른 네비게이션 시스템 구성의 일례를 나타내는 블럭도이다.6 is a block diagram illustrating an example of a navigation system configuration according to an embodiment of the present invention.
도 6을 참조하면, 본 실시예에 따른 네비게이션 시스템은, 그 일부분을 구성하며 각종 정보 및 경고등을 시각적으로 표시하는 디스플레이(610, 또는 디스플레이 패널), 각종 메뉴 선택이나 명령 입력을 위한 버튼 등을 구비하는 기타 계기부(620), 디스플레이 전방의 물체의 크기와 위치를 감지하는 감지부(630), 차량 내 다른 제어기와 정보를 교환하는 통신부(640) 및 상술한 구성요소들을 제어하고 감지부를 통해 판단된 물체의 크기와 위치에 따라 디스플레이(610)의 디스플레이 구성을 변경하는 제어부(650)를 포함할 수 있다.Referring to FIG. 6, the navigation system according to the present embodiment includes a display 610 (or a display panel) for visually displaying various information and warning lamps, a button for inputting various menus or commands, and the like
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet).
따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150179094AKR102267259B1 (en) | 2015-12-15 | 2015-12-15 | Navigation system for vehicle and method for controlling the same |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150179094AKR102267259B1 (en) | 2015-12-15 | 2015-12-15 | Navigation system for vehicle and method for controlling the same |
| Publication Number | Publication Date |
|---|---|
| KR20170071122Atrue KR20170071122A (en) | 2017-06-23 |
| KR102267259B1 KR102267259B1 (en) | 2021-06-22 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150179094AActiveKR102267259B1 (en) | 2015-12-15 | 2015-12-15 | Navigation system for vehicle and method for controlling the same |
| Country | Link |
|---|---|
| KR (1) | KR102267259B1 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113467691A (en)* | 2020-03-31 | 2021-10-01 | 上海博泰悦臻网络技术服务有限公司 | Interaction method, device and system based on vehicle display screen |
| CN116394853A (en)* | 2023-04-28 | 2023-07-07 | 重庆长安汽车股份有限公司 | Vehicle-machine control method, system, medium, and vehicle-machine |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010092272A (en)* | 2008-10-08 | 2010-04-22 | Sharp Corp | Image display/image detection device, auxiliary image display method, and program |
| KR101461130B1 (en)* | 2014-01-09 | 2014-11-20 | 엘아이지넥스원 주식회사 | Touch screen device using infrared rays |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010092272A (en)* | 2008-10-08 | 2010-04-22 | Sharp Corp | Image display/image detection device, auxiliary image display method, and program |
| KR101461130B1 (en)* | 2014-01-09 | 2014-11-20 | 엘아이지넥스원 주식회사 | Touch screen device using infrared rays |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113467691A (en)* | 2020-03-31 | 2021-10-01 | 上海博泰悦臻网络技术服务有限公司 | Interaction method, device and system based on vehicle display screen |
| CN116394853A (en)* | 2023-04-28 | 2023-07-07 | 重庆长安汽车股份有限公司 | Vehicle-machine control method, system, medium, and vehicle-machine |
| Publication number | Publication date |
|---|---|
| KR102267259B1 (en) | 2021-06-22 |
| Publication | Publication Date | Title |
|---|---|---|
| US6707448B1 (en) | Touch control position determining method control pad | |
| KR100829172B1 (en) | Coordinate calculation method of touch point of infrared touch screen device and infrared touch screen | |
| KR101803222B1 (en) | User interface and method for signalling a 3d position of input means during gesture detection | |
| US8606519B2 (en) | Navigation system, particularly for a motor vehicle | |
| EP2302491A2 (en) | Optical touch system and method | |
| US20140225860A1 (en) | Display apparatus | |
| CN101930306A (en) | Multi-touch device and detection method thereof | |
| US20160347151A1 (en) | Operation input device and air-conditioning device using same | |
| CN104407747B (en) | A kind of infrared touch screen, its touch detection method and display device | |
| KR20170071122A (en) | Navigation system for vehicle and method for controlling the same | |
| EP4577898A1 (en) | Touch-sensitive system and method | |
| JP5143314B2 (en) | Information acquisition device and object detection device | |
| KR100936680B1 (en) | Touch screen | |
| KR101533603B1 (en) | Device and method for object recognition | |
| KR20180113787A (en) | Display apparatus and control method thereof | |
| US20170168659A1 (en) | Cluster system for vehicle and method of controlling the cluster system | |
| KR20190053537A (en) | Apparatus and method for providing virtual reality contents of moving means | |
| US11714162B2 (en) | Control method for optical tracking system | |
| CN103154861A (en) | System and method for touch screen | |
| CN113126795A (en) | Touch identification method of touch display device and related equipment | |
| US9766753B2 (en) | Optical touch system and method having image sensors to detect objects over a touch surface | |
| KR101359662B1 (en) | Digital pen system | |
| KR102002842B1 (en) | Device for controlling the sensitized type touch knob and method thereof | |
| WO2013136380A1 (en) | Digitizer apparatus | |
| KR101461130B1 (en) | Touch screen device using infrared rays |
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application | Patent event code:PA01091R01D Comment text:Patent Application Patent event date:20151215 | |
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination | Patent event code:PA02012R01D Patent event date:20191008 Comment text:Request for Examination of Application Patent event code:PA02011R01I Patent event date:20151215 Comment text:Patent Application | |
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection | Comment text:Notification of reason for refusal Patent event date:20201116 Patent event code:PE09021S01D | |
| PE0701 | Decision of registration | Patent event code:PE07011S01D Comment text:Decision to Grant Registration Patent event date:20210412 | |
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment | Comment text:Registration of Establishment Patent event date:20210615 Patent event code:PR07011E01D | |
| PR1002 | Payment of registration fee | Payment date:20210616 End annual number:3 Start annual number:1 | |
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee | Payment date:20240527 Start annual number:4 End annual number:4 | |
| PR1001 | Payment of annual fee | Payment date:20250526 Start annual number:5 End annual number:5 |