Movatterモバイル変換


[0]ホーム

URL:


KR20170123801A - Method and apparatus for keeping horizontal position accuracy for taking off and landing of unmanned air vehicle - Google Patents

Method and apparatus for keeping horizontal position accuracy for taking off and landing of unmanned air vehicle
Download PDF

Info

Publication number
KR20170123801A
KR20170123801AKR1020160052812AKR20160052812AKR20170123801AKR 20170123801 AKR20170123801 AKR 20170123801AKR 1020160052812 AKR1020160052812 AKR 1020160052812AKR 20160052812 AKR20160052812 AKR 20160052812AKR 20170123801 AKR20170123801 AKR 20170123801A
Authority
KR
South Korea
Prior art keywords
positioning data
satellite
unmanned aerial
aerial vehicle
viewing angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020160052812A
Other languages
Korean (ko)
Inventor
최형철
Original Assignee
주식회사 아이디프라임
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이디프라임filedCritical주식회사 아이디프라임
Priority to KR1020160052812ApriorityCriticalpatent/KR20170123801A/en
Publication of KR20170123801ApublicationCriticalpatent/KR20170123801A/en
Ceasedlegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명인 무인비행체의 이착륙용 수평정확도 유지 방법 및 그 장치는, 상기 무인비행체의 이륙 또는 착륙을 수행할 때 고도별 영상을 이용하여 상기 무인비행체의 측위데이터를 보정할 수 있도록 함으로써, 위성항법신호의 수신환경이 불량한 지역에서도 안전하고 정확하게 상기 무인비행체의 수직 이착륙을 유도할 수 있도록 하는 방법 및 장치에 관한 것이다.The method and apparatus for maintaining horizontal accuracy for takeoff and landing of an unmanned aerial vehicle according to the present invention can correct positional data of the unmanned aerial vehicle using altitude images when performing takeoff or landing of the unmanned aerial vehicle, And more particularly, to a method and an apparatus that can induce vertical takeoff and landing of the unmanned aerial vehicle safely and accurately even in a poor reception environment.

Description

Translated fromKorean
무인비행체의 이착륙용 수평위치 정확도 유지방법 및 그 장치{METHOD AND APPARATUS FOR KEEPING HORIZONTAL POSITION ACCURACY FOR TAKING OFF AND LANDING OF UNMANNED AIR VEHICLE}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for maintaining horizontal position accuracy of an unmanned aerial vehicle for takeoff and landing,

본 발명은 무인비행체의 이착륙용 수평위치 정확도 유지방법 및 그 장치에 관한 것으로, 더욱 상세하게는 카메라로부터 수집되는 고도별 영상을 이용하여, 위성수신 환경이 불량한 지역에서도 무인비행체의 측위데이터를 자체적으로 보정함으로써, 상기 무인비행체의 수평정확도를 지속적으로 유지하여 상기 무인비행체가 지상의 목표지점까지 정확하게 착륙하거나 목표지점으로부터 정확하게 이륙할 수 있도록 하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for maintaining horizontal positional accuracy for takeoff and landing of an unmanned aerial vehicle, and more particularly, to a method and apparatus for maintaining horizontal positional accuracy for an unmanned aerial vehicle using an altitude- The present invention relates to a method and apparatus for continuously maintaining the horizontal accuracy of the unmanned aerial vehicle so that the unmanned aerial vehicle can accurately land on a ground target or take off accurately from a target point.

최근 산업기술의 발전과 정보통신 기술의 급속한 발전으로 드론(drone)과 같은 무인비행체의 기술적인 발전이 가속화되고 확대됨에 따라 그 활용분야가 광범위해 지고 있다.Recently, as the development of industrial technology and the rapid development of information and communication technology have accelerated and expanded the technological development of unmanned aerial vehicles such as drone, their application fields are becoming widespread.

예를 들어, 무인비행체에 물건을 탑재할 수 있는 장비를 장착하여 교통이 복구되지 않은 재난지역에 의료품이나 긴급구호물품을 제공하거나, 택배서비스와 같이 사용자가 주문한 물건을 신속하게 배송하는 운송서비스가 번창하고 있다. 또한 무인비행체에 카메라를 장착하여 스포츠 경기와 같은 중계방송, 해수욕장이나 건설현장에서의 안전사고에 대한 모니터링, 농경지에 대한 농약살포 또는 사람이 접근하기 어려운 장소에서 사람을 대신해 위험한 작업을 수행하는 것과 같이 다양한 분야에서 상기 무인비행체를 활용하고 있다.For example, it is possible to provide medical goods or emergency relief goods in disaster areas where transportation is not restored by attaching equipment to the unmanned aerial vehicle, or to provide transportation services such as courier service to promptly deliver goods ordered by the user It is thriving. In addition, by attaching a camera to a unmanned aerial vehicle, it can be used as a relay broadcast such as a sports game, monitoring safety accidents at beaches or construction sites, spraying pesticides on agricultural lands, or performing dangerous tasks on behalf of people The unmanned aerial vehicle is utilized in various fields.

운송서비스를 제공하는 무인비행체를 예를 들어 설명하면, 운송할 물품을 탑재한 무인비행체가 운송지로 이동하기 위해서는 출발지에서 이륙한 후, 복수의 항법위성인 GNSS(Global Navigation Satellite System)위성으로부터 수신되는 위성항법신호를 활용하여 자율비행을 통해 운송목적지까지 이동하여, 상기 운송목적지에 착륙하여 물품을 배송하게 된다. 이러한 무인비행체는 인구 밀접지역에서 주로 사용되기 때문에 고도가 높은 상공을 비행할 때보다 이착륙시에 더욱 정밀하게 제어될 필요가 있다.For example, an unmanned aerial vehicle that provides transportation services can be described as follows. In order to move an unmanned aerial vehicle carrying goods to be transported to a transportation place, it is necessary to take off from a departure point and then receive from a Global Navigation Satellite System (GNSS) It uses the satellite navigation signal to move to the destination of the transportation through the autonomous flight and land at the transportation destination to deliver the goods. Since these unmanned aerial vehicles are mainly used in close-to-population areas, they need to be controlled more precisely during takeoff and landing than when flying in high altitude airspace.

그러나 무인비행체가 상공에서 지상의 목표지점으로 착륙할 때 건물이나 기타 시설물로 인해 특정 GNSS위성으로부터 전송되는 위성항법신호가 차단되거나 약하게 수신될 수 있다. 이로 인해 상기 무인비행체의 위치에 대한 정확한 측위가 수행되지 못해, 상기 목표지점으로부터 상기 무인비행체가 이탈할 수 있으며, 상기 무인비행체가 건물 등에 부딪혀 파손되거나 사람들과 충돌하여 인명피해가 발생될 위험성이 있다.However, satellite navigation signals transmitted from specific GNSS satellites due to buildings or other facilities may be blocked or weakly received when the unmanned aerial vehicle lands from above to above the ground target. As a result, the unmanned aerial vehicle can be disengaged from the target point because the accurate positioning of the unmanned aerial vehicle can not be performed, and there is a risk that the unmanned aerial vehicle collides with buildings or the like, .

한편 위성항법신호를 이용하여 무인비행체의 측위를 수행하는 방법으로 GNSS(이하 GPS 포함)신호를 이용한 RTK(Real Time Kinematic)방식이 있다. 상기 RTK방식은 반송파 신호를 사용하는 방식으로 CDGPS(Carrier phase Differential GPS, CDGPS)라고 하며, 지상국에 고정된 GPS수신기를 통해 지상국 위치 좌표와 GPS위성에 의한 좌표 차이값(즉, 위치 보정 데이터)을 취득해 무인비행체에 탑재된 GPS수신기에 전달한다. 이때 상기 무인비행체는 GPS위성으로부터 수신한 GPS좌표에 상기 수신한 좌표 차이값을 합성해 현재 지점의 좌표를 실시간으로 결정한다. 또한 상기 RTK방식은 그 오차범위가 5cm 이하로 정밀하게 측위데이터를 생성하는 장점이 있다.On the other hand, RTK (Real Time Kinematic) method using GNSS (hereinafter referred to as GPS) signal is a method of performing positioning of an unmanned aerial vehicle using a satellite navigation signal. The RTK method is called CDGPS (Carrier Phase Differential GPS) using a carrier signal. The RTK method uses a GPS receiver fixed to a ground station to measure the position of the ground station and the coordinate difference value (i.e., position correction data) And transmits it to the GPS receiver mounted on the unmanned aerial vehicle. At this time, the unmanned aerial vehicle synthesizes the received coordinate difference value with the GPS coordinates received from the GPS satellites to determine the coordinates of the current point in real time. Also, the RTK scheme has an advantage of generating positioning data precisely with an error range of 5 cm or less.

그러나 상기 RTK방식은 상기 무인비행체가 위성신호 수신불량 지역으로 진입하는 경우에는 상기 무인비행체에서 정확하게 위치를 측위할 수 없는 문제점이 있다.However, the RTK method has a problem in that when the unmanned aerial vehicle enters the bad reception region of the satellite signal, it can not accurately locate the position in the unmanned aerial vehicle.

이에 따라 본 발명에서는 무인비행체를 지상의 목표지점에 착륙하거나 상기 목표지점으로부터 이륙함에 있어서, 카메라로부터 수집되는 영상과 지상의 목표지점까지에 대한 수직거리정보를 획득할 수 있는 복수의 센서들을 통해, 건물이나 기타 시설물 등에 의해 위성항법 신호에 대한 수신이 불량한 경우에도 상기 무인비행체에서 자체적으로 정밀한 위치보정을 수행할 수 있도록 함으로써, 안전하게 상기 무인비행체를 이착륙할 수 있도록 하는 방법 및 그 장치를 제시하고자 한다.Accordingly, in the present invention, when the unmanned aerial vehicle is landed at a target point on the ground or when taking off from the target point, through the plurality of sensors capable of acquiring the image collected from the camera and the vertical distance information to the target point on the ground, The present invention provides a method and an apparatus for safely performing the landing and landing of the unmanned aerial vehicle by allowing the unmanned aerial vehicle to carry out precise position correction on its own even when the satellite navigation signal is poorly received by a building or other facilities .

다음으로 본 발명의 기술 분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, a brief description will be given of the prior arts that exist in the technical field of the present invention, and technical matters which the present invention intends to differentiate from the prior arts will be described.

먼저 한국등록특허 제1527210호(2015.06.09.)는 드론 이착륙 시스템 및 그 운용 방법에 관한 것으로, 드론이 이착륙하기 위한 별도의 베이스들을 제공하고, 드론이 소정의 거리 내로 복수의 베이스중 하나에 접근하는 경우 상기 드론과 상기 베이스에 구비된 근거리 통신 모듈을 통해 착륙유도신호를 상호 송수신함으로써, 상기 드론을 상기 베이스에 착륙할 수 있도록 하는 드론 이착륙 시스템 및 그 운용 방법에 관한 것이다.Korean Registered Patent No. 1527210 (June 5, 2015) discloses a dron landing and landing system and a method of operating the same. The dron is provided with separate bases for taking-off and landing, and the drones approach one of the plurality of bases within a predetermined distance Landing / landing system and a method of operating the same, wherein the landing induction signal is transmitted / received through the near-field communication module provided on the drone and the base, thereby allowing the dron to land on the base.

또한 한국공개특허 제2015-0019771호(2015.02.25.)는 무인 항공기의 착륙 방법 및 시스템에 관한 것으로, 착륙점 주변에 설치된 복수 개의 비전센서를 통해 무인 항공기에 설치된 표적을 인식하여 상기 무인 항공기의 상대위치를 계산하여, 상기 계산한 상대 위치와 상기 착륙점의 절대위치를 이용하여 무인 항공기를 착륙점에 착륙시킬 수 있도록 하는 무인 항공기 착륙 방법 및 시스템에 관한 것이다.Korean Unexamined Patent Publication No. 2015-0019771 (Feb. 25, 2015) discloses a method and system for landing an unmanned airplane, which recognizes a target installed on the unmanned airplane through a plurality of vision sensors installed around the landing point, And the landing point of the unmanned airplane can be landed by using the calculated relative position and the absolute position of the landing point.

상기 선행기술들은 무인비행체를 지상에 착륙시키도록 하는 점에서 본 발명과 일부분 유사하나, 반면에 본 발명은 무인비행체에서 수집되는 고도별 영상을 분석하여, 지상의 목표지점에서 벗어난 거리만큼 측위데이터를 보정함으로써, 위성항법 신호의 수신이 불량한 지역에서도 상기 무인비행체의 수평정확도를 지속적으로 유지할 수 있도록 하여, 상기 무인비행체가 안전하게 이착륙할 수 있도록 하는 기술적 특징에 대해서는 기재하거나 시사하고 있지 않다.The above prior arts are somewhat similar to the present invention in that it allows the unmanned aerial vehicle to land on the ground, whereas the present invention analyzes the altitude images collected from the unmanned aerial vehicle, It is possible to maintain the horizontal accuracy of the unmanned aerial vehicle continuously even in an area where the reception of the satellite navigation signal is poor so that the technical characteristics that the unmanned aerial vehicle can safely be taken off and landed are not described or suggested.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작 된 것으로서, 본 발명의 일 실시예는 위성신호 수신환경이 양호한 지역과 위성신호 수신환경이 불량한 지역에서의 무인비행체에 대한 측위방법을 달리하여 수행함으로써, 지상의 목표지점에 대한 수평정확도를 지속적으로 유지할 수 있도록 하고, 이를 통해 안전하게 지상의 목표지점에 착륙할 수 있도록 하는 방법 및 그 장치를 제공하는 것을 목적으로 한다.The present invention has been made in order to solve the above-mentioned problems. One embodiment of the present invention is to perform a positioning method for an unmanned aerial vehicle differently in an area where the satellite signal reception environment is good and a satellite signal reception environment is poor , And to provide a method and apparatus for continuously maintaining the horizontal accuracy of the target point on the ground, thereby enabling to safely land on the ground target point.

또한 본 발명의 일 실시예는 무인비행체에 구비되는 위성항법수신기에서 출력하는 측위데이터를 기반으로 특정구간이 위성신호 수신환경이 불량한 지역임을 판단하고, 이를 통해 상기 무인비행체에서 자체적으로 측위데이터를 정밀하게 보정할 수 있도록 하는 방법 및 그 장치를 제공하는 것을 목적으로 한다.According to an embodiment of the present invention, it is determined that a specific section is a region where the satellite signal receiving environment is poor based on the positioning data output from the satellite navigation receiver provided in the unmanned air vehicle, And to provide a method and a device for correcting the error.

또한 본 발명의 일 실시예는 무인비행체가 착륙시 위성신호 수신환경이 불량한 구간으로 진입한 경우, 카메라로부터 수집되는 고도별 영상을 분석하여, 분석한 결과를 토대로 상기 측위데이터를 보정하는 방법 및 그 장치를 제공하는 것을 목적으로 한다.According to another embodiment of the present invention, there is provided a method of calibrating the positioning data based on a result of analysis of an altitude image collected from a camera when an unmanned aerial vehicle enters a zone where reception conditions of a satellite signal are poor at landing, And an object of the present invention is to provide a device.

또한 본 발명의 일 실시예는 상기 무인비행체에서 위치를 보정함에 있어서, 상기 무인비행체와 지표면 사이의 수직거리를 적용하여 상기 기준영상과 현재영상의 배율차이를 계산하고, 상기 기준영상과 현재영상의 가로 및 세로 픽셀 차이를 분석하여 픽셀 차이값을 실제 거리로 계산하여, 상기 계산한 거리만큼 상기 무인비행체의 위치를 보정함으로써, 목표지점에 정확하게 수직으로 착륙할 수 있도록 하는 방법 및 그 장치를 제공하는 것을 목적으로 한다.According to an embodiment of the present invention, in correcting the position of the unmanned aerial vehicle, the vertical distance between the unmanned aerial vehicle and the ground surface is used to calculate a magnification difference between the reference image and the current image, There is provided a method and an apparatus for calculating a pixel difference value by analyzing a difference between a horizontal pixel and a vertical pixel to calculate an actual distance and correcting the position of the unmanned air vehicle by the calculated distance, .

본 발명의 일 실시예에 따른 무인비행체의 이착륙용 수평위치 정확도 유지 장치는 GNSS 위성으로부터 위성항법신호를 수신하여 측위데이터를 생성하는 위성항법수신기 및 상기 위성항법수신기에서 생성한 측위데이터를 보정하여 보정된 측위데이터를 생성하여 출력하는 측위데이터 보정모듈를 포함하며, 상기 보정된 측위데이터는 고도별 영상을 분석하여 상기 측위데이터를 보정하여 생성되는 것을 특징으로 한다.The apparatus for maintaining horizontal position accuracy for takeoff and landing of an unmanned aerial vehicle according to an embodiment of the present invention includes a satellite navigation receiver for receiving satellite navigation signals from GNSS satellites to generate positioning data and correcting the positioning data generated by the satellite navigation receiver And a positioning data correction module for generating and outputting the positioning data, wherein the corrected positioning data is generated by analyzing the altitude-specific image and correcting the positioning data.

또한 상기 측위데이터 보정모듈은, 상기 측위데이터로부터 상기 GNSS 위성으로부터 위성수신 시야각이 확보되었는지 여부를 판단하는 위성수신시야각판단부를 포함하며, 상기 판단은 측위데이터 중 GGA의 position fix indicator의 값을 이용하여 상기 시야각의 확보여부를 판단하는 것을 특징으로 한다.Further, the positioning data correction module may include a satellite reception viewing angle determination unit for determining whether a satellite reception viewing angle is secured from the GNSS satellite, from the positioning data, using the position fix indicator of the GGA in the positioning data It is determined whether or not the viewing angle is secured.

또한 상기 측위데이터 보정모듈은, 카메라로 촬영한 영상과 해당 영상이 촬영된 지점에서의 지상과의 수직거리로부터 무인비행체가 목표지점에서 벗어난 거리를 계산하는 보정정보 계산부를 더 포함하는 것을 특징으로 한다.The positioning data correction module may further include a correction information calculation unit for calculating a distance that the unmanned aerial vehicle deviates from the target point based on the vertical distance between the image photographed by the camera and the ground at the point where the corresponding image is photographed .

또한 상기 측위데이터 보정모듈은, 상기 목표지점에서 벗어난 거리만큼 상기 측위데이터를 보정하여 출력하는 측위데이터 보정부를 더 포함하는 것을 특징으로 한다.The positioning data correction module may further comprise a positioning data correction unit for correcting and outputting the positioning data by a distance deviated from the target point.

또한 상기 보정된 측위데이터에 따라 상기 무인비행체의 위치를 제어하는 운행제어부를 더 포함하는 것을 특징으로 한다.And an operation control unit for controlling the position of the unmanned air vehicle according to the corrected positioning data.

아울러 본 발명의 일 실시예에 따른 무인비행체의 이착륙용 수평정확도 유지 방법은 위성항법수신기를 이용하여 GNSS 위성으로부터 위성항법신호를 수신하여 측위데이터를 생성하는 단계 및 상기 위성항법수신기에서 생성한 측위데이터를 보정하여 보정된 측위데이터를 생성하여 출력하는 측위데이터 보정 단계를 포함하며, 상기 보정된 측위데이터는 고도별 영상을 분석하여 상기 측위데이터를 보정하여 생성되는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method for maintaining a horizontal accuracy for takeoff and landing of an unmanned aerial vehicle, comprising: generating positioning data by receiving a satellite navigation signal from a GNSS satellite using a satellite navigation receiver; And generating and outputting the corrected positioning data, wherein the corrected positioning data is generated by analyzing the altitude-specific image and correcting the positioning data.

또한 상기 측위데이터 보정 단계는, 상기 측위데이터로부터 상기 GNSS 위성으로부터 위성수신 시야각이 확보되었는지 여부를 판단하는 위성수신시야각판단 단계를 포함하며, 상기 판단은 측위데이터 중 GGA의 position fix indicator의 값을 이용하여 상기 시야각의 확보여부를 판단하는 것을 특징으로 한다.In addition, the positioning data correction step may include a satellite reception viewing angle determination step of determining whether a satellite reception viewing angle is secured from the GNSS satellite from the positioning data, and the determination is made using the position fix indicator of the GGA in the positioning data And determines whether or not the viewing angle is secured.

또한 상기 측위데이터 보정 단계는, 카메라로 촬영한 영상과 해당 영상이 촬영된 지점에서의 지상과의 수직거리로부터 무인비행체가 목표지점에서 벗어난 거리를 계산하는 보정정보 계산 단계를 더 포함하는 것을 특징으로 한다.The positioning data correction step may further include a correction information calculation step of calculating a distance that the unmanned aerial vehicle deviates from the target point based on the vertical distance between the image photographed by the camera and the ground at the point where the corresponding image is photographed do.

또한 상기 측위데이터 보정 단계는, 상기 목표지점에서 벗어난 거리만큼 상기 측위데이터를 보정하여 출력하는 측위데이터 보정 단계를 더 포함하는 것을 특징으로 한다.The positioning data correction step may further include a positioning data correction step of correcting and outputting the positioning data by a distance deviated from the target point.

또한 상기 보정된 측위데이터에 따라 상기 무인비행체의 위치를 제어하는 운행제어 단계를 더 포함하는 것을 특징으로 한다.And controlling the position of the unmanned air vehicle according to the corrected positioning data.

본 발명은 무인비행체의 이착륙용 수평위치 정확도 유지 방법 및 그 장치에 관한 것으로, GNSS위성으로부터 위성항법신호의 수신이 불량한 지역에서도 카메라로부터 수집되는 고도별 영상을 분석하여, 상기 무인비행체에 대한 측위데이터를 보정함으로써, 지상의 목표지점과의 수평위치를 정확하게 유지할 수 있도록 함과 동시에, 상기 무인비행체가 지상의 목표지점에 수직으로 착륙할 수 있도록 유도함으로써, 안전하고 정확하게 착륙할 수 있도록 하는 효과가 있다.The present invention relates to a method and apparatus for maintaining horizontal position accuracy for takeoff and landing of an unmanned aerial vehicle, and more particularly, to an apparatus and method for analyzing altitude images collected from a camera in a region where reception of a satellite navigation signal from a GNSS satellite is poor, So that the horizontal position with respect to the target point on the ground can be accurately maintained and at the same time the unmanned aerial vehicle can be landed vertically at a target point on the ground so as to enable safe and accurate landing .

도 1은 본 발명의 일 실시예에 따른 무인비행체의 이착륙용 수평위치 정확도 유지방법 및 그 장치를 개략적으로 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 무인비행체의 이착륙용 수평위치 정확도 유지 장치의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 위치정보 보정모듈의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 무인비행체의 수평위치 정확도를 유지하여, 목표지점에 안전하고 정확하게 착륙하기 위한 절차를 나타낸 흐름도이다.
FIG. 1 is a conceptual diagram for schematically explaining a method for maintaining horizontal position accuracy for takeoff and landing of an unmanned aerial vehicle and an apparatus therefor according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of an apparatus for maintaining horizontal position accuracy for takeoff and landing of an unmanned aerial vehicle according to an embodiment of the present invention. Referring to FIG.
3 is a block diagram illustrating a configuration of a position information correction module according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a procedure for safely and accurately landing at a target point by maintaining horizontal positional accuracy of an unmanned aerial vehicle according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 무인비행체 수평위치 정확도 유지방법 및 그 장치를 개략적으로 설명하기 위한 개념도이다.FIG. 1 is a conceptual diagram for schematically explaining a method for maintaining horizontal positional accuracy of an unmanned aerial vehicle according to an embodiment of the present invention and an apparatus therefor.

이하에서는 고도와 수직거리를 혼용하여 쓰고 있으나 상기 고도와 수직거리는 무인비행체와 지표면 사이의 수직거리를 의미한다.Hereinafter, altitude and vertical distance are used in combination, but the altitude and vertical distance mean the vertical distance between the unmanned aerial vehicle and the ground surface.

도 1에 도시한 바와 같이, 상기 무인비행체(200)는 운송서비스를 위한 물건의 배송, 재난지역에 긴급구호물품의 전달 또는 특정 현장의 모니터링 등과 같이 특정임무를 위해 출발지에서 이륙하여 목적지까지 비행하게 된다.As shown in FIG. 1, the unmannedaerial vehicle 200 can take off from a departure place and fly to a destination for a specific mission such as delivering goods for transportation service, delivering emergency relief goods to a disaster area, or monitoring a specific site do.

또한 상기 무인비행체(200)는 사람과 밀접한 공간에서 주로 사용되기 때문에 비스듬히 이착륙을 수행하는 경우에는 주변의 건물이나 기타 시설에 부딪혀 파손되거나 사람과 충돌하여 인명피해가 발생할 수 있으므로, 상기 무인비행체(200)의 이착륙은 지면과 수직방향으로 수행된다.In addition, since theunmanned air vehicle 200 is mainly used in a space close to a person, when the air-landing is performed at an oblique angle, theunmanned air vehicle 200 may collide with nearby buildings or other facilities, ) Is performed in a direction perpendicular to the ground.

또한 상기 무인비행체(200)는 근거리에서 지상의 사용자가 원격 조종기를 통해 직접 제어 할 수 있으나, 상기 원격 조종기의 전파가 도달하지 않는 원격지로 이동하는 경우에는 사용자가 원격 조종기를 통해 직접 제어하는 것이 불가능하게 되며, 이때 상기 무인비행체(200)는 자율비행을 통해 상기 원격지까지 운행을 수행하게 된다.Also, the UAV 200 can directly control a ground user through a remote controller at a short distance, but it is impossible for the user to directly control theUAV 200 through a remote controller when the remote controller is moved to a remote place where the radio wave does not reach At this time, the unmannedaerial vehicle 200 travels to the remote site through an autonomous flight.

무인비행체(200)가 원격지로 이동하기 위해 출발지에서 이륙을 하게 되면 상기 무인비행체(200)는 복수의 GNSS위성으로부터 수신되는 위성항법 정보를 활용하여 해당 무인비행체(200)의 위치, 고도치 또는 속도 등을 계산한 측위데이터를 생성하고, 상기 생성한 측위데이터를 기반으로 기 설정된 좌표에 해당하는 목적지로 이동하게 된다.When theunmanned air vehicle 200 takes off from the departure point to move to a remote place, theunmanned air vehicle 200 uses the satellite navigation information received from a plurality of GNSS satellites to calculate the position, altitude or speed of theunmanned air vehicle 200 And the like, and moves to a destination corresponding to a predetermined coordinate based on the generated positioning data.

또한 목적지에 도착하면, 상기 무인비행체(200)는 부여된 임무를 수행하기 위해(예: 물건의 배송), 또는 임무를 수행하는 도중 상기 무인비행체(200)에 전력을 공급하기 위한 배터리가 거의 다 소모된 경우에 지상의 목표지점과 수평정확도를 유지하면서, 상기 지상의 목표지점에 안전하고 정확하게 착륙하여야 한다.When arriving at a destination, the unmannedaerial vehicle 200 has almost no battery for supplying power to theunmanned air vehicle 200 in order to perform the assigned mission (for example, delivery of the object) If exhausted, the landing should be safely and accurately landed on the above ground target while maintaining the ground target and horizontal accuracy.

이때 상기 목표지점에 인접한 고층건물, 빌딩 또는 기타 시설물로 인해 상기 복수의 GNSS위성에서 전송되는 위성항법신호의 수신이 불량한 경우가 발생될 수 있다. 이러한 경우, 상기 무인비행체(200)는 정확한 측위를 수행하지 못함에 따라 착륙시에 지상의 목표지점으로부터 이탈될 수 있으며, 상기 목표지점에 정확하게 착륙하지 못할 수 있다.At this time, due to a high-rise building, a building or other facility adjacent to the target point, it may happen that reception of the satellite navigation signal transmitted from the plurality of GNSS satellites is poor. In this case, since the unmannedaerial vehicle 200 can not perform an accurate positioning, it can deviate from the target position on the ground at the time of landing, and can not land correctly at the target position.

이를 방지하기 위해 상기 무인비행체(200)에 구비된 수평위치 정확도 유지 장치(100)는 상기 무인비행체(200)가 지상의 목표지점으로 착륙하는 경우에 복수의 GNSS위성으로부터 위성수신 시야각이 확보되는 구간(즉, 위성항법신호의 수신이 양호한 구간으로 도 1에 도시한 것과 같이 A구간을 의미함)과 위성수신 시야각이 확보되지 않는 구간(즉, 위성항법신호의 수신이 불량한 구간으로 도 1에 도시한 것과 같이 B구간을 의미함)에서 상기 무인비행체(200)의 위치에 대한 측위를 각각 다른 방법으로 수행한다. 이를 통해 상기 지상의 목표지점에 대한 상기 무인비행체(200)의 수평정확도를 지속적으로 유지할 수 있도록 함으로써, 정확하게 상기 지상의 목표지점으로 착륙할 수 있도록 한다.In order to prevent this, the horizontal positionaccuracy maintaining apparatus 100 provided in theunmanned air vehicle 200 includes a section where a satellite reception viewing angle is secured from a plurality of GNSS satellites when theunmanned air vehicle 200 lands on a ground target, (That is, a section in which reception of the satellite navigation signal is good and means section A as shown in FIG. 1) and a section in which the satellite reception viewing angle is not secured (i.e., And the positioning of theunmanned air vehicle 200 is performed in different manners. Thus, the horizontal accuracy of the unmannedaerial vehicle 200 with respect to the target point on the ground can be continuously maintained, thereby making it possible to accurately land on the ground target point.

이를 위해 상기 수평위치 정확도 유지 장치(100)는 상기 위성항법신호의 수신이 양호한 구간에서는 기존과 동일하게 위성항법신호를 이용하여 측위를 수행하며, 상기 위성항법신호의 수신이 불량한 구간에서는 상기 무인비행체(200)에 탑재된 카메라(300)로부터 수집되는 영상을 기반으로 측위를 수행한다.For this purpose, the horizontal positionalaccuracy maintaining apparatus 100 performs positioning using a satellite navigation signal in the same period as the conventional satellite navigation signal reception, and when the reception of the satellite navigation signal is poor, And performs positioning based on the image collected from thecamera 300 mounted on thecamera 200.

또한 수평위치 정확도 유지 장치(100)는 상기 위성수신 시야각의 확보 여부에 대한 판단을 위해 GGA(Global Positioning System Fix Data)의 PFI(Position Fix Indicator)값을 이용하며, 상기 PFI값이 특정값을 가지지 않는 경우, 상기 위성수신 시야각이 확보되지 않는 구간으로 판단한다.In addition, the horizontal positionaccuracy maintaining apparatus 100 uses a PFI (Position Fix Indicator) value of GGA (Global Positioning System Fixed Data) to determine whether the satellite reception viewing angle is secured or not, and the PFI value has a specific value It is determined that the satellite reception viewing angle is not ensured.

한편 상기 GGA는 상기 복수의 GNSS위성으로부터 수신되는 위성항법신호를 기반으로 획득되는 측위데이터인 NMEA(National Marine Electronics Association)데이터 중의 하나로써, 시간, 위도, 경도, 고도, 측위에 사용된 위성수 및 PFI 등을 포함한다.Meanwhile, the GGA is one of NMEA (National Marine Electronics Association) data, which is positioning data acquired based on a satellite navigation signal received from the plurality of GNSS satellites. The GGA is used to calculate the time, latitude, longitude, altitude, PFI and the like.

일반적으로 상기 PFI값은 0에서 8의 값을 가지며, 상기 각각의 값은 복수의 GNSS위성으로부터 위성항법신호를 수신하여, 상기 무인비행체(200)의 측위를 수행하기 위한 방법을 나타낸다. 예를 들어, 0의 경우에는 invalid한 데이터를 의미하며, 이는 측위데이터로써 쓰지 못하는 데이터를 의미하며, 1의 경우에는 GNSS위성의 위성항법신호만으로 측위를 수행하여 상기 무인비행체(200)의 위치를 계산한 것을 의미한다. 또한 상기 PFI의 값이 2인 경우에는 DGPS(Differential Global Positioning System)로 상기 측위를 수행한 것을 의미한다.Generally, the PFI value has a value from 0 to 8, and each value represents a method for receiving the satellite navigation signal from a plurality of GNSS satellites to perform positioning of theunmanned air vehicle 200. For example, in the case of 0, it means invalid data, which means data that can not be used as positioning data. In case of 1, positioning is performed using only the GNSS satellite's satellite navigation signal to determine the position of theunmanned air vehicle 200 It means calculation. When the value of the PFI is 2, it means that the positioning is performed by DGPS (Differential Global Positioning System).

특히 PFI의 값이 4인 경우에는 RTK방법으로 측위를 수행한 것으로 의미하며, 본 발명에서는 상기 무인비행체(200)의 이착륙을 보다 정밀하게 제어하기 위해 RTK방법으로 측위를 수행한 것 의외에는 모두 위성수신환경이 불량한 것으로 판단한다.In particular, when the value of PFI is 4, it means that the positioning is performed by the RTK method. In the present invention, positioning is performed by the RTK method to control the takeoff and landing of theunmanned air vehicle 200 more precisely. It is determined that the reception environment is poor.

한편 상기 PFI의 값이 나타내는 각각의 측위방법은 공지의 기술이므로 자세한 설명은 생략하도록 한다.Meanwhile, the respective positioning methods indicated by the values of the PFI are well known in the art, and a detailed description thereof will be omitted.

또한 상기 수평위치 정확도 유지 장치(100)는 기 설정한 좌표에 따라 목표지점의 상공에 도착하여 착륙을 수행하는 경우에는, 카메라(300)를 통해 지상의 목표지점에 대한 영상을 고도별(한편 고도는 무인비행체와 지면까지의 수직거리를 의미함)로 촬영하여 수집하며, 상기 무인비행체(200)는 복수의 GNSS위성으로부터 수신되는 위성항법신호를 이용하여 측위를 수행하면서 수직으로 하강한다.In the case where the horizontal positionaccuracy maintaining apparatus 100 arrives at a position above the target point according to predetermined coordinates and performs landing, the image of the target point on the ground is projected through thecamera 300, And theUAV 200 descends vertically while performing positioning using a satellite navigation signal received from a plurality of GNSS satellites.

또한 상기 수평위치 정확도 유지 장치(100)는 특정고도에 따른 영상의 배율, 상기 배율에 따른 픽셀간의 간격 및 상기 픽셀간의 간격에 대한 실제거리를 미리 계산하여 저장하고 있다. 이에 따라 고도에 따른 픽셀간의 간격과 이에 대한 실제 거리를 알 수 있다.In addition, the horizontal positionaccuracy maintaining apparatus 100 previously calculates and stores the magnification of an image according to a specific altitude, an interval between pixels according to the magnification, and an actual distance with respect to the interval between the pixels. Thus, the distance between the pixels according to the altitude and the actual distance therebetween can be known.

또한 상기 수평위치 정확도 유지 장치(100)는 지상의 목표지점으로 하강하는 경우, 상기 PFI의 값을 이용하여 위성수신 시야각 확보 여부를 판단한다. 이 때 위성수신 시야각이 확보되지 않는 구간이라고 판단되면 상기 위성수신 시야각이 확보되지 않는 구간으로 진입하기 직전에 촬영한 영상(즉, A구간에 촬영한 영상 중 가장 최근 영상)을 기준영상으로 설정한다.When the horizontal positionaccuracy maintaining apparatus 100 descends to a target position on the ground, it determines whether or not the satellite reception viewing angle is secured using the value of the PFI. At this time, if it is determined that the satellite reception viewing angle is not ensured, the image captured immediately before entering the zone where the satellite reception viewing angle is secured is set as the reference image (i.e., the most recent image taken in the A region) .

또한 상기 수평위치 정확도 유지 장치(100)는 상기 저장한 특정고도에 따른 영상정보의 배율과 픽셀간의 간격 및 상기 픽셀간의 간격에 대한 실제거리를 기반으로, 상기 기준영상과 현재고도에서 촬영한 현재영상의 배율 차이를 계산하고, 상기 기준영상과 현재영상의 가로 및 세로 픽셀 차이를 분석한다.In addition, the horizontal positionaccuracy maintaining apparatus 100 may calculate the horizontal position accuracy of the current image captured at the current altitude and the reference image based on the magnification of the image information according to the stored specific altitude, And analyzes the horizontal and vertical pixel differences between the reference image and the current image.

또한 상기 수평위치 정확도 유지 장치(100)는 상기 분석한 픽셀 차이값을 실제거리로 계산하여, 상기 복수의 GNSS로부터 수신되는 위성항법신호를 기반으로 출력되는 측위데이터에 상기 계산한 거리만큼 보정하여, 보정된 측위데이터를 출력한다.In addition, the horizontal positionaccuracy maintaining apparatus 100 may calculate the analyzed pixel difference value as an actual distance, correct the position data output based on the satellite navigation signal received from the plurality of GNSS by the calculated distance, And outputs the corrected positioning data.

한편 상기 분석한 픽셀 차이값에 대한 실제거리는 현재영상이 촬영된 지점에서 지상과의 수직거리로부터 무인비행체가 목표지점에서 벗어난 거리를 나타낸다.On the other hand, the actual distance to the analyzed pixel difference value indicates the distance that the unmanned aerial vehicle deviates from the target point from the vertical distance from the ground at the point where the current image is captured.

또한 상기 수평위치 정확도 유지 장치(100)는 상기 보정된 측위데이터를 기반으로 상기 지상의 목표지점에 대한 좌표에 따라 상기 무인비행체(200)를 제어하여 상기 무인비행체(200)의 위치를 보정함으로써, 상기 무인비행체(200)가 상기 지상의 목표지점과의 수평정확도를 유지할 수 있도록 하고, 이를 통해 정확하게 상기 목표지점으로 수직 하강할 수 있도록 한다.In addition, the horizontal positionaccuracy maintaining apparatus 100 may control theunmanned air vehicle 200 according to the coordinates of the ground target point based on the corrected positioning data to correct the position of theunmanned air vehicle 200, So that the unmannedaerial vehicle 200 can maintain the horizontal accuracy with respect to the target point on the ground and can vertically descend to the target point accurately.

또한 상기 수평위치 정확도 유지 장치(100)는 일정한 고도 이하로 하강한 경우에는 상기 무인비행체(200)의 이동속도를 감속하여, 상기 무인비행체(200)에 지면에 충돌하지 않고 안전하게 착륙할 수 있도록 한다.In addition, when the horizontal positionaccuracy maintaining apparatus 100 descends below a predetermined altitude, the moving speed of theunmanned air vehicle 200 is reduced so that theunmanned air vehicle 200 can safely land without colliding with the ground .

이하에서는 상기 수평위치 정확도 유지 장치(100)의 내부 구성을 상세히 설명하도록 한다.Hereinafter, the internal configuration of the horizontal positionaccuracy maintaining apparatus 100 will be described in detail.

도 2는 본 발명의 일 실시예에 따른 무인비행체 수평위치 정확도 유지 장치의 구성을 나타낸 블록도이다.2 is a block diagram illustrating a configuration of an apparatus for maintaining horizontal position accuracy of an unmanned aerial vehicle according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 상기 무인비행체 수평위치 정확도 유지 장치(100)는 복수의 GNSS위성으로부터 위성항법신호를 수신하는 위성항법수신기(110), 상기 무인비행체(200)의 운행을 제어하는 운행제어부(120), 카메라(300)와 거리측정센서(400)로부터 지상의 목표지점에 대한 영상정보와 상기 무인비행체(200)의 고도를 각각 수집하는 센싱정보 수집부(130), 상기 무인비행체(200)의 위치를 보정하는 위치정보 보정모듈(140) 및 메모리(150)를 포함하여 구성된다.2, the apparatus for maintaining horizontal positional accuracy of the unmanned aerial vehicle includes asatellite navigation receiver 110 for receiving a satellite navigation signal from a plurality of GNSS satellites, a navigation system for controlling the operation of the unmanned air vehicle 200 A sensinginformation collecting unit 130 for collecting image information about a target point on the ground from thecamera 300 and thedistance measuring sensor 400 and an altitude of theunmanned air vehicle 200, A positioninformation correction module 140 and amemory 150 for correcting the position of thememory module 200.

또한 상기 위성항법수신기(110)는 상기 수신한 위성항법신호를 활용하여 시간, 위치, 방위 또는 이들의 조합을 포함하는 측위데이터를 출력한다.Thesatellite navigation receiver 110 also outputs positioning data including time, position, orientation, or a combination thereof by using the received satellite navigation signal.

또한 상기 운행제어부(120)는 상기 위성항법수신기(110)에서 출력한 측위데이터 기반으로 기 설정한 목표지점의 좌표로 이동할 수 있도록 상기 무인비행체(200)를 제어한다.Also, theoperation control unit 120 controls theUAV 200 so that it can move to the coordinates of a target point set based on the positioning data output from theGPS receiver 110.

또한 상기 무인비행체(200)가 기 설정한 목표지점의 상공에 도착한 경우에는 상기 운행제어부(120)는 상기 무인비행체(200)를 제어하여 지상의 목표지점과의 수평정확도를 유지하고, 안전하게 수직 착륙할 수 있도록 제어한다.In addition, when theunmanned air vehicle 200 arrives at a predetermined target point, theoperation control unit 120 controls theunmanned air vehicle 200 to maintain the horizontal accuracy with respect to the target point on the ground, .

또한 상기 무인비행체(200)가 상기 목표지점에 착륙하기 위해 수직으로 하강하는 경우, 상기 센싱정보 수집부(130)는 거리측정 센서(400)와 카메라(300)를 이용하여 상기 지상의 목표지점에 대한 고도별 영상을 수집한다.When theunmanned air vehicle 200 descends vertically to land at the target point, the sensinginformation collection unit 130 uses thedistance measurement sensor 400 and thecamera 300 to measure the distance to the target point on the ground Collect the images for the altitude.

상기 카메라(300)는 CMOS 카메라, CCD 카메라, 적외선 카메라, 뎁스 카메라 또는 이들의 조합을 포함하여 구성되어, 야간이나 낮에도 상기 영상을 수집할 수 있도록 한다.Thecamera 300 includes a CMOS camera, a CCD camera, an infrared camera, a depth camera, or a combination thereof, so that the image can be collected at night or during the day.

또한 상기 거리측정 센서(400)는 초음파센서 또는 레이저 센서와 같은 상기 무인비행체(200)와 지상까지의 수직거리에 대한 거리정보(즉, 무인비행체의 고도)를 획득하기 위한 적어도 하나 이상의 센서로 구성된다.Also, thedistance measuring sensor 400 may include at least one sensor for acquiring distance information (i.e., altitude of the unmanned aerial vehicle) about the vertical distance to the ground from theunmanned air vehicle 200 such as an ultrasonic sensor or a laser sensor do.

또한 상기 센싱정보 수집부(130)는 상기 뎁스 카메라를 이용하여 수직 거리를 획득하다가 상기 무인비행체(200)가 일정한 고도 이하로 내려가면 초음파 센서 또는 레이저 센서를 이용하여 더욱 정확하게 상기 거리정보를 획득할 수 있다.Also, the sensinginformation collection unit 130 acquires the vertical distance using the depth camera, and if theunmanned air vehicle 200 falls below a predetermined altitude, the distance information is acquired more accurately using an ultrasonic sensor or a laser sensor .

또한 상기 위치정보 보정모듈(140)은 상기 무인비행체(200)가 착륙하는 과정에 있어서, 정확하게 상기 무인비행체(200)의 수평정확도를 유지하기 위해 위성수신 시야각 확보 여부를 판단한다.In addition, the positioninformation correction module 140 determines whether the satellite reception viewing angle is secured in order to accurately maintain the horizontal accuracy of the unmannedaerial vehicle 200 in the course of landing theunmanned air vehicle 200.

상기 판단은 상기 위성항법수신기(110)에서 출력되는 측위데이터 중 GGA의 PFI값이 4인 경우 상기 무인비행체(200)가 위성수신 시야각이 확보되는 구간에서 동작하고 있다고 판단한다. 또한 상기 PFI의 값이 4가 아닌 경우 위성수신 시야각이 확보되지 않는 구간에서 상기 무인비행체(200)가 동작하고 있다고 판단한다. 이 때 상기 위치정보 보정모듈(140)는 상기 PFI 값이 4인 구간에서 촬영한 영상정보 중 가장 최근의 고도별 영상을 기준 영상으로 설정하여, 이후에 촬영되는 고도별 영상정보와 상기 기준 영상정보간의 배율 차이와 픽셀 차이를 분석하여 보정된 측위데이터를 출력한다.If the PFI value of the GGA is 4 among the positioning data output from theGPS receiver 110, it is determined that theunmanned air vehicle 200 is operating in a zone where the satellite reception viewing angle is secured. If the value of the PFI is not 4, it is determined that theunmanned air vehicle 200 is operating in a zone where the satellite reception viewing angle is not secured. At this time, the positionalinformation correction module 140 sets the latest altitude-specific image among the image information taken in the section having the PFI value of 4 as a reference image, And outputs the corrected positioning data by analyzing the pixel difference.

또한 상기 운행제어부(120)는 상기 위치정보 보정모듈(140)에서 출력한 보정된 측위데이터를 기반으로 상기 무인비행체(200)를 제어하여 상기 지상의 목표지점에 대한 수평정확도를 유지할 수 있도록 한다.Also, theoperation control unit 120 controls theUAV 200 based on the corrected positioning data output from the positioninformation correction module 140 to maintain the horizontal accuracy of the target point on the ground.

또한 상기 운행제어부(120)는 상기 무인비행체(200)와 지상의 목표지점간의 수직선상의 거리가 일정한 임계값 이하로 측정되면 상기 무인비행체(200)의 착륙속도를 감속하여 안전하게 착륙할 수 있도록 한다.When the distance on the vertical line between theunmanned object 200 and the target position on the ground is measured to be equal to or lower than a predetermined threshold value, theoperation control unit 120 decelerates the landing speed of theunmanned air vehicle 200 and can safely land.

또한 상기 메모리(150)는 상기 무인비행체(200)의 목적지점에 대한 좌표, 특정고도에서 영상을 촬영할 때의 배율정보 및 상기 배율정보에 따른 픽셀간의 간격 등을 저장한다.In addition, thememory 150 stores coordinates of a destination point of the unmannedaerial vehicle 200, magnification information when an image is captured at a specific altitude, and intervals between pixels according to the magnification information.

도 3은 본 발명의 일 실시예에 따른 위치정보 보정모듈의 구성을 나타낸 블록도이다.3 is a block diagram illustrating a configuration of a position information correction module according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 상기 위치정보 보정모듈(140)는 위성수신 시야각 확보 여부를 판단하는 위성수신시야각판단부(141), 상기 판단에 따라 고도별 영상을 분석하여 보정정보를 계산하는 보정정보 계산부(142), 상기 계산한 보정정보에 따라 측위데이터를 보정하는 측위데이터 보정부(143)를 포함하여 구성된다.As shown in FIG. 3, the positioninformation correction module 140 includes a satellite reception viewingangle determination unit 141 for determining whether a satellite reception viewing angle is secured or not, Aninformation calculation unit 142, and a positioningdata correction unit 143 for correcting the positioning data in accordance with the calculated correction information.

또한 상기 위성수신시야각 판단부(141)는 상기 위성항법수신기(110)에서 출력되는 측위데이터 중에서 GGA의 PFI값을 이용하여 위성수신 시야각 확보여부를 판단하고, 이를 통해 복수의 GNSS위성으로부터 위성항법신호의 수신이 양호한지를 판단한다.The satellite reception viewingangle determination unit 141 determines whether the satellite reception viewing angle is secured using the PFI value of the GGA from the positioning data output from thesatellite navigation receiver 110, Is good.

한편 상기 PFI의 값이 특정값(여기서 특정값은 4를 의미함)을 나타내고 있지 않는 경우에는 위성항법신호의 수신이 불량하다고 간주한다. 이때 상기 위성항법수신기(110)로부터 입력되는 측위데이터는 상기 무인비행체(200)의 수평정확도를 유지하면서 착륙을 수행하기 위하여 상기 무인비행체(200)를 정밀하게 제어할 수 있는 데이터가 아닌 것으로 간주한다.On the other hand, when the value of the PFI does not indicate a specific value (the specific value is 4), it is considered that the reception of the satellite navigation signal is poor. At this time, the positioning data inputted from theGPS receiver 110 is regarded as data which can precisely control theUAV 200 to perform landing while maintaining the horizontal accuracy of theUAV 200 .

일반적으로 GNSS 활용분야에서는 PFI값은 자료처리에 사용된 보정정보의 종류를 구분하거나 자료처리에 사용된 방법을 구분하는 용도로 사용되며, GNSS 데이터를 활용하는 분야에 따라서 PFI값이 4가 아닌 경우(예를 들어, 2 또는 5인 경우)에도 의미 있는 데이터로 판단하고 사용된다.Generally, in the GNSS application field, the PFI value is used to classify the type of correction information used in data processing or to distinguish the method used for data processing. If the PFI value is not 4 according to the field using GNSS data (For example, 2 or 5), it is judged as meaningful data and used.

그러나 본 발명에서는 무인비행체의 수직 이착륙에 대한 정확도를 확보할 수 있는 정밀한 측위를 필요로 하기 때문에 상기 PFI 값이 4가 아닌 경우는 모두 위성수신시야각이 확보되지 않은 상태로 판단한다.However, since the present invention requires precise positioning to ensure the accuracy of the vertical take-off and landing of the unmanned aerial vehicle, it is determined that the satellite reception viewing angle is not secured when the PFI value is not 4.

또한 상기 보정정보 계산부(142)는 상기 판단결과 위성수신 시야각이 확보되지 않은 경우에는 상기 센싱정보 수집부(130)로부터 제공되는 고도별 영상을 분석하여, 상기 무인비행체(200)에 대한 측위데이터를 정확하게 보정할 수 있도록 한다.When the satellite reception viewing angle is not secured as a result of the determination, the correctioninformation calculation unit 142 analyzes the altitude-specific image provided from the sensinginformation collection unit 130, and obtains the positioning data for theunmanned air vehicle 200 Can be accurately corrected.

또한 상기 보정정보 계산부(142)는 상기 고도별 영상을 분석하기 위해 기준이 되는 영상을 설정하고, 상기 설정한 기준영상과 현재 고도에서 촬영한 현재영상을 비교하여 분석을 수행한다.In addition, the correctioninformation calculation unit 142 sets a reference image for analyzing the altitude-specific image, and compares the set reference image with the current image photographed at the current altitude to perform analysis.

상기 기준이 되는 영상은 위성항법신호의 수신이 양호한 구간에서 무인비행체(200)와 지상의 목표지점과의 수평정확도를 유지한 상태에서 상기 목표지점을 촬영한 영상 중에서 가장 최근의 영상을 의미한다.The reference image means the latest image of the image captured at the target point while maintaining the horizontal accuracy between theunmanned air vehicle 200 and the target point on the ground in a section where the satellite navigation signal is received.

또한 상기 보정정보 계산부(142)는 상기 설정한 기준영상과 상기 현재영상의 배율차이를 계산하여 상기 기준영상과 현재영상의 가로 및 세로에 대한 픽셀 차이를 계산하고, 상기 계산한 픽셀차이에 따른 실제거리를 계산한다. 즉, 상기 보정정보계산부(142)는 위성수신 시야각이 확보되지 않는 구간에서 촬영한 영상과 해당 영상이 촬영된 지점에서 지상과의 수직거리로부터 상기 무인비행체(200)가 목표지점에서 벗어난 거리를 나타내는 보정정보 계산한다.The correctioninformation calculation unit 142 may calculate a difference between magnitudes of the reference image and the current image to calculate a pixel difference between the reference image and the current image in the horizontal and vertical directions, Calculate the actual distance. That is, the correctioninformation calculation unit 142 calculates the distance that theunmanned air vehicle 200 deviates from the target point from the vertical distance between the image photographed in the section where the satellite reception viewing angle is secured and the ground at the point where the image is photographed Is calculated.

한편 상기 보정정보를 계산하는 것은 미리 설정하여 저장한 특정높이에서의 촬영배율, 상기 배율에 따른 픽셀간의 간격 및 상기 픽셀간의 간격에 대한 실제거리를 기반으로 수행됨은 상술한 바와 같다.On the other hand, the calculation of the correction information is performed based on the imaging magnification at a predetermined height stored in advance, the interval between pixels according to the magnification, and the actual distance between the pixels.

또한 상기 측위데이터 보정부(143)는 상기 계산한 보정정보를 상기 위성항법수신기(110)에서 출력한 측위데이터에 적용하여, 상기 측위데이터를 보정하고, 상기 운행제어부(120)로 제공한다.The positioningdata correction unit 143 applies the calculated correction information to the positioning data output from thesatellite navigation receiver 110, corrects the positioning data, and provides the correction data to theoperation control unit 120.

한편 상기 측위데이터는 NMEA데이터로써, 상기 GGA에서 표시되는 고도는 특정 위경도 좌표에서 해수면 기준 고도와 표준타원체 기준높이(WGS84 기준 높이)를 각각 구분해서 표시되기 때문에 상기 거리측정센서(400)를 통해 측정한 높이(즉, 상기 현재영상을 촬영한 지점에서 지표면까지의 수직거리)를 상기 GGA의 고도로 사용할 수 없다.On the other hand, since the positioning data is NMEA data, the altitude displayed in the GGA is displayed separately from the sea level reference height and the standard ellipsoid reference height (WGS84 reference height) at a specific lumenal coordinate, The measured height (i.e., the vertical distance from the point at which the current image is photographed to the surface of the ground) can not be used as the altitude of the GGA.

따라서 상기 측위데이터 보정부(143)는 상기 위성항법수신기(110)에서 측정하여 출력한 가장 최근의 측위데이터(즉, 상기 기준영상을 촬영한 시점에서의 측위데이터를 말함)에서 GGA 중 WGS84 위도 및 경도 좌표값과 해수면 기준고도(MSL Altitude) 및 WGS84 기준높이(Geoid Separation)와 상기 기준영상을 촬영한 지점에서 거리측정센서(400)를 통해 측정한 수직거리인 기준높이를 메모리(150)에 저장한다.Therefore, thepositioning data corrector 143 obtains the latitude of the WGS84 in the GGA from the latest positioning data measured by the satellite navigation receiver 110 (that is, the positioning data at the time of photographing the reference image) The MSL altitude and WGS84 reference height and the reference height, which is the vertical distance measured through thedistance measuring sensor 400 at the point at which the reference image is captured, are stored in thememory 150 do.

이 때 상기 WGS84 기준높이는 위성수신시야각이 확보되지 않은 구간에서도 동일하다고 간주할 수 있다. 따라서 상기 보정된 측위데이터의 WGS84 기준높이는 메모리에 저장된 WGS84 기준높이로 할 수 있다.At this time, the WGS84 reference height can be regarded as the same in a section where the satellite reception viewing angle is not ensured. Therefore, the WGS84 reference height of the corrected positioning data may be the WGS84 reference height stored in the memory.

또한 현재영상이 촬영된 지점에서의 해수면 기준 고도는, [해수면 기준 고도 = 메모리(150)에 저장된 해수면 기준 고도 - (메모리(150)에 저장된 기준높이 - 현재높이)]에 따라 계산된다. 여기서 현재높이는 상기 현재영상이 촬영된 지점에서 무인비행체(200)와 지표면사이의 수직거리를 의미한다.In addition, the sea level reference altitude at the point where the current image is captured is calculated according to the sea level reference altitude (reference height stored in the memory 150 - current height stored in the memory 150). Here, the current height means a vertical distance between theunmanned air vehicle 200 and the ground surface at the point where the current image is captured.

이에 따라 상기 측위데이터 보정부(143)는 현재영상이 촬영된 지점에서의 현재높이를 상기 해수면 기준고도로 계산하여 상기 측위데이터를 보정한다.Accordingly, the positioningdata correction unit 143 corrects the positioning data by calculating the current height at the point at which the current image is captured at the sea level reference altitude.

한편 상기 측위데이터 보정부(143)는 상기 위성수신시야각판단부(141)의 판단에 따라 위성수신시야각이 확보된 경우에는 상기 위성항법수신기(110)로부터 입력되는 측위데이터를 보정하지 않고, 상기 운행제어부(120)로 제공한다.On the other hand, when the satellite reception viewing angle is secured according to the determination of the satellite reception viewingangle determination unit 141, the positioningdata correction unit 143 does not correct the positioning data input from thesatellite navigation receiver 110, To thecontrol unit 120.

또한 상기 운행제어부(120)는 측위데이터 보정부(143)로부터 제공받은 측위데이터(여기서 상기 측위데이터는 보정되었거나 보정되지 않은 측위데이터임)를 기반으로 무인비행체(200)를 제어하여 상기 지상의 목표지점과의 수평정확도를 지속적으로 유지함과 동시에 상기 목표지점에 안전하게 착륙할 수 있도록 한다.Also, theoperation control unit 120 controls theunmanned air vehicle 200 based on the positioning data provided from the positioning data correction unit 143 (the positioning data is corrected or uncorrected positioning data) Thereby maintaining the horizontal accuracy with respect to the point and making it possible to safely land at the target point.

한편 도 3을 참조하여 상기 무인비행체(200)의 착륙에 대해서 상세히 설명하였으나 상기 무인비행체(200)의 이륙에 대해서도 동일한 방법으로 수행된다. 이때 상기 무인비행체(200)는 위성수신 시야각이 확보될 때 까지 고도별 영상정보를 분석하여 보정정보를 계산함으로써, 측위데이터를 보정한다. 또한 상기 분석 시 사용되는 기준영상은 이륙 즉시 촬영한 영상 또는 일정한 높이로 상승하였을 때 촬영된 영상으로 설정될 수 있다.Although the landing of theunmanned air vehicle 200 has been described in detail with reference to FIG. 3, theunmanned air vehicle 200 is also taken off in the same manner. At this time, theUAV 200 corrects the positioning data by calculating the correction information by analyzing the image information of the altitude until the satellite reception viewing angle is secured. In addition, the reference image used in the analysis may be set as an image taken immediately after take-off or an image taken when the image has risen to a certain height.

도 4는 본 발명의 일 실시예에 따른 무인비행체의 수평위치 정확도를 유지하여, 목표지점에 안전하고 정확하게 착륙하기 위한 절차를 나타낸 흐름도이다.FIG. 4 is a flowchart illustrating a procedure for safely and accurately landing at a target point by maintaining horizontal positional accuracy of an unmanned aerial vehicle according to an embodiment of the present invention.

도 4에 도시한 바와 같이, 상기 무인비행체(200)의 수평위치 정확도를 유지하면서 지상의 목표지점에 착륙하기 위한 절차는 우선, 상기 측위데이터 보정모듈(140)은 위성항법수신기(110)으로부터 출력한 상기 무인비행체(200)에 대한 측위데이터를 입력받는다(S110).4, the procedure for landing at a target point on the ground while maintaining the horizontal positional accuracy of theUAV 200 is first performed by the positioningdata correction module 140, And receives the positioning data for the unmanned aerial vehicle 200 (S110).

한편 상기 측위데이터는 상기 무인비행체(200)의 위치에 대한 정보를 포함하는 데이터이기 때문에 상기 특정시점에서 출력되는 것이 아니라 보다 정확한 착륙을 위해 실시간으로 출력되는 것이 바람직하며, 일정한 시간마다 출력될 수도 있다.Since the positioning data is data including information on the position of the unmannedaerial vehicle 200, it is preferable that the positioning data be output in real time for more accurate landing rather than being output at the specific point in time, .

다음으로 센싱정보 수집부(130)를 통해 상기 무인비행체(200)가 하강하는 동안 지상의 목표지점에 대한 영상과 해당 영상이 촬영된 지점에서의 지면에 대한 수직거리를 수집한다(S120).Next, the sensinginformation collecting unit 130 acquires the image of the target point on the ground while theunmanned air vehicle 200 descends (S120) and the vertical distance to the ground at the point where the corresponding image is captured.

한편 상기 영상은 하강에 따라 상기 지표면과 상기 무인비행체(200)간의 수직거리 별로 수집되며, 상기 영상과 상기 수직거리는 카메라(300)와 거리측정 센서(400)를 이용하여 각각 수집된다.Meanwhile, the image is collected according to the vertical distance between the ground surface and theUAV 200 according to the descent, and the image and the vertical distance are collected using thecamera 300 and thedistance measuring sensor 400, respectively.

다음으로 위성수신시야각판단부(141)를 통해 GNSS위성으로부터 위성수신 시야각이 확보되었는지에 대한 여부를 판단한다(S130).Next, it is determined whether the satellite reception viewing angle is secured from the GNSS satellite through the satellite reception viewing angle determination unit 141 (S130).

상기 위성수신 시야각 확보 여부는 위성수신환경이 불량한지 양호한지에 대한 여부를 판단하는 것으로 상기 위성항법수신기(110)에서 출력되는 측위데이터에서 GGA의 PFI에 대한 값에 따라 판단된다.Whether or not the satellite reception viewing angle is secured is determined based on the value of the PGA of the GGA in the positioning data output from thesatellite navigation receiver 110 by determining whether the satellite reception environment is good or not.

다음으로 상기 판단결과 위성항법신호의 수신이 불량한 경우(S140), 보정정보 계산부(142)를 통해 상기 위성항법신호의 수신이 불량한 지역에서 수신한 GNSS위성의 위성항법 신호에 대한 측위데이터를 보정하기 위한 보정정보를 계산한다(S150).If it is determined that the satellite navigation signal has not been successfully received (S140), the correctioninformation calculation unit 142 corrects the positioning data for the satellite navigation signal of the GNSS satellite received in the area where the reception of the satellite navigation signal is poor (S150).

상기 보정정보는 카메라(300)로 촬영한 현재영상과 해당 영상이 촬영된 지점에서의 지상과의 수직거리로부터 상기 무인비행체(200)가 목표지점에서 벗어난 거리를 의미하는 것으로, 상기 보정정보 계산부(142)에서 설정한 기준영상과 상기 현재영상의 픽셀차이를 분석하여, 상기 분석한 픽셀 차이값 실제거리로 계산한 수치이다.The correction information indicates a distance that theunmanned object 200 is deviated from a target point from a vertical distance between a current image photographed by thecamera 300 and a ground at a point where the corresponding image is photographed. And the pixel difference between the reference image and the current image set by the imagedifference calculating unit 142 and calculating the calculated actual pixel distance value.

다음으로 측위데이터 보정부(143)를 통해 상기 계산한 보정정보를 상기 위성항법수신기(110)에서 출력한 측위데이터에 적용하여, 상기 측위데이터를 보정한다(S160).Next, the calculated correction information is applied to the positioning data output from thesatellite navigation receiver 110 through the positioningdata correction unit 143 to correct the positioning data (S160).

한편 상기 측위데이터의 보정은 위성수신 시야각이 확보되지 않은 지역에서 수신한 위성항법신호로부터 출력한 측위데이터는 실제로 상기 무인비행체(200)의 위치를 정확하게 보장하지 못하기 때문에 수행된다.On the other hand, the correction of the positioning data is performed because the positioning data output from the satellite navigation signal received in an area where the satellite reception viewing angle is not secured can not accurately guarantee the position of theunmanned air vehicle 200.

즉, 위성항법신호의 수신이 불량한 구역에서의 상기 측위데이터를 보정하여, 상기 보정된 측위데이터를 토대로 상기 무인비행체(200)를 제어함으로써, 지상의 목표지점간의 수평정확도를 지속적으로 유지할 수 있도록 한다.That is, the positioning data in the area where reception of the satellite navigation signal is poor is corrected, and theunmanned air vehicle 200 is controlled based on the corrected positioning data so that the horizontal accuracy between the target points on the ground can be continuously maintained .

다음으로 상기 측위데이터 보정부(143)를 통해 상기 위성항법수신기(110)로부터 입력받은 측위데이터를 상기 계산한 보정정보를 적용하여 보정된 측위데이터를 출력한다(S160).Next, the positioning data corrected by applying the calculated correction information to the positioning data received from thesatellite navigation receiver 110 through the positioningdata correction unit 143 is output (S160).

이때 상기 운행제어부(120)는 상기 측위데이터 보정부(143)에서 출력한 보정된 측위데이터를 이용하여 상기 무인비행체(200)를 제어함으로써, 상기 지상의 목표지점과 수평정확도를 유지하면서 수직으로 상기 목표지점으로 착륙할 수 있도록 한다.At this time, theoperation control unit 120 controls theUAV 200 using the corrected positioning data output from the positioningdata correcting unit 143 so that the UAV can be vertically moved while maintaining the horizontal accuracy with the above- Make it possible to land at the target point.

또한 상기 운행제어부(120)는 상기 지상의 목표지점으로 근접하는 경우, 상기 무인비행체(200)의 하강속도를 제어하여 안전하게 착륙할 수 있도록 한다.In addition, when thetravel control unit 120 approaches the target point on the ground, it controls the descending speed of theunmanned air vehicle 200 so that it can land safely.

한편 위성수신시야각판단부(141)를 통해 판단한 결과, 위성수신 시야각이 확보되어 위성항법신호의 수신이 양호한 경우(S140)에는 상기 측위데이터 보정부(143)는 상기 위성항법수신기(110)로부터 입력받은 측위데이터를 보정하지 않고 출력한다(S141). 따라서 상기 운행제어부(120)는 상기 보정하지 않은 측위데이터를 이용하여 상기 무인비행체(200)를 제어하게 된다.If it is determined that the satellite reception viewing angle is secured and the reception of the satellite navigation signal is good at step S140, the positioningdata correction unit 143 receives the satellite navigation signal from thesatellite navigation receiver 110 And outputs the received positioning data without correction (S141). Therefore, theoperation control unit 120 controls theunmanned air vehicle 200 using the uncorrected positioning data.

이상에서 설명하였듯이, 본 발명인 무인비행체의 이착륙용 수평정확도 유지 방법 및 그 장치는, 상기 무인비행체의 이륙 또는 착륙을 수행할 때 고도별 영상정보를 이용하여 상기 무인비행체의 측위데이터를 보정할 수 있도록 함으로써, 위성항법신호의 수신환경이 불량한 지역에서도 안전하고 정확하게 상기 무인비행체의 수직 이착륙을 유도할 수 있도록 하는 효과가 있다.As described above, the present invention provides a horizontal accuracy maintaining method and apparatus for a takeoff and landing of an unmanned aerial vehicle, which is capable of correcting the positioning data of the unmanned aerial vehicle using the image information of the altitude when performing takeoff or landing of the unmanned aerial vehicle Thus, there is an effect that it is possible to safely and accurately induce vertical takeoff and landing of the unmanned aerial vehicle even in an area where reception environment of the satellite navigation signal is poor.

상기에서는 본 발명에 따른 바람직한 실시예를 위주로 상술하였으나, 본 발명의 기술적 사상은 이에 한정되는 것은 아니며 본 발명의 각 구성요소는 동일한 목적 및 효과의 달성을 위하여 본 발명의 기술적 범위 내에서 변경 또는 수정될 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. .

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention.

100 : 수평위치 정확도 유지 장치 110 : 위성항법수신기
120 : 운행제어부 130 : 센싱정보 수집부
140 : 측위데이터 보정모듈 141 : 위성수신시야각판단부
142 : 보정정보 계산부 143 : 측위데이터 보정부
150 : 메모리 200 : 무인비행체
300 : 카메라 400 : 거리측정센서
100: Horizontal position accuracy maintaining device 110: Satellite navigation receiver
120: Operation control unit 130: Sensing information collecting unit
140: positioning data correction module 141: satellite reception viewing angle determination unit
142: correction information calculation unit 143: positioning data correction unit
150: memory 200: unmanned aerial vehicle
300: camera 400: distance measuring sensor

Claims (10)

Translated fromKorean
GNSS 위성으로부터 위성항법신호를 수신하여 측위데이터를 생성하는 위성항법수신기; 및
상기 위성항법수신기에서 생성한 측위데이터를 보정하여 보정된 측위데이터를 생성하여 출력하는 측위데이터 보정모듈;를 포함하며,
상기 보정된 측위데이터는 고도별 영상을 분석하여 상기 측위데이터를 보정하여 생성되는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 장치.
A satellite navigation receiver that receives the satellite navigation signal from the GNSS satellite and generates positioning data; And
And a positioning data correction module for correcting the positioning data generated by the satellite navigation receiver to generate and output the corrected positioning data,
Wherein the corrected positioning data is generated by analyzing an altitude-specific image and correcting the positioning data.
청구항 1에 있어서,
상기 측위데이터 보정모듈은,
상기 측위데이터로부터 상기 GNSS 위성으로부터 위성수신 시야각이 확보되었는지 여부를 판단하는 위성수신시야각판단부;를 포함하며,
상기 판단은 측위데이터 중 GGA의 position fix indicator의 값을 이용하여 상기 시야각의 확보여부를 판단하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 장치.
The method according to claim 1,
Wherein the positioning data correction module comprises:
And a satellite reception viewing angle determiner for determining, from the positioning data, whether a satellite reception viewing angle is secured from the GNSS satellite,
Wherein the determination of whether or not the viewing angle is secured is made using the value of the position fix indicator of the GGA in the positioning data.
청구항 2에 있어서,
상기 측위데이터 보정모듈은,
카메라로 촬영한 영상과 해당 영상이 촬영된 지점에서의 지상과의 수직거리로부터 무인비행체가 목표지점에서 벗어난 거리를 계산하는 보정정보 계산부;를 더 포함하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 장치.
The method of claim 2,
Wherein the positioning data correction module comprises:
And a correction information calculation unit for calculating a distance that the unmanned aerial vehicle deviates from the target point based on the vertical distance between the image photographed by the camera and the ground at the point where the corresponding image is photographed. Accuracy maintaining device.
청구항 3에 있어서,
상기 측위데이터 보정모듈은,
상기 목표지점에서 벗어난 거리만큼 상기 측위데이터를 보정하여 출력하는 측위데이터 보정부;를 더 포함하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 장치.
The method of claim 3,
Wherein the positioning data correction module comprises:
And a positioning data correcting unit for correcting and outputting the positioning data by a distance deviated from the target point.
청구항 1에 있어서,
상기 보정된 측위데이터에 따라 상기 무인비행체의 위치를 제어하는 운행제어부;를 더 포함하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 장치.
The method according to claim 1,
And a travel controller for controlling the position of the unmanned air vehicle according to the corrected positioning data.
위성항법수신기를 이용하여 GNSS 위성으로부터 위성항법신호를 수신하여 측위데이터를 생성하는 단계; 및
상기 위성항법수신기에서 생성한 측위데이터를 보정하여 보정된 측위데이터를 생성하여 출력하는 측위데이터 보정 단계;를 포함하며,
상기 보정된 측위데이터는 고도별 영상을 분석하여 상기 측위데이터를 보정하여 생성되는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 방법.
Receiving satellite navigation signals from a GNSS satellite using a satellite navigation receiver to generate positioning data; And
And a positioning data correction step of correcting the positioning data generated by the satellite navigation receiver to generate and output the corrected positioning data,
Wherein the corrected positioning data is generated by analyzing an altitude-specific image and correcting the positioning data.
청구항 6에 있어서,
상기 측위데이터 보정 단계는,
상기 측위데이터로부터 상기 GNSS 위성으로부터 위성수신 시야각이 확보되었는지 여부를 판단하는 위성수신시야각판단 단계;를 포함하며,
상기 판단은 측위데이터 중 GGA의 position fix indicator의 값을 이용하여 상기 시야각의 확보여부를 판단하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 방법.
The method of claim 6,
The positioning data correction step includes:
And a satellite reception viewing angle determining step of determining, from the positioning data, whether a satellite reception viewing angle is secured from the GNSS satellite,
Wherein the determination of whether or not to obtain the viewing angle is made using the value of the position fix indicator of the GGA in the positioning data.
청구항 7에 있어서,
상기 측위데이터 보정 단계는,
카메라로 촬영한 영상과 해당 영상이 촬영된 지점에서의 지상과의 수직거리로부터 무인비행체가 목표지점에서 벗어난 거리를 계산하는 보정정보 계산 단계;를 더 포함하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 방법.
The method of claim 7,
The positioning data correction step includes:
And calculating a distance of the unmanned aerial vehicle from the target point based on the vertical distance between the image photographed by the camera and the ground at the point where the corresponding image is photographed. How to maintain accuracy.
청구항 8에 있어서,
상기 측위데이터 보정 단계는,
상기 목표지점에서 벗어난 거리만큼 상기 측위데이터를 보정하여 출력하는 측위데이터 보정 단계;를 더 포함하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 방법.
The method of claim 8,
The positioning data correction step includes:
And a positioning data correction step of correcting and outputting the positioning data by a distance deviated from the target point.
청구항 6에 있어서,
상기 보정된 측위데이터에 따라 상기 무인비행체의 위치를 제어하는 운행제어 단계;를 더 포함하는 것을 특징으로 하는 무인비행체의 이착륙용 수평정확도 유지 방법.
The method of claim 6,
And controlling the position of the unmanned air vehicle according to the corrected positioning data.
KR1020160052812A2016-04-292016-04-29Method and apparatus for keeping horizontal position accuracy for taking off and landing of unmanned air vehicleCeasedKR20170123801A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020160052812AKR20170123801A (en)2016-04-292016-04-29Method and apparatus for keeping horizontal position accuracy for taking off and landing of unmanned air vehicle

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020160052812AKR20170123801A (en)2016-04-292016-04-29Method and apparatus for keeping horizontal position accuracy for taking off and landing of unmanned air vehicle

Publications (1)

Publication NumberPublication Date
KR20170123801Atrue KR20170123801A (en)2017-11-09

Family

ID=60385801

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020160052812ACeasedKR20170123801A (en)2016-04-292016-04-29Method and apparatus for keeping horizontal position accuracy for taking off and landing of unmanned air vehicle

Country Status (1)

CountryLink
KR (1)KR20170123801A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN110413004A (en)*2019-08-232019-11-05酷黑科技(北京)有限公司 A method and system for precise take-off and landing control of unmanned aerial vehicles
KR20210088142A (en)*2020-01-062021-07-14세종대학교산학협력단System for detecting and tracking target of unmanned aerial vehicle
KR20210088145A (en)*2020-01-062021-07-14세종대학교산학협력단System and method for automatic precision landing of unmmaned aerial vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN110413004A (en)*2019-08-232019-11-05酷黑科技(北京)有限公司 A method and system for precise take-off and landing control of unmanned aerial vehicles
KR20210088142A (en)*2020-01-062021-07-14세종대학교산학협력단System for detecting and tracking target of unmanned aerial vehicle
KR20210088145A (en)*2020-01-062021-07-14세종대학교산학협력단System and method for automatic precision landing of unmmaned aerial vehicle

Similar Documents

PublicationPublication DateTitle
EP2877904B1 (en)Method for the acquisition and processing of geographical information of a path
AU2018388887B2 (en)Image based localization for unmanned aerial vehicles, and associated systems and methods
JP5767731B1 (en) Aerial video distribution system and aerial video distribution method
US20190273909A1 (en)Methods and systems for selective sensor fusion
TW518422B (en)Positioning and proximity warning method and system thereof for vehicle
CN112335190B (en)Radio link coverage map and impairment system and method
US20200372814A1 (en)On-board command unit for a drone system, drone and drone system including the on-board command unit
KR20170111921A (en)Method and system for controlling unmanned air vehicle
KR101160454B1 (en)Construction method of 3D Spatial Information using position controlling of UAV
KR20150000053A (en)Method and Apparatus for Guiding Unmanned Aerial Vehicle and Method and Apparatus for Controlling Unmanned Aerial Vehicle
KR20190000439A (en)Unmanned air vehicle for birds control and operating method by using the same
KR20140123835A (en)Apparatus for controlling unmanned aerial vehicle and method thereof
KR20170101776A (en)Method and system for providing route of unmanned air vehicle
KR20170126637A (en)Method and system for providing route of unmanned air vehicle
CN111819610A (en) Air situational information and traffic management systems for unmanned and manned aerial vehicles
US20120158237A1 (en)Unmanned apparatus and method of driving the same
RU2584368C1 (en)Method of determining control values of parameters of spatial-angular orientation of aircraft on routes and pre-aerodrome zones in flight tests of pilot-navigation equipment and system therefor
JP2020149640A (en) Flight system and landing control method
Martínez-de Dios et al.Experimental results of automatic fire detection and monitoring with UAVs
JP2020135327A (en)Flight body system, flight body, position measuring method and program
KR20170123801A (en)Method and apparatus for keeping horizontal position accuracy for taking off and landing of unmanned air vehicle
Burdziakowski et al.Accuracy of a low-cost autonomous hexacopter platforms navigation module for a photogrammetric and environmental measurements
Hosseinpoor et al.Pricise target geolocation based on integeration of thermal video imagery and rtk GPS in UAVS
US12406586B2 (en)3D localization and mapping systems and methods
EP3331758B1 (en)An autonomous vehicle control system

Legal Events

DateCodeTitleDescription
PA0109Patent application

Patent event code:PA01091R01D

Comment text:Patent Application

Patent event date:20160429

PG1501Laying open of application
A201Request for examination
PA0201Request for examination

Patent event code:PA02012R01D

Patent event date:20180111

Comment text:Request for Examination of Application

Patent event code:PA02011R01I

Patent event date:20160429

Comment text:Patent Application

E902Notification of reason for refusal
PE0902Notice of grounds for rejection

Comment text:Notification of reason for refusal

Patent event date:20190327

Patent event code:PE09021S01D

E601Decision to refuse application
PE0601Decision on rejection of patent

Patent event date:20190730

Comment text:Decision to Refuse Application

Patent event code:PE06012S01D

Patent event date:20190327

Comment text:Notification of reason for refusal

Patent event code:PE06011S01I


[8]ページ先頭

©2009-2025 Movatter.jp