Movatterモバイル変換


[0]ホーム

URL:


KR100866380B1 - Estimation method of robot's magnetic position based on object recognition - Google Patents

Estimation method of robot's magnetic position based on object recognition
Download PDF

Info

Publication number
KR100866380B1
KR100866380B1KR1020070015026AKR20070015026AKR100866380B1KR 100866380 B1KR100866380 B1KR 100866380B1KR 1020070015026 AKR1020070015026 AKR 1020070015026AKR 20070015026 AKR20070015026 AKR 20070015026AKR 100866380 B1KR100866380 B1KR 100866380B1
Authority
KR
South Korea
Prior art keywords
robot
node
equation
estimating
candidate node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020070015026A
Other languages
Korean (ko)
Other versions
KR20080075730A (en
Inventor
박성기
김문상
박순용
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원filedCritical한국과학기술연구원
Priority to KR1020070015026ApriorityCriticalpatent/KR100866380B1/en
Publication of KR20080075730ApublicationCriticalpatent/KR20080075730A/en
Application grantedgrantedCritical
Publication of KR100866380B1publicationCriticalpatent/KR100866380B1/en
Expired - Fee Relatedlegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Classifications

Landscapes

Abstract

Translated fromKorean

본 발명은 이동 로봇이 기준좌표가 주어진 동작 환경내에서 로봇 스스로 자기의 위치를 추정(estimation)하는 방법에 관한 것으로, 이동 로봇이 환경내의 개별 물체들을 비전 센서에 의해 인식을 하고 주어진 지도(맵)를 기반으로 센서의 입력을 분석하여 자기의 위치를 추정(estimation)하는 방법에 대한 발명이다.The present invention relates to a method in which a mobile robot estimates its own position in an operating environment given a reference coordinate. The mobile robot recognizes individual objects in the environment by a vision sensor and provides a map. The present invention relates to a method of estimating a magnetic position by analyzing a sensor input based on the method.

본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법은 상기 위치 연산부가 상기 카메라부로부터 영상을 입력을 받는 영상 입력 단계와, 상기 위치 연산부가 상기 영상 입력 단계에서 입력된 영상안의 개별 물체들을 인식하고 또한 개별 물체들에 대한 거리 정보를 생성하는 물체인식 및 정보 추출 단계와, 상기 위치 연산부가 상기 물체인식 및 정보 추출 단계에서 추출된 정보와 상기 데이터베이스부에 저장되어 있는 물체 기반의 지도를 바탕으로 파티클 필터링 기법을 사용하여 로봇의 위치를 추정하는 로봇 위치 추정단계를 포함한다.In the method of estimating a magnetic position of a robot based on object recognition according to the present invention, an image input step in which the position calculator receives an image from the camera unit and an individual object in an image inputted by the position calculator in the image input step Object recognition and information extraction step of recognizing the information and generating distance information on the individual objects, and the location calculation unit extracts the information extracted in the object recognition and information extraction step and the object-based map stored in the database unit. Based on the particle filtering technique, the robot position estimation step of estimating the position of the robot is included.

스테레오 영상 입력 장치, 파티클 필터링 기법, 위상학적 지도.Stereo image input device, particle filtering technique, topological map.

Description

Translated fromKorean
물체인식을 바탕으로 한 로봇의 자기위치 추정 방법{Method for esrimating location using ObjectionRecognition of a robot}Method for estimating location using ObjectionRecognition of a robot}

도1은 본 발명에 따른 물체인식을 바탕으로 자기위치를 추정하는 로봇의 구조도이다.1 is a structural diagram of a robot for estimating a magnetic position based on object recognition according to the present invention.

도2는 본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 기본 순서도이다.2 is a basic flowchart of a method for estimating a magnetic position of a robot based on object recognition according to the present invention.

도3은 본 발명에 따른 로봇 중심의 물체 인식 및 물체 위치 개념도이다.3 is a conceptual view of robot-centered object recognition and object position according to the present invention.

도4는 본 발명에 따른 환경 중심의 물체 위치 개념도이다.4 is a conceptual diagram of an object-centered object position according to the present invention.

도5는 본 발명에 따른 로봇 중심의 물체 위치와 환경 중심의 물체 위치간의 관계도이다.5 is a relationship diagram between the object position in the robot center and the object position in the environment according to the present invention.

도6은 본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법에서 사용되는 위상학적 지도의 예시도이다.6 is an exemplary diagram of a topological map used in a method for estimating a magnetic position of a robot based on object recognition according to the present invention.

도7은 파티클 필터링에 기반한 위치 추정 방법의 순서도이다.7 is a flowchart of a position estimation method based on particle filtering.

도8은 본 발명의 제1 실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 순서도이다.8 is a flowchart of a method for estimating a magnetic position of a robot based on object recognition according to the first embodiment of the present invention.

도9는 본 발명의 제2 실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 순서도이다.9 is a flowchart of a method for estimating a magnetic position of a robot based on object recognition according to a second embodiment of the present invention.

도10은 본 발명의 제3 실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 순서도이다.10 is a flowchart of a method for estimating a magnetic position of a robot based on object recognition according to a third embodiment of the present invention.

본 발명은 이동 로봇이 기준좌표가 주어진 동작 환경내에서 로봇 스스로 자기의 위치를 추정(estimation)하는 방법에 관한 것으로, 이동 로봇이 환경내의 개별 물체들을 비전 센서에 의해 인식을 하고 주어진 지도(맵)를 기반으로 센서의 입력을 분석하여 자기의 위치를 추정(estimation)하는 방법에 대한 발명이다.The present invention relates to a method in which a mobile robot estimates its own position in an operating environment given a reference coordinate. The mobile robot recognizes individual objects in the environment by a vision sensor and provides a map. The present invention relates to a method of estimating a magnetic position by analyzing a sensor input based on the method.

산업용 로봇에서 시작한 로봇은 최근에는 임의의 환경에서도 동작할 수 있는 지능로봇의 형태로 그 응용 영역을 넓혀가고 있다. 이러한 지능로봇은 청소로봇을 비롯하여, 경비로봇, 위험물 탐지 로봇, 가사 도우미 로봇 및 교육 로봇등이 있을 수가 있다. 이러한 로봇이 주어진 환경에서 사람에게 서비스를 제공하기 위해서는 로봇 주행기술의 확보는 필수적이며, 그 중에서 로봇이 자기 위치를 추정해야 하는 자기위치추정(self-localization) 기술은 핵심적 요소 기술이 된다.Robots, starting with industrial robots, have recently been expanding their applications in the form of intelligent robots that can operate in any environment. Such intelligent robots may include cleaning robots, security robots, dangerous goods detection robots, housework helper robots, and educational robots. In order to provide services to people in a given environment, it is essential to secure robot driving technology. Among them, self-localization technology, which requires the robot to estimate its position, becomes a key element technology.

이러한 로봇의 자기 위치 추정 기술은 기본적으로 지도를 바탕으로 이루어지기 때문에 로봇이 이용하는 지도 표상(representation)이 어떤 방식으로 구성되어져 있느냐와 이용하는 센서에 따라 다양하게 변화할 수 있다. 최근의 기술의 전개는 지도(맵)는 통상 격자지도와 같은 수치적 지도위에 위상적(topological) 지도를 결합하여 사용을 하며, 센서로는 레이저 및 초음파센서에서 비전 센서로 발전을 이 루고 있는데, 이는 비전 센서가 거리 정보뿐만 아니라 영상에 기반하여 색상, 물체식별 및 사람식별등과 같은 풍부한 추가 정보를 제공할 수도 있어 그 사용의 확대가 이루어지고 있다.Since the robot's self-positioning technique is basically based on a map, it can be variously changed depending on how the map representation used by the robot is configured and the sensor used. Recent developments in maps use topographic maps on top of numerical maps, such as grid maps, which are being developed from laser and ultrasonic sensors to vision sensors. This is because the vision sensor can provide abundant additional information such as color, object identification and person identification based on the image as well as the distance information.

이러한 비전 센서를 기반으로 물체 인식 기술을 바탕으로 하여 로봇의 자기 위치를 추정(estimation)하고자 한 종래의 기술은 다음과 같다.Conventional techniques for estimating the magnetic position of a robot based on an object recognition technology based on such a vision sensor are as follows.

국내의 특허로는 물체에 액티브태그를 붙여 이를 비전 센서로 인식하고 이를 물체와 로봇 사이의 위치를 알고자 한 특허(공개번호 10-2006-0102389)와 비전기반의 이동로봇의 위치 제어 시스템 특허(공개 번호 10-2005-0062713)가 있다. 전자는 로봇이 이동하는 경로에 있는 물체에 인공적 태그를 부착하여야 하는 불편함이 있으며, 후자는 비전 센서가 로봇에 부착되지 아니하고 환경에 부착되어 단순히 로봇만을 인식하여 그 위치를 추정하는 방식이어서 환경에 따라 비전 센서가 필요하므로 다수의 비전 센서를 설치해야 한다는 단점이 있었다.Domestic patents include active tags attached to objects to recognize them as vision sensors and know the location between objects and robots (Publication No. 10-2006-0102389) and patents for position control systems of vision-based mobile robots. Publication No. 10-2005-0062713. The former is inconvenient to attach an artificial tag to an object in the path that the robot moves, and the latter is a method of estimating its position by simply recognizing the robot by attaching it to the environment instead of attaching it to the robot. As a result, a vision sensor is required, which requires the installation of multiple vision sensors.

외국의 특허로는 미국의 비전 센서에 의해 자기위치 추정과 맵 구현을 동시에 수행하는 특허(미국 특허 US 7015831) 기술이 대표적이다. 그러나, 이 특허의 기술도 환경에서 비전 센서를 이용하여 물체 단위로 인식을 수행하지 아니하고 3차원상의 국소적 특징점들을 추출하여 이를 바탕으로 자기위치를 추정함으로써 향후 환경 변화의 요인에 대처할 수 있는 수단을 상실하여 기본적으로 레이저 센서를 이용하는 것과 별반 차이가 없다는 단점이 있었다.As for foreign patents, a patent (US Patent US 7015831) technology which simultaneously performs magnetic position estimation and map implementation by a US vision sensor is representative. However, the technology of this patent also does not perform the recognition by the object unit by using the vision sensor in the environment and extracts the local feature points on the 3D and estimates the magnetic position based on this. There was a disadvantage that it is basically no difference from using a laser sensor.

그리고, 공개된 논문들 중에서 본 특허와 유사한 기술은 다음과 같다.And, among the published papers, a technique similar to this patent is as follows.

일본 Yuta등이 물체인식을 바탕으로 물체 중심의 위상적 지도를 구성하고 로 봇의 위치는 그러한 물체를 1개씩 인식함과 동시에 로봇이 움직여 가면서 또 다른 물체를 인식하여 로봇의 위치를 추정하는 방법을 제시하였다 (M. Tomoyo and S. Yuta, "Object-based localization and mapping using loop constraints and geometric prior knowledge," International Conference on Robotics and Automation, pp. 862~867. 2003.). 이러한 방법은 로봇의 자기위치추정의 방법에 있어서 국소적 위치 추적(local localization tracking)에 해당하는 방법으로서, 로봇이 임의의 위치로 갑자기 움직여졌거나, 국소적 위치 추정의 실패로 새로 로봇의 위치를 추정하고자 하는 전역적 자기위치 추정에는 적용이 어렵다는 문제점이 있었다.Based on the object recognition, Japanese Yuta et al. Construct a topological map of the object center, and the robot's position recognizes such objects one by one and at the same time the robot moves and recognizes another object and estimates the position of the robot. M. Tomoyo and S. Yuta, "Object-based localization and mapping using loop constraints and geometric prior knowledge," International Conference on Robotics and Automation, pp. 862-867. 2003.). This method corresponds to local localization tracking in the robot's self-positioning method, and the robot is suddenly moved to an arbitrary position or newly estimated by the failure of local position estimation. There is a problem in that it is difficult to apply to global self-position estimation.

본 발명은 상기한 바와 같은 종래 기술의 불편함을 해결하기 위하여 안출된 것으로서,The present invention has been made to solve the inconvenience of the prior art as described above,

본 발명의 목적은 환경 인식을 위한 물체는 미리 위상학적 지도 형태로 3차원 위치와 함께 저장이 된 상태에서 비전 센서에 의하여 환경내의 물체 인식을 수행하고 물체가 인식되는 경우 로봇과의 3차원 상대 위치도 함께 계산하여 위치를 추정하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법을 제공하는 것이다.An object of the present invention is to perform the object recognition in the environment by the vision sensor in the state that the object for environmental recognition is stored together with the three-dimensional position in the form of a topological map in advance, and the three-dimensional relative position with the robot The present invention also provides a method for estimating a magnetic position of a robot based on object recognition for estimating a position by calculating the same.

또한 본 발명의 다른 목적은 비전 센서에 의한 물체 인식 시간이 로봇이 주행을 하면서 위치 추정에 적용하기에는 어렵다는 전제 아래, 로봇이 환경의 개별적 물체를 인식하고 그를 바탕으로 위치를 추정(estimation)하도록 하여 로봇이 정지하여 있는 위치에서 전역적 위치 추정하는 로봇의 자기위치 추정 방법을 제공하는 것이다.In addition, another object of the present invention is to assume that the object recognition time by the vision sensor is difficult to apply to the position estimation while the robot is running, the robot recognizes the individual objects in the environment and estimates the location based on the robot It is to provide a method for estimating the magnetic position of a robot that estimates the global position at the stationary position.

상기 목적을 달성하기 위하여 본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법은 상기 위치 연산부가 상기 카메라부로부터 영상을 입력을 받는 영상 입력 단계와, 상기 위치 연산부가 상기 영상 입력 단계에서 입력된 영상안의 개별 물체들을 인식하고 또한 개별 물체들에 대한 거리 정보를 생성하는 물체인식 및 정보 추출 단계와, 상기 위치 연산부가 상기 물체인식 및 정보 추출 단계에서 추출된 정보와 상기 데이터베이스부에 저장되어 있는 물체 기반의 지도를 바탕으로 파티클 필터링 기법을 사용하여 로봇의 위치를 추정하는 로봇 위치 추정단계를 포함한다.In order to achieve the above object, a method of estimating a magnetic position of a robot based on object recognition according to the present invention includes an image input step in which the position calculating unit receives an image from the camera unit, and the position calculating unit in the image input step. An object recognition and information extraction step of recognizing individual objects in the input image and generating distance information on the individual objects, and the position calculating unit is stored in the database and the information extracted in the object recognition and information extraction step The robot position estimation step of estimating the position of the robot using a particle filtering method based on an object-based map that exists.

이하, 바람직한 실시예를 통하여 본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 시스템과 방법을 보다 구체적으로 살펴본다.Hereinafter, the magnetic position estimation system and method of the robot based on the object recognition according to the present invention will be described in more detail.

도1은 본 발명에 따른 물체인식을 바탕으로 자기위치를 추정하는 로봇의 구조도이다.1 is a structural diagram of a robot for estimating a magnetic position based on object recognition according to the present invention.

본 발명에 따른 물체인식을 바탕으로 자기위치를 추정하는 로봇은 도1에 도시된바와 같이 카메라부(100)와 로봇 본체(200)와 로봇 이동부(300)를 포함하여 구성된다.The robot for estimating the magnetic position based on the object recognition according to the present invention includes acamera unit 100, arobot body 200, and arobot moving unit 300 as shown in FIG. 1.

상기 카메라부(100)는 로봇의 위치를 추정하는 수단으로서 스테레오 영상 입력 장치로 구성된다.Thecamera unit 100 is configured as a stereo image input device as a means for estimating the position of the robot.

상기 카메라부(100)에서 사용되는 스테레오 영상 입력 장치는 일정 범위의 시야각을 갖는 카메라를 사용할 수도 있고, 전방향의 시야각을 갖는 카메라를 사용할 수도 있다. 다만 일정 범위의 시야각을 갖는 카메라를 사용할 경우에는 도1에 도시된바와 같이 카메라를 일정 각도씩 회전시킬 수 있는 팬/틸트 장치(110)를 추가하여 카메라를 회전시킴으로써 전방향의 영상을 입력받을 수 있다.The stereo image input device used in thecamera unit 100 may use a camera having a predetermined range of viewing angle, or may use a camera having an omnidirectional viewing angle. However, when using a camera having a certain range of viewing angle as shown in Figure 1 as shown in Figure 1 by adding a pan /tilt device 110 that can rotate the camera by a predetermined angle to receive the image of the omnidirectional image have.

상기 팬/틸트 장치(110)는 수평으로의 좌우 회전하는 패닝(Panning)과 상하의 끄덕이는 동작인 틸팅(tilting)이 가능한 회전 장치이다.The pan /tilt device 110 is a rotating device capable of tilting, which is horizontal panning and horizontal nodding operation.

로봇 본체(200)는 외부 동작을 하기 위한 기계 팔인 머니퓨레이터(210)가 외부에 장착되고 내부에 로봇 이동 경로 주위의 지도가 저장된 데이터베이스부(미도시)와 상기 카메라부(100)에서 입력되는 영상 정보를 상기 데이터베이스부에 저장된 지도와 대조하여 위치를 추정하는 위치 연산부(미도시)를 포함한다.Therobot body 200 is inputted from thecamera unit 100 and a database unit (not shown) in which amanipulator 210, which is a mechanical arm for external operation, is mounted on the outside and a map around the robot movement path is stored therein. And a location calculator (not shown) for estimating a location by comparing the image information with a map stored in the database.

상기 데이터베이스부에 저장된 지도는 미리 위상학적 지도 형태로 제작되며 지도상의 각 물체들의 3차원 위치와 함께 저장된다.The map stored in the database unit is prepared in the form of a topological map in advance and stored with the three-dimensional position of each object on the map.

로봇 이동부(300)는 로봇을 이동 경로에 따라 이동시키는 구성으로 바퀴나 캐터필라를 비롯하여 로봇의 본체를 이동 시킬 수 있는 모든 장치를 사용할 수 있다.Therobot moving unit 300 may use any device capable of moving the main body of the robot, including wheels and caterpillars, to move the robot along a moving path.

도2는 본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 기본 순서도이다.2 is a basic flowchart of a method for estimating a magnetic position of a robot based on object recognition according to the present invention.

본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법은 도2에 도시된바와 같이 카메라부(100)로부터 영상을 입력을 받는 영상 입력 단계(S110)와, 상기 영상 입력 단계(S110)에서 입력된 영상안의 개별 물체들을 인식하고 또한 개별 물체들에 대한 거리 정보를 생성하는 물체인식 및 정보 추출 단계(S120)와, 로봇의 위치 추정 수단이 상기 물체인식 및 정보 추출 단계(S120)에서 추출된 정보를 이용하여 미리 등록되어 있는 물체 기반의 지도를 바탕으로 로봇의 위치를 추정하는 로봇 위치 추정단계(S130)를 포함한다. 따라서, 본 발명에서는 기본적으로 먼저 환경내의 개별 물체를 인식하고, 이를 바탕으로 물체만의 거리 정보를 추출하여 로봇의 위치를 추정한다고 할 수 있다.In the method of estimating the magnetic position of the robot based on the object recognition according to the present invention, as shown in FIG. 2, an image input step (S110) receiving an image from thecamera unit 100 and the image input step (S110) Object recognition and information extraction step (S120) for recognizing individual objects in the image input in the step and generating distance information for the individual objects, and the position estimation means of the robot is extracted in the object recognition and information extraction step (S120) And a robot position estimation step (S130) of estimating the position of the robot based on an object-based map registered in advance using the registered information. Therefore, in the present invention, basically, the individual objects in the environment are first recognized, and based on this, the distance information of only the objects may be extracted to estimate the position of the robot.

본 발명에서의 물체 인식은 국소 특징점들의 집합으로써 물체 인식을 수행하는 방법으로 카메라부(100)를 이용하여 로봇과 물체의 국소 특징점들에 대한 거리 정보를 얻는 방법을 사용한다.In the present invention, object recognition is a method of performing object recognition as a set of local feature points, and uses a method of obtaining distance information on local feature points of a robot and an object using thecamera unit 100.

Figure 112007013347975-pat00001
는 도3에 도시된바와 같이 물체의 국소 특징점들과 카메라부(100)간의 3차원 거리값이고,
Figure 112007013347975-pat00002
는 도4에 도시된바와 같이 상기 도3과 동일 물체의 국소 특징점들과 환경 지도 중심 좌표계간의 3차원 거리값이며,
Figure 112007013347975-pat00003
Figure 112007013347975-pat00004
의 관계는 도5에 도시된 바와 같다.
Figure 112007013347975-pat00001
3 is a three-dimensional distance value between the local feature points of the object and thecamera unit 100, as shown in FIG.
Figure 112007013347975-pat00002
4 is a three-dimensional distance value between local feature points of the same object as that of FIG. 3 and an environment map center coordinate system, as shown in FIG.
Figure 112007013347975-pat00003
and
Figure 112007013347975-pat00004
The relationship of is as shown in FIG.

이러한 두 거리값들의 동차 변환행렬은 하기된 수학식 1에서와 같이

Figure 112007013347975-pat00005
로 나타낼 수 있으며, 이들 사이의 관계식은 하기된 수학식 2와 같다.The homogeneous transformation matrix of these two distance values is shown in Equation 1 below.
Figure 112007013347975-pat00005
It can be represented by, the relationship between them is shown in Equation 2 below.

따라서, 로봇이 임의의 위치에서

Figure 112007013347975-pat00006
를 계산할 수 있고, 또한 환경지도 중심으로 인식된 물체의 거리 정보
Figure 112007013347975-pat00007
를 알고 있으면, 수학식 2를 통해
Figure 112007013347975-pat00008
를 추정할 수 있고, 그로부터 로봇의 위치를 수학식 1에 따라 추정할 수 있게 된다. 3차원 공간상의 임의의 위치라면 그 로봇 위치는
Figure 112007013347975-pat00009
로 나타낼 수 있으며, 일정한 평면상에서 동작하는 로봇이라면,
Figure 112007013347975-pat00010
이 되어 로봇 위치를 결정하는 변수는
Figure 112007013347975-pat00011
가 된다. 따라서, 대응되는 국소 특징점들이 3점 이상이면 수학식 2에서
Figure 112007013347975-pat00012
를 결정할 수 있게 된다.Therefore, the robot can be
Figure 112007013347975-pat00006
Can calculate the distance information of the object recognized as the center of the environment map
Figure 112007013347975-pat00007
If you know, through the equation (2)
Figure 112007013347975-pat00008
It can be estimated, from which the position of the robot can be estimated according to equation (1). If it's an arbitrary position in three-dimensional space, the robot's position
Figure 112007013347975-pat00009
If you are a robot that operates on a certain plane,
Figure 112007013347975-pat00010
The variable that determines the robot's position
Figure 112007013347975-pat00011
Becomes Therefore, if the corresponding local feature points are 3 or more points,
Figure 112007013347975-pat00012
Can be determined.

Figure 112007013347975-pat00013
Figure 112007013347975-pat00013

Figure 112007013347975-pat00014
Figure 112007013347975-pat00014

상기 로봇 위치 추정단계(S130)에서 로봇의 위치를 추정하는데 사용되는 지도는 로봇 본체(200)의 데이터베이스부에 저장된 지도로 도6에 도시된바와 같이 로봇의 주행 경로를 중심으로 한 위상학적 지도(Topological map)이다.The map used to estimate the position of the robot in the robot position estimating step (S130) is a map stored in a database unit of therobot body 200, as shown in FIG. 6. Topological map.

도6에서 A, B, C 등이 노드(node)에 해당하고, 각 노드는 독립적인 기준 좌표계를 가지고 있으며, 각 노드를 연결하는 에지(edge)는 각 노드 좌표계의 상대적인 거리 정보를 가지고 있다. 그런데, 이러한 환경 지도를 고려해 보면 로봇이 물체 하나만을 인식하여 그 물체 내부의 국소 특징점만을 가지고 로봇 위치를 추정하게 되면, 2개 이상의 물체를 기반으로 위치를 추정하는 것보다는 부정확할 수 밖에 없음을 알 수 있으며, 특히 로봇의 회전 각도의 오차가 클 수 밖에 없음을 알 수 있다. 따라서, 본 발명에서는 복수개의 물체 인식을 바탕으로 로봇의 위치 추정을 하고자 한다.In FIG. 6, A, B, and C correspond to nodes, each node has an independent reference coordinate system, and an edge connecting each node has relative distance information of each node coordinate system. However, considering the environment map, if the robot recognizes only one object and estimates the location of the robot using only local feature points inside the object, it is inaccurate than inferring the location based on two or more objects. In particular, it can be seen that the error of the rotation angle of the robot is inevitably large. Therefore, the present invention intends to estimate the position of the robot based on the recognition of a plurality of objects.

또한, 위상학적 지도 기반과 물체인식 중심의 위치 추정을 하게 되는 경우, 도6에 도시된바와 같이 특정의 물체가 특정의 노드에서만 관측되는 것이 아니다. 예를 들어 물체-a, 물체-b 및 물체-c등은 노드-L과 노드-N에서 모두 관측이 가능하다.In addition, when the position estimation of the topological map base and the object recognition center is performed, as shown in FIG. 6, a specific object is not observed only at a specific node. For example, object-a, object-b, and object-c can be observed at both node-L and node-N.

즉, 이는 물체 관측이 이루어진다고 해서 로봇이 어느 노드 근방에 있다는 것을 알려주는 것이 아니기 때문에 물체 위치를 특정시켜 주는 기준 노드를 결정해 주어야 하는 문제도 있다. 본 발명에서는 이러한 위치 추정의 방법을 아래와 같은 파티클 필터링 (particle filtering, M. Isard and A. Blake, "Condensation - conditional density propagation for visual tracking," International Journal of Computer Vision 29(1), pp. 5-28, 1998) 기법을 적용하여 해결한다.That is, since the object observation does not indicate that the robot is in the vicinity of a node, there is a problem in that the reference node specifying the object position must be determined. In the present invention, the method of location estimation is described by particle filtering, M. Isard and A. Blake, "Condensation-conditional density propagation for visual tracking," International Journal of Computer Vision 29 (1), pp. 5- 28, 1998).

도7은 파티클 필터링에 기반한 위치 추정 방법의 순서도이다.7 is a flowchart of a position estimation method based on particle filtering.

이러한 파티클 필터링에 기반한 위치 추정 방법은 도7에 도시된바와 같이 샘플링 단계(S210)와 오차계산 단계(S220)와 가중치 계산 단계(S230)와 반복 조건 확인 단계(S240)와 위치 추정 단계(S250)를 포함한다.As shown in FIG. 7, the particle estimation-based position estimation method includes a sampling step S210, an error calculation step S220, a weight calculation step S230, a repetition condition checking step S240, and a position estimation step S250. It includes.

상기 샘플링 단계(S210)는 특정 물체가 관측되면 해당 물체를 관측할 수 있는 곳에 로봇이 있는 것으로 추정되므로 해당 물체를 관측할 수 있는 로봇 위치들에 대하여 이를 랜덤 샘플링(random sampling)하여 생성하는 단계이다.The sampling step (S210) is a step of generating a random sample of the robot positions that can observe the object because the robot is estimated to be located where the object can be observed when a specific object is observed. .

상기 샘플링 단계(S210)에서 반복 스텝을 t, 랜덤샘플의 번호는 n이라고 하면,In the sampling step S210, if the repeating step is t and the number of random samples is n,

- t = 1 인 경우 (시작 초기)   -if t = 1 (initial start)

Figure 112007013347975-pat00015
Figure 112007013347975-pat00015

여기서,

Figure 112007013347975-pat00016
이다.here,
Figure 112007013347975-pat00016
to be.

- t > 1 인 경우   -if t> 1

바로 전 스텝 step t-1의 샘플집합

Figure 112007013347975-pat00017
으로부터 현 반복 스텝 t 의 새로운 샘플집합
Figure 112007013347975-pat00018
을 다음과 같이 선택한다. 여기서
Figure 112007013347975-pat00019
은 샘플
Figure 112007013347975-pat00020
의 반복스텝 t에서의 가중치이고,
Figure 112007013347975-pat00021
는 누적 가중치이다.Sample set of the previous step step t-1
Figure 112007013347975-pat00017
New sample set of current iteration step t from
Figure 112007013347975-pat00018
Select as follows. here
Figure 112007013347975-pat00019
Silver sample
Figure 112007013347975-pat00020
Is the weight in repetition step t of
Figure 112007013347975-pat00021
Is the cumulative weight.

(a) 균일 확률 분포에 의한 임의의 수

Figure 112007013347975-pat00022
을 생성한다.(a) any number by uniform probability distribution
Figure 112007013347975-pat00022
Create

(b)

Figure 112007013347975-pat00023
에 대한 가장 작은 j를 찾는다.(b)
Figure 112007013347975-pat00023
Find the smallest j for.

(c)

Figure 112007013347975-pat00024
로 설정하고, 하기된 수학식4와 같이 정의한다.(c)
Figure 112007013347975-pat00024
It is set to, and defined as in Equation 4 below.

Figure 112007013347975-pat00025
Figure 112007013347975-pat00025

상기 오차계산 단계(S220)는 상기 샘플링 단계(S210)에서 생성된 위치 샘플에 로봇의 이동에 따른 동작 오차와 비전 센서의 측정 오차 및 물체 인식의 오류등으로 인해 발생하는 오차 범위를 하기된 수학식 5를 사용하여 적용하는 단계이다.The error calculation step (S220) is an equation of the error range generated due to the operation error and the measurement error of the vision sensor and the object recognition error, such as the movement of the robot to the position sample generated in the sampling step (S210) Step 5 is applied.

Figure 112007013347975-pat00026
Figure 112007013347975-pat00026

여기서, A는 로봇의 동적 모델을 나타낸다. 그러나 로봇은 정지 상태에서 위 치 추정을 수행하므로 A=1로 설정한다.

Figure 112007013347975-pat00027
는 비전 센서의 측정 오차와 물체 인식의 오류등으로 인해 발생하는 로봇 위치 측정 오차이다.Where A represents a dynamic model of the robot. However, since the robot performs position estimation while stationary, set A = 1.
Figure 112007013347975-pat00027
Is the robot position measurement error caused by the vision sensor measurement error and object recognition error.

상기 가중치 계산 단계(S230)는 상기 오차계산 단계(S220)에서 예측한 위치에 대한 무작위 샘플들의 가중치를 하기된 수학식 6에 준하여 구하는 단계이다.The weight calculation step (S230) is a step of obtaining weights of random samples for the position predicted in the error calculation step (S220) according to Equation 6 below.

여기서, 식의 우변은 가정된 샘플 위치를 정확한 위치라고 가정하고 환경 지도로부터 얻은 물체들의 위치와 센서에 의하여 얻어진 측정값들과의 유사측도를 설정하여 얻을 수 있으며, 그 값은

Figure 112007013347975-pat00028
이 되도록 정규화 할 수 있다.Here, the right side of the equation can be obtained by assuming that the assumed sample position is the correct position and setting the similarity measure between the position of the objects obtained from the environmental map and the measured values obtained by the sensor.
Figure 112007013347975-pat00028
Can be normalized to

Figure 112007013347975-pat00029
Figure 112007013347975-pat00029

이와 함께 누적 가중치

Figure 112007013347975-pat00030
을 계산한다.With this cumulative weight
Figure 112007013347975-pat00030
Calculate

Figure 112007013347975-pat00031
Figure 112007013347975-pat00031

상기 반복 조건 확인 단계(S240)는 샘플링 단계(S210)와 오차계산 단계(S220)와 가중치 계산 단계(S230)가 일정 조건을 만족하는 동안 반복 수행되었나를 확인하는 단계로 반복 조건은 균일한 일정 횟수(T)가 될 수도 있고, 상기 수학 식 6에서 샘플들중 제일 큰 가중치 값을 갖는 샘플의 가중치 값이 어느 문턱값(예를들면, 정규화된 경우 0.9)이하라는 조건을 사용할 수도 있으며, 또한 상기 2가지 방법을 OR로 조합하여 T회 반복하였거나 제일 큰 가중치 값을 갖는 샘플의 가중치 값이 어느 문턱값(예를들면, 정규화된 경우 0.9)이상이면 반복수행을 정지하게도 할 수 있다.The repetition condition checking step S240 is a step of checking whether the sampling step S210, the error calculation step S220, and the weight calculation step S230 have been repeatedly performed while satisfying a predetermined condition. (T), and the condition that the weight value of the sample having the largest weight value among the samples in Equation 6 is less than a certain threshold (eg, 0.9 when normalized). The two methods may be combined in OR to stop the repetition if the weight value of the sample having the largest weight value is greater than a threshold value (eg, 0.9 when normalized).

상기 위치 추정 단계(S250)는 샘플들은 샘플링 단계(S210)와 오차계산 단계(S220)와 가중치 계산 단계(S230)를 T회 반복하게 되면 샘플들이 하나의 후보 위치로 수렴하는 하므로, 가중평균을 이용하여 그 위치를 하기된 수학식 8과 같이 추정하는 단계이다.In the position estimation step S250, when the samples repeat the sampling step S210, the error calculation step S220, and the weight calculation step S230 T times, the samples converge to one candidate location, thus using a weighted average. Estimating the position as shown in Equation 8 below.

Figure 112008045285130-pat00138

여기서, [s]는 추정된 로봇의 위치이며,
Figure 112008045285130-pat00139
는 가정할 수 있는 로봇 위치의 샘플이고,
Figure 112008045285130-pat00140
은 샘플 의 반복스텝 t에서의 가중치이고,
Figure 112008045285130-pat00141
는 랜덤 샘플의 총 개수를 의미한다.
Figure 112008045285130-pat00138

Where [s] is the estimated position of the robot,
Figure 112008045285130-pat00139
Is a sample of robot positions that can be assumed,
Figure 112008045285130-pat00140
Is the weight at the iteration step t of the sample,
Figure 112008045285130-pat00141
Means the total number of random samples.

도8은 본 발명의 1실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 순서도이다.8 is a flowchart illustrating a method for estimating a magnetic position of a robot based on object recognition according to an embodiment of the present invention.

본 발명의 1실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법은 카메라부(100)에 장착되는 센서가 전방향 스테레오 비전 센서인 경우의 실시예로 도8에 도시된바와 같이 전방향 환경 이미지 및 스테레오 깊이 정보 획득 단계(S310)와, 물체 인식 단계(S320)와, 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S330)와, 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)와, 모든 후보 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S350)와, 최적 노드 및 최적 노드에 대한 로봇의 2차원위치 확정 단계(S360)를 포함한다.The method of estimating the magnetic position of the robot based on object recognition according to an embodiment of the present invention is an embodiment in which the sensor mounted on thecamera unit 100 is an omnidirectional stereo vision sensor, as shown in FIG. 8. Direction environment image and stereo depth information acquisition step S310, object recognition step S320, candidate node selection step S330 in which at least one recognized object exists, and the robot's three-dimensional position with respect to all candidate nodes A calculation step S340, a step of performing a particle filtering algorithm by sampling all candidate nodes (S350), and a two-dimensional positioning step (S360) of the robot with respect to the optimal node and the optimal node.

상기 전방향 환경 이미지 및 스테레오 깊이 정보 획득 단계(S310)는 카메라부(100)가 로봇 주위의 전방향 환경 영상 및 그에 대하여 스테레오 비전 기반하에 거리 정보를 획득하는 단계이다.The omnidirectional environment image and stereo depth information acquisition step (S310) is a step in which thecamera unit 100 acquires omnidirectional environment image around the robot and distance information based on stereo vision thereof.

상기 물체 인식 단계(S320)는 위치 연산부가 상기 전방향 환경 이미지 및 스테레오 깊이 정보 획득 단계(S310)에서 획득한 전방향 환경 영상에서 국소적 특징점을 추출하고, 그에 대한 3차원 위치값(카메라 좌표계 기준)을 스테레오 거리 정보를 이용하여 구하여 물체를 인식하는 단계이다.The object recognition step (S320), the position calculation unit extracts a local feature point from the omnidirectional environment image obtained in the omnidirectional environment image and stereo depth information acquisition step (S310), and the three-dimensional position value (based on the camera coordinate system) ) To recognize the object by using the stereo distance information.

상기 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S330)는 위치 연산부가 데이터베이스부에 저장된 지도에서 상기 물체 인식 단계(S320)에서 인식된 물체가 1개 이상 포함된 노드를 로봇이 위치할 수 있는 후보 노드로 선정하는 단계이다.In the selection of the candidate node in which at least one recognized object exists (S330), the robot may locate a node including at least one object recognized in the object recognition step (S320) on a map stored in a database unit by a location calculator. In this step, candidate nodes are selected.

상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)는 위치 연산부가 모든 후보 노드 좌표계에 대한 로봇의 잠정 위치를 계산하고, 계산된 로봇의 위치를 사용하여 노드 근접 가중치를 계산하는 단계이다.The three-dimensional position calculation step (S340) of the robots for all the candidate nodes is a step in which the position calculator calculates the provisional positions of the robots for all candidate node coordinate systems and calculates the node proximity weights using the calculated positions of the robots. .

상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)에서 계산되는 로봇의 잠정 위치는 상기 수학식 1과 수학식 2로부터 구할 수 있으며, 매칭된 국소적 특징점들이 3점 이상이면 최소자승법을 이용하여 계산을 수행한다.The provisional position of the robot calculated in the three-dimensional position calculation step (S340) of the robot for all the candidate nodes can be obtained from Equations 1 and 2, and if the matched local feature points are three or more points, the least square method is applied. To perform the calculation.

이때 수학식 2의

Figure 112007013347975-pat00033
는 노드 좌표계 {N}에 대한 로봇 좌표계 {R}의 pose 관계
Figure 112007013347975-pat00034
를 나타내는 기호가 됩니다.Where Equation 2
Figure 112007013347975-pat00033
Pose relationship of robot coordinate system {R } with node coordinate system {N }
Figure 112007013347975-pat00034
Will be a symbol representing.

이렇게 얻어진 잠정위치는 다음 단계의 파티클 필터링에 의하여 최종적으로 정확한 위치를 추정하기 위한 초기 위치값으로 사용된다.The temporary position thus obtained is used as an initial position value for finally estimating the correct position by particle filtering in the next step.

상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)에서 위치 연산부는 수학식 6에 해당하는 가중치중에 기본적으로 인식된 물체를 기준으로 로봇이 어느 노드에 가까이 있을지를 나타내 주는 노드 근접 가중치

Figure 112007013347975-pat00035
를 계산한다.In the three-dimensional position calculation step of the robot for all the candidate nodes (S340), the position calculation unit indicates a node proximity weight indicating which node the robot is closer to based on a recognized object among the weights corresponding to Equation (6).
Figure 112007013347975-pat00035
Calculate

상기 노드 근접 가중치는 물체 존재 가중치, 물체 특징 가중치, 및 물체 거리 가중치를 사용하여 계산되는 값이며, 이 중 물체 거리 가중치를 계산하는 데에 각 후보 노드에 대한 로봇의 3차원 위치가 사용된다.The node proximity weight is a value calculated using the object presence weight, the object feature weight, and the object distance weight, of which the three-dimensional position of the robot with respect to each candidate node is used to calculate the object distance weight.

상기 물체 존재 가중치는 후보 노드에 포함된 물체 중 로봇이 인식한 물체와 겹치는 수에 따라 변화하는 가중치로 하기된 수학식 9에 따라 계산된다.The object presence weight is calculated according to Equation 9 below, which is a weight that changes according to the number of overlapping objects recognized by the robot among objects included in the candidate node.

Figure 112007013347975-pat00036
Figure 112007013347975-pat00036

여기서

Figure 112007013347975-pat00037
는 후보 노드
Figure 112007013347975-pat00038
의 물체 존재 가중치이고,
Figure 112007013347975-pat00039
는 후보 노드의 개수이다.
Figure 112007013347975-pat00040
은 로봇이 인식한 물체의 집합,
Figure 112007013347975-pat00041
는 후보 노드
Figure 112007013347975-pat00042
에 존재하는 물체의 집합이고,
Figure 112007013347975-pat00043
는 로봇이 인식한 물체와 후보 노드
Figure 112007013347975-pat00044
에 존재하는 물체 중 동일한 물체의 개수이다.here
Figure 112007013347975-pat00037
Is a candidate node
Figure 112007013347975-pat00038
Is the weight of the object's existence,
Figure 112007013347975-pat00039
Is the number of candidate nodes.
Figure 112007013347975-pat00040
Is a collection of objects recognized by a robot,
Figure 112007013347975-pat00041
Is a candidate node
Figure 112007013347975-pat00042
Is a collection of objects present in,
Figure 112007013347975-pat00043
Is a robot-recognized object and a candidate node
Figure 112007013347975-pat00044
This is the number of objects in the same object that exist in.

상기 물체 특징 가중치는 후보 노드에 저장된 물체의 모델l과 로봇이 인식한 물체의 국소적 특징점의 매칭 정도( 매칭된 국소적 특징점의 개수 등)에 따른 가중치로 하기된 수학식10에 따라 계산된다.The object feature weight is calculated according to Equation 10 as a weight according to the matching degree (number of matched local feature points, etc.) between the model 1 of the object stored in the candidate node and the local feature point of the object recognized by the robot.

Figure 112007013347975-pat00045
Figure 112007013347975-pat00045

여기서,

Figure 112007013347975-pat00046
는 후보 노드
Figure 112007013347975-pat00047
의 물체 특징 가중치이고,
Figure 112007013347975-pat00048
은 로봇이 인식한 모든 물체의 국소적 특징점의 집합이고,
Figure 112007013347975-pat00049
는 후보 노드
Figure 112007013347975-pat00050
에 포함된 물체들의 국소적 특징점의 집합이다.
Figure 112007013347975-pat00051
는 로봇이 인식한 모든 물체의 국소적 특징점의 개수,
Figure 112007013347975-pat00052
는 로봇이 인식한 모든 물체의 국소적 특징점과 후보 노드
Figure 112007013347975-pat00053
에 존재하는 물체 중 로봇이 인식한 물체와 동일한 물체의 매칭된 국소적 특징점의 개수이다.here,
Figure 112007013347975-pat00046
Is a candidate node
Figure 112007013347975-pat00047
Is an object feature weight of
Figure 112007013347975-pat00048
Is the set of local feature points of all objects recognized by the robot,
Figure 112007013347975-pat00049
Is a candidate node
Figure 112007013347975-pat00050
A set of local feature points of objects contained in.
Figure 112007013347975-pat00051
Is the number of local feature points of all objects recognized by the robot,
Figure 112007013347975-pat00052
Local feature and candidate nodes of all objects recognized by the robot.
Figure 112007013347975-pat00053
The number of matching local feature points of the same object as the one recognized by the robot.

상기 물체 거리 가중치는 로봇이 인식한 물체의 국소적 특징점의 3차원값을 후보 노드의 동일 물체의 국소적 특징점의 3차원 값으로 보간(fitting)하고, 보간된 국소적 특징점의 3차원 값과 후보 노드의 동일 국소적 특징점 3차원 값들 간의 거리 차이로 하기된 수학식 11에 따라 계산된다.The object distance weight is interpolated by a 3D value of a local feature point of the object recognized by the robot to a 3D value of a local feature point of the same object of the candidate node, and the 3D value and the candidate of the interpolated local feature point. The difference in distance between three-dimensional values of the same local feature point of the node is calculated according to Equation 11 below.

Figure 112008045285130-pat00142
Figure 112008045285130-pat00142

여기서,

Figure 112008045285130-pat00055
는 후보 노드
Figure 112008045285130-pat00056
의 물체 거리 가중치이고,
Figure 112008045285130-pat00143
는 보간(fitting)된 국소적 특징점의 3차원값과 후보 노드의 동일 국소적 특징점의 3차원값 간의 거리 차이고,
Figure 112008045285130-pat00144
는 로봇이 인식한 모든 물체의 국소적 특징점과 후보 노드
Figure 112008045285130-pat00145
에 존재하는 물체 중 로봇이 인식한 물체와 동일한 물체의 매칭된 국소적 특징점의 개수이고,
Figure 112008045285130-pat00146
는 후보 노드의 개수이다.here,
Figure 112008045285130-pat00055
Is a candidate node
Figure 112008045285130-pat00056
Is the object distance weight of,
Figure 112008045285130-pat00143
Is the difference between the three-dimensional values of the interpolated local feature points and the three-dimensional values of the same local feature points of the candidate nodes,
Figure 112008045285130-pat00144
Local feature and candidate nodes of all objects recognized by the robot.
Figure 112008045285130-pat00145
The number of matching local feature points of the same object as the object recognized by the robot among the objects present in,
Figure 112008045285130-pat00146
Is the number of candidate nodes.

상기 노드 근접 가중치는 로봇의 그 후보 노드에 대한 근접 정도를 나타내는 가중치로 상기된 수학식 9,10,11에 따라 계산된 물체 존재 가중치, 물체 특징 가중치, 물체 거리 가중치를 통합하여 하기된 수학식 12에 따라 계산된다.The node proximity weight is a weight representing the degree of proximity to the candidate node of the robot. The following equation 12 is obtained by integrating the object presence weight, the object feature weight, and the object distance weight calculated according to Equations 9, 10, and 11 described above. Is calculated according to.

Figure 112007013347975-pat00058
Figure 112007013347975-pat00058

여기서

Figure 112008045285130-pat00059
는 후보 노드
Figure 112008045285130-pat00060
에 대한 로봇의 노드 근접 가중치이고,
Figure 112008045285130-pat00147
는 후보 노드의 개수이다.here
Figure 112008045285130-pat00059
Is a candidate node
Figure 112008045285130-pat00060
The node proximity weight of the robot for
Figure 112008045285130-pat00147
Is the number of candidate nodes.

모든 후보노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S350)는 위치 연산부가 상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)에서 계산된 잠정 위치에 도7에 도시된 파티클 필터링 알고리즘중 샘플링 단계(S210)와 오차계산 단계(S220)와 가중치 계산 단계(S230)와 반복 조건 확인 단계(S240) 수행하여 정확한 위치 추정에 필요한 최종 가중치를 계산하는 단계이다.In step S350, sampling all candidate nodes to perform a particle filtering algorithm is performed by the position calculation unit at the tentative position calculated in the three-dimensional position calculation step S340 of the robot for all the candidate nodes. during the step of performinga verification sampling step (S210) and the error calculation step (S220) and the weight calculation step (S230) and repeats step conditions (S240) to calculate the final weight required for accurate position estimate.

상기 모든 후보 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S350)에서 파티클 필터링 방법을 적용하는데 있어서 상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)에서 계산된 노드 근접 가중치

Figure 112007013347975-pat00061
와 로봇이 인식한 물체와 노드에 존재하는 동일한 물체의 3차원 특징점간의 거리 차이에 의한 샘플
Figure 112007013347975-pat00062
의 3차원 특징점 가중치
Figure 112007013347975-pat00063
를 하기된 수학식 13와 같이 통합하여 샘플
Figure 112007013347975-pat00064
의 최종 가중치
Figure 112007013347975-pat00065
을 구한다.In the step of performing a particle filtering algorithm by sampling all the candidate nodes (S350), the node proximity weight calculated in the step S340 of calculating the robot's three-dimensional position with respect to all the candidate nodes.
Figure 112007013347975-pat00061
And samples based on the distance difference between the 3D feature points of the same object in the node
Figure 112007013347975-pat00062
3D feature weights of
Figure 112007013347975-pat00063
By integrating the sample as shown in Equation 13 below
Figure 112007013347975-pat00064
Final weight of
Figure 112007013347975-pat00065
Obtain

Figure 112008045285130-pat00066

여기서,
Figure 112008045285130-pat00148
는 후보 노드,
Figure 112008045285130-pat00149
는 후보 노드의 개수,
Figure 112008045285130-pat00150
는 랜덤 샘플의 총 개수이다.
Figure 112008045285130-pat00066

here,
Figure 112008045285130-pat00148
Is a candidate node,
Figure 112008045285130-pat00149
Is the number of candidate nodes,
Figure 112008045285130-pat00150
Is the total number of random samples.

상기 3차원 특징점 가중치를 구하기 위해서는 일단 후보 노드

Figure 112007013347975-pat00067
에 대한 랜덤 샘플
Figure 112007013347975-pat00068
의 위치를 다음과 같이 3차원 동차변환 행렬(3D homogeneous transformation matrix) 형태로 나타낸다.In order to obtain the 3D feature weights, candidate nodes
Figure 112007013347975-pat00067
Random sample for
Figure 112007013347975-pat00068
The position of is expressed in the form of 3D homogeneous transformation matrix as follows.

Figure 112007013347975-pat00069
Figure 112007013347975-pat00069

그리고, 로봇이 인식한 물체들의 3차원 특징점

Figure 112007013347975-pat00070
를 하기된 수학식 14를 이용하여 다음과 같이 후보 노드
Figure 112007013347975-pat00071
에 대한 값으로 변환한다.And, 3D feature points of objects recognized by the robot
Figure 112007013347975-pat00070
Using the following equation (14) candidate nodes as follows
Figure 112007013347975-pat00071
Convert to a value for.

Figure 112007013347975-pat00072
Figure 112007013347975-pat00072

그 다음에 상기 수학식 14와 같이 변환된 3차원 특징점

Figure 112007013347975-pat00073
와 후보 노드
Figure 112007013347975-pat00074
에 존재하는 동일 물체의 3차원 특징점
Figure 112007013347975-pat00075
간의 거리 차이를 하기된 수학식 15에 따라 계산한다.Then, the three-dimensional feature point transformed as shown in Equation 14
Figure 112007013347975-pat00073
And candidate nodes
Figure 112007013347975-pat00074
3D feature points of the same object at
Figure 112007013347975-pat00075
The difference between the distances is calculated according to the following equation (15).

Figure 112007013347975-pat00076
Figure 112007013347975-pat00076

로봇이 인식한 물체와 노드에 존재하는 동일한 물체의 3차원 특징점간의 거리 차이에 의한 샘플

Figure 112007013347975-pat00077
의 3차원 특징점 가중치
Figure 112007013347975-pat00078
를 하기된 수학식 16에 따라 계산한다.Samples based on the distance difference between the object recognized by the robot and the three-dimensional feature points of the same object in the node
Figure 112007013347975-pat00077
3D feature weights of
Figure 112007013347975-pat00078
Is calculated according to Equation 16 below.

Figure 112007013347975-pat00079
Figure 112007013347975-pat00079

여기서

Figure 112007013347975-pat00080
는 로봇이 인식한 모든 물체의 국소적 특징점과 후보 노드
Figure 112007013347975-pat00081
에 존재하는 물체 중 로봇이 인식한 물체와 동일한 물체의 매칭된 국소적 특징점의 개수이다.here
Figure 112007013347975-pat00080
Local feature and candidate nodes of all objects recognized by the robot.
Figure 112007013347975-pat00081
The number of matching local feature points of the same object as the one recognized by the robot.

상기 최적 노드 및 최적 노드에 대한 로봇의 2차원위치 확정 단계(S360)는 도7에 도시된 위치 추정 단계(S250)와 동일한 단계로 샘플들이 제일 많이 수렴된 노드의 샘플만으로 상기 수학식 8을 수행하여 로봇의 위치를 추정하는 단계이다.The two-dimensional positioning step (S360) of the robot with respect to the optimal node and the optimal node is the same step as the position estimation step (S250) shown in FIG. 7 and performs Equation 8 only with the sample of the node where the samples are most converged. Estimating the position of the robot.

도9는 본 발명의 2실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 순서도이다.9 is a flowchart of a method for estimating a magnetic position of a robot based on object recognition according to an embodiment of the present invention.

본 발명의 2실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법은 카메라부(100)에 장착되는 센서가 전방향 스테레오 비전 센서이며 로봇이 속하는 최종 노드를 중간에서 미리 정하는 경우의 실시예로 도9에 도시된바와 같이 전방향 환경 이미지 및 스테레오 깊이 정보 획득 단계(S410)와, 물체 인식 단계(S420)와, 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S430)와, 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S440)와, 최종 후보 노드 선정 단계(S450)와, 최종 후보 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S460)와, 최적 노드 및 최적 노드에 대한 로봇의 2차원위치 확정 단계(S470)를 포함한다.The method of estimating the magnetic position of a robot based on object recognition according to the second embodiment of the present invention is implemented when the sensor mounted on thecamera unit 100 is an omnidirectional stereo vision sensor and the final node to which the robot belongs is determined in advance. For example, as shown in FIG. 9, an omnidirectional environment image and stereo depth information acquisition step S410, an object recognition step S420, a candidate node selection step S430 in which one or more recognized objects exist, and 3D position calculation step (S440) of the robot for all candidate nodes, the final candidate node selection step (S450), the step of performing a particle filtering algorithm by sampling to the final candidate node (S460), the optimal node and the optimal node A two-dimensional positioning step of the robot for (S470).

전방향 환경 이미지 및 스테레오 깊이 정보 획득 단계(S410)와, 물체 인식 단계(S420)와, 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S430)와, 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S440)는 상기 제1실시예의 전방향 환경 이미지 및 스테레오 깊이 정보 획득 단계(S310)와, 물체 인식 단계(S320)와, 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S330)와, 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)와 동일하므로 상세한 설명은 생략한다.Omnidirectional environment image and stereo depth information acquisition step (S410), object recognition step (S420), candidate node selection step (S430) in which one or more recognized objects exist, and the robot three-dimensional to all candidate nodes Position calculation step (S440) is a step of obtaining the omnidirectional environment image and stereo depth information (S310) of the first embodiment, the object recognition step (S320), and the candidate node selection step of at least one recognized object (S330) ) And the robot's three-dimensional position calculation step S340 for all candidate nodes, so detailed description thereof will be omitted.

최종 후보 노드 선정 단계(S450)는 상기 모든 후보 노드에 대한 로봇의 3차 원 위치 계산 단계(S440)에서 계산된 노드 근접 가중치 값이 가장 큰 노드를 최종 후보 노드로 선정하는 단계이다.The final candidate node selection step (S450) is a step of selecting a node having the largest node proximity weight value calculated in the three-dimensional position calculation step S440 of the robot for all the candidate nodes as the final candidate node.

상기 최종 후보 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S460)는 위치 연산부가 상기 최종 후보 노드 선정 단계(S450)에서 선택된 최종 후보 노드에 도7에 도시된 파티클 필터링 알고리즘중 샘플링 단계(S210)와 오차계산 단계(S220)와 가중치 계산 단계(S230)와 반복 조건 확인 단계(S240) 수행하여 정확한 위치를 추정에 필요한 최종 가중치를 계산하는 단계이다.In the step S460 of sampling the final candidate node to perform a particle filtering algorithm, the position calculating unit performs the sampling step S210 of the particle filtering algorithm shown in FIG. 7 to the final candidate node selected in the step S450 of selecting the final candidate node. and a step of performingan error calculation step (S220) and determine a weight calculation step (S230) and repeats step conditions (S240) to calculate the final weight required to correct the estimated position.

상기 최적 노드 및 최적 노드에 대한 로봇의 2차원위치 확정 단계(S470)는 상기 최종 후보 노드 선정 단계(S450)에서 선택되고 상기 최종 후보 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S460)에서 최종 가중치가 계산된 노드들에 상기 수학식 8을 수행하여 로봇의 위치를 추정하는 단계이다.The 2D positioning step (S470) of the robot with respect to the optimal node and the optimal node is selected in the final candidate node selection step (S450) and sampled to the final candidate node to perform a particle filtering algorithm (S460). It is a step of estimating the position of the robot by performing Equation 8 on the nodes whose weights are calculated.

도10은 본 발명의 3실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법의 순서도이다.10 is a flowchart of a method for estimating a magnetic position of a robot based on object recognition according to an embodiment of the present invention.

본 발명의 3실시예에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법은 카메라부(100)에 장착되는 센서가 스테레오 카메라가 360도가 아닌 일정의 시야각을 갖는 스테레오 카메라인 경우에 로봇의 위치 추정 시간을 단축하기 위하여 환경에서 2개의 물체를 인식하는 방법을 바탕으로 로봇의 위치를 추정하는 실시예로 도9에 도시된바와 같이 임의의 한 방향의 환경 이미지 및 스테레오 깊이 정보 획득 단계(S510)와, 물체 인식 단계(S515)와, 인식된 물체가 있는가 확인 단계(S520)와, 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S525)와, 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S440)와, 후보 노드의 우선 순위 계산 단계(S535)와, 후보노드에 포함된 물체들의 로봇에 대한 위치 계산 및 우선 순위 계산 단계(S540)와, 최우선 순위 후보 노드의 최우선 순위 물체를 바라보는 단계(S545)와, 그 방향의 환경 이미지 및 스테레오 깊이 정보 획득 단계(S550)와, 물체 인식 단계(S555)와, 인식된 물체가 최우선 순위 물체와 같은가 확인 단계(S560)와, 다음 우선 순위 후보 노드의 최우선 순위 물체를 바라보는 단계(S562)와, 최종 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S565)와, 최종 노드에 대한 로봇의 2차원위치 확정 단계(S570)를 포함한다.In the method of estimating the magnetic position of the robot based on object recognition according to the third embodiment of the present invention, the position of the robot when the sensor mounted on thecamera unit 100 is a stereo camera having a certain viewing angle rather than 360 degrees An embodiment of estimating the position of the robot based on a method of recognizing two objects in the environment in order to shorten the estimation time, as shown in FIG. 9, obtaining an environment image and stereo depth information in any one direction (S510). And, the object recognition step (S515), the step of checking whether there is a recognized object (S520), the candidate node selection step (S525) in which one or more recognized objects exist, and the three-dimensional position of the robot with respect to all candidate nodes. A calculation step S440, a priority calculation step S535 of the candidate node, a position calculation and priority calculation step S540 for robots of objects included in the candidate node, and a highest priority candidate Looking at the highest priority object of the device (S545), obtaining an environment image and stereo depth information (S550) of the direction, object recognition step (S555), and checking whether the recognized object is the same as the highest priority object ( S560, looking at the highest priority object of the next priority candidate node (S562), sampling to the final node to perform a particle filtering algorithm (S565), and determining the two-dimensional position of the robot with respect to the last node. (S570).

상기 임의의 한 방향의 환경 이미지 및 스테레오 깊이 정보 획득 단계(S510)는 카메라부(100)가 향하고 있는 방향의 환경 영상 및 그에 대하여 스테레오 비전 기반하에 거리 정보를 획득하는 단계이다.The obtaining of the environment image and the stereo depth information in any one direction (S510) is a step of obtaining the environment image in the direction that thecamera unit 100 is facing and distance information based on the stereo vision.

상기 물체 인식 단계(S515)는 위치 연산부가 상기 임의의 한 방향의 환경 이미지 및 스테레오 깊이 정보 획득 단계(S510)에서 획득한 환경 영상에서 국소적 특징점을 추출하고, 그에 대한 3차원 위치값(카메라 좌표계 기준)을 스테레오 거리 정보를 이용하여 구하여 물체를 인식하는 단계이다.In the object recognition step (S515), the position calculating unit extracts a local feature point from the environment image acquired in the environment image and the stereo depth information acquisition step (S510) in any one direction, and the three-dimensional position value (camera coordinate system) Step) to recognize the object by using the stereo distance information.

상기 인식된 물체가 있는가 확인 단계(S520)는 위치 연산부가 상기 물체 인식 단계(S515)에서 인식된 물체가 있는가를 확인하고 인식된 물체가 없으면 팬/틸트 장치(110)를 동작하여 카메라부(100)를 회전(panning)시켜 다른 방향을 향하도록 하는 단계이다.In the step S520 of checking whether the recognized object exists, the position calculating unit checks whether there is an object recognized in the object recognition step S515, and if there is no recognized object, operates the pan /tilt device 110 to operate thecamera unit 100. Is panning to face the other direction.

상기 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S525)는 위치 연산부가 상기 데이터베이스부에 저장된 지도에서 상기 물체 인식 단계(S515)에서 인식된 물체가 1개 이상 포함된 노드를 로봇이 위치할 수 있는 후보 노드로 선정하는 단계이다.In the step of selecting a candidate node in which at least one recognized object exists (S525), the robot locates a node including at least one object recognized in the object recognition step (S515) on a map stored in the database unit by a position calculator. In this step, candidate nodes are selected.

상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S530)는 상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S340)와 동일하므로 상세한 설명은 생략한다.Since the three-dimensional position calculation step S530 of the robots for all the candidate nodes is the same as the three-dimensional position calculation step S340 of the robots for all the candidate nodes, detailed description thereof will be omitted.

상기 후보 노드의 우선 순위 계산 단계(S535)는 상기 모든 후보 노드에 대한 로봇의 3차원 위치 계산 단계(S530)에서 계산된 노드 근접 가중치 값의 값에 따라 각각 노드의 우선 순위를 계산하는 단계이다.The priority calculation step (S535) of the candidate node is a step of calculating the priority of each node according to the value of the node proximity weight value calculated in the three-dimensional position calculation step (S530) of the robot for all the candidate nodes.

상기 후보노드에 포함된 물체들의 로봇에 대한 위치 계산 및 우선 순위 계산 단계(S540)는 위치 추정부가 로봇이 인식한 물체를 제외하고, 상기 인식된 물체가 1개 이상 존재하는 후보 노드 선정 단계(S525)에서 선택된 후보 노드들에 포함된 물체들의 로봇에 대한 위치를 계산하여 로봇의 잠정 위치로부터 제일 가까운 물체를 검증 물체로 정하는 단계이다.Position calculation and priority calculation step (S540) for the robots of the objects included in the candidate node may include selecting a candidate node in which at least one recognized object exists except for an object recognized by the robot (S525). In this step, the position of the objects included in the selected candidate nodes is calculated with respect to the robot to determine the object closest to the tentative position of the robot as the verification object.

상기 최우선 순위 후보 노드의 최우선 순위 물체를 바라보는 단계(S545)는 위치 추정부가 팬/틸트 장치(110)를 동작하여 상기 후보노드에 포함된 물체들의 로봇에 대한 위치 계산 및 우선 순위 계산 단계(S540)에서 선택된 검증 물체가 있을 것이라고 예측되는 방향으로 카메라부(100)를 회전시키는 단계이다.Looking at the highest priority object of the highest priority candidate node (S545), the position estimator operates the pan /tilt device 110 to calculate the position and priority of the robots of the objects included in the candidate node (S540). In this step, thecamera unit 100 is rotated in a direction in which it is predicted that there will be a verification object selected.

상기 최우선 순위 후보 노드의 최우선 순위 물체를 바라보는 단계(S545)는 위치 추정부는 팬/틸트 장치(110)를 사용하여 카메라를 수평으로의 좌우 회전하는 거나 상하의 끄덕이는 동작을 할 수 있다.In the step S545 of viewing the highest priority object of the highest priority candidate node, the position estimator may rotate the camera horizontally or nod up and down using the pan /tilt device 110.

상기 그 방향의 환경 이미지 및 스테레오 깊이 정보 획득 단계(S550)는 카메라부(100)가 향하고 있는 방향의 환경 영상 및 그에 대하여 스테레오 비전 기반하에 거리 정보를 획득하는 단계이다.The obtaining of the environment image and the stereo depth information in the direction (S550) is a step of obtaining the environment image of the direction in which thecamera unit 100 is facing and distance information based on the stereo vision.

상기 물체 인식 단계(S555)는 위치 연산부가 상기 그 방향의 환경 이미지 및 스테레오 깊이 정보 획득 단계(S550)에서 획득한 환경 영상에서 국소적 특징점을 추출하고, 그에 대한 3차원 위치값(카메라 좌표계 기준)을 스테레오 거리 정보를 이용하여 구하여 물체를 인식하는 단계이다.In the object recognition step (S555), the position calculating unit extracts a local feature point from the environment image acquired in the environment image and stereo depth information acquisition step (S550) of the direction, and the three-dimensional position value (based on the camera coordinate system) therefor. It is a step of recognizing an object by obtaining using the stereo distance information.

상기 인식된 물체가 최우선 순위 물체와 같은가 확인 단계(S560)는 위치 추정부가 상기 물체 인식 단계(S555)에서 인식된 물체와 상기 후보노드에 포함된 물체들의 로봇에 대한 위치 계산 및 우선 순위 계산 단계(S540)에서 선택된 검증 물체를 비교하여 같으면 그 후보 노드를 최종 노드로 선정하는 단계이다.In step S560, the position estimator determines the position of the object recognized by the object recognition step S555 and the objects included in the candidate node, and calculates the priority of the object. Comparing the verification object selected in step S540 and if the same, the candidate node is selected as the final node.

다음 우선 순위 후보 노드의 최우선 순위 물체를 바라보는 단계(S562)는 위치 추정부가 상기 인식된 물체가 최우선 순위 물체와 같은가 확인 단계(S560)에서 인식된 물체와 최우선 순위 물체가 다르면 상기 후보 노드의 우선 순위 계산 단계(S535)에서 지금 카메라부(100)가 향하고 있는 노드의 다음 순위의 우선 순위를 받은 후보 노드의 상기 후보노드에 포함된 물체들의 로봇에 대한 위치 계산 및 우선 순위 계산 단계(S540)에서 계산된 검증 물체로 카메라부(100)를 이동시키는 단계이다.Looking at the highest priority object of the next priority candidate node (S562), if the position estimation unit is different from the recognized object and the highest priority object in the step (S560) to determine whether the recognized object is the highest priority object, the priority of the candidate node In the ranking calculation step (S535), the position calculation and priority calculation step (S540) for the robot of the objects included in the candidate node of the candidate node that has received the priority of the next priority of the node that thecamera unit 100 is now facing. Thecamera unit 100 is moved to the calculated verification object.

즉, 예를 들어, 후보 노드가 A, B 2개 이고 우선순위가 A, B 인 경우, 최우 선 순위 노드는 A가 됩니다. 이미 인식된 물체를 제외한 노드 A에 속한 물체가 a1, b1, c1이고 물체의 우선순위가 a1, b1, c1이면, 로봇은 a1이 있을 거라 예측한 방향으로 고개를 돌리고 물체 인식을 수행합니다. 만약 물체 a1이 인식되지 않았을 경우, 그 다음 우선순위인 후보 B에 속한 최우선 순위 물체를 바라보도록 고개를 돌리고 물체 인식을 수행하도록 한다.That is, for example, if there are two candidate nodes A and B, and the priorities are A and B, the highest priority node is A. If the objects belonging to node A except for already recognized objects are a1, b1, c1 and the priority of objects is a1, b1, c1, the robot turns its head in the direction predicted that a1 will be present and performs object recognition. If object a1 is not recognized, turn to look at the next highest priority object in candidate B and perform object recognition.

상기 최종 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S565)는 위치 추정부가 상기 인식된 물체가 최우선 순위 물체와 같은가 확인 단계(S560)에서 선정된 최종 노드에 도7에 도시된 파티클 필터링 알고리즘중 샘플링 단계(S210)와 오차계산 단계(S220)와 가중치 계산 단계(S230)와 반복 조건 확인 단계(S240) 수행하여 정확한 위치를 추정에 필요한 최종 가중치를 계산하는 단계이다.In the step S565 of sampling the final node and performing a particle filtering algorithm, the position estimator determines whether the recognized object is the same as the highest priority object in the particle filtering algorithm shown in FIG. 7 at the final node selected in step S560. a step of performinga verification sampling step (S210) and the error calculation step (S220) and the weight calculation step (S230) and repeats step conditions (S240) to calculate the final weight required to correct the estimated position.

상기 최종 노드에 대한 로봇의 2차원위치 확정 단계(S570)는 상기 인식된 물체가 최우선 순위 물체와 같은가 확인 단계(S560)에서 선택되고 상기 최종 노드에 샘플링하여 파티클 필터링 알고리즘을 수행하는 단계(S565)에서 최종 가중치가 계산된 노드들에 상기 수학식 8을 수행하여 로봇의 위치를 추정하는 단계이다.In the step S570 of positioning the robot with respect to the final node (S570), the recognized object is the same as the highest priority object (S560). The step is performed to perform a particle filtering algorithm by sampling the final node (S565). In Equation 8, the position of the robot is estimated by performing Equation 8 on nodes whose final weights are calculated.

이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. You will understand that. Accordingly, the embodiments described above are exemplary in all respects and not restrictive.

상기한 바와 같은 본 발명에 따른 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법은 환경내의 개별 물체들을 스테레오 비전 센서에 의해 인식을 하고 그에 대한 3차원 정보를 이용하여 로봇의 위치를 추정함으로써 임의로 위치가 변하는 물체(예를들면, 사람, 의자)가 많은 일반적인 환경에서 더욱 강인한 위치 추정을 할 수 있는 효과가 있다.As described above, the method for estimating the magnetic position of a robot based on object recognition according to the present invention recognizes individual objects in an environment by a stereo vision sensor and estimates the position of the robot using three-dimensional information about the robot. It is effective to make a more robust position estimation in a general environment with many changing objects (eg people, chairs).

Claims (10)

Translated fromKorean
전방향의 시야각을 갖는 스테레오 영상장치로 형성된 카메라부와, 로봇 이동 경로 주위의 지도가 미리 위상학적 지도 형태로 저장된 데이터베이스부와, 상기 카메라부에서 입력되는 영상 정보를 상기 데이터베이스부에 저장된 지도와 대조하여 위치를 추정하는 위치 연산부를 포함하는 로봇의 자기위치 추정 방법은,A camera unit formed of a stereo imaging device having an omnidirectional viewing angle, a database unit in which a map around a robot moving path is stored in a topological map form, and image information input from the camera unit is compared with a map stored in the database unit. Magnetic position estimation method of the robot comprising a position calculation unit for estimating the position,상기 위치 연산부가 상기 카메라부로부터 영상을 입력을 받는 영상 입력 단계와,An image input step in which the position calculating unit receives an image from the camera unit;상기 위치 연산부가 상기 영상 입력 단계에서 입력된 영상안의 개별 물체들을 인식하고 또한 개별 물체들에 대한 거리 정보를 생성하는 물체인식 및 정보 추출 단계와,An object recognition and information extraction step of the position calculating unit recognizing individual objects in the image input in the image input step and generating distance information on the individual objects;상기 위치 연산부가 상기 물체인식 및 정보 추출 단계에서 추출된 정보와 상기 데이터베이스부에 저장되어 있는 물체 기반의 지도를 바탕으로 파티클 필터링 기법을 사용하여 로봇의 위치를 추정하는 로봇 위치 추정단계를 포함하는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.And a robot position estimating step of estimating the position of the robot using a particle filtering technique based on the information extracted in the object recognition and information extraction step and the object-based map stored in the database unit. A method for estimating the magnetic position of a robot based on object recognition.청구항 1항에 있어서,The method according to claim 1,상기 로봇 위치 추정단계는,The robot position estimation step,상기 위치 연산부가 데이터베이스부에 저장된 지도에서 상기 물체인식 및 정보 추출 단계에서 인식된 물체가 1개 이상 포함된 노드를 로봇이 위치할 수 있는 후보 노드로 선정하는 후보 노드 선정 단계와,A candidate node selecting step of selecting a node including one or more objects recognized in the object recognition and information extraction step as a candidate node where the robot can be located in the map stored in the database unit;상기 위치 연산부가 모든 후보 노드에 대한 로봇의 잠정 위치를 수학식1과 수학식 2를 사용해서 계산하는 잠정 위치 계산 단계와,A provisional position calculation step of calculating, by Equation 1 and Equation 2, potential positions of the robot with respect to all candidate nodes;상기 위치 연산부가 상기 2단계에서 계산된 잠정 위치에 파티클 필터링 기법을 사용해서 정확한 위치 추정에 필요한 최종 가중치를 계산하고, 샘플들이 제일 많이 수렴된 노드의 샘플만으로 수학식 8을 수행하여 로봇의 위치를 추정하는 파티클 필터링 단계를 포함하는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.The position calculating unit calculates the final weight required for accurate position estimation using the particle filtering technique at the tentative position calculated in step 2, and performs the equation (8) only with the sample of the node where the samples are most converged to determine the position of the robot. And a particle filtering step of estimating the magnetic position of the robot based on object recognition.
Figure 112008045285130-pat00082
(수학식 1)
Figure 112008045285130-pat00082
(Equation 1) (수학식 2) (Equation 2)(
Figure 112008045285130-pat00084
Figure 112008045285130-pat00085
는 각각 동일 물체의 국소 특징점들의 입력영상장치와 환경 지도 중심 좌표계에서 바라본 3차원 거리값이고,이 두 거리값들의 동차 변환행렬은
Figure 112008045285130-pat00086
로 나타낼 수 있으며, 3차원 공간상의 임의의 위치라면 그 로봇 위치는
Figure 112008045285130-pat00087
로 나타낼 수 있으며, 일정한 평면상에서 동작하는 로봇이라면,
Figure 112008045285130-pat00088
이 되어 로봇 위치를 결정하는 변수는
Figure 112008045285130-pat00089
가 된다.)
(
Figure 112008045285130-pat00084
Wow
Figure 112008045285130-pat00085
Are the three-dimensional distance values, respectively, as seen from the input imaging device and the environmental map center coordinate system of the local feature points of the same object, and the homogeneous transformation matrix of these two distance values is
Figure 112008045285130-pat00086
If any position in the three-dimensional space, the robot position is
Figure 112008045285130-pat00087
If you are a robot that operates on a certain plane,
Figure 112008045285130-pat00088
The variable that determines the robot's position
Figure 112008045285130-pat00089
Becomes)
Figure 112008045285130-pat00151
(수학식 8)
Figure 112008045285130-pat00151
(Equation 8)
([s]는 추정된 로봇의 위치이며
Figure 112008045285130-pat00091
는 가정할 수 있는 로봇 위치의 샘플이고
Figure 112008045285130-pat00092
은 샘플 의 반복스텝 t에서의 가중치이고
Figure 112008045285130-pat00152
는 랜덤 샘플의 총 개수이다.)
([s] is the estimated robot position
Figure 112008045285130-pat00091
Is a sample of robot positions that can be assumed
Figure 112008045285130-pat00092
Is the weight at sample iteration t
Figure 112008045285130-pat00152
Is the total number of random samples.)
청구항 1항에 있어서,The method according to claim 1,상기 로봇 위치 추정단계는,The robot position estimation step,상기 위치 연산부가 데이터베이스부에 저장된 지도에서 상기 물체인식 및 정보 추출 단계에서 인식된 물체가 1개 이상 포함된 노드를 로봇이 위치할 수 있는 후보 노드로 선정하는 후보 노드 선정 단계와,A candidate node selecting step of selecting a node including one or more objects recognized in the object recognition and information extraction step as a candidate node where the robot can be located in the map stored in the database unit;상기 위치 연산부가 최종 후보 노드에 대한 로봇의 잠정 위치를 수학식 1과 수학식 2를 사용해서 계산하는 잠정 위치 계산 단계와,A provisional position calculation step of calculating, by Equation 1 and Equation 2, the provisional position of the robot with respect to the final candidate node;상기 위치 연산부가 후보 노드중에서 최종 후보 노드를 선택하는 최종 후보 노드 선택 단계와,Selecting a final candidate node by the position calculating unit to select a final candidate node among candidate nodes;상기 위치 연산부가 상기 2단계에서 계산된 잠정 위치에 파티클 필터링 기법을 사용해서 정확한 위치 추정에 필요한 최종 가중치를 계산하고, 샘플들이 제일 많이 수렴된 노드의 샘플만으로 수학식 8을 수행하여 로봇의 위치를 추정하는 파티클 필터링 단계를 포함하는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.The position calculating unit calculates the final weight required for accurate position estimation using the particle filtering technique at the tentative position calculated in step 2, and performs the equation (8) only with the sample of the node where the samples are most converged to determine the position of the robot. And a particle filtering step of estimating the magnetic position of the robot based on object recognition.
Figure 112008045285130-pat00153
(수학식 1)
Figure 112008045285130-pat00153
(Equation 1)
Figure 112008045285130-pat00154
(수학식 2)
Figure 112008045285130-pat00154
(Equation 2)
(
Figure 112008045285130-pat00155
Figure 112008045285130-pat00156
는 각각 동일 물체의 국소 특징점들의 입력영상장치와 환경 지도 중심 좌표계에서 바라본 3차원 거리값이고,이 두 거리값들의 동차 변환행렬은
Figure 112008045285130-pat00157
로 나타낼 수 있으며, 3차원 공간상의 임의의 위치라면 그 로봇 위치는
Figure 112008045285130-pat00158
로 나타낼 수 있으며, 일정한 평면상에서 동작하는 로봇이라면,
Figure 112008045285130-pat00159
이 되어 로봇 위치를 결정하는 변수는
Figure 112008045285130-pat00160
가 된다.)
(
Figure 112008045285130-pat00155
Wow
Figure 112008045285130-pat00156
Are the three-dimensional distance values, respectively, as seen from the input imaging device and the environmental map center coordinate system of the local feature points of the same object, and the homogeneous transformation matrix of these two distance values is
Figure 112008045285130-pat00157
If any position in the three-dimensional space, the robot position is
Figure 112008045285130-pat00158
If you are a robot that operates on a certain plane,
Figure 112008045285130-pat00159
The variable that determines the robot's position
Figure 112008045285130-pat00160
Becomes)
Figure 112008045285130-pat00161
(수학식 8)
Figure 112008045285130-pat00161
(Equation 8)
([s]는 추정된 로봇의 위치이며
Figure 112008045285130-pat00162
는 가정할 수 있는 로봇 위치의 샘플이고
Figure 112008045285130-pat00163
은 샘플 의 반복스텝 t에서의 가중치이고
Figure 112008045285130-pat00164
는 랜덤 샘플의 총 개수이다.)
([s] is the estimated robot position
Figure 112008045285130-pat00162
Is a sample of robot positions that can be assumed
Figure 112008045285130-pat00163
Is the weight at sample iteration t
Figure 112008045285130-pat00164
Is the total number of random samples.)
일정 범위의 시야각을 갖는 스테레오 영상장치로 형성된 카메라부와 상기 카메라부를 일정 각도씩 회전시킬 수 있는 회전 장치와, 로봇 이동 경로 주위의 지도가 미리 위상학적 지도 형태로 저장된 데이터베이스부와, 상기 카메라부에서 입력되는 영상 정보를 상기 데이터베이스부에 저장된 지도와 대조하여 위치를 추정하는 위치 연산부를 포함하는 로봇의 자기위치 추정 방법은,A camera unit formed of a stereo imaging device having a range of viewing angles, a rotating device capable of rotating the camera unit by a predetermined angle, a database unit in which a map around a robot movement path is stored in a topological map form in advance, and the camera unit The method of estimating a magnetic position of a robot including a position calculator for estimating a position by comparing input image information with a map stored in the database unit상기 위치 연산부가 상기 카메라부로부터 영상을 입력을 받는 영상 입력 단계와,An image input step in which the position calculating unit receives an image from the camera unit;상기 위치 연산부가 상기 영상 입력 단계에서 입력된 영상안의 개별 물체들을 인식하고 또한 개별 물체들에 대한 거리 정보를 생성하는 물체인식 및 정보 추출 단계와,An object recognition and information extraction step of the position calculating unit recognizing individual objects in the image input in the image input step and generating distance information on the individual objects;상기 위치 연산부가 인식된 물체가 있는지 확인하는 물체 확인 단계와,An object checking step of checking whether there is an object recognized by the position calculating unit;상기 위치 연산부가 데이터베이스부에 저장된 지도에서 상기 물체인식 및 정보 추출 단계에서 인식된 물체가 1개 이상 포함된 노드를 로봇이 위치할 수 있는 후보 노드로 선정하는 후보 노드 선정 단계와,A candidate node selecting step of selecting a node including one or more objects recognized in the object recognition and information extraction step as a candidate node where the robot can be located in the map stored in the database unit;상기 위치 연산부가 후보 노드들의 우선 순위를 계산하는 우선 순위 설정 단계와,A priority setting step of the position calculating unit calculating the priority of candidate nodes;상기 위치 연산부가 후보 노드에 포함된 물체와 로봇간의 거리 및 최우선 순위 물체를 계산하는 최우선 순위 물체 계산 단계와,Calculating a highest priority object for calculating a distance and a highest priority object between the robot and the object included in the candidate node;상기 위치 연산부가 상기 회전 장치로 카메라부를 회전시켜 후보 노드의 최우선 순위 물체를 확인하는 최우선 순위 물체 확인 단계와,A step of identifying the highest priority object by which the position calculating unit rotates the camera unit with the rotating device to identify the highest priority object of a candidate node;상기 위치 연산부가 상기 최우선 순위 물체 확인 단계에서 최우선 물체가 확인된 노드에 파티클 필터링 기법을 사용해서 정확한 위치 추정에 필요한 최종 가중치를 계산하고, 샘플들이 제일 많이 수렴된 노드의 샘플만으로 수학식 8을 수행하여 로봇의 위치를 추정하는 파티클 필터링 단계를 포함하는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.The position calculating unit calculates a final weight necessary for accurate position estimation by using a particle filtering technique to the node where the highest priority object is identified in the checking of the highest priority object, and performs Equation 8 using only the sample of the node where the samples are most converged. And a particle filtering step of estimating the position of the robot.( 수학식 8 )(Equation 8)
Figure 112008045285130-pat00165
Figure 112008045285130-pat00165
([s]는 추정된 로봇의 위치이며
Figure 112008045285130-pat00166
는 가정할 수 있는 로봇 위치의 샘플이고
Figure 112008045285130-pat00167
은 샘플 의 반복스텝 t에서의 가중치이고
Figure 112008045285130-pat00168
는 랜덤 샘플의 총 개수이다.)
([s] is the estimated robot position
Figure 112008045285130-pat00166
Is a sample of robot positions that can be assumed
Figure 112008045285130-pat00167
Is the weight at sample iteration t
Figure 112008045285130-pat00168
Is the total number of random samples.)
청구항 4항에 있어서,The method according to claim 4,상기 최우선 순위 물체 확인 단계는 후보 노드의 최우선 물체를 인식하지 못하면 상기 회전 장치로 카메라부를 회전시켜 상기 우선 순위 설정 단계에서 해당 후보 노드의 다음 우선 순위로 계산된 후보 노드의 최우선 물체를 확인하는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.In the step of identifying the highest priority object, if the first object of the candidate node is not recognized, the camera unit is rotated by the rotating device to identify the highest priority object of the candidate node calculated as the next priority of the candidate node in the priority setting step. A method for estimating the magnetic position of a robot based on object recognition.청구항 2 내지 5항중 어느 한항에 있어서,The method according to any one of claims 2 to 5,상기 파티클 필터링 단계에서 계산되는 최종 가중치
Figure 112008045285130-pat00093
는 로봇이 어느 노드에 가까이 있을지를 나타내 주는 노드 근접 가중치
Figure 112008045285130-pat00094
와 로봇이 인식한 물체와 노드에 존재하는 동일한 물체의 3차원 특징점간의 거리 차이에 의한 샘플
Figure 112008045285130-pat00095
의 3차원 특징점 가중치
Figure 112008045285130-pat00096
를 하기된 수학식 13와 같이 통합하여 계산되는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.
Final weight calculated in the particle filtering step
Figure 112008045285130-pat00093
Is the node proximity weight indicating which node the robot is close to.
Figure 112008045285130-pat00094
And samples based on the distance difference between the 3D feature points of the same object in the node
Figure 112008045285130-pat00095
3D feature weights of
Figure 112008045285130-pat00096
Method of estimating the magnetic position of the robot based on the object recognition, characterized in that calculated by integrating as shown in equation (13) below.
Figure 112008045285130-pat00097
(수학식 13)
Figure 112008045285130-pat00097
(Equation 13)
여기서,
Figure 112008045285130-pat00169
는 후보 노드,
Figure 112008045285130-pat00170
는 후보 노드의 개수,
Figure 112008045285130-pat00171
는 랜덤 샘플의 총 개수이다.
here,
Figure 112008045285130-pat00169
Is a candidate node,
Figure 112008045285130-pat00170
Is the number of candidate nodes,
Figure 112008045285130-pat00171
Is the total number of random samples.
청구항 6항에 있어서,The method according to claim 6,상기 노드 근접 가중치
Figure 112008045285130-pat00098
The node proximity weights
Figure 112008045285130-pat00098
Is
후보 노드에 포함된 물체 중 로봇이 인식한 물체와 겹치는 수인 물체 존재 가중치
Figure 112008045285130-pat00099
와,
Object presence weight, which is the number of objects included in the candidate node that overlap with the object recognized by the robot
Figure 112008045285130-pat00099
Wow,
후보 노드에 저장된 물체의 모델과 로봇이 인식한 물체의 국소적 특징점의 매칭 정도인 물체 특징 가중치
Figure 112008045285130-pat00100
와,
Object feature weights, which are the degree of matching between the model of the object stored in the candidate node and the local feature of the object recognized by the robot.
Figure 112008045285130-pat00100
Wow,
로봇이 인식한 물체의 국소적 특징점의 3차원값을 후보 노드의 동일 물체의 국소적 특징점의 3차원 값으로 보간(fitting)하고, 보간된 국소적 특징점의 3차원 값과 후보 노드의 동일 국소적 특징점 3차원 값들 간의 거리 차이인 물체 거리 가중치
Figure 112008045285130-pat00101
을 수학식 12에 따라 계산되는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.
The 3D value of the local feature of the object recognized by the robot is interpolated to the 3D value of the local feature of the same object of the candidate node, and the 3D value of the interpolated local feature and the same local of the candidate node Object distance weights that are the difference in distance between the feature point three-dimensional values
Figure 112008045285130-pat00101
The magnetic position estimation method of the robot based on the object recognition, characterized in that is calculated according to Equation 12.
Figure 112008045285130-pat00102
(수학식 12)
Figure 112008045285130-pat00102
(Equation 12)
여기서,
Figure 112008045285130-pat00172
는 후보 노드,
Figure 112008045285130-pat00173
는 후보 노드의 개수이다.
here,
Figure 112008045285130-pat00172
Is a candidate node,
Figure 112008045285130-pat00173
Is the number of candidate nodes.
청구항 7항에 있어서,The method of claim 7, wherein상기 물체 존재 가중치
Figure 112007013347975-pat00103
는 수학식 9에 따라 계산되는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.
The object presence weights
Figure 112007013347975-pat00103
The method of estimating the magnetic position of the robot based on object recognition, characterized in that calculated according to Equation (9).
Figure 112007013347975-pat00104
(수학식 9)
Figure 112007013347975-pat00104
(Equation 9)
(
Figure 112007013347975-pat00105
는 후보 노드
Figure 112007013347975-pat00106
의 물체 존재 가중치이고,
Figure 112007013347975-pat00107
는 후보 노드의 개수이다.
Figure 112007013347975-pat00108
은 로봇이 인식한 물체의 집합,
Figure 112007013347975-pat00109
는 후보 노드
Figure 112007013347975-pat00110
에 존재하는 물체의 집합이고,
Figure 112007013347975-pat00111
는 로봇이 인식한 물체와 후보 노드
Figure 112007013347975-pat00112
에 존재하는 물체 중 동일한 물체의 개수이다.)
(
Figure 112007013347975-pat00105
Is a candidate node
Figure 112007013347975-pat00106
Is the weight of the object's existence,
Figure 112007013347975-pat00107
Is the number of candidate nodes.
Figure 112007013347975-pat00108
Is a collection of objects recognized by a robot,
Figure 112007013347975-pat00109
Is a candidate node
Figure 112007013347975-pat00110
Is a collection of objects present in,
Figure 112007013347975-pat00111
Is a robot-recognized object and a candidate node
Figure 112007013347975-pat00112
The number of identical objects in the object.)
청구항 7항에 있어서,The method of claim 7, wherein상기 물체 특징 가중치
Figure 112007013347975-pat00113
는 수학식 10에 따라 계산되는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.
The object feature weights
Figure 112007013347975-pat00113
The method of estimating the magnetic position of the robot based on the object recognition, characterized in that calculated according to Equation (10).
Figure 112007013347975-pat00114
(수학식 10)
Figure 112007013347975-pat00114
(Equation 10)
(
Figure 112007013347975-pat00115
는 후보 노드
Figure 112007013347975-pat00116
의 물체 특징 가중치이고,
Figure 112007013347975-pat00117
은 로봇이 인식한 모든 물체의 국소적 특징점의 집합이고,
Figure 112007013347975-pat00118
는 후보 노드
Figure 112007013347975-pat00119
에 포함된 물체들의 국소적 특징점의 집합이다.
Figure 112007013347975-pat00120
는 로봇이 인식한 모든 물체의 국소적 특징점의 개수,
Figure 112007013347975-pat00121
는 로봇이 인식한 모든 물체의 국소적 특징점과 후보 노 드
Figure 112007013347975-pat00122
에 존재하는 물체 중 로봇이 인식한 물체와 동일한 물체의 매칭된 국소적 특징점의 개수이다.)
(
Figure 112007013347975-pat00115
Is a candidate node
Figure 112007013347975-pat00116
Is an object feature weight of
Figure 112007013347975-pat00117
Is the set of local feature points of all objects recognized by the robot,
Figure 112007013347975-pat00118
Is a candidate node
Figure 112007013347975-pat00119
A set of local feature points of objects contained in.
Figure 112007013347975-pat00120
Is the number of local feature points of all objects recognized by the robot,
Figure 112007013347975-pat00121
The local feature and candidate node of all objects recognized by the robot
Figure 112007013347975-pat00122
The number of matching local feature points of the same object as the one recognized by the robot.
청구항 7항에 있어서,The method of claim 7, wherein상기 물체 거리 가중치
Figure 112008045285130-pat00123
는 수학식 11에 따라 계산되는 것을 특징으로 하는 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법.
The object distance weights
Figure 112008045285130-pat00123
The method of estimating the magnetic position of the robot based on the object recognition, characterized in that is calculated according to Equation (11).
(수학식 11)      (Equation 11)
Figure 112008045285130-pat00174
Figure 112008045285130-pat00174
(여기서,
Figure 112008045285130-pat00125
는 후보 노드
Figure 112008045285130-pat00126
의 물체 거리 가중치이고,
Figure 112008045285130-pat00175
는 보간(fitting)된 국소적 특징점의 3차원값과 후보 노드의 동일 국소적 특징점의 3차원값 간의 거리 차이고,
Figure 112008045285130-pat00176
는 로봇이 인식한 모든 물체의 국소적 특징점과 후보 노드
Figure 112008045285130-pat00177
에 존재하는 물체 중 로봇이 인식한 물체와 동일한 물체의 매칭된 국소적 특징점의 개수이고,
Figure 112008045285130-pat00178
는 후보 노드의 개수이다. )
(here,
Figure 112008045285130-pat00125
Is a candidate node
Figure 112008045285130-pat00126
Is the object distance weight of,
Figure 112008045285130-pat00175
Is the difference between the three-dimensional values of the interpolated local feature points and the three-dimensional values of the same local feature points of the candidate nodes,
Figure 112008045285130-pat00176
Local feature and candidate nodes of all objects recognized by the robot.
Figure 112008045285130-pat00177
The number of matching local feature points of the same object as the object recognized by the robot among the objects present in,
Figure 112008045285130-pat00178
Is the number of candidate nodes. )
KR1020070015026A2007-02-132007-02-13 Estimation method of robot's magnetic position based on object recognitionExpired - Fee RelatedKR100866380B1 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
KR1020070015026AKR100866380B1 (en)2007-02-132007-02-13 Estimation method of robot's magnetic position based on object recognition

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
KR1020070015026AKR100866380B1 (en)2007-02-132007-02-13 Estimation method of robot's magnetic position based on object recognition

Publications (2)

Publication NumberPublication Date
KR20080075730A KR20080075730A (en)2008-08-19
KR100866380B1true KR100866380B1 (en)2008-11-03

Family

ID=39879229

Family Applications (1)

Application NumberTitlePriority DateFiling Date
KR1020070015026AExpired - Fee RelatedKR100866380B1 (en)2007-02-132007-02-13 Estimation method of robot's magnetic position based on object recognition

Country Status (1)

CountryLink
KR (1)KR100866380B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2011081459A3 (en)*2009-12-312011-11-24성균관대학교 산학협력단Three-dimensional object recognition and posture estimation system based on probabilistic multiple interpretation and method thereof
KR101090082B1 (en)2009-05-292011-12-07한국원자력연구원 Stair Dimension Measurement System and Method Using Single Camera and Laser
KR101134316B1 (en)*2009-10-092012-04-13한양대학교 산학협력단Active localization of robot using spatial semantics of objects
KR101178176B1 (en)2009-12-312012-08-29성균관대학교산학협력단System and method of probabilistic multiple interpretations generation based 3d object recognition and pose estimation
US8938319B2 (en)2009-01-072015-01-20Samsung Electronics Co., Ltd.Robot slip detection apparatus and method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR101493075B1 (en)2008-12-172015-02-12삼성전자 주식회사apparatus and method for recognizing a situation of mobile robot
KR101570377B1 (en)*2009-03-312015-11-20엘지전자 주식회사 3D environment recognition method of robot cleaner equipped with single camera
KR101040957B1 (en)*2009-07-272011-06-17전자부품연구원 Location recognition method and robot
KR101686171B1 (en)*2010-06-082016-12-13삼성전자주식회사Apparatus for recognizing location using image and range data and method thereof
KR102075844B1 (en)*2018-10-102020-02-10한국로봇융합연구원Localization system merging results of multi-modal sensor based positioning and method thereof
KR102181815B1 (en)*2018-11-232020-11-24한국전자기술연구원Personalized arrangement robot and arrangement method using the same
KR102206303B1 (en)*2019-10-312021-01-22광주과학기술원System and Method for Discriminating Status and Estimating Posture Using Deep Learning
KR102156511B1 (en)*2020-03-262020-09-15주식회사 제타뱅크Moving Robot and controlling method
KR102377475B1 (en)*2020-08-262022-03-22주식회사 케이스랩Automatic driving system and location estimating method for moving object

Citations (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH02176518A (en)*1988-12-281990-07-09Hitachi Ltd Mobile environment recognition device
JPH07200777A (en)*1993-12-281995-08-04Hitachi Ltd Position estimation method in mobile
JP2003323215A (en)2002-04-302003-11-14Sogo Keibi Hosho Co LtdAutonomous moving body
JP2004005593A (en)2002-04-172004-01-08Matsushita Electric Works LtdAutonomous moving apparatus
JP2004030445A (en)2002-06-272004-01-29National Institute Of Advanced Industrial & Technology Mobile robot self-position estimation method and system, and program
KR20060085751A (en)*2005-01-252006-07-28삼성전자주식회사 An apparatus and method for estimating and mapping a moving object using an upstream image and a computer-readable recording medium storing a computer program controlling the apparatus
KR100647285B1 (en)2003-08-202006-11-23삼성전자주식회사A method for constructing an artificial mark for autonomous driving of an intelligent system, an apparatus and method for determining the position of an intelligent system using the artificial mark, and an intelligent system employing the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH02176518A (en)*1988-12-281990-07-09Hitachi Ltd Mobile environment recognition device
JPH07200777A (en)*1993-12-281995-08-04Hitachi Ltd Position estimation method in mobile
JP2004005593A (en)2002-04-172004-01-08Matsushita Electric Works LtdAutonomous moving apparatus
JP2003323215A (en)2002-04-302003-11-14Sogo Keibi Hosho Co LtdAutonomous moving body
JP2004030445A (en)2002-06-272004-01-29National Institute Of Advanced Industrial & Technology Mobile robot self-position estimation method and system, and program
KR100647285B1 (en)2003-08-202006-11-23삼성전자주식회사A method for constructing an artificial mark for autonomous driving of an intelligent system, an apparatus and method for determining the position of an intelligent system using the artificial mark, and an intelligent system employing the same
KR20060085751A (en)*2005-01-252006-07-28삼성전자주식회사 An apparatus and method for estimating and mapping a moving object using an upstream image and a computer-readable recording medium storing a computer program controlling the apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US8938319B2 (en)2009-01-072015-01-20Samsung Electronics Co., Ltd.Robot slip detection apparatus and method
KR101553653B1 (en)*2009-01-072015-09-16삼성전자 주식회사apparatus and method for detecting slip of robot
KR101090082B1 (en)2009-05-292011-12-07한국원자력연구원 Stair Dimension Measurement System and Method Using Single Camera and Laser
KR101134316B1 (en)*2009-10-092012-04-13한양대학교 산학협력단Active localization of robot using spatial semantics of objects
WO2011081459A3 (en)*2009-12-312011-11-24성균관대학교 산학협력단Three-dimensional object recognition and posture estimation system based on probabilistic multiple interpretation and method thereof
KR101178176B1 (en)2009-12-312012-08-29성균관대학교산학협력단System and method of probabilistic multiple interpretations generation based 3d object recognition and pose estimation

Also Published As

Publication numberPublication date
KR20080075730A (en)2008-08-19

Similar Documents

PublicationPublication DateTitle
KR100926783B1 (en) A method for estimating the magnetic position of the robot based on the environment information including object recognition and recognized object
KR100866380B1 (en) Estimation method of robot's magnetic position based on object recognition
CN108445480B (en)Mobile platform self-adaptive extended target tracking system and method based on laser radar
JP5181704B2 (en) Data processing apparatus, posture estimation system, posture estimation method and program
Bailey et al.Simultaneous localization and mapping (SLAM): Part II
Bosse et al.Map matching and data association for large-scale two-dimensional laser scan-based slam
Wang et al.Keyframe based large-scale indoor localisation using geomagnetic field and motion pattern
JP5892663B2 (en) Self-position estimation device, self-position estimation method, self-position estimation program, and moving object
Vidas et al.Real-time mobile 3D temperature mapping
CN111788571A (en) vehicle tracking
Ahn et al.A practical approach for EKF-SLAM in an indoor environment: fusing ultrasonic sensors and stereo camera
Lee et al.Vision-based kidnap recovery with SLAM for home cleaning robots
JP2010033447A (en)Image processor and image processing method
KR101460313B1 (en)Apparatus and method for robot localization using visual feature and geometric constraints
Yang et al.Ransac matching: Simultaneous registration and segmentation
CN117522976A (en)Loop detection method and device, electronic equipment and storage medium
Kim et al.Vision-based navigation with efficient scene recognition
Choi et al.Autonomous homing based on laser-camera fusion system
Matsumoto et al.Pose estimation of multiple people using contour features from multiple laser range finders
Baligh Jahromi et al.Layout slam with model based loop closure for 3d indoor corridor reconstruction
Jia et al.Robot localization in indoor environments using radio frequency identification technology and stereo vision
Yim et al.Mobile robot localization using fusion of object recognition and range information
Fu et al.Monte Carlo Localization using 3D texture maps
Kaneko et al.Stata Center Frame: A Novel World Assumption for Self-Localization
JP7670564B2 (en) Facility recognition system and facility recognition method

Legal Events

DateCodeTitleDescription
A201Request for examination
PA0109Patent application

St.27 status event code:A-0-1-A10-A12-nap-PA0109

PA0201Request for examination

St.27 status event code:A-1-2-D10-D11-exm-PA0201

D13-X000Search requested

St.27 status event code:A-1-2-D10-D13-srh-X000

D14-X000Search report completed

St.27 status event code:A-1-2-D10-D14-srh-X000

E902Notification of reason for refusal
PE0902Notice of grounds for rejection

St.27 status event code:A-1-2-D10-D21-exm-PE0902

P11-X000Amendment of application requested

St.27 status event code:A-2-2-P10-P11-nap-X000

P13-X000Application amended

St.27 status event code:A-2-2-P10-P13-nap-X000

PG1501Laying open of application

St.27 status event code:A-1-1-Q10-Q12-nap-PG1501

E701Decision to grant or registration of patent right
PE0701Decision of registration

St.27 status event code:A-1-2-D10-D22-exm-PE0701

GRNTWritten decision to grant
PR0701Registration of establishment

St.27 status event code:A-2-4-F10-F11-exm-PR0701

PR1002Payment of registration fee

St.27 status event code:A-2-2-U10-U11-oth-PR1002

Fee payment year number:1

PG1601Publication of registration

St.27 status event code:A-4-4-Q10-Q13-nap-PG1601

R18-X000Changes to party contact information recorded

St.27 status event code:A-5-5-R10-R18-oth-X000

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:4

FPAYAnnual fee payment

Payment date:20121011

Year of fee payment:5

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:5

FPAYAnnual fee payment

Payment date:20130930

Year of fee payment:6

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:6

PN2301Change of applicant

St.27 status event code:A-5-5-R10-R13-asn-PN2301

St.27 status event code:A-5-5-R10-R11-asn-PN2301

FPAYAnnual fee payment

Payment date:20141028

Year of fee payment:7

PR1001Payment of annual fee

St.27 status event code:A-4-4-U10-U11-oth-PR1001

Fee payment year number:7

PN2301Change of applicant

St.27 status event code:A-5-5-R10-R11-asn-PN2301

PN2301Change of applicant

St.27 status event code:A-5-5-R10-R14-asn-PN2301

P14-X000Amendment of ip right document requested

St.27 status event code:A-5-5-P10-P14-nap-X000

P16-X000Ip right document amended

St.27 status event code:A-5-5-P10-P16-nap-X000

Q16-X000A copy of ip right certificate issued

St.27 status event code:A-4-4-Q10-Q16-nap-X000

LAPSLapse due to unpaid annual fee
PC1903Unpaid annual fee

St.27 status event code:A-4-4-U10-U13-oth-PC1903

Not in force date:20151028

Payment event data comment text:Termination Category : DEFAULT_OF_REGISTRATION_FEE

P22-X000Classification modified

St.27 status event code:A-4-4-P10-P22-nap-X000

PC1903Unpaid annual fee

St.27 status event code:N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text:Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date:20151028

P22-X000Classification modified

St.27 status event code:A-4-4-P10-P22-nap-X000

PN2301Change of applicant

St.27 status event code:A-5-5-R10-R13-asn-PN2301

St.27 status event code:A-5-5-R10-R11-asn-PN2301

P22-X000Classification modified

St.27 status event code:A-4-4-P10-P22-nap-X000


[8]ページ先頭

©2009-2025 Movatter.jp