

본 발명은 객체 추적의 정확도를 보장하면서 처리 속도를 향상시킬 수 있는 실시간 객체 추적 장치 및 방법에 대한 것이다.The present invention relates to a real-time object tracking device and method that can improve processing speed while ensuring object tracking accuracy.
다중 객체 추적 기술은 비디오 영상에 존재하는 사람, 자동차와 같은 객체들의 위치를 연속적으로 추적하는 기술로써, 자율주행 시스템, 무인 감시 시스템(CCTV, Closed-Circuit Television) 등과 같은 다양한 분야에서 활용되고 있다.Multi-object tracking technology is a technology that continuously tracks the positions of objects such as people and cars in video images, and is used in various fields such as autonomous driving systems and unmanned surveillance systems (CCTV, Closed-Circuit Television).
다중 객체 추적 기술은 먼저 영상의 각 프레임(단일 이미지)에서 각 객체들의 위치를 파악하는 단계인 객체 탐지(Object detection) 단계와 연속된 두 프레임에 존재하는 객체들의 관계를 파악하여 각 객체들의 위치 변화를 추적하는 객체 추적(Object tracking) 단계로 나눌 수 있다.Multi-object tracking technology first involves the object detection step, which is a step of identifying the location of each object in each frame (single image) of the video, and the location change of each object by determining the relationship between objects existing in two consecutive frames. It can be divided into object tracking stages.
현대의 객체 탐지 기술은 인공지능의 발전과 함께 비약적인 발전을 이루었다. 딥러닝을 이용하여 하나의 이미지에서 여러 객체를 탐지하는 방법으로써 R-CNN(Regions with Convolution Neural Network features), Fast R-CNN, YOLO(You Only Look Once) 등의 방법이 제안되었다. 각 기술마다 탐지성능과 속도 측면에서 장단점이 존재하는데, 예를 들어 YOLO의 경우 정확도 보다는 탐지 속도에 강점을 가지는 기법이다.Modern object detection technology has made rapid progress along with the development of artificial intelligence. As a method of detecting multiple objects in one image using deep learning, methods such as R-CNN (Regions with Convolution Neural Network features), Fast R-CNN, and YOLO (You Only Look Once) have been proposed. Each technology has pros and cons in terms of detection performance and speed. For example, YOLO is a technique that has strengths in detection speed rather than accuracy.
객체 추적 기술 또한 매우 빠른 속도로 발전하고 있는데, 대표적으로 FairMOT(Fair Multi-Object Tracking), SORT(Simple Online and Real-time Tracking), DeepSORT(Deep Simple Online and Real-time Tracking) 등의 기법들이 제안되었다. 예를 들어, SORT의 경우 컴퓨팅 연산의 양이 많지 않아 속도 측면에서 빠르다는 장점이 있다. 이러한 객체 추적은 앞서 묘사한 YOLO 등의 기법을 통해 각 프레임의 객체들을 탐지한 후, 이 결과를 이용하여 연속된 프레임 간의 객체들이 서로 얼마나 유사한 위치에 존재하는지 확인하는 방법으로 수행된다.Object tracking technology is also developing at a very rapid pace, with techniques such as FairMOT (Fair Multi-Object Tracking), SORT (Simple Online and Real-time Tracking), and DeepSORT (Deep Simple Online and Real-time Tracking) being proposed. It has been done. For example, SORT has the advantage of being fast in terms of speed because the amount of computing operations is not large. This object tracking is performed by detecting objects in each frame through techniques such as YOLO described above, and then using the results to check how similar the objects in successive frames are to each other.
보통, 실시간 객체 추적이 필요한 시스템에서는 객체 추적의 정확도가 높아야 함과 동시에 객체 추적에 따른 연산 속도도 빨라야 할 필요가 있다. 이와 관련해서, DeepSORT 알고리즘을 활용하여 객체 추적을 수행하는 경우, 비교적 높은 정확도의 객체 추적이 가능하지만, 그만큼 연산량이 증가하게 되어, 객체 추적 속도가 느려지는 단점이 있다. 반면에, SORT 알고리즘을 활용하여 객체 추적을 수행하는 경우, DeepSORT 알고리즘에 비해, 연산량이 적기 때문에 비교적 빠른 객체 추적이 가능하지만, 그만큼 객체 추적의 정확도가 낮다는 단점이 있다.Typically, in systems that require real-time object tracking, the accuracy of object tracking must be high and the computation speed according to object tracking must also be fast. In this regard, when object tracking is performed using the DeepSORT algorithm, object tracking with relatively high accuracy is possible, but there is a disadvantage in that the amount of computation increases, slowing down the object tracking speed. On the other hand, when performing object tracking using the SORT algorithm, relatively fast object tracking is possible because the amount of calculation is less compared to the DeepSORT algorithm, but there is a disadvantage that the accuracy of object tracking is low.
따라서, 실시간 객체 추적 시스템에서, DeepSORT 알고리즘과 SORT 알고리즘을 적절하게 혼용하여 사용함으로써, 객체 추적의 정확도를 높임과 동시에 속도를 향상시킬 수 있도록 하는 기술에 대한 연구가 필요하다.Therefore, in real-time object tracking systems, research is needed on technologies that can increase the accuracy and speed of object tracking by appropriately using the DeepSORT algorithm and the SORT algorithm together.
본 발명에 따른 실시간 객체 추적 장치 및 방법은 DeepSORT(Deep Simple Online and Real-time Tracking) 알고리즘과 SORT(Simple Online and Real-time Tracking) 알고리즘을 혼합하여 입력 영상에 대한 객체 추적을 수행함으로써, 객체 추적의 정확도를 보장함과 동시에 처리 속도의 향상이 가능하도록 지원하고자 한다.The real-time object tracking device and method according to the present invention performs object tracking on the input image by mixing the DeepSORT (Deep Simple Online and Real-time Tracking) algorithm and the SORT (Simple Online and Real-time Tracking) algorithm, thereby tracking the object. We aim to ensure accuracy and improve processing speed at the same time.
본 발명의 일실시예에 따른 실시간 객체 추적 장치는 영상이 입력되면, 상기 영상을 구성하는 프레임들 중 첫 번째 프레임을 시작으로 해서 n(n은 3이상의 크기를 갖는 자연수들 중에서 사전 지정된 어느 하나의 값임)번째 프레임까지 DeepSORT(Deep Simple Online and Real-time Tracking) 알고리즘에 기초한 객체 추적을 수행하는 제1 추적부, 상기 n번째 프레임과 n+1번째 프레임에 대해 SORT(Simple Online and Real-time Tracking) 알고리즘에 기초한 객체 추적을 수행한 후, 상기 n+1번째 프레임을 상기 첫 번째 프레임으로 재지정하여 상기 제1 추적부에 인가하는 제2 추적부 및 상기 제1 추적부와 상기 제2 추적부에 따른 객체 추적이 반복 수행되도록 제어하는 반복 수행 제어부를 포함한다.When an image is input, the real-time object tracking device according to an embodiment of the present invention starts with the first frame among the frames constituting the image, and n (n is any one predetermined among natural numbers having a size of 3 or more) A first tracking unit that performs object tracking based on the DeepSORT (Deep Simple Online and Real-time Tracking) algorithm up to the (value)th frame, SORT (Simple Online and Real-time Tracking) for the nth frame and n+1th frame. ) After performing object tracking based on the algorithm, a second tracking unit that re-designates the n+1th frame as the first frame and applies it to the first tracking unit, and the first tracking unit and the second tracking unit It includes a repeat performance control unit that controls object tracking to be repeatedly performed.
또한, 본 발명의 일실시예에 따른 실시간 객체 추적 방법은 영상이 입력되면, 상기 영상을 구성하는 프레임들 중 첫 번째 프레임을 시작으로 해서 n(n은 3이상의 크기를 갖는 자연수들 중에서 사전 지정된 어느 하나의 값임)번째 프레임까지 DeepSORT 알고리즘에 기초한 객체 추적을 수행하는 제1 추적 단계, 상기 n번째 프레임과 n+1번째 프레임에 대해 SORT 알고리즘에 기초한 객체 추적을 수행한 후, 상기 n+1번째 프레임을 상기 첫 번째 프레임으로 재지정하여 상기 제1 추적 단계로 회귀하는 제2 추적 단계 및 상기 제1 추적 단계와 상기 제2 추적 단계에 따른 객체 추적이 반복 수행되도록 제어하는 반복 수행 제어 단계를 포함한다.In addition, the real-time object tracking method according to an embodiment of the present invention, when an image is input, starts with the first frame among the frames constituting the image and starts with n (n is a predetermined number of natural numbers having a size of 3 or more). A first tracking step of performing object tracking based on the DeepSORT algorithm up to the (one value)th frame, performing object tracking based on the SORT algorithm for the nth frame and the n+1th frame, and then performing object tracking based on the SORT algorithm for the nth frame and the n+1th frame. A second tracking step of redirecting to the first frame and returning to the first tracking step, and a repeat performance control step of controlling object tracking according to the first tracking step and the second tracking step to be repeatedly performed.
본 발명에 따른 실시간 객체 추적 장치 및 방법은 DeepSORT(Deep Simple Online and Real-time Tracking) 알고리즘과 SORT(Simple Online and Real-time Tracking) 알고리즘을 혼합하여 입력 영상에 대한 객체 추적을 수행함으로써, 객체 추적의 정확도를 보장함과 동시에 처리 속도의 향상을 도모할 수 있다.The real-time object tracking device and method according to the present invention performs object tracking on the input image by mixing the DeepSORT (Deep Simple Online and Real-time Tracking) algorithm and the SORT (Simple Online and Real-time Tracking) algorithm, thereby tracking the object. It is possible to ensure accuracy and improve processing speed at the same time.
도 1은 본 발명의 일실시예에 따른 실시간 객체 추적 장치의 구조를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 실시간 객체 추적 방법을 도시한 순서도이다.Figure 1 is a diagram showing the structure of a real-time object tracking device according to an embodiment of the present invention.
Figure 2 is a flowchart showing a real-time object tracking method according to an embodiment of the present invention.
이하에서는 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명하기로 한다. 이러한 설명은 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였으며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 본 명세서 상에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 사람에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the attached drawings. This description is not intended to limit the present invention to specific embodiments, but should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. In describing each drawing, similar reference numerals are used for similar components, and unless otherwise defined, all terms used in this specification, including technical or scientific terms, are within the scope of common knowledge in the technical field to which the present invention pertains. It has the same meaning as generally understood by those who have it.
본 문서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 본 발명의 다양한 실시예들에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있고, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.In this document, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary. Additionally, in various embodiments of the present invention, each component, functional block, or means may be composed of one or more subcomponents, and the electrical, electronic, and mechanical functions performed by each component may be electronic. It may be implemented with various known elements or mechanical elements such as circuits, integrated circuits, and ASICs (Application Specific Integrated Circuits), and may be implemented separately or by integrating two or more into one.
한편, 첨부된 블록도의 블록들이나 흐름도의 단계들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터 등 데이터 프로세싱이 가능한 장비의 프로세서나 메모리에 탑재되어 지정된 기능들을 수행하는 컴퓨터 프로그램 명령들(instructions)을 의미하는 것으로 해석될 수 있다. 이들 컴퓨터 프로그램 명령들은 컴퓨터 장치에 구비된 메모리 또는 컴퓨터에서 판독 가능한 메모리에 저장될 수 있기 때문에, 블록도의 블록들 또는 흐름도의 단계들에서 설명된 기능들은 이를 수행하는 명령 수단을 내포하는 제조물로 생산될 수도 있다. 아울러, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 명령들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 가능한 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 정해진 순서와 달리 실행되는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 실질적으로 동시에 수행되거나, 역순으로 수행될 수 있으며, 경우에 따라 일부 블록들 또는 단계들이 생략된 채로 수행될 수도 있다.Meanwhile, the blocks in the attached block diagram or the steps in the flow chart are computer program instructions that are mounted on the processor or memory of equipment capable of data processing, such as general-purpose computers, special-purpose computers, portable laptop computers, and network computers, and perform designated functions. It can be interpreted to mean. Because these computer program instructions can be stored in a memory provided in a computer device or in a computer-readable memory, the functions described in the blocks of a block diagram or the steps of a flow diagram can be produced as a manufactured product containing instruction means to perform them. It could be. In addition, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative embodiments, it is possible for functions mentioned in blocks or steps to be executed in a different order. For example, two blocks or steps shown in succession may be performed substantially simultaneously or in reverse order, and in some cases, some blocks or steps may be omitted.
도 1은 본 발명의 일실시예에 따른 실시간 객체 추적 장치의 구조를 도시한 도면이다.Figure 1 is a diagram showing the structure of a real-time object tracking device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명에 따른 실시간 객체 추적 장치(110)는 제1 추적부(111), 제2 추적부(112) 및 반복 수행 제어부(113)를 포함한다.Referring to FIG. 1, the real-time
제1 추적부(111)는 영상이 입력되면, 상기 영상을 구성하는 프레임들 중 첫 번째 프레임을 시작으로 해서 n(n은 3이상의 크기를 갖는 자연수들 중에서 사전 지정된 어느 하나의 값임)번째 프레임까지 DeepSORT(Deep Simple Online and Real-time Tracking) 알고리즘에 기초한 객체 추적을 수행한다.When an image is input, the
제2 추적부(112)는 상기 n번째 프레임과 n+1번째 프레임에 대해 SORT(Simple Online and Real-time Tracking) 알고리즘에 기초한 객체 추적을 수행한 후, 상기 n+1번째 프레임을 상기 첫 번째 프레임으로 재지정하여 제1 추적부(111)에 인가한다.The
반복 수행 제어부(113)는 제1 추적부(111)와 제2 추적부(112)에 따른 객체 추적이 반복 수행되도록 제어한다.The repetition
관련해서, n을 '5'라고 가정하고, 본 발명에 따른 실시간 객체 추적 장치(110)의 동작을 설명하면 다음과 같다.In relation to this, assuming n is '5', the operation of the real-time
먼저, 제1 추적부(111)는 영상이 입력되면, 상기 영상을 구성하는 프레임들 중 첫 번째 프레임을 시작으로 해서 5번째 프레임까지 DeepSORT 알고리즘에 기초한 객체 추적을 수행할 수 있다.First, when an image is input, the
그러고 나서, 제2 추적부(112)는 5번째 프레임과 6번째 프레임에 대해 SORT 알고리즘에 기초한 객체 추적을 수행한 후, 상기 6번째 프레임을 상기 첫 번째 프레임으로 재지정하여 제1 추적부(111)에 인가할 수 있다.Then, the
이때, 반복 수행 제어부(113)는 제1 추적부(111)와 제2 추적부(112)에 따른 객체 추적이 반복 수행되도록 제어하기 때문에, 제2 추적부(112)에 의해 상기 6번째 프레임이 상기 첫 번째 프레임으로 재지정되어 제1 추적부(111)에 인가되면, 제1 추적부(111)는 상기 6번째 프레임을 시작으로 해서 10번째 프레임까지 다시 DeepSORT 알고리즘에 기초한 객체 추적을 수행할 수 있고, 제2 추적부(112)는 10번째 프레임과 11번째 프레임에 대해 SORT 알고리즘에 기초한 객체 추적을 수행한 후, 11번째 프레임을 다시 첫 번째 프레임으로 재지정하여 제1 추적부(111)에 인가할 수 있다.At this time, since the repetition
이러한 방식으로, 제1 추적부(111)는 5개의 연속된 프레임마다 DeepSORT 알고리즘에 기초한 객체 추적을 수행할 수 있고, 제2 추적부(112)는 5번째와 6번째 프레임, 10번째와 11번째 프레임, 15번째와 16번째 프레임과 같이, 매 5k번째와 5k+1번째 프레임마다 SORT 알고리즘에 기초한 객체 추적을 수행할 수 있다.In this way, the
이렇게, 본 발명에 따른 실시간 객체 추적 장치(110)는 DeepSORT 알고리즘을 기초로 객체 추적을 수행하되, 특정 프레임 간에는 SORT 알고리즘을 기초로 객체 추적을 수행함으로써, 객체 추적에 대한 높은 정확도를 유지함과 동시에, 객체 추적의 속도 향상을 도모할 수 있다. 이때, 실시간 객체 추적 장치(110)의 관리자는 n의 크기를 조정함으로써, 제1 추적부(111)에서 DeepSORT 알고리즘을 기초로 객체 추적이 수행되는 프레임의 수와 제2 추적부(112)에서 SORT 알고리즘을 기초로 객체 추적이 수행되는 프레임의 수를 적절히 조정하여, 객체 추적에 대한 정확도와 속도를 자신이 원하는 수준으로 맞출 수 있다. 예컨대, 관리자는 n의 크기를 증가시켜서 보다 많은 프레임들이 DeepSORT 알고리즘을 기초로 객체 추적이 되도록 함으로써, 높은 객체 추적의 정확도를 달성할 수 있고, n의 크기를 감소시켜서 보다 많은 프레임들이 SORT 알고리즘을 기초로 객체 추적이 되도록 함으로써, 객체 추적의 속도 향상을 도모할 수 있다.In this way, the real-time
본 발명의 일실시예에 따르면, 제1 추적부(111)는 상기 DeepSORT 알고리즘에 기초한 객체 추적을 수행하기 위해, 현재 시점의 프레임이 제1 프레임이라고 하는 경우, 사전 설정된 객체 검출기를 통해 상기 제1 프레임 상에 존재하는 제1 객체들을 검출하여, 상기 제1 객체들의 위치 정보에 대한 제1 특징 벡터를 산출하고, 상기 제1 프레임의 이전 프레임 상에 존재하였던 제2 객체들의 위치 정보에 대한 특징 벡터를 칼만 필터(Kalman filter)에 인가함으로써, 상기 제2 객체들이 상기 제1 프레임 상에서 존재할 것으로 예측되는 위치 정보에 대한 제2 특징 벡터를 추정한 후, 상기 제1 객체들 각각에 대한 제1 특징 벡터와 상기 제2 객체들 각각에 대한 제2 특징 벡터 간의 마할라노비스 거리(Mahalanobis distance)와 코사인 거리(Cosine Distance)를 연산하여, 상기 제1 객체들과 상기 제2 객체들 중에서, 제1 특징 벡터와 제2 특징 벡터 간의 마할라노비스 거리와 코사인 거리의 가중 평균이 사전 설정된 제1 기준치 이상으로 산출되는 두 객체를 서로 동일한 객체로 추적할 수 있다.According to an embodiment of the present invention, in order to perform object tracking based on the DeepSORT algorithm, the
즉, 제1 추적부(111)는 상기 영상에서 현재 시점에 해당되는 현재 프레임이 상기 제1 프레임이라고 하는 경우, 상기 제1 프레임과 이전 프레임 간의 상기 DeepSORT 알고리즘에 기초한 객체 추적을 수행하기 위해서, 사전 설정된 객체 검출기를 통해 상기 제1 프레임 상에 존재하는 제1 객체들을 검출할 수 있다.That is, when the current frame corresponding to the current point in the image is the first frame, the
여기서, 상기 객체 검출기는 YOLO(You Only Look Once) 등과 같이, 이미지로부터 객체를 검출하기 위한 딥러닝 기반의 객체 검출 모델을 기초로 구성된 검출기가 활용될 수 있다.Here, the object detector may be a detector constructed based on a deep learning-based object detection model for detecting objects from images, such as YOLO (You Only Look Once).
이렇게, 상기 제1 프레임 상에 존재하는 상기 제1 객체들이 검출되면, 제1 추적부(111)는 상기 제1 객체들의 위치 정보에 대한 제1 특징 벡터를 산출한 후, 상기 제1 프레임의 이전 프레임 상에 존재하였던 제2 객체들의 위치 정보에 대한 특징 벡터를 칼만 필터에 인가함으로써, 상기 제2 객체들이 상기 제1 프레임 상에서 존재할 것으로 예측되는 위치 정보에 대한 제2 특징 벡터를 추정할 수 있다.In this way, when the first objects existing on the first frame are detected, the
여기서, 칼만 필터란 잡음을 포함하여 선형 역학계의 상태를 추적하는 재귀 필터를 의미하는 것으로서, 이러한 칼만 필터는, 객체 추적에 있어서, 이전 프레임 상에 존재하던 객체들이 현재 프레임 상에서 어느 위치에 존재할지 예측하는데 사용될 수 있다.Here, the Kalman filter refers to a recursive filter that tracks the state of a linear dynamical system, including noise. In object tracking, this Kalman filter predicts where objects that existed in the previous frame will exist in the current frame. It can be used to
이렇게, 상기 제2 객체들에 대한 제2 특징 벡터가 추정되면, 제1 추적부(111)는 상기 제1 객체들 각각에 대한 제1 특징 벡터와 상기 제2 객체들 각각에 대한 제2 특징 벡터 간의 마할라노비스 거리와 코사인 거리를 연산할 수 있다.In this way, when the second feature vectors for the second objects are estimated, the
그러고 나서, 제1 추적부(111)는 상기 제1 객체들과 상기 제2 객체들 중에서, 제1 특징 벡터와 제2 특징 벡터 간의 마할라노비스 거리와 코사인 거리의 가중 평균이 사전 설정된 제1 기준치 이상으로 산출되는 두 객체를 서로 동일한 객체로 추적할 수 있다.Then, the
예컨대, 제1 추적부(111)는 상기 제1 객체들 중 하나인 '객체 1'에 대한 제1 특징 벡터와 상기 제2 객체들 중 하나인 '객체 2'에 대한 제2 특징 벡터 간의 마할라노비스 거리와 코사인 거리의 가중 평균이 상기 제1 기준치 이상으로 산출되었다고 하는 경우, 현재 시점의 프레임인 상기 제1 프레임 상에 존재하는 '객체 1'을 이전 프레임 상에 존재하던 '객체 2'와 동일한 객체인 것으로 추적할 수 있다.For example, the
본 발명의 일실시예에 따르면, 제2 추적부(112)는 상기 SORT 알고리즘에 기초한 객체 추적을 수행하기 위해, 현재 시점의 프레임이 제2 프레임이라고 하는 경우, 상기 객체 검출기를 통해 상기 제2 프레임 상에 존재하는 제3 객체들을 검출하여, 상기 제3 객체들의 위치 정보에 대한 제3 특징 벡터를 산출하고, 상기 제2 프레임의 이전 프레임 상에 존재하였던 제4 객체들의 위치 정보에 대한 특징 벡터를 칼만 필터에 인가함으로써, 상기 제4 객체들이 상기 제2 프레임 상에서 존재할 것으로 예측되는 위치 정보에 대한 제4 특징 벡터를 추정한 후, 상기 제3 객체들 각각에 대한 제3 특징 벡터와 상기 제4 객체들 각각에 대한 제4 특징 벡터 간의 마할라노비스 거리를 연산하여, 상기 제3 객체들과 상기 제4 객체들 중에서, 제3 특징 벡터와 제4 특징 벡터 간의 마할라노비스 거리가 사전 설정된 제2 기준치 이상으로 산출된 두 객체를 서로 동일한 객체로 추적할 수 있다.According to one embodiment of the present invention, in order to perform object tracking based on the SORT algorithm, the
즉, 제2 추적부(112)는 상기 영상에서 현재 시점에 해당되는 현재 프레임이 상기 제2 프레임이라고 하는 경우, 상기 제2 프레임과 이전 프레임 간의 상기 SORT 알고리즘에 기초한 객체 추적을 수행하기 위해서, 상기 객체 검출기를 통해 상기 제2 프레임 상에 존재하는 제3 객체들을 검출할 수 있다.That is, when the current frame corresponding to the current point in the image is the second frame, the
이렇게, 상기 제2 프레임 상에 존재하는 상기 제3 객체들이 검출되면, 제2 추적부(112)는 상기 제3 객체들의 위치 정보에 대한 제3 특징 벡터를 산출한 후, 상기 제2 프레임의 이전 프레임 상에 존재하였던 제4 객체들의 위치 정보에 대한 특징 벡터를 칼만 필터에 인가함으로써, 상기 제4 객체들이 상기 제2 프레임 상에서 존재할 것으로 예측되는 위치 정보에 대한 제4 특징 벡터를 추정할 수 있다.In this way, when the third objects existing on the second frame are detected, the
이렇게, 상기 제4 객체들에 대한 제4 특징 벡터가 추정되면, 제2 추적부(112)는 상기 제3 객체들 각각에 대한 제3 특징 벡터와 상기 제4 객체들 각각에 대한 제4 특징 벡터 간의 마할라노비스 거리를 연산할 수 있다.In this way, when the fourth feature vector for the fourth objects is estimated, the
그러고 나서, 제2 추적부(112)는 상기 제3 객체들과 상기 제4 객체들 중에서, 제3 특징 벡터와 제4 특징 벡터 간의 마할라노비스 거리가 사전 설정된 제2 기준치 이상으로 산출된 두 객체를 서로 동일한 객체로 추적할 수 있다.Then, the
예컨대, 제2 추적부(112)는 상기 제3 객체들 중 하나인 '객체 3'에 대한 제3 특징 벡터와 상기 제4 객체들 중 하나인 '객체 4'에 대한 제4 특징 벡터 간의 마할라노비스 거리가 상기 제2 기준치 이상으로 산출되었다고 하는 경우, 현재 시점의 프레임인 상기 제2 프레임 상에 존재하는 '객체 3'을 이전 프레임 상에 존재하던 '객체 4'와 동일한 객체인 것으로 추적할 수 있다.For example, the
본 발명의 일실시예에 따르면, 실시간 객체 추적 장치(110)는 성능 정보 표시부(114)를 더 포함할 수 있다.According to one embodiment of the present invention, the real-time
성능 정보 표시부(114)는 사전 설정된 단위 시간당 객체 추적이 완료된 프레임의 개수를 상기 영상에 대한 객체 추적 처리 속도로 산출하고, 상기 영상에 대한 객체 추적의 정확도에 대한 정보로서, MOTA(Multiple Object Tracking Accuracy) 지수와 MOTP(Multiple Object Tracking Precision) 지수를 산출한 후, 화면 상에 상기 객체 추적 처리 속도와 상기 MOTA 지수 및 상기 MOTP 지수를 표시한다.The performance
관련해서, 상기 사전 설정된 단위 시간을 '1초'라고 하는 경우, 성능 정보 표시부(114)는 1초당 객체 추적이 완료된 프레임의 개수를 측정함으로써, 초당 프레임수를 상기 객체 추적 처리 속도로 산출할 수 있다.In relation to this, when the preset unit time is '1 second', the performance
그리고, MOTA 지수란 하기의 수학식 1에 따라 연산될 수 있는 지수로서,는 현재 시간 t에 해당하는 프레임에 존재하는 실제 객체들의 수를 나타내고,는 현재 시간 t의 프레임에 적용한 추적기법이 미탐지한(즉, 실제로 존재하지만 탐지하지 못한) 객체들의 수를 나타내며,는 부정오류(즉, 존재하지 않은 객체들을 탐지함)의 수를 나타내고,은 미스매치(즉, 객체들이 서로 교차하였으나 이를 인지하지 못함)의 수를 나타낸다.And, the MOTA index is an index that can be calculated according to Equation 1 below, represents the number of actual objects existing in the frame corresponding to the current time t, represents the number of objects that were not detected (i.e., actually existed but were not detected) by the tracking technique applied to the frame at the current time t, represents the number of false negatives (i.e. detecting objects that do not exist), represents the number of mismatches (i.e., objects crossed each other but were not recognized).
그리고, MOTP 지수란 하기의 수학식 2에 따라 연산될 수 있는 지수로서,는 현재 시간 t를 기준으로 현재 프레임과 이전 프레임의 통해 계산된, 매치된 객체의 수를 나타내고,는 매치된 i번째 객체들에 대하여 두 객체의 거리를 나타낸다.And, the MOTP index is an index that can be calculated according to Equation 2 below, represents the number of matched objects calculated through the current frame and the previous frame based on the current time t, represents the distance between two objects with respect to the ith matched objects.
이렇게, 성능 정보 표시부(114)는 실시간 객체 추적 장치(110)를 통해 수행되는 객체 추적의 성능과 관련된 정보로서, 상기 객체 추적 처리 속도, 상기 MOTA 지수 및 상기 MOTP 지수를 화면 상에 표시함으로써, 관리자가 이 성능에 대한 정보를 참고하여 DeepSORT와 SORT를 활용할 프레임의 수를 적절하게 조절할 수 있도록 지원할 수 있다.In this way, the performance
본 발명의 일실시예에 따르면, 실시간 객체 추적 장치(110)는 이벤트 발생부(115), 산출부(116), 비교부(117), 크기 조정부(118) 및 메시지 표시부(119)를 더 포함할 수 있다.According to one embodiment of the present invention, the real-time
이벤트 발생부(115)는 사전 설정된 주기 간격으로, 객체 추적의 성능을 분석하기 위한 분석 이벤트를 발생시킨다. 예컨대, 상기 주기가 '10초'라고 하는 경우, 이벤트 발생부(115)는 '10초' 간격으로, 객체 추적의 성능을 분석하기 위한 분석 이벤트를 발생시킬 수 있다.The
산출부(116)는 상기 분석 이벤트가 발생되면, 상기 분석 이벤트의 발생 시점으로부터 상기 주기 동안의, 평균 객체 추적 처리 속도, 평균 MOTA 지수 및 평균 MOTP 지수를 산출한다.When the analysis event occurs, the
관련해서, 특정 시점에서 상기 분석 이벤트가 발생되었다고 하는 경우, 산출부(116)는 상기 분석 이벤트의 발생 시점으로부터 상기 주기인 '10초' 동안의 평균 객체 추적 처리 속도, 평균 MOTA 지수 및 평균 MOTP 지수를 산출할 수 있다. 예컨대, 객체 추적 처리 속도를 초당 프레임수라고 하는 경우, 산출부(116)는 '10초' 동안의 객체 추적 처리 속도의 평균을 상기 평균 객체 추적 처리 속도로 산출할 수 있고, '10초' 동안 각 프레임에 대해서 산출된 MOTA 지수와 MOTP 지수의 평균을 상기 평균 MOTA 지수 및 상기 평균 MOTP 지수로 산출할 수 있다.In relation to this, when it is said that the analysis event has occurred at a specific point in time, the
비교부(117)는 상기 평균 MOTA 지수와 상기 평균 MOTP 지수를 성분으로 갖는 벡터의 유클리드 노름(Norm)을 연산한 후, 상기 유클리드 노름과 사전 설정된 임계 노름을 서로 비교하고, 상기 평균 객체 추적 처리 속도와 사전 설정된 임계 처리 속도를 서로 비교한다.The
예컨대, 상기 평균 MOTA 지수를 'Mp'라고 하고, 상기 평균 MOTP 지수를 'Mn'이라고 하는 경우, 비교부(117)는 'Mp'와 'Mn'을 성분으로 갖는 벡터인 '[Mp Mn]'의 유클리드 노름을 연산한 후, 상기 유클리드 노름과 사전 설정된 임계 노름을 서로 비교할 수 있다.For example, when the average MOTA index is called 'Mp' and the average MOTP index is called 'Mn', the
크기 조정부(118)는, 비교부(117)의 비교 결과, 상기 유클리드 노름이 상기 임계 노름을 초과하고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하지 않는 것으로 확인된 경우, 실시간 객체 추적 장치(110)를 통한 객체 추적의 정확도는 높지만, 속도가 매우 느린 상황이라고 볼 수 있으므로, 제1 추적부(111)에서 DeepSORT 알고리즘을 통해 객체 추적이 수행되어야 하는 프레임의 개수인 n의 크기를, 사전 설정된 크기만큼 감소시켜, 감소된 n의 크기에 따라 상기 영상에 대한 객체 추적이 수행되도록 제어할 수 있다.When it is confirmed that the Euclidean norm exceeds the threshold norm and the average object tracking processing speed does not exceed the threshold processing speed, the
반면에, 크기 조정부(118)는, 비교부(117)의 비교 결과, 상기 유클리드 노름이 상기 임계 노름을 초과하지 않고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하는 것으로 확인된 경우, 실시간 객체 추적 장치(110)를 통한 객체 추적의 속도는 빠르지만, 정확도가 매우 낮은 상황이라고 볼 수 있으므로, 제1 추적부(111)에서 DeepSORT 알고리즘을 통해 객체 추적이 수행되어야 하는 프레임의 개수인 n의 크기를, 상기 사전 설정된 크기만큼 증가시켜, 증가된 n의 크기에 따라 상기 영상에 대한 객체 추적이 수행되도록 제어할 수 있다.On the other hand, when the
마지막으로, 크기 조정부(118)는, 비교부(117)의 비교 결과, 상기 유클리드 노름이 상기 임계 노름을 초과하고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하는 것으로 확인된 경우, 실시간 객체 추적 장치(110)를 통한 객체 추적의 정확도와 속도가 모두 양호한 수준이라고 볼 수 있으므로, n의 크기에 대한 조정을 수행하지 않고, 현재 상태 그대로 객체 추적이 수행되도록 처리할 수 있다.Finally, when it is confirmed that the Euclidean norm exceeds the threshold norm and the average object tracking processing speed exceeds the threshold processing speed as a result of the comparison of the
메시지 표시부(119)는, 비교부(117)의 비교 결과, 상기 유클리드 노름이 상기 임계 노름을 초과하지 않고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하지 않는 것으로 확인된 경우, 실시간 객체 추적 장치(110)를 통한 객체 추적의 정확도와 속도가 모두 기준치를 미달하는 수준이라고 볼 수 있으므로, n의 크기에 대한 조정을 수행하지 않은 상태에서, 실시간 객체 추적 장치(110)의 설정에 이상이 있음을 안내하는 메시지를 생성하여 화면 상에 표시할 수 있다. 이를 통해, 관리자는 실시간 객체 추적 장치(110)의 설정을 조정함으로써, 객체 추적의 정확도와 속도를 향상시키기 위한 조치를 수행할 수 있을 것이다.If, as a result of the comparison of the
도 2는 본 발명의 일실시예에 따른 실시간 객체 추적 방법을 도시한 순서도이다.Figure 2 is a flowchart showing a real-time object tracking method according to an embodiment of the present invention.
제1 추적 단계(S210)는 영상이 입력되면, 상기 영상을 구성하는 프레임들 중 첫 번째 프레임을 시작으로 해서 n(n은 3이상의 크기를 갖는 자연수들 중에서 사전 지정된 어느 하나의 값임)번째 프레임까지 DeepSORT 알고리즘에 기초한 객체 추적을 수행한다.In the first tracking step (S210), when an image is input, starting from the first frame among the frames constituting the image, up to the nth frame (where n is a predetermined value among natural numbers with a size of 3 or more) Performs object tracking based on the DeepSORT algorithm.
제2 추적 단계(S220)는 상기 n번째 프레임과 n+1번째 프레임에 대해 SORT 알고리즘에 기초한 객체 추적을 수행한 후, 상기 n+1번째 프레임을 상기 첫 번째 프레임으로 재지정하여 상기 제1 추적 단계로 회귀한다.The second tracking step (S220) performs object tracking based on the SORT algorithm for the n-th frame and the n+1-th frame, and then re-designates the n+1-th frame as the first frame to perform the first tracking step. returns to
반복 수행 제어 단계는 상기 제1 추적 단계와 상기 제2 추적 단계에 따른 객체 추적이 반복 수행되도록 제어한다.The repetition performance control step controls object tracking according to the first tracking step and the second tracking step to be repeatedly performed.
이때, 본 발명의 일실시예에 따르면, 상기 제1 추적 단계는 상기 DeepSORT 알고리즘에 기초한 객체 추적을 수행하기 위해, 현재 시점의 프레임이 제1 프레임이라고 하는 경우, 사전 설정된 객체 검출기를 통해 상기 제1 프레임 상에 존재하는 제1 객체들을 검출하여, 상기 제1 객체들의 위치 정보에 대한 제1 특징 벡터를 산출하고, 상기 제1 프레임의 이전 프레임 상에 존재하였던 제2 객체들의 위치 정보에 대한 특징 벡터를 칼만 필터에 인가함으로써, 상기 제2 객체들이 상기 제1 프레임 상에서 존재할 것으로 예측되는 위치 정보에 대한 제2 특징 벡터를 추정한 후, 상기 제1 객체들 각각에 대한 제1 특징 벡터와 상기 제2 객체들 각각에 대한 제2 특징 벡터 간의 마할라노비스 거리와 코사인 거리를 연산하여, 상기 제1 객체들과 상기 제2 객체들 중에서, 제1 특징 벡터와 제2 특징 벡터 간의 마할라노비스 거리와 코사인 거리의 가중 평균이 사전 설정된 제1 기준치 이상으로 산출되는 두 객체를 서로 동일한 객체로 추적할 수 있다.At this time, according to an embodiment of the present invention, the first tracking step is to perform object tracking based on the DeepSORT algorithm. If the frame at the current time is the first frame, the first tracking step is performed using a preset object detector. Detecting first objects existing on a frame, calculating a first feature vector for position information of the first objects, and feature vectors for position information of second objects existing in a frame previous to the first frame By applying to the Kalman filter, the second feature vector for the position information where the second objects are predicted to exist on the first frame is estimated, and then the first feature vector for each of the first objects and the second Calculate the Mahalanobis distance and cosine distance between the second feature vectors for each of the objects, and calculate the Mahalanobis distance and cosine between the first feature vector and the second feature vector among the first objects and the second objects. Two objects whose weighted average distance is calculated to be greater than or equal to a preset first reference value can be tracked as the same object.
또한, 본 발명의 일실시예에 따르면, 상기 제2 추적 단계는 상기 SORT 알고리즘에 기초한 객체 추적을 수행하기 위해, 현재 시점의 프레임이 제2 프레임이라고 하는 경우, 상기 객체 검출기를 통해 상기 제2 프레임 상에 존재하는 제3 객체들을 검출하여, 상기 제3 객체들의 위치 정보에 대한 제3 특징 벡터를 산출하고, 상기 제2 프레임의 이전 프레임 상에 존재하였던 제4 객체들의 위치 정보에 대한 특징 벡터를 칼만 필터에 인가함으로써, 상기 제4 객체들이 상기 제2 프레임 상에서 존재할 것으로 예측되는 위치 정보에 대한 제4 특징 벡터를 추정한 후, 상기 제3 객체들 각각에 대한 제3 특징 벡터와 상기 제4 객체들 각각에 대한 제4 특징 벡터 간의 마할라노비스 거리를 연산하여, 상기 제3 객체들과 상기 제4 객체들 중에서, 제3 특징 벡터와 제4 특징 벡터 간의 마할라노비스 거리가 사전 설정된 제2 기준치 이상으로 산출된 두 객체를 서로 동일한 객체로 추적할 수 있다.In addition, according to one embodiment of the present invention, the second tracking step is to perform object tracking based on the SORT algorithm, and when the frame at the current time is called the second frame, the second frame is detected through the object detector. Detect third objects existing on the frame, calculate a third feature vector for the position information of the third objects, and calculate a feature vector for the position information of the fourth objects that existed in the previous frame of the second frame. By applying the Kalman filter, the fourth feature vector for the position information where the fourth objects are predicted to exist in the second frame is estimated, and then the third feature vector for each of the third objects and the fourth object By calculating the Mahalanobis distance between the fourth feature vectors for each of the third and fourth objects, the Mahalanobis distance between the third feature vector and the fourth feature vector is a preset second reference value. The two objects calculated above can be traced to the same object.
또한, 본 발명의 일실시예에 따르면, 상기 실시간 객체 추적 방법은 사전 설정된 단위 시간당 객체 추적이 완료된 프레임의 개수를 상기 영상에 대한 객체 추적 처리 속도로 산출하고, 상기 영상에 대한 객체 추적의 정확도에 대한 정보로서, MOTA 지수와 MOTP 지수를 산출한 후, 화면 상에 상기 객체 추적 처리 속도와 상기 MOTA 지수 및 상기 MOTP 지수를 표시하는 성능 정보 표시 단계를 더 포함할 수 있다.In addition, according to an embodiment of the present invention, the real-time object tracking method calculates the number of frames for which object tracking is completed per preset unit time as the object tracking processing speed for the image, and determines the accuracy of object tracking for the image. As information, after calculating the MOTA index and the MOTP index, a performance information display step of displaying the object tracking processing speed, the MOTA index, and the MOTP index on the screen may be further included.
이때, 본 발명의 일실시예에 따르면, 상기 실시간 객체 추적 방법은 사전 설정된 주기 간격으로, 객체 추적의 성능을 분석하기 위한 분석 이벤트를 발생시키는 이벤트 발생 단계, 상기 분석 이벤트가 발생되면, 상기 분석 이벤트의 발생 시점으로부터 상기 주기 동안의, 평균 객체 추적 처리 속도, 평균 MOTA 지수 및 평균 MOTP 지수를 산출하는 산출 단계, 상기 평균 MOTA 지수와 상기 평균 MOTP 지수를 성분으로 갖는 벡터의 유클리드 노름을 연산한 후, 상기 유클리드 노름과 사전 설정된 임계 노름을 서로 비교하고, 상기 평균 객체 추적 처리 속도와 사전 설정된 임계 처리 속도를 서로 비교하는 비교 단계, 상기 유클리드 노름이 상기 임계 노름을 초과하고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하지 않는 것으로 확인된 경우, n의 크기를, 사전 설정된 크기만큼 감소시켜, 감소된 n의 크기에 따라 상기 영상에 대한 객체 추적이 수행되도록 제어하고, 상기 유클리드 노름이 상기 임계 노름을 초과하지 않고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하는 것으로 확인된 경우, n의 크기를, 상기 사전 설정된 크기만큼 증가시켜, 증가된 n의 크기에 따라 상기 영상에 대한 객체 추적이 수행되도록 제어하며, 상기 유클리드 노름이 상기 임계 노름을 초과하고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하는 것으로 확인된 경우, n의 크기에 대한 조정을 수행하지 않는 크기 조정 단계 및 상기 유클리드 노름이 상기 임계 노름을 초과하지 않고, 상기 평균 객체 추적 처리 속도가 상기 임계 처리 속도를 초과하지 않는 것으로 확인된 경우, n의 크기에 대한 조정을 수행하지 않은 상태에서, 상기 실시간 객체 추적 장치의 설정에 이상이 있음을 안내하는 메시지를 생성하여 화면 상에 표시하는 메시지 표시 단계를 더 포함할 수 있다.At this time, according to an embodiment of the present invention, the real-time object tracking method includes an event generation step of generating an analysis event for analyzing the performance of object tracking at preset periodic intervals. When the analysis event occurs, the analysis event A calculation step of calculating the average object tracking processing speed, average MOTA index, and average MOTP index during the period from the time of occurrence of , calculating the Euclidean norm of a vector having the average MOTA index and the average MOTP index as components, A comparison step of comparing the Euclidean norm and a preset threshold norm, and comparing the average object tracking processing speed and the preset threshold processing speed, wherein the Euclidean norm exceeds the threshold norm, and the average object tracking processing speed is If it is confirmed that the threshold processing speed is not exceeded, the size of n is reduced by a preset size, and object tracking for the image is controlled to be performed according to the reduced size of n, and the Euclidean norm is adjusted to the threshold. If it is confirmed that the average object tracking processing speed exceeds the threshold processing speed without exceeding the norm, increase the size of n by the preset size, and increase the object tracking speed for the image according to the increased size of n. A size adjustment step that controls tracking to be performed, and does not perform an adjustment to the size of n when it is confirmed that the Euclidean norm exceeds the threshold norm and the average object tracking processing rate exceeds the threshold processing rate. and when it is confirmed that the Euclidean norm does not exceed the threshold norm and the average object tracking processing speed does not exceed the threshold processing speed, without performing an adjustment to the size of n, the real-time object tracking A message display step may be further included in which a message indicating that there is an error in the settings of the device is generated and displayed on the screen.
이상, 도 2를 참조하여 본 발명의 일실시예에 따른 실시간 객체 추적 방법에 대해 설명하였다. 여기서, 본 발명의 일실시예에 따른 실시간 객체 추적 방법은 도 1을 이용하여 설명한 실시간 객체 추적 장치(110)의 동작에 대한 구성과 대응될 수 있으므로, 이에 대한 보다 상세한 설명은 생략하기로 한다.Above, a real-time object tracking method according to an embodiment of the present invention has been described with reference to FIG. 2. Here, since the real-time object tracking method according to an embodiment of the present invention may correspond to the configuration of the operation of the real-time
본 발명의 일실시예에 따른 실시간 객체 추적 방법은 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.The real-time object tracking method according to an embodiment of the present invention can be implemented as a computer program stored in a storage medium to be executed through combination with a computer.
또한, 본 발명의 일실시예에 따른 실시간 객체 추적 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Additionally, the real-time object tracking method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , those skilled in the art can make various modifications and variations from this description.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the described embodiments, and the scope of the patent claims described below as well as all modifications that are equivalent or equivalent to the scope of this patent claim shall fall within the scope of the spirit of the present invention. .
110: 실시간 객체 추적 장치
111: 제1 추적부112: 제2 추적부
113: 반복 수행 제어부114: 성능 정보 표시부
115: 이벤트 발생부116: 산출부
117: 비교부118: 크기 조정부
119: 메시지 표시부110: Real-time object tracking device
111: first tracking unit 112: second tracking unit
113: Repeat performance control unit 114: Performance information display unit
115: Event generation unit 116: Calculation unit
117: comparison unit 118: size adjustment unit
119: Message display unit
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220074563AKR102796145B1 (en) | 2022-06-20 | 2022-06-20 | Real-time object tracking apparatus and method that can improve processing speed while ensuring the accuracy of object tracking |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220074563AKR102796145B1 (en) | 2022-06-20 | 2022-06-20 | Real-time object tracking apparatus and method that can improve processing speed while ensuring the accuracy of object tracking |
| Publication Number | Publication Date |
|---|---|
| KR20230173824Atrue KR20230173824A (en) | 2023-12-27 |
| KR102796145B1 KR102796145B1 (en) | 2025-04-14 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020220074563AActiveKR102796145B1 (en) | 2022-06-20 | 2022-06-20 | Real-time object tracking apparatus and method that can improve processing speed while ensuring the accuracy of object tracking |
| Country | Link |
|---|---|
| KR (1) | KR102796145B1 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20200202540A1 (en)* | 2018-12-19 | 2020-06-25 | Zijian Wang | Techniques for using a simple neural network model and standard camera for image detection in autonomous driving |
| US20200200912A1 (en)* | 2018-12-19 | 2020-06-25 | Andrew Chen | Detection and tracking of road-side pole-shaped static objects from lidar point cloud data |
| JP2021034015A (en)* | 2019-08-20 | 2021-03-01 | 富士通株式会社 | Target search device and method, electronic equipment |
| US20210158053A1 (en)* | 2018-11-01 | 2021-05-27 | Ncr Corporation | Constructing shopper carts using video surveillance |
| JP2021101354A (en)* | 2020-06-29 | 2021-07-08 | 北京百度網訊科技有限公司 | Early warning method, device, electronic device, recording medium, and computer program product |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20210158053A1 (en)* | 2018-11-01 | 2021-05-27 | Ncr Corporation | Constructing shopper carts using video surveillance |
| US20200202540A1 (en)* | 2018-12-19 | 2020-06-25 | Zijian Wang | Techniques for using a simple neural network model and standard camera for image detection in autonomous driving |
| US20200200912A1 (en)* | 2018-12-19 | 2020-06-25 | Andrew Chen | Detection and tracking of road-side pole-shaped static objects from lidar point cloud data |
| JP2021034015A (en)* | 2019-08-20 | 2021-03-01 | 富士通株式会社 | Target search device and method, electronic equipment |
| JP2021101354A (en)* | 2020-06-29 | 2021-07-08 | 北京百度網訊科技有限公司 | Early warning method, device, electronic device, recording medium, and computer program product |
| Publication number | Publication date |
|---|---|
| KR102796145B1 (en) | 2025-04-14 |
| Publication | Publication Date | Title |
|---|---|---|
| EP3610421B1 (en) | Partitioning videos | |
| US11010905B2 (en) | Efficient object detection and tracking | |
| US10984266B2 (en) | Vehicle lamp detection methods and apparatuses, methods and apparatuses for implementing intelligent driving, media and devices | |
| US11568247B2 (en) | Efficient and fine-grained video retrieval | |
| KR102141296B1 (en) | Object tracking method and apparatus performing the same | |
| CN110147702A (en) | A kind of object detection and recognition method and system of real-time video | |
| US12118153B2 (en) | Dynamic gesture identification method, gesture interaction method and interaction system | |
| US20220366259A1 (en) | Method, apparatus and system for training a neural network, and storage medium storing instructions | |
| KR102095152B1 (en) | A method of recognizing a situation and apparatus performing the same | |
| KR102217003B1 (en) | Object tracking method and apparatus performing the same | |
| US20230120093A1 (en) | Object tracking device, object tracking method, and recording medium | |
| US11062462B2 (en) | Detection of visual tracker divergence | |
| CN111444803A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
| KR20230173824A (en) | Real-time object tracking apparatus and method that can improve processing speed while ensuring the accuracy of object tracking | |
| CN111062337B (en) | People stream direction detection method and device, storage medium and electronic equipment | |
| EP4075785A1 (en) | Image processing apparatus, image processing system, and image processing method | |
| CN115331179B (en) | Pedestrian tracking method and device with high real-time performance and readable medium | |
| CN117788977A (en) | Training method and device for 3D attitude estimation model and computer equipment | |
| US11869212B1 (en) | Method for training video object detection model using training dataset and learning device using the same | |
| KR101982942B1 (en) | Method of tracking object and apparatuses performing the same | |
| KR102323671B1 (en) | Method and apparatus for detecting abnormal objects in video | |
| EP4485388A1 (en) | Image processing apparatus, image processing method, and program | |
| US11138431B2 (en) | Method for judging in or out, computer readable medium and apparatus for performing the method | |
| US20230316562A1 (en) | Causal interaction detection apparatus, control method, and computer-readable storage medium | |
| JP2022536561A (en) | TRANSFER LEARNING APPARATUS, TRANSFER LEARNING SYSTEM, TRANSFER LEARNING METHOD, AND PROGRAM |
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application | Patent event code:PA01091R01D Comment text:Patent Application Patent event date:20220620 | |
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration | Patent event code:PE07011S01D Comment text:Decision to Grant Registration Patent event date:20250409 | |
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment | Comment text:Registration of Establishment Patent event date:20250410 Patent event code:PR07011E01D | |
| PR1002 | Payment of registration fee | Payment date:20250410 End annual number:3 Start annual number:1 | |
| PG1601 | Publication of registration |