Movatterモバイル変換


[0]ホーム

URL:


RU2004115026A - METHOD AND DEVICE FOR BACKGROUND SEGMENTATION BASED ON MOVEMENT LOCALIZATION - Google Patents

METHOD AND DEVICE FOR BACKGROUND SEGMENTATION BASED ON MOVEMENT LOCALIZATION
Download PDF

Info

Publication number
RU2004115026A
RU2004115026ARU2004115026/09ARU2004115026ARU2004115026ARU 2004115026 ARU2004115026 ARU 2004115026ARU 2004115026/09 ARU2004115026/09 ARU 2004115026/09ARU 2004115026 ARU2004115026 ARU 2004115026ARU 2004115026 ARU2004115026 ARU 2004115026A
Authority
RU
Russia
Prior art keywords
moving object
processor
contour
frames
state
Prior art date
Application number
RU2004115026/09A
Other languages
Russian (ru)
Other versions
RU2276407C2 (en
Inventor
Александр В Бовырин (RU)
Александр В Бовырин
Виктор Львович Ерухимов (RU)
Виктор Львович Ерухимов
Сергей А Молинов (RU)
Сергей А Молинов
Original Assignee
Интел Зао (Ru)
Интел Зао
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Интел Зао (Ru), Интел ЗаоfiledCriticalИнтел Зао (Ru)
Priority to RU2004115026/09ApriorityCriticalpatent/RU2276407C2/en
Publication of RU2004115026ApublicationCriticalpatent/RU2004115026A/en
Application grantedgrantedCritical
Publication of RU2276407C2publicationCriticalpatent/RU2276407C2/en

Links

Classifications

Landscapes

Claims (41)

Translated fromRussian
1. Способ извлечения фона изображения, содержащий следующие этапы: локализация движущегося объекта в видеопоследовательности на основе изменения движущегося объекта во множестве кадров видеопоследовательности, при этом движущийся объект занимает зоны кадра изменяющегося цвета; и обучение модели фона для множества кадров вне зон кадров изменяющегося цвета.1. A method for extracting an image background, comprising the following steps: localizing a moving object in a video sequence based on a change in a moving object in a plurality of frames of a video sequence, wherein the moving object occupies the frame zones of a changing color; and training a background model for a plurality of frames outside the frame zones of a changing color.2. Способ по п.1, отличающийся тем, что локализация содержит локализацию движущегося объекта с использованием маски обнаружения изменения.2. The method according to claim 1, characterized in that the localization comprises localizing a moving object using a change detection mask.3. Способ по п.1, отличающийся тем, что локализация содержит определение границы для движущегося объекта, который имеет однородный цвет; и конструирование оболочки вокруг движущегося объекта с использованием границы.3. The method according to claim 1, characterized in that the localization comprises determining a boundary for a moving object that has a uniform color; and constructing a shell around a moving object using a border.4. Способ по п.3, отличающийся тем, что определение границы включает следующие этапы: определение максимального контура из множества контуров движущегося объекта, при этом максимальный контур имеет наибольшую площадь из множества контуров; определение других контуров движущегося объекта; и объединение максимального контура с другими контурами.4. The method according to claim 3, characterized in that the definition of the boundary includes the following steps: determining the maximum contour from the set of contours of a moving object, the maximum contour having the largest area from the set of contours; determination of other contours of a moving object; and combining the maximum contour with other contours.5. Способ по п.4, отличающийся тем, что дополнительно содержит этап исключения наименьшего контура из объединения с максимальным контуром.5. The method according to claim 4, characterized in that it further comprises the step of eliminating the smallest contour from the union with the maximum contour.6. Способ по п.4, отличающийся тем, что объединение содержит объединение одного из других контуров с максимальным контуром, если расстояние между максимальным контуром и одним из других контуров меньше заданного расстояния.6. The method according to claim 4, characterized in that the combination comprises combining one of the other circuits with a maximum circuit, if the distance between the maximum circuit and one of the other circuits is less than a predetermined distance.7. Способ по п.6, отличающийся тем, что кадры содержат множество пикселей и заданное расстояние основано на вероятности того, что пиксель из множества пикселей рассматривается как движущийся, если он относится к движущемуся объекту.7. The method according to claim 6, characterized in that the frames contain a plurality of pixels and the predetermined distance is based on the probability that a pixel of the plurality of pixels is considered to be moving if it refers to a moving object.8. Способ по п.7, отличающийся тем, что заданное расстояние основано на вероятности того, что пиксель рассматривается как движущийся при условии, что он является статичным.8. The method according to claim 7, characterized in that the predetermined distance is based on the probability that the pixel is considered to be moving, provided that it is static.9. Способ по п.3, отличающийся тем, что кадры содержат множество пикселей и оболочку конструируют так, что она содержит лишь пиксели с изменяющимся цветом в последовательных кадрах.9. The method according to claim 3, characterized in that the frames contain many pixels and the shell is designed so that it contains only pixels with a changing color in successive frames.10. Способ по п.3, отличающийся тем, что конструирование оболочки включает следующие этапы: определение всех соединенных элементов в границе, в которой каждый из компонентов имеет контур, имеющий площадь; отфильтровывание контура с наименьшей площадью; выбор контура с максимальной площадью; и объединение контура с максимальной площадью с другими контурами соединенных компонентов.10. The method according to claim 3, characterized in that the construction of the shell includes the following steps: determining all connected elements at a boundary in which each of the components has a contour having an area; filtering the contour with the smallest area; contour selection with maximum area; and combining the maximum area contour with other contours of the connected components.11. Способ по п.1, отличающийся тем, что кадры содержат множество пикселей и обучение содержит характеризацию цвета пикселя в заданный момент времени величиной, основанной на состоянии, при этом каждый пиксель соответствует одному состоянию из множества состояний.11. The method according to claim 1, characterized in that the frames contain many pixels and the training contains a characterization of the color of the pixel at a given point in time by a value based on a state, with each pixel corresponding to one state from many states.12. Способ по п.11, отличающийся тем, что множество состояний включает состояние необученного фона.12. The method according to claim 11, characterized in that the plurality of states includes an untrained background state.13. Способ по п.11, отличающийся тем, что множество состояний включает состояние обученного фона.13. The method according to claim 11, characterized in that the plurality of states includes the state of the trained background.14. Способ по п.11, отличающийся тем, что множество состояний включает состояние переднего плана.14. The method according to claim 11, characterized in that the plurality of states includes a foreground state.15. Способ по п.11, отличающийся тем, что множество состояний включает состояние неизвестного фона.15. The method according to claim 11, characterized in that the plurality of states includes an unknown background state.16. Способ по п.11, отличающийся тем, что обучение включает следующие этапы: обучение модели фона для пикселя в переднем плане; и изменение состояния пикселя в состояние необученного фона, если пиксель проявляет статичное поведение в течение определенного периода времени.16. The method according to claim 11, characterized in that the training includes the following steps: training a background model for a pixel in the foreground; and changing the state of the pixel to a state of untrained background if the pixel exhibits a static behavior for a certain period of time.17. Способ по п.16, отличающийся тем, что дополнительно содержит изменение состояния в состояние обученного фона после заданного числа кадров.17. The method according to clause 16, characterized in that it further comprises a state change to the state of the trained background after a given number of frames.18. Способ по п.1, отличающийся тем, что видеопоследовательность записывают с помощью видеокамеры и при этом способ дополнительно содержит следующие этапы: обнаружение движения видеокамеры; и компенсацию движения видеокамеры.18. The method according to claim 1, characterized in that the video sequence is recorded using a video camera and the method further comprises the following steps: detecting the movement of the video camera; and camcorder motion compensation.19. Способ по п.18, отличающийся тем, что обнаружение движения содержит следующие этапы: выбор признака кадра; и отслеживание признаков кадра в течение множества кадров.19. The method according to p. 18, characterized in that the motion detection comprises the following steps: selecting a frame attribute; and tracking frame attributes for multiple frames.20. Способ по п.19, отличающийся тем, что компенсация включает возврат в исходное состояние модели фона, когда движение останавливается.20. The method according to claim 19, characterized in that the compensation includes a return to the initial state of the background model when the movement stops.21. Машинно-считываемый носитель информации, имеющий записанные на нем команды, которые при их выполнении процессором приводят к выполнению процессором следующих операций: локализации движущегося объекта в видеопоследовательности на основе изменения движущегося объекта в течение множества кадров видеопоследовательности, при этом движущийся объект занимает зоны кадра изменяющегося цвета; и обучения модели фона для множества кадров вне зон кадра изменяющегося цвета.21. A computer-readable storage medium having instructions recorded on it, which, when executed by the processor, results in the processor performing the following operations: localizing a moving object in a video sequence based on a change in a moving object over a plurality of frames of a video sequence, while the moving object occupies the frame zones of the variable colors; and training a background model for a plurality of frames outside areas of a frame of varying color.22. Машинно-считываемый носитель информации по п.21, отличающийся тем, что локализация включает локализацию движущегося объекта с использованием маски обнаружения изменения.22. Machine-readable storage medium according to item 21, wherein the localization includes the localization of a moving object using a mask for detecting changes.23. Машинно-считываемый носитель информации по п.21, отличающийся тем, что локализация содержит следующие этапы: определение границы для движущегося объекта, который имеет однородный цвет; и конструирование оболочки вокруг движущегося объекта с использованием границы.23. Machine-readable storage medium according to item 21, characterized in that the localization contains the following steps: determining the boundary for a moving object that has a uniform color; and constructing a shell around a moving object using a border.24. Машинно-считываемый носитель информации по п.23, отличающийся тем, что определение границы содержит следующие этапы: определение максимального контура из множества контуров движущегося объекта, при этом максимальный контур имеет наибольшую площадь из множества контуров; определение других контуров движущегося объекта; и объединение максимального контура с другими контурами.24. Machine-readable storage medium according to item 23, wherein the definition of the boundary contains the following steps: determining the maximum path from the set of contours of a moving object, while the maximum path has the largest area from the set of contours; determination of other contours of a moving object; and combining the maximum contour with other contours.25. Машинно-считываемый носитель информации по п.24, отличающийся тем, что процессор дополнительно выполняет следующие команды: определение наименьшего контура из множества контуров; и исключение наименьшего контура из объединения с максимальным контуром.25. Machine-readable storage medium according to paragraph 24, wherein the processor additionally performs the following commands: determining the smallest contour from a plurality of contours; and excluding the smallest contour from the union with the maximum contour.26. Машинно-считываемый носитель информации по п.24, отличающийся тем, что объединение включает объединение одного из других контуров с максимальным контуром, если расстояние между максимальным контуром и одним из других контуров меньше заданного расстояния.26. Machine-readable storage medium according to paragraph 24, wherein the combination includes combining one of the other circuits with a maximum circuit, if the distance between the maximum circuit and one of the other circuits is less than a specified distance.27. Машинно-считываемый носитель информации по п.23, отличающийся тем, что выполнение процессором конструирования оболочки включает выполнение процессором следующих команд: определения всех соединенных элементов в границе, в которой каждый из компонентов имеет контур, имеющий площадь; отфильтровывания контура с наименьшей площадью; выбор контура с максимальной площадью; и объединение контура с максимальной площадью с другими контурами соединенных компонентов.27. Machine-readable storage medium according to item 23, wherein the processor executing the shell design includes the processor executing the following commands: determining all connected elements in a boundary in which each of the components has a contour having an area; filtering the contour with the smallest area; contour selection with maximum area; and combining the maximum area contour with other contours of the connected components.28. Машинно-считываемый носитель информации по п.21, отличающийся тем, что кадры содержат множество пикселей и выполнение процессором обучения включает выполнение процессором характеризации цвета пикселя в заданный момент времени величиной, основанной на состоянии, при этом каждый пиксель соответствует одному состоянию из множества состояний.28. The computer-readable storage medium according to item 21, wherein the frames comprise a plurality of pixels, and the execution by the learning processor includes the processor characterizing the color of the pixel at a given point in time with a value based on a state, each pixel corresponding to one state from a plurality of states .29. Машинно-считываемый носитель информации по п.28, отличающийся тем, что выполнение процессором обучения включает выполнение процессором следующих команд: обучения модели фона для пикселя в переднем плане; и изменения состояния пикселя в состояние необученного фона, если пиксель проявляет статичное поведение в течение определенного периода времени.29. Machine-readable storage medium according to p. 28, characterized in that the processor execution of the training includes the execution by the processor of the following commands: training the background model for the pixel in the foreground; and changing the state of the pixel to a state of untrained background if the pixel exhibits a static behavior for a certain period of time.30. Машинно-считываемый носитель информации по п.21, отличающийся тем, что видеопоследовательность записывает видеокамера и в котором процессор дополнительно выполняет следующие команды: обнаружение движения видеокамеры; и компенсацию движения видеокамеры.30. Machine-readable storage medium according to item 21, wherein the video sequence is recorded by the video camera and in which the processor additionally performs the following commands: detecting the movement of the video camera; and camcorder motion compensation.31. Машинно-считываемый носитель информации по п.30, отличающийся тем, что выполнение процессором обнаружения движения включает выполнение процессором следующих команд: выбора признака кадра; и отслеживания признаков кадра в течение множества кадров.31. The computer-readable storage medium according to claim 30, characterized in that the execution of the motion detection processor includes the execution by the processor of the following commands: selecting a frame attribute; and tracking frame attributes for multiple frames.32. Машинно-считываемый носитель информации по п.30, отличающийся тем, что выполнение процессором компенсации включает выполнение процессором возврата в исходное состояние модели фона, когда движение останавливается.32. The computer-readable storage medium according to claim 30, wherein the compensation by the processor includes the processor performing a reset of the background model to the initial state when the movement stops.33. Устройство для извлечения фона изображения, содержащее средство для локализации движущегося объекта в видеопоследовательности на основе изменения движущегося объекта в течение множества кадров видеопоследовательности, при этом движущийся объект занимает зоны кадра изменяющегося цвета; и средство для обучения модели фона для множества кадров вне зон кадра изменяющегося цвета.33. A device for extracting an image background, comprising means for localizing a moving object in a video sequence based on a change in a moving object over a plurality of frames of a video sequence, wherein the moving object occupies the frame zones of a changing color; and means for training the background model for a plurality of frames outside the zones of the frame of a changing color.34. Устройство по п.33, отличающееся тем, что средство для локализации включает:34. The device according to p, characterized in that the means for localization includes:средство для определения границы для движущегося объекта, который имеет однородный цвет; и средство для конструирования оболочки вокруг движущегося объекта с использованием границы.means for determining a boundary for a moving object that has a uniform color; and means for constructing a shell around a moving object using a border.35. Устройство по п.33, отличающееся тем, что видеопоследовательность записывается видеокамерой и в котором устройство дополнительно включает средство для обнаружения движения видеокамеры; и средство для компенсации движения видеокамеры.35. The device according to p. 33, wherein the video sequence is recorded by a video camera and in which the device further includes means for detecting the movement of the video camera; and means for compensating for the movement of the camcorder.36. Устройство для извлечения фона изображения, содержащее процессор для выполнения одной или более программ для локализации движущегося объекта в видеопоследовательности на основе изменения движущегося объекта в течение множества кадров видеопоследовательности, при этом движущийся объект занимает зоны кадра изменяющегося цвета; и обучения модели фона для множества кадров вне зон кадра изменяющегося цвета; и устройство хранения, соединенное с процессором, при этом устройство хранения имеет хранящиеся в нем одну или более программ для локализации движущегося объекта и обучения модели фона.36. A device for extracting an image background, comprising a processor for executing one or more programs for localizing a moving object in a video sequence based on a change in a moving object over a plurality of frames of a video sequence, while the moving object occupies the frame zones of a changing color; and training a background model for a plurality of frames outside the zones of the frame of a changing color; and a storage device connected to the processor, the storage device having one or more programs stored therein for localizing a moving object and learning a background model.37. Устройство по п.36, отличающееся тем, что процессор приспособлен выполнять одну или более программ для локализации движущегося объекта с использованием маски обнаружения изменения.37. The device according to clause 36, wherein the processor is adapted to run one or more programs to localize a moving object using a change detection mask.38. Устройство по п.36, отличающееся тем, что процессор приспособлен выполнять одну или более программ для определения границы движущегося объекта, который имеет однородный цвет, и для конструирования оболочки вокруг движущегося объекта с использованием границы.38. The device according to clause 36, wherein the processor is adapted to execute one or more programs for determining the boundary of a moving object that has a uniform color, and for constructing a shell around a moving object using the border.39. Устройство по п.36, отличающееся тем, что дополнительно содержит дисплей, соединенный с процессором, приспособленный для отображения множества кадров видеопоследовательности.39. The device according to p. 36, characterized in that it further comprises a display connected to the processor, adapted to display multiple frames of a video sequence.40. Устройство по п.36, отличающееся тем, что дополнительно содержит камеру, соединенную с процессором, для записи множества кадров видеопоследовательности.40. The device according to p. 36, characterized in that it further comprises a camera connected to a processor for recording a plurality of frames of a video sequence.41. Устройство по п.40, отличающееся тем, что процессор приспособлен выполнять одну или более программ для обнаружения движения видеокамеры с целью компенсации движения видеокамеры.41. The device according to p, characterized in that the processor is adapted to run one or more programs for detecting the movement of the camera in order to compensate for the movement of the camera.
RU2004115026/09A2001-10-222001-10-22Method and device for background segmentation on basis of movement localizationRU2276407C2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
RU2004115026/09ARU2276407C2 (en)2001-10-222001-10-22Method and device for background segmentation on basis of movement localization

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
RU2004115026/09ARU2276407C2 (en)2001-10-222001-10-22Method and device for background segmentation on basis of movement localization

Publications (2)

Publication NumberPublication Date
RU2004115026Atrue RU2004115026A (en)2005-11-10
RU2276407C2 RU2276407C2 (en)2006-05-10

Family

ID=35864802

Family Applications (1)

Application NumberTitlePriority DateFiling Date
RU2004115026/09ARU2276407C2 (en)2001-10-222001-10-22Method and device for background segmentation on basis of movement localization

Country Status (1)

CountryLink
RU (1)RU2276407C2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
RU2336655C1 (en)*2006-12-082008-10-20Общество с ограниченной ответственностью ООО "Юник Ай Сиз"Method of object and background areas selection in digital images
CN101370126B (en)*2008-09-242012-02-08中兴通讯股份有限公司Broadcast control method and system for monitoring video
JP2010109967A (en)*2008-10-012010-05-13Canon IncImage processing apparatus, method, and, program
RU2426172C1 (en)*2010-01-212011-08-10Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд."Method and system for isolating foreground object image proceeding from colour and depth data
RU2476933C1 (en)*2011-06-162013-02-27Федеральный научно-производственный центр Открытое акционерное общество "Научно-производственное объединение "Марс"Method of simulating images with varying correlation properties
RU2534827C2 (en)*2013-04-122014-12-10Закрытое акционерное общество "НТК"Method for video surveillance of open space with fire hazard monitoring
RU2546600C2 (en)*2013-08-012015-04-10Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд."Method and system for detecting small or thin objects on images (versions)
BR112019022798A2 (en)2017-12-142020-05-26Canon Kabushiki Kaisha GENERATION DEVICE, GENERATION METHOD AND PROGRAM FOR THREE-DIMENSIONAL MODEL

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US5687249A (en)*1993-09-061997-11-11Nippon Telephone And TelegraphMethod and apparatus for extracting features of moving objects
IL108957A (en)*1994-03-141998-09-24Scidel Technologies LtdSystem for implanting an image into a video stream
US5717463A (en)*1995-07-241998-02-10Motorola, Inc.Method and system for estimating motion within a video sequence
US6075875A (en)*1996-09-302000-06-13Microsoft CorporationSegmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
KR100301113B1 (en)*1998-08-052001-09-06오길록 How to segment video objects by contour tracking

Also Published As

Publication numberPublication date
RU2276407C2 (en)2006-05-10

Similar Documents

PublicationPublication DateTitle
CN110176027B (en)Video target tracking method, device, equipment and storage medium
CN106951870B (en)Intelligent detection and early warning method for active visual attention of significant events of surveillance video
Wang et al.Background subtraction based on a robust consensus method
Benedek et al.Bayesian foreground and shadow detection in uncertain frame rate surveillance videos
CN105096321B (en)A kind of low complex degree Motion detection method based on image border
CN108961312A (en)High-performance visual object tracking and system for embedded vision system
CN109214999A (en)A kind of removing method and device of video caption
CN110349190A (en)Target tracking method, device and equipment for adaptive learning and readable storage medium
CA3061908C (en)Ball trajectory tracking
JP6924932B2 (en) Mobile tracking methods, mobile tracking devices, and programs
CN108876818A (en)A kind of method for tracking target based on like physical property and correlation filtering
RU2004115026A (en) METHOD AND DEVICE FOR BACKGROUND SEGMENTATION BASED ON MOVEMENT LOCALIZATION
US9842260B2 (en)Image processing apparatus and image processing method of performing image segmentation
Wilms et al.Superpixel-based refinement for object proposal generation
Kamiyama et al.Improvement of badminton-player tracking applying image pixel compensation
CN108010050A (en)A kind of foreground detection method based on adaptive RTS threshold adjustment and selective context update
Gong et al.Real-time foreground segmentation on GPUs using local online learning and global graph cut optimization
CN109584275A (en)A kind of method for tracking target, device, equipment and storage medium
Zhao et al.Correlation filter-based object tracking algorithms
US10140503B2 (en)Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
Huang et al.A physical approach to moving cast shadow detection
CN108280834B (en)Video area determines method and device
Jacquelin et al.Detecting swimmers in unconstrained videos with few training data
CN108231035B (en)Display control system and display control method thereof
US20170064198A1 (en)Image tuning in photographic system

Legal Events

DateCodeTitleDescription
MM4AThe patent is invalid due to non-payment of fees

Effective date:20101023


[8]ページ先頭

©2009-2025 Movatter.jp