| Русский Русский | English English |
   
Главная Archive
22 | 12 | 2024
10.14489/vkit.2015.05.pp.029-036

DOI: 10.14489/vkit.2015.05.pp.029-036

Вишняков Б. В., Егоров А. И. 
МЕТОД ПОЛУАВТОМАТИЧЕСКОЙ КОНТЕКСТНОЙ РАЗМЕТКИ СЦЕНЫ
(с. 29-36)

Аннотация. Предложен метод контекстной разметки сцены, который, опираясь на априорную разметку, введенную пользователем, по-зволяет сегментировать и определять принадлежность сегментов присутствующим на сцене объектам или областям. Дано описание процесса первоначальной сегментации изображения и ее дальнейшее уточнение путем поглощения сегментов малого размера. Приведен алгоритм сопоставления сегментов и первоначальной разметки оператора. Представлены результаты тестирования метода на общедоступной базе видеоданных PETS (Performance Evaluation of Tracking and Surveillance).

Ключевые слова: сегментация сцены; контекстная информация; получение контуров изображения; восстановле-ние разрывов контуров; сегментация изображения.

 

Vishnyakov B. V., Egorov A. I.
METHOD OF SEMI-AUTOMATIC CONTEXTUAL SCENE MARKUP
(pp. 29-36)

Abstract. In this paper, we propose a method of contextual scene markup. Contextual scene markup is one of the most urgent tasks for a wide range of applications, working with images or video data. We understand contextual scene markup as image segmentation, where we assign to each pixel a certain category or a tag, which clearly would connect it with any object or area of the scene. The use of such contextual information about the scene, as the location of roads, sidewalks, buildings, lawns, etc., can significantly increase the probability of objects detection and reduce the probability of false positives for motion analysis or machine learning algorithms. Based on a prior scene markup from a user, the method allows identifying the type of areas or objects, presented on the scene. Image preparing stage includes next steps: smoothing, brightness gradients extraction using Sobel operator, non-maximums suppression and morphological restoration of contour boundaries breaks. We describe the process of initial image segmentation and its further elaboration by absorbing small segments. Finally, we propose an algorithm for matching segments and initial scene markup by operator. The results of the proposed methods are obtained on the test video database PETS (Performance Evaluation of Tracking and Surveillance).

Keywords: Scene segmentation; Contextual markup; Gradients extraction; Contour restoration; Image segmentation.

Рус

Б. В. Вишняков, А. И. Егоров (ФГУП «Государственный научно-исследовательский институт авиационных систем» ГНЦ РФ, Москва) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript  

Eng

B. V. Vishnyakov, A. I. Egorov (State Research Institute of Aviation Systems State Scientific Center of Russian Federation, Moscow) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript  

Рус

1. Вишняков Б. В., Визильтер Ю. В., Лагутенков А. В. Использование модифицированного метода оптических потоков в задаче обнаружения и межкадрового прослеживания движущихся объектов // Вестник компьютерных и информаци-онных технологий. 2007. № 5. С. 3 – 8.
2. Вишняков Б. В., Визильтер Ю. В., Выголов О. В. Построение кратнорегрессионных псевдоспектров для выделе-ния и прослеживания объектов в системах видеонаблюдения // Математические методы распознавания образов: 15-я Всерос. конф., г. Петрозаводск, 11 – 17 сент. 2011 г.: сб. докл. М.: МАКС Пресс, 2011. С. 463 – 466.
3. Pedestrian Detection: An Evaluation of the State of the Art / P. Dollar et al. // IEEE Transaction on Pattern Analysis and Machine Intelligence. 2012. V. 34, № 4. P. 743 – 761.
4. Object Detection with Discriminatively Trained Part Based Models / P. Felzenszwalb et al. // IEEE Transaction on Pattern Analysis and Machine Intelligence. 2010. V. 32, № 9. Р. 1627 – 1645.
5. Tang S., Andriluka M., Schiele B. Detection and Tracking of Occluded People) [Электронный ресурс] // Computer Vision and Multimodal Computing. Max Planck Institute for Infomatics, 2012. URL: http://www.bmva.org/ bmvc/2012/BMVC/ paper009/paper009.pdf (дата обращения: 31.03.2015).
6. Li Z., Zhao Ya. Pedestrian Detection in Single Frame by Edgelet-LBP Part Detectors // 10th IEEE International Conference on Advanced Video and Signal Based Surveillance. 2013. Р. 420 – 425.
7. Вишняков Б. В., Егоров А. И. Построение довери-тельных областей траекторий движения объектов в задачах машинного зрения // Изв. РАН. Теория и системы управления. 2013. № 3. С. 124 – 133.
8. Ristic B., Arulampalam S., Gordon N. Beyond the Kalman Filter: Particle Filters for Tracking Applications. Norwood, MA: Artech House Radar Library, 2004. 318 р.
9. Online Multiperson Tracking-by-Detection from a Single, Uncalibrated Camera / M. D. Breitenstein et al. // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2010. Р. 1820 – 1833.
10. Video Data Base Performance Evaluation of Tracking and Surveillance (PETS) [Электронный ресурс]. URL: http:// www.cvg.reading.ac.uk/slides/pets.html (дата обращения: 31.03.2015).
11. Обработка и анализ изображений в задачах машинного зрения / Ю. В. Визильтер и др. М.: Физматкнига, 2010. 672 с.

Eng

1. Vizil'ter Iu. V., Vishniakov B. V., Lagutenkov A. V. (2007). The modified method of the optical flow in the problem of detection and temporal tracking of moving objects. Vestnik komp'iuternykh i informatsionnykh tekhnologii, (5), pp. 3-8.
2. Vishniakov B. V., Vizil'ter Iu. V., Vygolov O. V. (2011). Build multiple regression of pseudo spectral for allocation and tracking of objects in video surveillance systems. Mathematical methods for image recognizing: proceedings of the 15th All-Russian conference, city of Petrozavodsk. 11 – 17 September 2011. Moscow: Maks Press, pp. 463-466.
3. Pedestrian Detection: An Evaluation of the State of the Art / P. Dollar et al. // IEEE Transaction on Pattern Analysis and Machine Intelligence. 2012. V. 34, № 4. P. 743-761.
4. Felzenszwalb P. et al. (2010). Object detection with dis-criminatively trained part based models. Pattern Analysis and Ma-chine Intelligence, 32(9), pp. 1627-1645. doi: 10.1109/ TPAMI.2009.167
5. Tang S., Andriluka M., Schiele B. (2012). Detection and Tracking of Occluded People. Computer Vision and Multimodal Computing. Max Planck Institute for Infomatics. Available at: http://www.bmva.org/bmvc/2012/BMVC/ paper009/paper009.pdf (Accessed: 31.03.2015).
6. Li Z., Zhao Ya. (2013). Pedestrian Detection in Single Frame by Edgelet-LBP Part Detectors. 10th IEEE International Conference on Advanced Video and Signal Based Surveillance, pp. 420-425.
7. Vishniakov B. V., Egorov A. I. (2013). Construction of confidence regions of the trajectories of objects in machine vision applications. Izvestiia RAN. Teoriia i sistemy upravleniia, (3), pp. 124-133.
8. Ristic B., Arulampalam S., Gordon N. (2004). Beyond the Kalman Filter: Particle Filters for Tracking Applications. Norwood, MA: Artech House Radar Library.
9. Breitenstein M. D. et al. (2010). Online multiperson track-ing-by-detection from a single, uncalibrated camera. IEEE Transac-tions on Pattern Analysis and Machine Intelligence, pp. 1820-1833.
10. Video Data Base Performance Evaluation of Tracking and Surveillance (PETS). Available at: http:// www.cvg.reading. ac.uk/slides/pets.html (Accessed: 31.03.2015).
11. Vizil'ter Iu. V. et al. (2010). Processing and image analysis in machine vision applications. Moscow: Fizmatkniga.

Рус

Статью можно приобрести в электронном виде (PDF формат).

Стоимость статьи 350 руб. (в том числе НДС 18%). После оформления заказа, в течение нескольких дней, на указанный вами e-mail придут счет и квитанция для оплаты в банке.

После поступления денег на счет издательства, вам будет выслан электронный вариант статьи.

Для заказа статьи заполните форму:

{jform=1,doi=10.14489/vkit.2015.05.pp.029-036}

.

Eng

This article  is available in electronic format (PDF).

The cost of a single article is 350 rubles. (including VAT 18%). After you place an order within a few days, you will receive following documents to your specified e-mail: account on payment and receipt to pay in the bank.

After depositing your payment on our bank account we send you file of the article by e-mail.

To order articles please fill out the form below:

{jform=2,doi=10.14489/vkit.2015.05.pp.029-036}

 

 

 

 

 

.

.

 

 
Search
Rambler's Top100 Яндекс цитирования