10.14489/vkit.2015.05.pp.029-036 |
DOI: 10.14489/vkit.2015.05.pp.029-036 Вишняков Б. В., Егоров А. И. Аннотация. Предложен метод контекстной разметки сцены, который, опираясь на априорную разметку, введенную пользователем, по-зволяет сегментировать и определять принадлежность сегментов присутствующим на сцене объектам или областям. Дано описание процесса первоначальной сегментации изображения и ее дальнейшее уточнение путем поглощения сегментов малого размера. Приведен алгоритм сопоставления сегментов и первоначальной разметки оператора. Представлены результаты тестирования метода на общедоступной базе видеоданных PETS (Performance Evaluation of Tracking and Surveillance). Ключевые слова: сегментация сцены; контекстная информация; получение контуров изображения; восстановле-ние разрывов контуров; сегментация изображения.
Vishnyakov B. V., Egorov A. I. Abstract. In this paper, we propose a method of contextual scene markup. Contextual scene markup is one of the most urgent tasks for a wide range of applications, working with images or video data. We understand contextual scene markup as image segmentation, where we assign to each pixel a certain category or a tag, which clearly would connect it with any object or area of the scene. The use of such contextual information about the scene, as the location of roads, sidewalks, buildings, lawns, etc., can significantly increase the probability of objects detection and reduce the probability of false positives for motion analysis or machine learning algorithms. Based on a prior scene markup from a user, the method allows identifying the type of areas or objects, presented on the scene. Image preparing stage includes next steps: smoothing, brightness gradients extraction using Sobel operator, non-maximums suppression and morphological restoration of contour boundaries breaks. We describe the process of initial image segmentation and its further elaboration by absorbing small segments. Finally, we propose an algorithm for matching segments and initial scene markup by operator. The results of the proposed methods are obtained on the test video database PETS (Performance Evaluation of Tracking and Surveillance). Keywords: Scene segmentation; Contextual markup; Gradients extraction; Contour restoration; Image segmentation.
РусБ. В. Вишняков, А. И. Егоров (ФГУП «Государственный научно-исследовательский институт авиационных систем» ГНЦ РФ, Москва) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript EngB. V. Vishnyakov, A. I. Egorov (State Research Institute of Aviation Systems State Scientific Center of Russian Federation, Moscow) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript
Рус1. Вишняков Б. В., Визильтер Ю. В., Лагутенков А. В. Использование модифицированного метода оптических потоков в задаче обнаружения и межкадрового прослеживания движущихся объектов // Вестник компьютерных и информаци-онных технологий. 2007. № 5. С. 3 – 8. Eng1. Vizil'ter Iu. V., Vishniakov B. V., Lagutenkov A. V. (2007). The modified method of the optical flow in the problem of detection and temporal tracking of moving objects. Vestnik komp'iuternykh i informatsionnykh tekhnologii, (5), pp. 3-8.
РусСтатью можно приобрести в электронном виде (PDF формат). Стоимость статьи 350 руб. (в том числе НДС 18%). После оформления заказа, в течение нескольких дней, на указанный вами e-mail придут счет и квитанция для оплаты в банке. После поступления денег на счет издательства, вам будет выслан электронный вариант статьи. Для заказа статьи заполните форму: {jform=1,doi=10.14489/vkit.2015.05.pp.029-036} . EngThis article is available in electronic format (PDF). The cost of a single article is 350 rubles. (including VAT 18%). After you place an order within a few days, you will receive following documents to your specified e-mail: account on payment and receipt to pay in the bank. After depositing your payment on our bank account we send you file of the article by e-mail. To order articles please fill out the form below: {jform=2,doi=10.14489/vkit.2015.05.pp.029-036}
. .
|