ОБЗОР Системы видеозаписи оптимальное решение для каждой задачи
СИСТЕМЫ ВИДЕОЗАПИСИ: ОПТИМАЛЬНОЕ РЕШЕНИЕ ДЛЯ КАЖДОЙ ЗАДАЧИ ОСНОВНЫЕ ХАРАКТЕРИСТИКИ В. Ануров Системы цифровой видеорегистрации №2, 2006 Цифровые системы видеонаблюдения становятся неотъемлемой частью решений, направленных на обеспечение безопасности. На рынке сегодня представлен большой ассортимент соответствующего оборудования.
Каким же образом подобрать оптимальный вариант для каждой конкретной задачи? На какие технические параметры следует обратить внимание? Основные ориентиры для выбора систем Многоканальный цифровой видеорегистратор (МЦВР) обладает целым рядом параметров и характеристик, грамотно оценить совокупность которых способен только специалист.
Цена ошибки может оказаться крайне высокой. Дело не только в стоимости самой системы, но и в том, что несоответствие оборудования возложенным на него обязанностям может привести к потерям куда более ощутимым.
Рекламная информация подчас способна скорее ввести в заблуждение, нежели помочь. Поэтому при выборе системы важно если уж не разбираться во всех нюансах, то, по крайней мере, иметь представление о принципах и технологиях, которые лежат в основе современных МЦВР.
Попробуем понять, на какие аспекты следует обращать внимание при выборе оборудования. Главными из них являются:
- основные технические характеристики, определяющие функциональность и качество работы систем; экономические показатели; уровень поддержки системы.
В данной статье мы рассмотрим различные технические параметры, наиболее важные для осуществления корректного выбора оборудования видеозаписи.
К их числу отнесены: поддерживаемые форматы видеокадров; применяемая технология компрессии видео (которая определяет качество и степень сжатия изображения); суммарная скорость обработки/записи немультиплексированных изображений для видеосервера (что позволяет определить удельную стоимость средств видеозаписи нижнего уровня в расчете на один канал); наличие многоканального детектора движения; возможность экспорта видеоинформации; возможность создания сложных многоуровневых систем; наличие средств задания логики работы и средств для интеграции с внешними системами; пригодность полученных видеоматериалов ля проведения идентификационных исследований.
Таблица 1. Требования к пропускной способности (видео без сжатия) для различных форматов видеокадров
Формат | Разрешение по горизонтали | Разрешение по вертикали | Количество пикселей в кадре | Полоса пропускания, Мбит/с (при частоте 25 кадр/с) |
QCIF | 176 | 144 | 25344 | 15 |
CIF | 352 | 288 | 101376 | 58 |
4CIF | 704 | 576 | 405504 | 232 |
16CIF | 1408 | 1152 | 1622016 | 928 |
Форматы видеокадров При записи изображения обычно используется не менее 8 бит (1 байт) — сегодня стандартом де-факто являются видеоАЦП с 9-10 бит на цветовую компоненту — для представления 256 (512, 1024) уровней яркости красного, зеленого и синего цветов (RGB) или со структурой дискретизации цветного видеосигнала YUV 4:2:2. Таким образом, для хранения одного элемента изображения (пикселя) требуется 3-4 байта.
Для передачи видео существует ряд форматов с разным разрешением, требующих определенной пропускной способности (см. табл. 1). Базовым является общий промежуточный формат CIF (Common Intermediate Format), остальные -производные от него.
Часто упоминается формат SIF, совпадающий c CIF для видеостандарта PAL, а для NTSC задающий кадр с разрешением 352×240. В соответствии с требованиями Технического задания в системе видеозаписи должен использоваться формат 4CIF (или его варианты 704×576, 720×576, 768×576), в некоторых источниках его называют Full.
Связанная с форматом видеокадра такая характеристика, как четкость видеоизображения, существенна для обеспечения качества видеозаписи. Формату CIF соответствует максимальное разрешение около 250-280 телевизионных линий (далее — ТВЛ) по горизонтали (качество VHS), а формату 4CIF — не менее 400 линий по вертикали и до 500-550 ТВЛ по горизонтали (качество S-VHS).
Проверку четкости видеоизображения производят с помощью специальных телевизионных измерительных таблиц по методикам, описанным в стандартах: ОСТ 58.30.2003 «Таблицы отражательные телевизионные для цифрового телевидения. Общие технические требования»; ОСТ 58-19-99 «Таблицы цветные испытательные телевизионные. Общие технические требования»; ГОСТ 14872-82 «Таблицы испытательные оптические телевизионные. Типы, размеры и технические требования»; ГОСТ 7845-92 «Система вещательного телевидения. Основные параметры. Методы измерений». Технологии компрессии видео Для сжатия входной видеоинформации и ее последующего восстановления используются различные типы кодеков.
Подходы к сжатию видео принципиально отличаются от используемых в универсальных алгоритмах сжатия «без потерь» (таких, как RLE или LZW), широко применяемых в программах-архиваторах и различном коммуникационном оборудовании (модемах, маршрутизаторах и т.п.). Максимальный коэффициент сжатия, достижимый с их помощью, составляет 1:4, что абсолютно недостаточно для большинства приложений. Основные методы компрессии, применяемые в настоящее время, можно разделить на две группы. Первую группу составляют методы, использующие внутрикадровое сжатие (каждый кадр обрабатывается отдельно). Это JPEG (Motion JPEG), Wavelet и JPEG-2000. Во вторую группу входят методы, использующие межкадровое или поточное сжатие: MPEG-1, H.261/H.263, MPEG-2, MPEG-4. Существуют разновидности Wavelet, в которых применяется межкадровое сжатие (так называемая дельта-компрессия). Основные характеристики различных методов приведены в табл. 2. Требования к пропускной способности во многом определяются необходимым качеством видеоизображения, которое в свою очередь зависит от его динамичности.
Борьба с неизбежными потерямии Все методы сжатия изображений, обеспечивающие высокие коэффициенты компрессии, предполагают некоторые потери (то есть восстановленное изображение не совпадает в точности с исходным).
Эти потери связаны с отказом от передачи или некоторого «загрубления» компонентов изображения, чувствительность к точности воспроизведения которых у человеческого глаза невелика. При сжатии изображений осуществляется переход от традиционного RGB-представления к цветовой схеме YCrCb: Y = 0,299xR+0,587xG+0,114xB; Cb = (B-Y)/0,866/2+128; Cr = (R-Y)/0,701/2+128. Чувствительность человеческого глаза к цветностным компонентам (цветовым плоскостям) Сb и Сг значительно меньше, чем к яркостному Y-компоненту, поэтому при выполнении этого преобразования осуществляется прореживание (interleaving) Cb- и Cr-компонентов, когда для группы из четырех соседних пикселей (2×2) вычисляются Y-компоненты, а Сb и Сг используются общие (схема 4:1:1). Нетрудно посчитать, что схема 4:1:1 позволяет сократить выходной поток вдвое (вместо 12 байт для четырех соседних пикселей достаточно 6). Использование формата 4:1:1 (или 4:2:0) существенно ухудшает цветопередачу и динамический диапазон видеокартинки, но в охранном телевидении это считается неприемлемым, и такое оборудование не может пройти сертификацию на предмет пригодности видеоматериалов для проведения криминалистических экспертиз.
Необходимое условие для них — поддержка видеоформата не хуже 4:2:2. В технологиях непрерывной видеотрансляции часто используются алгоритмы с поточным сжатием: это традиционное телевизионное вещание, или Интернет-видеотрансляция: WebTV, WebCam и т.п. Здесь учитывается тот факт, что свыше 95% видеоданных (по результатам исследований комитета MPEG) так или иначе повторяются в разных кадрах, причем неоднократно. Эти данные (их можно считать избыточными) удаляются практически без ущерба для изображения, а в видеопоток вставляются один-единственный оригинальный фрагмент и таблица повторяющихся участков. Результат работы алгоритма удаления избыточной информации — изображение с высокой четкостью при низкой требуемой пропускной способности канала передачи (bitrate). Перед началом кодирования происходит анализ видеоинформации, выбираются ключевые кадры, которые не будут изменяться при сжатии, а также кадры, при кодировании которых часть информации будет удаляться. Таблица 2. Требования к пропускной способности (видео со сжатием)
Видеоформат | Ориентировочная пропускная способность, Мбит/с | Поддерживаемое разрешение | |
Motion JPEG | 5-16 | QCIF, CIF, 4CIF | |
Н.261 | 0,03-1,92 | QCIF, GIF | |
Н.263 | 0,03-4 | QCIF, CIF, 4CIF, 16CIF | |
MPEG-4 | 0,1-100 | QCIF, CIF, 4CIF, 16CIF | |
MPEG-1 | 0,4-2 | QCIF, CIF | |
MPEG-2 | 0,3-100 | QCIF, CIF, 4CIF, 16CIF | |
Wavelet | 2-6 | QCIF, CIF, 4CIF | |
JPEG-2000 | 1,5-5 | QCIF, CIF, 4CIF, 16CIF |
Всего выделяется три типа кадров:
- I — Intra frame.
Ключевые кадры, которые сжимаются без изменений.
Р — Predicted frame (предсказанный кадр).
При кодировании этих кадров часть информации удаляется, так что их размер примерно в 2-3 раз меньше, чем у l-кадра. При воспроизведении Р-кадра используется информация от предыдущих I- или Р-кадров.
В — Bidirectional frame (двунаправленный кадр). В этом случае потери информации при кодировании еще более значительны, так что размер этих кадров примерно в 3-5 раз меньше, чем у l-кадра.
При воспроизведении В-кадра используется информация уже от двух (предыдущих и последующих) I- или Р- кадров.
В-кадры предусмотрены только в MPEG и Н.263, а в Н.261 их нет.
При кодировании формируется группа кадров разных типов (GOP — group of pictures).
Степень сжатия определяется, в частности, длиной группы.
Наиболее типичная последовательность (для GOP = 8) может выглядеть следующим образом: IBBBPBBBIBBBPBBBL… Соответственно очередь воспроизведения по номерам кадров будет выглядеть так: 1 523467891310… В MPEG-1 GOP обычно IBBPBBIBBPBBIE (длина 6); в MPEG-2 GOP обычно IBBPBBPBBPBBPBBIBBPE (длина 15) По окончании разбивки кадров на типы начинается процесс подготовки к кодированию.
Технологии потоковой видеотрансляции идеально подходят для систем мониторинга в реальном времени, но абсолютно непригодны для видеодокументирования.
Видеозаписи, полученные с помощью delta-кодирования (алгоритмы MPEG, Н.2бх), не позволяют точно восстановить каждый кадр видеоряда (не только I-frame, но и каждый В- и P-frame), поэтому эти видеозаписи непригодны для последующего анализа видеоизображений и проведения экспертно-криминалистических исследований. Подробнее об алгоритмах сжатия В основе ставших уже классическими стандартов сжатия JPEG и MPEG, так же как и в сравнительно новых методах сжатия на основе Wavelet-преобразования, лежит переход от пространственного представления изображения к спектральному.
В случае JPEG и MPEG для такого перехода используется дискретное косинус-преобразование (ДКП) на блоках 8×8 пикселей, в случае Wavelet, JPEG-2000 — система фильтров, примененных к изображению. Обычно пиксели в блоке и сами блоки изображения каким-то образом связаны (коррелированны) между собой — например, однотонный фон, равномерный градиент освещения, повторяющийся узор и т.д. Алгоритм ДКП, используя коррелирующие эффекты, производит преобразование блоков в частотные Фурье-компоненты. При этом небольшая часть информации теряется из-за округления за счет выравнивания сильно выделяющихся участков, которые не подчиняются корреляции. После этой процедуры в действие вступает алгоритм квантования, использующий матрицу квантования, элементами которой являются нормирующие коэффициенты для частотных Фурье-компонентов. После квантования многие коэффициенты в блоке обнуляются (нулевой коэффициент представляет собой среднюю яркость исходного блока). Число ненулевых спектральных составляющих тем выше, чем больше мелких деталей содержалось в исходном блоке. Чувствительность человеческого глаза к точности передачи высокочастотных спектральных составляющих невелика, что позволяет сократить число бит, используемых для их кодирования. Реализуется такое сокращение делением каждого частотного коэффициента на соответствующий ему элемент матрицы квантования. Эти матрицы для цветностных компонентов (Сb и Сг) содержат, как правило, большие коэффициенты для одних и тех же спектральных составляющих, чем для яркостной. Особенности MPEG В формат MPEG-2 были введены еще несколько новых, нигде ранее не используемых алгоритмов компрессии видеоданных.
Так, один из этих алгоритмов позволяет выделить в потоке видеоданных слои с разным приоритетом.
Наиболее приоритетный на данный момент слой (например, передний план) кодируется с большим разрешением, чем слои с меньшим приоритетом. Другой алгоритм дробит блоки матрицы квантования на два потока.
Один поток данных, более высокоприоритетный, состоит из низкочастотных (наиболее критичных к качеству) компонентов, другой, соответственно менее приоритетный, из высокочастотных компонентов.
В дальнейшем эти потоки обрабатываются по-разному. Эти расширения продекларированы в стандарте MPEG-2 Scslability Extentions, но на сегодняшний день ни один MPEG-2-кодер не создает потоки с этими возможностями.
В MPEG-2 динамические сцены смотрятся намного лучше, чем в MPEG-1 и Н.261/Н.263 (и в их разновидностях Н.261+/Н.263+). Это улучшение происходит за счет того, что в MPEG-2 выше точность вычисления векторов движения, улучшен алгоритм предсказания значений коэффициентов и др. Стандарт MPEG-4 был существенно доработан по сравнению с MPEG-2 по нескольким направлениям: добавлены новые схемы разбиения исходной видеокартинки на исходные блоки для ДКП, расширена схема поиска векторов движения и усложнены алгоритмы компенсации движения. Этим было достигнуто существенное улучшение качества видеокартинки при потоковой видеотрансляции. Но практически никакого улучшения не произошло для режима покадровой записи. В MPEG-4 остались все недостатки ДКП и его непригодность для документальной покадровой видеозаписи. JPEG-2000 и технология Wavelet Другой принцип положен в основу технологии Wavelet и базирующейся на ней спецификации JPEG-2000. При Wavelet-преобразованиях переход в частотную область достигается применением набора фильтров.
Исходное изображение (естественно, после преобразования RGB -YCrCb) фильтруется с применением низкочастотного и высокочастотного фильтров по строкам и столбцам с последующим прореживанием. При этом вместо изображения размером MxN пикселей после первого прохода синтезируется четыре изображения Subband размером (М/2)х(М/2) каждое.
Наиболее информативным из них является [hh] — то, которое было получено с использованием низкочастотного фильтра как по строкам, так и по столбцам. Применение низкочастотного фильтра по строкам и высокочастотного — по столбцам [hg] или высокочастотного — по строкам и низкочастотного — по столбцам [gh] дает значительно более обедненную картинку, и совсем малоинформативным оказывается изображение [gg], полученное с использованием высокочастотного фильтра как по горизонтали, так и по вертикали.
Subband [hg] и [gh] обычно квантуются и после применения статистического кодирования попадают непосредственно в выходной поток, [gg] чаще всего просто игнорируется, а вот [hh] повторно подвергается той же процедуре, что и исходное изображение.
В случае формата 4CIF (Full) число итераций обычно составляет 4-6. Ограничения, подобного блоку 8×8 в JPEG и MPEG, Wavelet-преобразование не накладывает, но характерные для него искажения (рябь, размывание мелких деталей) также довольно неприятны.
Некоторые системы используют модификации Wavelet на основе так называемой дельта-компрессии (Delta), которая за счет передачи лишь изменений между отдельными кадрами видеоизображений позволяет обеспечить дополнительную степень компрессии до 5:1 и выше (при различиях между смежными кадрами — до 20% и меньше). Однако Delta-Wavelet, как и все другие схемы delta-компрессии, непригодна для документальной видеозаписи и проведения экcпертизы, поэтому delta-схемы являются скорее ухудшением достоинств Wavelet.
Самым передовым стандартом и наиболее перспективным для целей документальной видеозаписи сегодня является JPEG-2000.
Сравнение методов компрессии У всех методов компрессии есть свои достоинства и недостатки. MPEG-подобные, оптимизированные по скорости алгоритмы компрессии Н.261 и Н.263 (с модификациями Н.261+, Н.263+) разрабатывались в расчете на видеоконференции и видеотелефонию по сетям ISDN, то есть на приложения с практическим отсутствием динамических сцен. По мнению большинства экспертов, формируемые ими изображения (при высокой динамике) имеют блочную структуру, являются нечеткими и «дергаными». По степени компрессии они занимают промежуточное положение между Wavelet и MPEG и встречаются в цифровых системах видеозаписи довольно редко. MPEG-1 обеспечивает качество, приблизительно эквивалентное VHS, и может использоваться в случае, если пропускная способность канала ограничена 2 Мбит/с. В то же время качество передачи динамичных сцен, характерных для системы видеонадзора за движением транспорта, довольно невысокое. MPEG-2 разрабатывался в расчете на пропускную способность канала передачи 0,3-100 Мбит/с с ориентацией на телевидение высокой четкости (HDTV). При коэффициентах сжатия до 30:1 он обеспечивает качество, приблизительно эквивалентное DVD, с хорошим воспроизведением динамичных сцен. В то же время при больших коэффициентах сжатия (до 200:1) начинают проявляться эффекты мозаики, искажения (типа ступеньки и т.д.). Гибкость алгоритма позволяет использовать его в различных сферах: от съемки и монтажа видеопродукции до последующего ее цифрового распространения (DVD) и передачи (DVB -Digital Video Broadcasting). Очевидное различие этих задач приводит к разнообразию возможных схем кодирования. Сильная сторона MPEG-2 — жестко определенная международным стандартом процедура декодирования. Это означает, что, несмотря на возможные различия использованных схем компрессии, любой MPEG-2-поток будет успешно воспроизведен стандартным MPEG-2-декодером. Таким образом, гарантируется совместимость оборудования различных поставщиков. MPEG-4 является стандартом, ориентированным на клиент-серверные системы доставки интерактивного мультимедиа по сети. Аудиовизуальные сцены в нем рассматриваются как объекты, которые мультиплексируются в единый поток наряду с дополнительным описанием сцен. Это дает возможность конечному пользователю при воспроизведении самому управлять процессом презентации. В некоторых отношениях (в частности, по качеству видео) он является шагом назад по сравнению с MPEG-2, однако при том же bitrate, что и Н.261, он обеспечивает существенно (на 30-40%) более высокое качество. Для разрешения 4CIF (Full) средний информационный поток составляет около 1 Мбит/с (лучше, чем у MPEG-2 и Wavelet). Общий недостаток методов компрессии семейства MPEG заключается в том, что они практически перестают работать при мультиплексировании видеосигналов, когда могут возникать задержки между отдельными видеокадрами до 100-200 мс и более, а при интервале между кадрами более 475 мс появляется противоречие со стандартом MPEG-2 System, которое может привести к невозможности воспроизведения записей некоторыми декодерами. Второй существенный недостаток методов компрессии семейства MPEG — синтетичность «неопорных» видеокадров, что делает их абсолютно непригодными для систем, где требуется последующий криминалистический анализ видеорядов. При Wavelet-преобразованиях искажения, как правило, имеют характер муара (ряби), им также свойственно размывание мелких деталей. Несмотря на то что при сжатии отдельного кадра Wavelet дает лучший результат, чем ДКП, при одинаковых степенях сжатия Wavelet с дельта-компрессией уступает по качеству потоковым методам компрессии на базе ДКП. Связано это с тем, что высокочастотные шумы, присутствующие при межкадровой разнице, сжимаются алгоритмом Wavelet хуже. В результате дельта-Wavelet при одинаковом качестве картинки дает преимущество по сравнению с покадровым Wavelet на 5-10%, при этом теряя преимущества последнего и приобретая недостатки потоковых кодеков. Другой подход применяется в так называемом motion-wavelet. Суть его в том, что все кадры, кроме опорных, сравниваются с этими опорными, анализируются и разбиваются на две области: подвижную и фон. Далее Wavelet-сжатию и записи в архив подвергается только подвижная часть кадра, а фон при воспроизведении передается от опорного кадра. Подход позволяет добиться существенного уменьшения битового потока по сравнению с покадровым Wavelet, но он имеет принципиально неустранимые недостатки, весьма существенные для охранного телевидения. Суть их заключается в том, что для эффективной и корректной работы алгоритма необходимо, прежде всего, отделить полезный
сигнал от шума, который есть всегда (тепловой, электрический, квантования и т.д.). Проблема сродни проблемам по настройке детектора движения: при высокой чувствительности будет много ложных срабатываний — в контексте motion-wavelet будут большие подвижные области, что увеличит битовый поток — низкая чувствительность приведет к потере полезной информации. Ключевой критерий — соотношение сигнал/шум. Если изменение яркости на участке экрана сопоставимо с уровнем шума, детали на неопорных кадрах искажаются, а то и вовсе теряются. В условиях недостаточной освещенности соотношение уменьшается еще и за счет роста знаменателя (возрастает уровень шума). Как следствие, помимо искажений/потерь деталей возрастает битовый поток. Отметим, что алгоритмы, дающие неплохие результаты по отделению движения от фона, весьма ресурсоемки. При этом необходимо учитывать, что степень компрессии принципиально не может иметь какого-то заранее заданного значения, так как очень сильно зависит от типа наблюдаемой сцены (однородный фон сжимается значительно сильнее, чем изображение с массой мелких деталей). Некоторые эксперты к достоинствам Wavelet относят его закрытость (отсутствие стандарта приводит к несовместимости программ и оборудования разных производителей). В частности, становится невозможным просмотр видеоизображения любыми внешними программными средствами (стандартными просмотрщиками), как это практикуется для стандартных JPEG и MPEG. Закрытые алгоритмы кодирования на базе Wavelet обеспечивают большую безопасность, не позволяя получать свободный внешний доступ к видеоархиву принципиально (в этом случае для преобразования в формат AVI, например, надо использовать специальные конвертеры). JPEG-2000, получивший сейчас широкое распространение, унаследовал все достоинства Wavelet, но исключил его недостаток (отсутствие стандартов). Спецификацию JPEG-2000 поддерживают большинство крупнейших производителей компьютерной техники, видеосистем и ПО. В ближайшее время он станет стандартом де-факто для оборудования документирования видеоинформации в составе охранных систем. Скорость обработки/ записи изображений Для оценки производительности видеосервера и определения его удельной стоимости в расчете на один канал важными параметрами являются количество немультиплексированных каналов и суммарная скорость обработки/записи немультиплексированных изображений.
Количество немультиплексированных каналов на один блок записи определяется типом платы видеозахвата (схемой ввода) и количеством плат.
Примером часто встречающихся схем ввода могут служить 16×4 (16 мультиплексированных входов и 4 канала на плату) и 4×4 (4 немультиплексированных входа и 4 канала обработки). Как правило, современные цифровые системы видеозаписи обрабатывают немультиплексированные изображения со скоростью до 25 кадр/с (25 EPS — frame per second) стандарта PAL, что соответствует качеству живого видео (live-video).
К сожалению, для многих систем скорость приводится без указания формата обрабатываемых видеокадров (4CIF, CIF) и их цветности (ч.-б. или цветные), из-за чего сравнения бывают некорректными. Обычно все характеристики цифровых систем видеозаписи указываются для формата видеокадра CIF (или аналогичных форматов), а для многочисленных корейских систем — и того меньших форматов. Кроме того, скорости обработки и записи могут значительно отличаться друг от друга. На скорость записи очень влияет используемый алгоритм компрессии и способ ее реализации (программная или аппаратная). Одна плата видеозахвата обычно позволяет обрабатывать 1, 2 или 4 немультиплексированных видеосигнала одновременно. Поскольку в системный блок можно установить до 4 плат видеозахвата, с помощью одного блока цифровой системы видеозаписи можно параллельно обрабатывать от 4 до 16б немультиплексированных видеоизображений со скоростью обработки до 25 FPS. Иногда вместо общего количества немультиплексированных видеоканалов указывают суммарную скорость обработки/записи немультиплексированных видеоизображений (25 FPS, 50 FPS, 100 FPS, 200 FPS, 400 FPS и т.д.). Мультиплексирование используется, когда нет необходимости в записи «живого видео», к одному каналу подключается одновременно несколько камер (как правило, до 4), которые опрашиваются попеременно. Такой подход позволяет добиться существенной экономии (количество видеокамер на станцию записи увеличивается в несколько раз), однако общая производительность комплекса, как правило, ощутимо падает, так как любой цифровой системе видеозаписи требуется время (60-80 мс) для синхронизации с видеопотоками разных камер при их переключении. Именно поэтому скорость обработки мультиплексированных видеосигналов для профессиональных систем — 12,5-16 FP5 вместо 25 FPS на один канал цифровой обработки, а для остальных — 8-10 FPS. Время синхронизации может быть величиной непостоянной, зависящей от типа и марки видеокамеры и даже от конкретного экземпляра видеокамеры одной и той же марки. Следует отметить, что при мультиплексировании на более-менее высоких скоростях четкий захват четных или нечетных полукадров не контролируется, что приводит к характерному подергиванию (вверх-вниз) изображения на экране. Исключение из правила — цифровой мультиплексор. Суть его подхода в том, что видеопоток, который идет от камеры, сначала оцифровывается, а потом уже мультиплексируется. Это позволяет избежать всех вышеперечисленных недостатков. Многоканальные детекторы движения Большинство современных цифровых систем видеозаписи обязательно имеют многоканальные детекторы движения.
Они ориентированы на использование в системах охраны и обычно выявляют в изображениях, полученных со стационарных камер, наличие активности (как правило, на основании измерения относительных изменений яркости/контраста в заданных зонах). Профессиональные детекторы имеют возможность настройки в реальных условиях с целью минимизации ложных срабатываний.
Для этого используются различные методы фильтрации помех (таких, как блики, помехи от дождя, снега, листвы деревьев, пролета птиц и т.п.). Экспорт видеоинформации Экспорт видеоинформации представляет собой преобразование видеоданных из внутреннего формата цифровой обработки и/или компрессии во внешние (как правило, широко распространенные форматы) для дальнейшего их анализа и использования.
Средства экспорта необходимы для выдачи видеоинформации во внешние структуры (организации), не оборудованные удаленным рабочим местом подсистемы видеозаписи.
В большинстве случаев фрагменты видеосъемок преобразуются в формат AVI (или MPEG), a отдельные видеокадры — в JPEG.
Это преобразование обычно можно производить или в автоматическом, или ручном режимах, как в режиме просмотра живого видео, так и при работе с видеоархивом.
Создание многоуровневых систем Для решения масштабных задач один из ключевых критериев при выборе системы видеозаписи — возможность создания на базе этого оборудования сложных распределенных многоуровневых систем.
Наличия поддержки работы в сети по протоколу TCP/IP и возможностей удаленного видеомониторинга и удаленного администрирования системы совершенно недостаточно.
В системе должно быть обеспечено ведение единой базы данных и единого протокола событий для всего сетевого комплекса в целом при неограниченном количестве клиентов в сети любого масштаба, возможность создания внешнего архива длительного хранения и обязательное использование архитектуры клиент-сервер. Средства задания логики работы В большинстве систем декларируется наличие специальных средств задания логики работы системы (по расписанию, по характеру тревожных событий).
Обычно все сводится к определению реакций на срабатывание детектора движения (активности), обработке состояний тревожных входов и выдаче соответствующих управляющих сигналов. Зачастую такое программирование реализуется на уровне написания простейших макросов, задающих действия в рамках одного блока видеозаписи.
Некоторые профессиональные системы дополнительно имеют встроенные средства программирования специальных сценариев (скриптов), что, как правило, позволяет на любое событие в системе видеозаписи определить реакцию всех исполнительных устройств, входящих в систему.
С целью предоставления возможности самостоятельно, без вмешательства производителей оборудования, разрабатывать специализированные приложения и модули интеграции некоторые системы могут поставляться со специальными средствами разработки прикладного ПО (так называемые SDK) или программными интерфейсами (API и т.п.). Пригодность видеоматериалов для идентификации При выборе систем видеозаписи, предназначенных для решения задач, связанных с обеспечением безопасности, следует обратить внимание на качество получаемых видеоматериалов, которые должны быть пригодны для проведения идентификационных исследований.
Оборудование, используемое для этих целей, должно пройти исследование в лаборатории Экспертно-криминалистического центра МВД России и получить положительное заключение.
Об авторе: В.Ю. Ануров, заместитель генерального директора компании «Вокорд-Телеком» по спецпроектам
Информация взята с сайта SEC.RU