A segurança é uma das necessidades básicas do ser humano, estando presente na essência de seus anseios, ações e objetivos. Atualmente os conceitos e tecnologias de segurança são muito amplos e nas condições atuais de desenvolvimento tecnológico e social, aplicados a inúmeras áreas, dentre as quais a segurança eletrônica, é sem dúvida uma das mais importantes, na qual são aplicados sistemas eletrônicos avançados em diversas formas de supervisão, automação e controle, possibilitando ampliar a cobertura de segurança para pessoas, empresas, cidades, máquinas, processos, etc.
Uma das ferramentas utilizadas na segurança eletrônica é o circuito fechado de televisão (CFTV), que basicamente consiste em um sistema de supervisão e controle, utilizando câmeras para monitoramento e gravação de imagens locais ou remotas.
Atualmente a maior parte dos sistemas de CFTV existentes, utiliza câmeras analógicas e sistema de gravação digital. As câmeras de segurança analógicas tradicionalmente utilizam como meio de transmissão cabos coaxiais de 75ohms, nos quais é transmitido um sinal de vídeo composto de 1Vpp, modulado em AM-VSB na sua banda base, neste 0,7V refere-se ao sinal de luminância e 0,3 é referente aos pulsos de sincronismo horizontal e vertical.
lém disso sobre este sinal é transmitida uma portadora de cor modulada na frequência de 3,57MHz. As sincronizações, modulações e frequências são definidas através da norma do NTSC, que estabelece o sistema norte-americano de difusão de televisão analógica, estabelecido em 1953.
Com o advento da utilização de redes de dados mais robustas, utilizando protocolos de comunicação como TCP/IP e redes estruturadas baseadas principalmente em cabos de pares trançados (UTP), fibras ópticas e rádios digitais, normatizadas por padrões internacionais que definem níveis superiores de proteção, capacidade, segurança e qualidade, através da utilização de técnicas de transmissão de pacotes de dados com fluxo bidirecional, possibilitando a verificação e correção erros, encriptação de dados, autenticação, privacidade de acesso através de senhas, além de permitir o tráfego de diversos outros pacotes de dados com diferentes informações e sinalizações sobre o mesmo meio de transmissão.
O uso de redes digitais apresenta vários benefícios, além dos citados acima, é possível gerenciar sistemas múltiplos através da configuração de redes de maior porte WAN (Wide Area Network), configurar os dispositivos remotamente, utilizar câmeras de alta resolução e megapixel, integrar o gerenciamento de dispositivos em diferentes sites e localidades. Essa topologia de sistema de CFTV é apresentada na figura 2.
Figura 2: Sistema de CFTV Sobre Rede IP
Os sistemas de vigilância baseada em IP oferecem vários benefícios para aplicações corporativas e de alto nível de exigência, incluindo:
- Processamento distribuído, inteligência em nível de dispositivos, codificação e análise inicial periférica, compressão, análise de vídeo, notificação de e-mail, funções automatizadas, detecção de movimento, configuração remota e atualizações de firmware.
- Menores custos de cabeamento através da utilização de sistemas de cabeamento estruturado.
- Simplificação do gerenciamento e distribuição de energia, aproveitando os recursos de Power over Ethernet (POE).
- A convergência de TI na gestão de recursos compartilhados de infraestrutura.
- O uso de servidores dedicados de alto desempenho para gerenciamento de sistemas distribuídos e múltiplos dispositivos.
- Controle de de pan,tilt e zoom (PTZ), interfaces de entrada e saída, áudio em dupla via, sobre o mesmo cabo.
- Capacidade de múltiplos stream de vídeo, como por exemplo, MJPEG e H.264, para diferentes usuários ou aplicativos.
- Maiores resoluções, incluindo alta definição (HD) e capacidades megapixel.
- Redução no número de câmeras a partir do uso de dispositivos de alta resolução.
Dadas as inúmeras vantagens do vídeo sobre IP, existe no mercado uma grande tendência de substituição gradativa dos sistemas de CFTV analógico, por sistemas IP, principalmente em aplicações de grande porte, críticas, industriais, empresariais e onde níveis maiores de qualidade e recursos tecnológicos sejam necessários. Essa substituição já está ocorrendo e deverá se estender pelos próximos anos, com o crescimento substancial da aplicação de sistemas IP e decréscimo na aplicação de sistemas analógicos.
Atualmente muitos fabricantes produzem câmeras IP, servidores web e diversos outros equipamentos de vídeo voltados para segurança. Esses equipamentos utilizam diferentes técnicas de codificação, compressão e armazenamento de vídeo de forma a utilizar os meios de transmissão de maneira adequada, mantendo um custo atrativo e oferecendo funções que permitam obter informações relevantes nas cenas e locais monitorados.
Apesar de todas as vantagens dessa tecnologia, a compatibilidade de protocolos de aplicação e equipamentos ainda não está padronizada e os inúmeros fabricantes desenvolvem livremente seus protocolos e interfaces de comunicação, sem compromisso ou busca de compatibilidade com equipamentos de outros fabricantes, produzindo dessa formas softwares e sistemas de controle compatíveis somente com seus sistemas.
Recentemente surgiram alguns consórcios formados pelos principais fabricantes de equipamentos de CFTV e vigilância IP com objetivo de criar padrões abertos de comunicação propiciando a interoperabilidade e padronização de protocolos de comunicação de câmeras, dispositivos e sistemas de gravação como o ONVIF (http://www.onvif.org/) e PSIA(http://www.psialliance.org/).
Compactação de Vídeo
A compactação de vídeo foi desenvolvida a partir da década de 1980 devido as necessidades de digitalização de imagens, atualmente sua aplicação é cada vez mais crescente em processos de captura, gravação, transmissão e armazenamento em aplicações de televisão digital, mídias de vídeo, cinema, fotografia, vídeo e internet cada vez mais presentes em nosso cotidiano.
Nas equações 1 e 2 são relacionadas a banda de trafego necessária para streams de vídeo com resolução HD1080 com 30fps e de 5 Megapixel com 10fps respectivamente, demonstrando a alta densidade de dados necessária em caso de vídeo sem compactação.
Equação 1
Equação 2
A compactação ou compressão de vídeo refere-se as técnicas utilizadas para a redução da quantidade de dados necessária para representar uma imagem de vídeo no formato digital. Aplica os conceitos de processamento digital de sinais e codificação de fonte com o objetivo principal de reduzir a largura de banda necessária para a transmissão do vídeo e espaço em disco necessário para o seu armazenamento. Os processos de compactação ou compressão de vídeo em geral aplicam a combinação de técnicas compressão espacial de imagens em conjunto com compensação de imagens em movimento no domínio do tempo, obtendo uma redução significativa nas taxas de dados na transmissão e armazenamento.
Em termos de tecnologia de codificação e transmissão de vídeo existem vários modos de acesso a imagem disponibilizada pela câmera, variando de acordo com a qualidade, tecnologia e especialização do equipamento de captura de vídeo. Sendo os mais comuns os padrões JPEG, MJPEG, MPEG2, MPEG4 e H.264. Dessa forma a codificação é feita no próprio dispositivo de vídeo, sendo necessária a decodificação de vídeo no software para recuperação das imagens.
Na tabela 1 é apresentada a evolução cronológica parcial dos principais padrões de compressão de vídeo.
Tabela 1: Evolução nos Padrões de compactação de vídeo
Ano | Padrão | Órgão Responsável | Aplicações e Implementações |
1984 | H.120 | ITU-T | Aplicação Experimental |
1990 | H.261 | ITU-T | Videoconferência e videotelefonia |
1993 | MPEG-1 Part 2 | ISO, IEC | Video-CD (VCD) |
1995 | H.262/MPEG-2 Part 2 | ISO, IEC, ITU-T | DVD, TV Digital (ATSC), SVCD |
1996 | H.263 | ITU-T | Videoconferência, Videotelefonia, Vídeo em dispositivos móveis (3GP) |
1999 | MPEG-4 Part 2 | ISO, IEC | Vídeo sob demanda e sobre internet (DivX, Xvid,…) |
2003 | H.264/MPEG-4 AVC | ISO, IEC, ITU-T | Blu-ray, iPod Video, HD DVD, TV Digital DVB |
A compactação de vídeo se baseia em processos de codificação de vídeo utilizando principalmente a DCT (Discrete Cosine Transform ou Transformada Direta de Cosseno) que permite codificar a imagem de um quadro, reduzindo a redundância de informações entre pontos próximos ou blocos de informações de luminância ou crominância em uma imagem.
Este processo de compactação é denominado compactação espacial, oferecendo uma boa taxa de redução de dados redundantes em quadros estáticos de imagem, utilizando técnicas similares as utilizadas em compactação de imagens como ao processo JPEG. Estes processos foram amplamente utilizado nos primeiros dispositivos de captura, armazenamento e transmissão de vídeo digital em rede que utilizaram as compactações JPEG e MJPEG. Atualmente são disponíveis como mídia ou stream alternativos de vídeo para dispositivos de menor capacidade de processamento ou em câmeras de baixo custo.
Além da compactação espacial os processos modernos de compactação de vídeo apresentam também a compactação temporal onde as informações redundantes entre quadros subsequentes de imagem também são codificadas de forma a reduzir o fluxo de dados. Esta característica é extremamente importante em sistemas de segurança, uma vez que grande parte das câmeras são posicionadas em locais fixos, com campos visuais limitados, apresentando cenas com características de poucas modificações entre diferentes quadros de imagem.
Dessa forma é possível utilizar alguns quadros chave (key frames) como referência e posteriormente armazenar ou transmitir quadros intermediários de modificações em relação aos quadros anteriores e posteriores, reduzindo de forma bastante eficiente a quantidade de informações redundantes.
O vídeo digital, após os devidos processos de codificação, pode ser considerado uma matriz tridimensional de pixeis, na qual duas dimensões referem-se as informações espaciais de de pontos na horizontal e vertical dos quadros de imagem, e a terceira dimensão representa o domínio do tempo e a autocorrelação entre os quadros estáticos de imagem ao longo de sua sequencia.
Os dados de vídeo contém as informações no domínio espacial e temporal, permitindo que as semelhanças e redundâncias possam ser codificadas de forma otimizada e as informações de diferenças e movimentos tenham destaque dentro dos quadros (redundância espacial) e entre diferentes quadros (redundância temporal).
Um quadro de vídeo é o conjunto de todos os pixels da matriz que corresponde a um momento único momento, dessa forma, apresenta individualmente características muito similares a uma imagem estática. A codificação espacial é realizada aproveitando a característica de que o olho humano é incapaz de distinguir pequenas diferenças de cor da mesma maneira que percebe mudanças de luminosidade, de modo que áreas similares de cor podem ser verificadas por uma “média”, similar as codificações utilizadas em imagens JPEG.
Com a compressão temporal, apenas as mudanças de um quadro para o próximo são codificados como muitas vezes um grande número de pixels serão os mesmos em uma série de quadros.
A compactação de vídeo MPEG-4 e H.264 utilizam a compressão espacial baseada em DCT em cada quadro chave de imagem e a compressão temporal em quadros intermediários (intra-frames, interframes e frames de predição) possibilitando uma redução significativa na largura de banda de rede e na capacidade das mídias de armazenamento.
Compactação de Vídeo em CFTV IP
A codificação JPEG é o modo mais simples de obter imagens a partir de um equipamento de vídeo sobre IP, pois trata-se do processo de capturar sequencialmente imagens estáticas geradas dentro da especificação da norma para codificação de imagem fotográfica conhecida por JPEG (ISO e ITU-T), desenvolvida pelo grupo “Joint Photographic Experts Group”. A norma considera codificação com perdas e sem perdas, baseado na DCT (Discrete Cosine Transform) ou em um codificador preditivo espacial. Este tipo de acesso é relativamente simples de ser implementado, uma vez que já existem inúmeras bibliotecas de tratamento de imagens. Porém nesta aplicação apresenta uma baixa velocidade e desempenho além de uma ocupação considerável da banda de transmissão.
O MJPEG ou Motion-JPEG é uma variante da especificação JPEG ISO utilizada em transmissões de vídeo digital, especificado na RFC 2435 do IETF, no qual ao invés de decodificar cada quadro de imagem em um único arquivo de vídeo, toda a sequência de quadros é compactada no mesmo stream de vídeo. Assim este modo utiliza uma base de funcionamento similar ao JPEG, porém apresenta um desempenho e capacidade de transmissão muito superior, uma vez que possibilita uma operação em tempo real além de apresentar maiores resoluções de imagem. Isto ocorre pois a conexão não é fechado, dessa forma permanece ativa durante a transmissão do fluxo de vídeo. Como não há nenhuma dependência entre os quadros, a transmissão é robusta, ou seja, se um quadro for perdido durante a transmissão, o restante do vídeo não será afetado. A principal desvantagem do MJPEG é que não são utilizadas técnicas de compactação de vídeo por redundância temporal, sendo gerada uma série de imagens estáticas completas. Dessa forma, o resultado é que esse padrão apresenta uma velocidade de transmissão e boa qualidade de imagem gerando um alto tráfego de rede e espaço ocupado para armazenamento.
O MPEG foi desenvolvido pelo grupo MPEG e ISO/IEC para padronizar e facilitar a criação, transmissão e acesso a streams de áudio e vídeo, para aplicações em dispositivos multimídia, redes e internet. Sua implementação leva em conta as limitações de largura de banda, hardware e capacidade de processamento das mídias disponíveis, levando em conta a capacidade de desenvolvimento e melhoria tanto em hardware como software.
O MPEG especifica padrões destinados para diversas aplicações multimídia, sendo que para aplicações de segurança e vídeo sobre IP as codificações mais utilizadas são a MPEG-4 e H.264. Estes formatos de compactação caracterizam-se por uma maior eficiência de uso de banda e de armazenamento, uma vez que utilizam a captura periódica de quadros de imagem completos como referência e nos quadros seguintes transmitem ou armazenam modificações em relação aos quadros chave, dessa forma o uso médio de banda e tamanho dos arquivos fica extremamente reduzido pela redução na redundância de imagem, principalmente se a cena capturada tiver poucas alterações, ou seja, uma entropia com autocorrelação elevada. O MPEG-4 parte 2 foi padronizado em 1998, sendo base para inúmeras aplicações de vídeo, incluindo câmeras de vigilância e gravação de vídeo.
O H.264, também definido como MPEG-4 Part 10/AVC (Advanced Video Coding) é implementação mais recente do MPEG para codificação de vídeo. Este CODEC possui um desempenho muito superior aos demais em termos de banda e armazenamento, sem comprometer a qualidade de imagem, possibilitando obter uma qualidade de vídeo muito mais alta mantendo taxas de transmissão e banda aceitáveis.
Embora existam os padrões de referência para os codecs MPEG4 e H.264, muitos fabricantes implementam variações específicas com melhorias de desempenho e capacidade que exigem o uso de codecs e players específicos do fornecedor de forma a tornar a reprodução ou visualização compatível. Estes codecs proprietários ou modificados normalmente não apresentam compatibilidade com os padrões originais nem com outros fabricantes.
Em um sistema de vigilância sobre IP a seleção de mídia a ser implantada envolve o tipo streaming e a escolha dos codecs mais indicados. Esta escolha tem impacto direto sobre os dispositivos e sistemas a serem utilizados, bem como influenciará nos valores finais do projeto, pois equipamentos com melhores codecs, maior qualidade e maiores capacidades de processamento apresentarão custos mais elevados, porém proporcionarão um melhor desempenho do sistema como um todo e um menor impacto sobre a rede de dados.
Protocolo de Streaming
Os dispositivos de mídia IP podem transmitir vídeo e áudio sobre IP usando vários protocolos IP e combinações de protocolo, como HTTP, Real-Time Transport Protocol (RTP) e Real-Time Streaming Protocol (RTSP). Estes protocolos combinações podem ser transportados através de TCP, uma orientada protocolo de conexão, para assegurar a entrega ou UDP para um melhor desempenho. Alguns dispositivos apresentam streamings de vídeo com diferentes características visando a aplicação para alta resolução, baixa resolução, dispositivos móveis, CODECs mais simplificados, etc.
Resolução de vídeo
A resolução é um dos principais fatores de qualidade em sistemas de vídeo, nos últimos anos tem sofrido avanços extremamente significativos em termos de qualidade e disponibilidade em dispositivos, definindo novos padrões de qualidade nas mais diversas aplicações e mídias.
De uma maneira simplificada, a resolução de vídeo em sistemas digitais define o número de pixeis de luminância e cor presentes na matriz de cada quadro de imagem. A resolução é uma razão entre o número de elementos ativos no sensor de imagem da câmera, largura de banda, capacidade de processamento do sistema de codificação e capacidade da mídia de gravação.
O conceito Megapixel está relacionado ao limite de resolução que separa diferentes níveis de qualidade em sistemas de vídeo e define equipamentos com resoluções de vídeo superiores a um milhão de pixeis (1Mpx).
Em termos de formato de imagem, além da resolução outro conceito importante é a relação de aspecto que define a proporção entre a largura e a altura de uma imagem ou vídeo, sendo os mais utilizados o padrão tradicional de TV analógica com relação de aspecto de 4:3, com o crescimento e aplicação acelerada das relações de aspecto padrão wide screen principalmente no formato 16:9.
Tabela 2: Resoluções Padrão NTSC
Resolução | Dimensões (px) | Características e Aplicações |
QCIF | 176 x 120 | Muito utilizada em transmissões via internet |
CIF | 352 x 240 | Padrão mais utilizado para gravação digital em DVRs e Placas de Captura |
2CIF | 704 x 240 | Disponível nos equipamentos mas pouco utilizada |
4CIF | 704 x 480 | Configuração mais recomendada por proporcionar maiores detalhes de imagem em DVRs e Placas de Captura |
D1 | 720 x 480 | Qualidade de DVD. Resolução máxima de imagens digitalizadas. |
Utilizadas principalmente em sistemas de CFTV IP, ou devidamente convertidos para digitais, levando em conta padrões de informática.
Tabela 3: Resoluções Padrão VGA
QVGA | 320 x 480 | Usado como configuração para situações mais simples |
VGA | 640 x 480 | Presente na maioria das câmeras IP com resolução Standard |
SVGA | 800 x 600 | Disponível em câmeras de 0,5Mpx |
XVGA | 1024 x 768 |
Utilizadas principalmente em Câmeras IP de alta resolução, HDTV e em sistemas de alta qualidade de imagem com estrutura totalmente IP, baseada nos novos padrões de vídeo e mídia em rede.
Tabela 4: Exemplos de Resoluções Megapixel
Formato | Resolução Megapixel | Formato Padrão |
SXGA | 1.3 Megapixel | 1280 x 1024 |
SXGA+ (EXGA) | 1.4 Megapixel | 1400 x 1050 |
UXGA | 1.9 Megapixel | 1600 x 1200 |
WUXGA | 2.3 Megapixel | 1920 x 1200 |
QXGA | 3.1 Megapixel | 2048 x 1536 |
WQXGA | 4.1 Megapixel | 2560 x 1600 |
QSXGA | 5.2 Megapixel | 2560 x 2048 |
HD720 | 1 Megapixel | 1280 x 720 |
HD1080 | 2 Megapixel | 1920 x 1080 |
Atualmente em sistemas de CFTV sobre IP a maioria das câmeras apresenta resoluções mínimas no padrão VGA ou seja com 640 x 480 pixeis de resolução na horizontal e vertical. Esta resolução é muito próxima a resolução máxima permitida por sistemas analógicos codificados que utiliza o padrão D1 com 704 x 480 pixeis no padrão para o NTSC.
Este tipo de equipamento é considerado com resolução padrão ou standard definition (SD), alternativamente são disponibilizados equipamentos de alta definição ou HD (High Definition) que apresentam resoluções superiores a 720px, sendo que alguns fabricantes produzem câmeras e sistemas com até 16 Megapixel.
Exemplos de Largura de Banda e Armazenamento
Na figura 3 são apresentados exemplos de bitrate para diferentes resoluções com base na compactação MJPEG.
Figura 3
Na figura 4 são apresentados exemplos de bitrate para diferentes resoluções com base na compactação MPEG-4.
Figura 4
Na figura 5 são apresentados exemplos de bitrate para diferentes resoluções com base na compactação H.264.
Figura 5
Taxa de Ocupação de Banda
Grande parte dos dispositivos de rede comerciais utilizados em aplicações domésticas, comerciais e industriais, a transmissão de dados se dá na forma de rajadas de dados disparadas eventualmente de acordo com as necessidades específicas de processos, usuários e aplicações. Nestas condições, os links de dados da rede permanecem grande parte do tempo disponíveis para a transmissão de outras estações ou com uma concorrência moderada no uso das rotas de tráfego disponíveis.
Por outro lado, sistemas de vigilância em vídeo, apresentam uma característica de fluxo de transmissão de dados de imagens praticamente contínuo no sentido da câmera para o gerenciador ou servidor de vídeo, que dependendo das condições da rede e do número de dispositivos presentes pode acarretar problemas de colisão ou perda de pacotes, caso o sistema e sua infraestrutura de suporte não sejam devidamente dimensionados.
A taxa de transmissão de dados utilizada por uma câmera depende de diversos fatores como resolução, taxa de quadros, formato de compactação e complexidade da imagem. Além do fluxo contínuo e intenso de dados do sentido das câmeras para o gerenciador (upload) em geral este tipo de aplicação apresenta um fluxo inverso bastante moderado (dowload).
Em um sistema de vigilância por vídeo sobre IP, o fluxo de dados também é acumulativo em relação a usuários ou conexões concorrentes a um mesmo dispositivo e também em relação ao fluxo de vídeo destinado ao sistema de gerenciamento. Em geral a maioria das câmeras IP do mercado apresentam interfaces de rede no padrão Fast Ethernet, pois seu seu fluxo de dados é geralmente bastante inferior a 100Mbps, mesmo para os equipamentos mais complexos e de resoluções mais altas.
Por outro lado os servidores de gerenciamento ou gravadores de vídeo em rede (Network Video Recorders – NVR) apresentam um tráfego de entrada de dados composto pelos fluxos de dados ou streams de vídeos provenientes de todas as câmeras do sistema de forma cumulativa, gerando um fluxo total bastante expressivo, que dependendo do equipamento e número de dispositivos de vídeo em casos críticos podem saturar a sua interface de rede ou mesmo congestionar ativos de rede como switchs e roteadores.
Essas características nos levam a algumas questões importantes na definição do sistema e da infraestrutura, como:
- Utilizar redes dedicadas ou redes compartilhadas?
- Utilizar redes de dados CAT5, Fast Ethernet ou CAT6 Gigabit ou redes superiores?
- Qual tipo de ativos de rede mais recomendados?
- Qual tecnologia de compactação de vídeo mais recomendada?
- Qual tipo de resolução utilizar? Qual a taxa de quadros ideal?
Basicamente as respostas para estes questionamentos deverão ser estudadas criteriosamente de acordo com a criticidade da aplicação, de forma que torna-se muito importante um projeto que contemple todos os itens necessários para a definição dos aspectos técnicos de segurança e qualidade englobando também a infraestrutura e recursos de rede e processamento necessários ao suporte da aplicação.
Entre os itens a serem verificados no projeto destacam-se:
- Codecs de compactação de vídeo
- Mapa de Bits, JPEG, MJPEG, MPEG4, H.264
- Largura de Banda e Throughput de Rede disponíveis e necessários
- Atraso e Latência
- Resolução de imagens
- Taxa de Quadros
- Complexidade de Cena
- Bitrate (CBR, VBR e CVBR)
- Topologia de Rede
- Capacidade de Processamento Necessária
Artigo apresentado pelo Engº Marcelo Peres durante o Netcom 2011
Referências
- DAMJANOVSKI, Vlado. CCTV – Networking and Digital Technology. Butterworth-Heinemann, Oxford Elsevier UK, 2005.
- KRUEGLE, Herman. CCTV SURVEILLANCE – Video Practices and Technology. Butterworth-Heinemann, Elsevier UK, 1995.
- ENGEBRETSON, David J.; TECHNCIAN´S GUIDE – To Networking for Security Systems. Security Network Institute, XLibris. USA, 2005.
- Axis – Technical Guide to NETWORK VIDEO – Axis Communications, 2010.
- Vivotek IP SURVEILLANCE Handbook – Vivotek Inc. 2009.
- QuickTime File Format Specification – Data Management: File Management – Apple Inc. 2004, 2010 Apple Inc.
- Pelco Tech Notes – MJPEG HTTP PUSH (HTTP Streaming). Disponível em: <http://update.pelco.com/confluence/display/xdn/MJPEG+HTTP+PUSH>Acesso em 16/04/2010.
- RTP Payload Format for JPEG-compressed Video. Disponível em <http://tools.ietf.org/html/rfc2435>. Acesso em: 04/04/2010.
- Real Time Streaming Protocol (RTSP). Disponível em: <http://tools.ietf.org/html/rfc2326>. Acesso em: 23/04/2010.
- http://www.securitysales.com/files/Toshiba-NVR-WhitePaper.pdf
- REDES DE COMPUTADORES E INTERNET Por DOUGLAS E. COMER
- http://books.google.com.br/books?id=K … 0que%20%C3%A9&f=false
- White Paper – A GUIDE TO IP CCTV – Alan Perrott – Tyco Integrated System
- White Paper – Motorola – Video Solutions: Understanding Video Quality
- High Definition Video for Mainstream CCTV – Oliver Vellacott, IndigoVision
- White Paper – Estimating Bandwidth – White Paper – Bosch Security
- White Paper – Three Simple Ways to Optimize Your Bandwidth Management in Video Surveillance – Genetec
- http://www.itu.int/ITU-T/worksem/vica … ations/S0_P2_Sullivan.pdf
Se desejar obter maiores informações sobre dispositivos, projetos, aplicações e tecnologias IoT, entre em contato comigo através do e-mail marcelo@guiadocftv.com.br, terei o maior prazer em compartilhar meu conhecimento e trocar informações.
Guia do CFTV
Avalie este artigo, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?
Gostaria de sugerir alguma notícia ou entrar em contato, clique Aqui!