O objetivo de muitos profissionais de segurança corporativa é simples de descrever e extremamente difícil de alcançar: identificar uma ameaça real antes que ela se concretize e evitar que o pior aconteça.
Com esse objetivo em mente, a solução mais comum costuma ser o incremento de tecnologia nos projetos de segurança — quase sempre passando pelo monitoramento remoto. Porém, na prática, as centrais de monitoramento frequentemente recebem alertas que exigem atenção imediata do operador, mas que acabam sendo acionamentos indevidos.
Ainda que o sistema funcione corretamente e o alarme tenha sido tecnicamente disparado de forma adequada, o resultado final é o mesmo: um falso alarme.
Na tentativa de melhorar a qualidade desses alertas, muitas vezes avançamos para soluções mais sofisticadas. Depois de longas discussões sobre custo de projeto, conseguimos incluir analíticos avançados no monitoramento: áreas de interesse com tempo de permanência, detecção de sentido de veículos, identificação de objetos abandonados, cercas virtuais inteligentes e interpretação de objetos e pessoas.
A lógica parece impecável. Pensamos em todas as possibilidades de risco, combinamos os analíticos disponíveis e integramos diferentes fornecedores em um sistema central de gestão de alertas.
Mas será que isso realmente resolve o problema?
Será que conseguimos, de fato, prever todas as possibilidades de risco em um projeto de segurança?
Será que a rotina daquela unidade permanecerá a mesma até a próxima atualização do sistema, muitas vezes anos depois?
E será que o contexto de segurança permanecerá imutável por tanto tempo?
É importante reconhecer que esse cenário — repleto de tecnologia embarcada e altamente parametrizado — ainda representa uma abordagem limitada. Nesse modelo, instruímos a máquina em detalhes minuciosos, configurando regras, parâmetros e exceções. Em troca, recebemos respostas igualmente parametrizadas, restritas às perguntas que fomos capazes de fazer.
Em outras palavras: isso é Inteligência Artificial.
Mas será que, apesar disso, é realmente inteligente?
Quando falamos em predição de eventos, estamos buscando algo muito mais complexo. Queremos análises subjetivas, dinâmicas e em tempo real, capazes de correlacionar cenários, comportamentos e contextos diversos para identificar quando um crime ou incidente está prestes a acontecer.
Durante muito tempo, essa ideia parecia ficção científica — algo próximo ao universo retratado no filme Minority Report, ambientado em 2054. No entanto, paradoxalmente, já começamos a acessar essa capacidade cognitiva de máquina décadas antes do previsto.
Com os avanços em redes neurais, machine learning, deep learning e reinforcement learning, aliados à capacidade de processamento em larga escala e baixo custo, tornou-se possível algo muito diferente da simples parametrização de regras.
Imagine, por exemplo, um grupo de quatro pessoas circulando do outro lado da rua, próximo ao perímetro de uma instalação. Elas transitam entre diferentes câmeras por mais tempo do que o padrão esperado para aquela área. Aproximam-se do portão de entrada, observam o ambiente e demonstram comportamentos e gestos fora do padrão habitual.
Nenhuma dessas ações, isoladamente, necessariamente configuraria uma ameaça.
Mas, quando analisadas de forma conjunta — e comparadas com milhares de horas de comportamento previamente observado — podem indicar algo muito mais relevante: um possível planejamento de invasão.
Nesse tipo de abordagem, a máquina não apenas executa regras programadas. Ela aprende.
Durante a fase de implantação do projeto, milhares de horas de imagens são analisadas automaticamente. A partir daí, o sistema apresenta possíveis alertas ao operador humano, que valida ou descarta os eventos e atribui níveis de criticidade. Esse processo alimenta continuamente o aprendizado do sistema.
O resultado é um modelo capaz de compreender o que é rotina e, principalmente, identificar o que foge dela.
Assim, qualquer comportamento anômalo — mesmo que nunca tenha sido previsto pelo ser humano — passa a ser detectado. Quando correlacionado com outras câmeras e fontes de dados, o sistema pode acionar intervenções humanas de forma muito mais preditiva e eficiente.
Há ainda um detalhe fundamental: o contexto não é estático. Mudanças no ambiente, na operação ou nos padrões de comportamento passam a ser continuamente assimiladas pela máquina. O aprendizado torna-se dinâmico.
Talvez estejamos, portanto, extraindo menos da tecnologia disponível do que poderíamos. Em grande parte, isso acontece porque ainda pensamos segurança dentro de um modelo mental baseado em comando e controle, no qual tudo precisa estar previamente estruturado e parametrizado.
Mas o mundo real não funciona assim.
Vivemos em um ambiente cada vez mais caórdico — onde ordem e caos coexistem — sujeito a mudanças rápidas de comportamento, contexto e risco. O caos tornou-se parte da rotina.
Curiosamente, a mesma tecnologia que contribui para acelerar esse cenário também oferece a resposta.
Em vez de tentar antecipar todos os cenários possíveis e limitar a tecnologia a regras previamente definidas, talvez devêssemos permitir que ela participe ativamente da análise do risco. Ao identificar padrões e comportamentos que nós mesmos não conseguimos perceber, de forma autônoma, a tecnologia deixa de ser apenas um sistema de resposta programada.
E, finalmente, passa a ser aquilo que sempre prometeu ser:
uma Inteligência Artificial verdadeiramente inteligente.

