A incorporação da Inteligência Artificial (IA) na atividade policial constitui, simultaneamente, uma oportunidade estrutural e um teste exigente à maturidade do Estado de direito democrático, não se tratando apenas de saber se as Forças de Segurança (FS) devem utilizar tecnologias avançadas, mas de compreender como, em que condições e com que limites essas tecnologias podem ser integradas na ação pública sem corroer os fundamentos jurídicos e éticos que legitimam o exercício do poder coercivo do Estado.
Coronel da GNR, Mestre em Direito e Segurança e Auditor de Segurança Interna
Dirigente da Associação Nacional de Oficiais da Guarda
A IA oferece às FS instrumentos com um potencial significativo, nomeadamente análise massiva de dados, identificação de padrões criminais, apoio à investigação complexa, triagem de informação operacional e otimização da afetação de recursos, pelo que num contexto marcado pela crescente sofisticação do crime organizado, pelo uso intensivo de meios digitais por atores criminosos e pela pressão permanente sobre os recursos humanos, ignorar estas ferramentas seria não apenas ingénuo, mas irresponsável do ponto de vista da segurança interna.
Contudo, a atividade policial não é um domínio neutro de experimentação tecnológica, sendo um espaço de fricção permanente entre eficácia e garantias, entre prevenção e liberdade, entre necessidade operacional e proporcionalidade jurídica, e por essa razão, o uso da IA neste contexto exige um escrutínio particularmente rigoroso, sob pena de se transformar numa fonte silenciosa de arbitrariedade, discriminação ou erosão da confiança pública.
Um dos riscos centrais reside na tentação de tratar a IA como um substituto da decisão humana, quando, na realidade, ela deve ser entendida como um instrumento de apoio, nunca como um decisor autónomo, onde sistemas algorítmicos operam com base em dados históricos, pressupostos estatísticos e modelos probabilísticos que refletem e, por vezes, amplificam enviesamentos existentes, podendo a utilização acrítica desses sistemas conduzir a práticas de policiamento excessivamente intrusivas, seletivas ou desiguais, sobretudo quando aplicadas a populações vulneráveis.
É neste ponto que o enquadramento jurídico assume um papel determinante, onde o uso de IA pelas FS deve estar ancorado em bases legais claras, previsíveis e acessíveis, sujeitas a controlo democrático e judicial efetivo, onde a proteção dos direitos fundamentais, em particular o direito à privacidade, à proteção de dados pessoais, à não discriminação e a um processo equitativo, não constitui um obstáculo à eficácia policial, mas a sua condição de legitimidade.
A recente adoção do Regulamento Europeu da Inteligência Artificial (AI Act) reflete esta preocupação ao introduzir uma abordagem baseada no risco, classificando determinadas aplicações como de “alto risco”, especialmente quando utilizadas em contextos sensíveis como a aplicação da lei, no entanto, a eficácia deste quadro dependerá menos da letra do regulamento e mais da forma como ele for interpretado e implementado.
Uma interpretação excessivamente ampla do conceito de risco pode ter efeitos paradoxais, ao impor encargos administrativos e procedimentais desproporcionados, podendo paralisar capacidades operacionais legítimas, atrasar investigações e desviar recursos escassos de áreas verdadeiramente críticas, pelo que o risco não está apenas no uso indevido da tecnologia, mas também na sobre-regulação mal calibrada, que fragiliza o Estado na sua função primordial de garantir a segurança dos cidadãos.
Por isso, é essencial adotar uma abordagem funcional e contextualizada, centrada nos casos concretos de uso da IA, onde nem todas as aplicações policiais têm o mesmo impacto sobre os direitos fundamentais, não podendo os sistemas de apoio analítico interno, sem efeitos jurídicos diretos, ser tratados da mesma forma que tecnologias de identificação biométrica em tempo real ou de previsão comportamental, devendo a proporcionalidade ser o eixo estruturante da regulação.
Outro elemento crítico é a governança, exigindo a introdução de IA na atividade policial mecanismos robustos de supervisão, auditoria e responsabilização, incluindo formação adequada dos profissionais, transparência quanto às capacidades e limites dos sistemas utilizados e canais eficazes de controlo externo por autoridades independentes, porque a confiança pública não se decreta, constrói-se através de práticas responsáveis e de uma cultura institucional consciente dos riscos do poder tecnológico.
Importa também reconhecer que a segurança interna é um bem público europeu, onde a fragmentação de interpretações e práticas entre Estados-Membros compromete a cooperação policial e a eficácia da resposta a ameaças transnacionais, daí a importância de orientações comuns que sejam juridicamente sólidas, mas também operacionalmente exequíveis, elaboradas em diálogo estreito com quem conhece a realidade do terreno.
Em última análise, a questão da IA na atividade policial não é tecnológica, mas profundamente política e jurídica, tratando-se de decidir que tipo de segurança queremos, que grau de risco estamos dispostos a aceitar e como preservamos o núcleo essencial das liberdades num tempo de aceleração digital, podendo a IA reforçar a capacidade do Estado para proteger os cidadãos, mas apenas se for usada com inteligência normativa, prudência institucional e fidelidade aos valores fundamentais que definem uma sociedade democrática.
Nota: O texto constitui a opinião exclusiva e única do seu autor, que só a este vincula e não refletem a opinião ou posição da instituição onde presta serviço.



