ARTIGO
IA generativa e discriminação algorítmica e reconhecimento: novos desafios ao processo penal
Aparente evolução tecnológica traz consigo uma tensão inevitável
Processo penal não pode ser compreendido apenas como um instrumento de gestão de conflitos ou de aplicação da lei penal | Foto: Freepik
A incorporação da Inteligência Artificial ao sistema de justiça criminal não é mais uma possibilidade futura, mas uma realidade concreta que vem redesenhando, de forma silenciosa e profunda, a estrutura do processo penal. Ferramentas capazes de analisar grandes volumes de dados, identificar padrões comportamentais e sugerir decisões vêm sendo utilizadas com o discurso de promover maior eficiência, celeridade e racionalidade ao Judiciário.
No entanto, essa aparente evolução tecnológica traz consigo uma tensão inevitável: até que ponto é possível compatibilizar o uso de sistemas algorítmicos com o núcleo rígido das garantias fundamentais que sustentam o processo penal em um Estado Democrático de Direito?
O processo penal, diferentemente de outros ramos, não pode ser compreendido apenas como um instrumento de gestão de conflitos ou de aplicação da lei penal. Ele é, antes de tudo, um mecanismo de contenção do poder punitivo estatal. Sua função não é apenas punir, mas proteger. Proteger o indivíduo contra excessos, erros e arbitrariedades. É justamente por isso que princípios como a presunção de inocência, o contraditório, a ampla defesa, a motivação das decisões judiciais e o devido processo legal não podem ser relativizados sob o argumento de eficiência.
A entrada da Inteligência Artificial nesse cenário desloca parte da dinâmica decisória para estruturas que, embora sofisticadas, operam a partir de lógica estatística e muitas vezes não jurídica. Algoritmos são treinados com base em dados pretéritos, e esses dados, inevitavelmente, carregam marcas históricas de desigualdade, seletividade penal e vieses institucionais. Isso significa que, ao invés de neutralizar distorções, a tecnologia pode amplificá-las de forma ainda mais difícil de identificar e contestar.
Quando um sistema sugere a probabilidade de reincidência de um indivíduo, por exemplo, não está apenas produzindo uma análise técnica: está influenciando decisões que podem restringir a liberdade antes mesmo da ocorrência de um novo fato. Nesse ponto, há uma colisão direta com a presunção de inocência, pois se passa a operar com juízos de probabilidade futura, e não com a responsabilização por fatos concretos e comprovados.
Além disso, a opacidade desses sistemas muitas vezes estruturados como verdadeiras “caixas-pretas” compromete de forma significativa o exercício do contraditório e da ampla defesa. Se não é possível compreender como determinado resultado foi alcançado, também não é possível impugná-lo de maneira técnica. O processo deixa de ser dialético e passa a ser, em certa medida, impositivo.
Outro aspecto sensível reside na motivação das decisões judiciais. A Constituição exige que toda decisão seja fundamentada de forma clara e racional. No entanto, quando o convencimento judicial é influenciado por sistemas algorítmicos cuja lógica interna não é plenamente acessível, corre-se o risco de esvaziar essa exigência constitucional, substituindo a fundamentação jurídica por uma espécie de deferência técnica à tecnologia.
Não se trata, contudo, de rejeitar a Inteligência Artificial. A tecnologia pode, sim, ser uma aliada importante na organização do sistema de justiça, especialmente em tarefas repetitivas, análise de grandes volumes de dados e gestão processual. O problema surge quando há uma transferência ainda que sutil da função decisória para sistemas que não são capazes de operar dentro da lógica das garantias constitucionais.
O ponto central, portanto, não é a utilização da Inteligência Artificial, mas os limites dessa utilização. É indispensável que sua aplicação seja orientada por critérios constitucionais claros, que assegurem transparência algorítmica, possibilidade de auditoria, controle humano efetivo e pleno exercício do contraditório. A decisão penal deve permanecer, de forma inegociável, como um ato humano, fundamentado, consciente e responsável.
A questão se torna ainda mais sensível quando se considera o fenômeno da discriminação algorítmica. Sistemas de Inteligência Artificial são treinados com base em dados históricos e, como consequência, tendem a reproduzir padrões sociais existentes inclusive aqueles marcados por desigualdade racial, econômica e territorial. Isso significa que determinados grupos podem ser desproporcionalmente identificados como “de maior risco”, associados a padrões de criminalidade ou submetidos a maior vigilância. Não se trata de um erro isolado, mas de uma distorção estrutural que pode ser amplificada pela escala tecnológica.
No campo do reconhecimento, especialmente o reconhecimento facial, os riscos se intensificam. Estudos internacionais já demonstraram taxas de erro significativamente maiores na identificação de pessoas negras, mulheres e jovens. Quando esses sistemas são utilizados como elemento de prova ou como base para abordagens policiais, há um potencial concreto de violação de direitos, incluindo prisões indevidas e constrangimentos ilegais.
Além disso, a própria lógica da IA generativa pode dificultar a rastreabilidade das informações produzidas. Se não há clareza sobre as fontes utilizadas, os critérios de construção das respostas e os limites do sistema, a defesa se vê diante de um obstáculo adicional: como impugnar tecnicamente algo cuja origem não é plenamente verificável?
Diante desse cenário, o enfrentamento jurídico dessas tecnologias exige uma postura ativa. Não basta reconhecer os riscos; é necessário estabelecer limites claros. A utilização de Inteligência Artificial no processo penal deve ser acompanhada de mecanismos rigorosos de validação, auditoria e controle, sob pena de transformar a tecnologia em um instrumento de legitimação de desigualdades.
O desafio contemporâneo do processo penal não é apenas lidar com novas ferramentas, mas garantir que essas ferramentas não esvaziem aquilo que lhe é mais essencial: a proteção do indivíduo frente ao poder estatal.