
Por William Rocha – Sócio do escritório Terra Rocha Advogados, Diretor de Inclusão Digital e Inovação da OAB-RJ – Colunista convidado.
A recente discussão ocorrida no Tribunal Superior do Trabalho (TST) sobre a existência de juízes “vermelhos” e “azuis” ultrapassa o mero embate institucional.
O episódio revela um debate muito mais sensível em tempos de inteligência artificial aplicada ao Judiciário: o risco da previsibilidade decisória alimentar vieses algorítmicos.
Ao comentar a repercussão do caso, o presidente do TST afirmou que sua fala foi retirada de contexto e que não existem magistrados definidos por rótulos ideológicos.
Ao comentar a repercussão do caso, o presidente do TST afirmou que sua fala foi retirada de contexto e que não existem magistrados definidos por rótulos ideológicos.
Ainda assim, a discussão trouxe à tona uma percepção antiga da advocacia prática: determinados perfis decisórios acabam sendo associados a correntes mais liberais, intervencionistas, legalistas ou ativistas.
Historicamente, essa leitura sempre existiu no meio jurídico. O problema ganha nova dimensão quando o Poder Judiciário passa a utilizar ferramentas de jurimetria e inteligência artificial treinadas justamente a partir de decisões judiciais pretéritas.
Algoritmos aprendem padrões.
E decisões judiciais são dados.
Se um sistema de IA é alimentado por históricos marcados por tendências reiteradas, interpretações homogêneas ou padrões ideológicos percebidos socialmente, existe o risco de reprodução automatizada desses mesmos comportamentos.
A preocupação não é hipotética.
A Resolução CNJ nº 332/2020 estabeleceu diretrizes éticas para o uso de inteligência artificial no Poder Judiciário, exigindo supervisão humana, transparência, rastreabilidade e prevenção de discriminações algorítmicas.
O CNJ compreendeu, corretamente, que a tecnologia não é neutra quando treinada sobre bases humanas potencialmente enviesadas.
A inteligência artificial não cria convicções próprias. Ela replica padrões extraídos do comportamento humano.
Por isso, o debate sobre imparcialidade judicial deixa de ser apenas uma questão institucional ou filosófica. Passa a ser também uma preocupação de governança tecnológica.
O maior risco não está na existência de diferentes correntes hermenêuticas, algo natural ao pluralismo jurídico. O problema surge quando a previsibilidade do julgador se transforma em dado estatístico capaz de alimentar modelos automatizados de tomada de decisão.
A jurisdição não pode ser reduzida a um padrão matemático replicável.A principal lição extraída do episódio do TST é clara: quanto maior a digitalização do Judiciário, maior deve ser o cuidado com vieses humanos que possam ser absorvidos por sistemas de inteligência artificial.
Caso contrário, o futuro poderá substituir o livre convencimento motivado por uma perigosa automatização da própria interpretação judicial.
Historicamente, essa leitura sempre existiu no meio jurídico. O problema ganha nova dimensão quando o Poder Judiciário passa a utilizar ferramentas de jurimetria e inteligência artificial treinadas justamente a partir de decisões judiciais pretéritas.
Algoritmos aprendem padrões.
E decisões judiciais são dados.
Se um sistema de IA é alimentado por históricos marcados por tendências reiteradas, interpretações homogêneas ou padrões ideológicos percebidos socialmente, existe o risco de reprodução automatizada desses mesmos comportamentos.
A preocupação não é hipotética.
A Resolução CNJ nº 332/2020 estabeleceu diretrizes éticas para o uso de inteligência artificial no Poder Judiciário, exigindo supervisão humana, transparência, rastreabilidade e prevenção de discriminações algorítmicas.
O CNJ compreendeu, corretamente, que a tecnologia não é neutra quando treinada sobre bases humanas potencialmente enviesadas.
A inteligência artificial não cria convicções próprias. Ela replica padrões extraídos do comportamento humano.
Por isso, o debate sobre imparcialidade judicial deixa de ser apenas uma questão institucional ou filosófica. Passa a ser também uma preocupação de governança tecnológica.
O maior risco não está na existência de diferentes correntes hermenêuticas, algo natural ao pluralismo jurídico. O problema surge quando a previsibilidade do julgador se transforma em dado estatístico capaz de alimentar modelos automatizados de tomada de decisão.
A jurisdição não pode ser reduzida a um padrão matemático replicável.A principal lição extraída do episódio do TST é clara: quanto maior a digitalização do Judiciário, maior deve ser o cuidado com vieses humanos que possam ser absorvidos por sistemas de inteligência artificial.
Caso contrário, o futuro poderá substituir o livre convencimento motivado por uma perigosa automatização da própria interpretação judicial.




