Saltar para: Post [1], Comentários [2], Pesquisa e Arquivos [3]
Bem-vindo/a ao DIÁRIO DIGITAL DOS OFICIAIS DE JUSTIÇA DE PORTUGAL publicação periódica independente com 13 ANOS de publicações DIÁRIAS especialmente dirigidas aos Oficiais de Justiça
Parece ficção científica, mas já está a acontecer. Em vários países, a decisão sobre quem é culpado ou inocente deixou de ser totalmente humana. Alguns tribunais já usam inteligência artificial (IA) para analisar provas, prever reincidência e até sugerir sentenças.
O problema? Nem sempre os juízes percebem como o sistema chegou àquela conclusão. E em alguns casos… não há sequer juízes envolvidos. Mas como atua a inteligência artificial no tribunal?
Nos Estados Unidos, há um “software” chamado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) que analisa dezenas de fatores, histórico criminal, morada, emprego, nível de instrução, idade, e calcula o risco de uma pessoa voltar a cometer crimes.
O resultado aparece em segundos: uma pontuação de “risco” e com base nisso, o tribunal decide se o arguido espera julgamento em liberdade ou atrás das grades.
O problema é que ninguém fora da empresa que criou o sistema sabe exatamente como ele pensa. E vários estudos revelaram algo assustador: a IA tende a considerar mais “perigosos” arguidos de minorias étnicas, mesmo em crimes idênticos.
Em 2016, o caso de Eric Loomis vs. Wisconsin chegou ao Supremo Tribunal dos EUA: Loomis foi condenado com base num relatório gerado por IA e nem ele nem os advogados puderam questionar o algoritmo. A máquina decidiu.
Quando o computador “julga” melhor que o humano. Os defensores destes sistemas dizem que os algoritmos são mais rápidos, objetivos e imparciais. Afinal, uma IA não se deixa influenciar por emoções, aparência ou cansaço.
Mas há uma armadilha: a IA aprende com dados humanos. E se os dados contêm preconceitos o resultado também vai refletir esses preconceitos.
Há países que foram ainda mais longe:
China: tribunais já testam sistemas que avaliam provas, transcrevem depoimentos e sugerem penas automáticas.
Estónia: criou um projeto de “juiz digital” para resolver litígios civis até 7000 euros, totalmente sem intervenção humana.
Reino Unido e Canadá: usam IA para prever probabilidade de reincidência e detetar mentiras em interrogatórios.
E a tendência está a expandir-se.
Justiça sem alma? Um tribunal pode usar IA para analisar provas. Mas quando o veredito final é influenciado, ou determinado, por um algoritmo, entra-se num território perigoso.
A justiça baseia-se na empatia, na interpretação do contexto e na capacidade de ponderar fatores humanos. Uma IA não sente remorso, não percebe ironia, não distingue sarcasmo de confissão.
E quando os tribunais confiam cegamente na tecnologia, o erro deixa de ser humano. Assim passa a ser sistémico.
Portugal também está a caminho?
Portugal ainda não tem “juízes digitais”, mas o Conselho Superior da Magistratura já discute a integração de ferramentas de IA para acelerar processos. Em 2025, o Ministério da Justiça lançou um programa-piloto para análise automática de jurisprudência e documentos judiciais, com base em modelos de linguagem (como o GPT).
A promessa é eficiência. Mas a fronteira entre “auxiliar” e “decidir” pode ser muito ténue.
O perigo invisível: o viés algorítmico: Um estudo da Universidade de Cambridge alertou para o risco de “automatização da injustiça”: sistemas que aprendem a punir de forma desigual com base em padrões sociais, económicos e raciais.
Ou seja, se o passado foi injusto a IA vai perpetuar essa injustiça. E o pior: sem sabermos como corrigi-la.
Entretanto, muitos destes sistemas são “caixas negras”. Assim, nem os programadores conseguem explicar por que razão o algoritmo tomou determinada decisão.
E o futuro?
Imaginemos um tribunal em 2035: Um arguido entra numa sala com câmaras, sensores e reconhecimento facial. A IA analisa o tom de voz, o histórico de redes sociais, os registos financeiros. Em minutos, recomenda uma sentença. Rápido. Preciso. E frio. Sem juiz. Nem júri. Sem alma.

Fonte: “Leak”.
.................................................. INICIATIVAS COMPLEMENTARES:
Esse sujeitinho teve afinal aquilo que merecia emb...
Como oj sou sindicalizado fora sfj e soj.Apenas...
Nunca mas nunca votarei no c.o.j. são uns paus man...
Por estas e outrasPassei e serei e votarei CHEGAMU...
Certeiro. Mas é preciso gastar o dinheiro do prr....
Até morrerNunca desistirei do roubo.
Para ti e outros que tais mtrto CHEGA na mesa de ...
como se o chega resolvesse o problemaalguns gostar...
Muito bem.
Ainda gostava de saber para que é necessário um Ba...
Ojs há muitos e bem de vida
30 anos desta merda
Há mais.Contra o roubo sempre!
Isso é muito pouco inteligente.O que devemos fazer...
Se ninguém fosse votar ou votassem em branco nas e...
6 oficiais de justiça na grande manifestação de ho...
Chega mesmo!Trafulhas por trafulhas.Chega!
Enquanto houver "portas giratórias" para os nossos...
Depende sempre da perspectiva, obviamente. Para já...
Continuarei de baixa até que me reponham um escal...
30 anos de mentiras. Por isso passei a votar CHEGA...
A ser verdade está informação, e a confirmar-me qu...
Só coveiros. Quem puder fuja.
A baixa médica só acaba quando integrado no COJ...
As direções do SFJ não podem ser pela sucessão da ...