A Inteligência Artificial deve substituir muitos empregos humanos no futuro, mas advogados e juízes deveriam estar entre eles? Aqui, exploramos onde a IA já está sendo usada em sistemas judiciários em todo o mundo e discutimos se ela deve desempenhar um papel mais amplo. A Inteligência Artificial Pode Ser Mais Eficiente Que os Humanos no Sistema Judiciário? Acompanhe este artigo até o final.

Como a IA está sendo usada atualmente nos sistemas judiciários?

Em particular, poderia ou deveria ser desenvolvida uma IA que pudesse julgar um ser humano?

Acredite ou não, a IA e outras formas de algoritmos avançados já são amplamente utilizadas em muitos sistemas judiciários em todo o mundo. Em vários estados dos Estados Unidos, por exemplo, algoritmos preditivos estão sendo usados ​​atualmente para ajudar a reduzir a carga no sistema judicial.

“Sob imensa pressão para reduzir o número de prisões sem arriscar um aumento no crime, os tribunais nos EUA se voltaram para ferramentas automatizadas na tentativa de distribuir os réus através do sistema jurídico da maneira mais eficiente e segura possível”. – Technology Review.

Para conseguir isso, os departamentos de polícia dos EUA estão usando algoritmos preditivos para desenvolver estratégias para onde empregar suas forças com mais eficiência. Usando uma análise de estatísticas e tecnologias históricas do crime, como o reconhecimento facial, espera-se que esse nível de automação ajude a melhorar a eficácia de seus recursos humanos.

O serviço judicial dos EUA também está usando outras formas de algoritmos, chamados algoritmos de avaliação de risco, para ajudar também a lidar com casos pós-prisão.

“As ferramentas de avaliação de risco são projetadas para fazer uma coisa: analisar os detalhes do perfil de um réu e prever uma pontuação de reincidência – um número único que estima a probabilidade de reincidência.

Um juiz, então, leva em consideração uma infinidade de decisões que podem determinar que tipo de serviços de reabilitação determinados réus devem receber, se devem ser mantidos na prisão antes do julgamento e qual a gravidade de suas sentenças. Uma pontuação baixa abre caminho para um destino mais amável. Uma pontuação alta faz exatamente o oposto.” – Technology Review.

Na China, os juízes baseados em IA ​​também estão se tornando realidade. Proclamada como a “primeira do gênero no mundo”, a cidade de Pequim introduziu um centro de serviços de litígio baseado na Internet que apresenta um juiz de IA para certos tipos de casos.

A juíza, chamada Xinhua, é uma mulher artificial com corpo, expressões faciais, voz e ações baseadas em uma juíza humana viva e que respira no Serviço Judiciário de Pequim. Esse juiz virtual está sendo usado principalmente para casos repetitivos básicos, informou o Tribunal da Internet de Bejing em comunicado. ‘Ela’ lida principalmente com a recepção de litígios e orientação on-line, em vez de julgamento final. A esperança é que o uso do juiz de IA ​​e do tribunal online torne o acesso ao processo judicial mais eficaz e mais abrangente para os cidadãos de Pequim.

“Segundo o presidente do tribunal, Zhang Wen, a integração da IA ​​e da computação em nuvem com o sistema de serviços de litígio permitirá que o público colha melhor os benefícios da inovação tecnológica na China”. – Radii China.

A IA também está sendo usada na China para filtrar mensagens de mídia social, comentários e outras atividades online para ajudar a construir evidências contra possíveis réus. A polícia de trânsito na China também está começando a usar a tecnologia de reconhecimento facial para identificar e condenar infratores.

A Inteligência Artificial poderia tomar boas decisões?

A resposta a esta pergunta não é simples. Embora a IA possa tomar alguns tipos de decisões legais, isso não significa que seja necessariamente uma boa ideia.

Muitos sistemas de IA e algoritmos preditivos que usam aprendizado de máquina tendem a ser treinados usando conjuntos de dados existentes ou informações históricas existentes. Embora isso pareça uma abordagem relativamente lógica, depende muito do tipo e da qualidade dos dados fornecidos.

“Se entra lixo, sai lixo.” como diz o ditado.

Um dos principais usos do aprendizado de máquina e do Big Data é identificar correlações, ou aparentes correlações, nos conjuntos de dados. Isso pode levar a falsos positivos, no caso de dados de crimes, e não ser realmente muito útil para identificar as causas subjacentes do crime.

Como outro ditado famoso adverte, “correlação não é causalidade”.

Os seres humanos costumam ser tão culpados dessa falácia lógica quanto uma réplica artificial. Um exemplo famoso é a correlação entre baixa renda e a propensão de uma pessoa ao crime. A pobreza não é necessariamente uma causa direta de comportamento criminoso, mas pode ser uma causa indireta, criando condições que tornam o crime mais provável.

Se erros semelhantes de correlação não forem tratados corretamente, uma decisão ou julgamento de aplicação da lei por sistemas de IA ​​poderá degenerar rapidamente em um ciclo vicioso de impor penalidades muito severas ou muito brandas. Como em tudo na vida, a situação é realmente mais sutil do que parece. Os humanos também não são máquinas perfeitas para tomar decisões.

Se os estudos recentes também estiverem corretos, parece que a IA pode ser mais rápida e precisa ao detectar possíveis questões legais do que os seres humanos. Isso apóia o argumento de que a IA deve ser usada em funções de suporte jurídico ou, pelo menos, na revisão de precedentes legais.

A IA poderia ser usada para substituir juízes humanos?

Como já vimos, a IA e os algoritmos avançados já estão sendo utilizados em todo o mundo para determinadas tarefas administrativas e de coleta de dados. Eles estão, de fato, fazendo parte do “trabalho braçal” para juízes e advogados humanos.

Mas eles poderiam ser usados ​​para substituir completamente os seres humanos em um sistema judicial? Quais seriam exatamente as vantagens e desvantagens de fazer isso?

Muitos afirmam que uma IA deve ser capaz de remover qualquer viés no processo final de julgamento. Suas decisões finais devem, em teoria, basear-se puramente nos fatos em questão e nos precedentes legais existentes. Obviamente, isso já deveria ser o caso de juízes humanos. Mas qualquer ser humano é suscetível a conhecimento, preconceito e preconceito inconsciente, apesar das melhores intenções.

Entretanto, só porque algo é lei não necessariamente significa que é justo. O comportamento “bom” e “ruim” não é preto ou branco, é uma construção altamente sutil e completamente humana. Tais questões permanecem dentro do campo da filosofia, não da ciência da computação. Embora outros provavelmente discordem, e isso pode ser visto como algo “bom”.

Os juízes também têm o papel de tomar decisões sobre a punição do infrator após a condenação. Elas podem variar de pequenas (pequenas multas) a mudanças de vida, como imposição de prisão prolongada ou até pena de morte nas áreas em que é usada.

Tais decisões geralmente se baseiam em um conjunto de diretrizes de sentença que levam em consideração fatores como a gravidade de um crime, seu efeito sobre as vítimas, condenações anteriores e a probabilidade de o condenado se reincidir. Como vimos, essa é uma área em que a IA e os algoritmos preditivos já estão sendo usados para ajudar no processo de tomada de decisão.

Os juízes podem, é claro, ignorar completamente a recomendação da IA. Mas isso pode não ser possível se os humanos forem completamente removidos do processo.

Os Juízes Baseados em IA ​​seriam imparciais?

Um benefício aparente do uso da IA ​​para tomar decisões é que os algoritmos não podem realmente ter um viés. Isso deve tornar a IA quase perfeita para decisões legais, pois o processo deve ser baseado em evidências e não subjetivo – como deve ser o caso para juízes humanos.

Parece perfeito, não é? Mas “a grama nem sempre é mais verde do outro lado”.

Algoritmos e IA não são perfeitos por si só nesse sentido. Isso ocorre principalmente porque qualquer algoritmo ou IA precisa primeiro ser codificado por um ser humano. Isso pode introduzir viés não intencional. Ou intencional.

Os sistemas de IA podem até aprender e imitar preconceitos de seus colegas humanos e dos dados específicos com os quais foram treinados. Isso poderia ser mitigado?

Outra questão é quem supervisionará os juízes de IA? Suas decisões poderiam ser contestadas posteriormente? Os juízes humanos teriam precedência sobre uma decisão de uma IA ou vice-versa?

A Cúpula do Governo Mundial, realizada em 2018, fez uma conclusão interessante e pungente sobre esse assunto que merece reflexão:

“Ainda é incerto qual dessas tecnologias pode se espalhar e como diferentes governos e órgãos judiciais escolherão monitorar seu uso. O dia em que a tecnologia se tornará o juiz do bom e do mau comportamento humano e atribuirá punições apropriadas ainda existe no futuro. No entanto, os sistemas legais geralmente fornecem exemplos ideais de serviços que podem ser aprimorados, enquanto os julgamentos provavelmente se beneficiarão de uma melhor análise de dados. A lei geralmente exige que um julgamento estabeleça um precedente – portanto, esteja atento ao caso de teste da IA como juiz”.

Em conclusão, a IA poderia substituir profissionais jurídicos humanos ou ser mais eficiente na tomada de decisões legais? A resposta, ao que parece, é sim e não. Sim, no que diz respeito ao desempenho de funções de apoio ou consultoria, como reunir evidências ou estimar a probabilidade de reincidência. Não, no que diz respeito a fazer julgamentos finais e decisões de sentença.

Provavelmente, é prudente dar aos seres humanos a última palavra quando se trata de condenação. A lei e os sistemas legais podem, afinal, ser legitimamente rotulados como uma construção humana.

Os sistemas jurídicos existentes são, às vezes, maravilhosamente manipulados pelo júri e enlouquecedores e ilógicos, e foram adaptados e atualizados à medida que os sentidos e as sensibilidades evoluíram ao longo do tempo – e isso serve muito bem aos seres humanos. A maioria dos sistemas legais não está imutável em todos os tempos; eles evoluem como a sociedade.

Não é provável que uma máquina possa ser treinada para entender, simpatizar ou julgar “no espírito da lei”.

Talvez os humanos, com todas as nossas imperfeições e inconsistências lógicas, sejam os únicos possíveis árbitros da justiça um no outro. Por esse motivo, pode-se argumentar que a “justiça” nunca deve ser delegada às máquinas, pois sua “lógica fria” pode ser vista como estando em desacordo com a “condição humana”.

Deixamos, portanto, a resposta ao título deste artigo por sua conta!

E vem aí a Formação Inteligência Artificial Aplicada ao Direito, aqui na DSA,

Referências:

Can AI Be More Efficient Than People in the Judicial System?

AI is entering judicial system. Do we want it there?


Seja como for, chegou a hora de capacitar os profissionais brasileiros em Inteligência Artificial Aplicada ao Direito. Fique atento ao que vem por aí na DSA.