Acessibilidade


  • Zoom

  • Contraste

Estratégia • 5 de maio de 2023

Ética em Inteligência Artificial: É preciso pensar mais no futuro

Ética em Inteligência Artificial, como o direito lida com as tecnologias que mais se desenvolvem atualmente?

Navegue por tópicos

Os estudos sobre Inteligência artificial iniciaram-se com o intuito de explorar a criação de sistemas que pudessem realizar tarefas que requerem inteligência humana, como o processamento de linguagem natural, o reconhecimento de padrões e a tomada de decisões. 

Com o passar dos anos, a ciência ao redor dos sistemas inteligentes adquiriu maior campo de atuação. Marcada pelo grande volume de dados, abordagem de redes neurais artificiais e desenvolvimento de algoritmos de aprendizado profundo.   

No entanto, a rápida evolução da IA tem gerado discussões sobre seus possíveis impactos na sociedade e a necessidade de garantir sua utilização ética e responsável. É isso que iremos debater neste artigo. Vamos lá! 

 

O uso da inteligência artificial 

Atualmente, é comum perceber a presença da inteligência artificial em diversas áreas do mercado, desde na indústria até o setor da advocacia, com softwares jurídicos. E por que nós devemos reconhecer o funcionamento dessa tecnologia? Compreender o efeito da IA é fundamental para apontar seus impactos e rumos, definir leis e direitos, pensar na Ética em Inteligência Artificial. 

A IA está evoluindo baseada em acúmulo de aprendizado de acordo com comportamentos já existentes (machine learning). Apesar de seguir comandos, a inteligência artificial pode ser influenciada pelo comportamento do usuário em determinada tecnologia. E basta que os volumes de dados captados transmitam sua visão de mundo a ela para que a IA reproduza sua ação da mesma forma. 

Na prática, isso significa que a IA não é imparcial, porque são características tipicamente presentes nos dados utilizados para treinar os algoritmos. Em suma, ela reflete comportamentos, ainda que inconscientes, dos programadores. Daí a necessidade de se pensar em ética em inteligência artificial. 

 

Ética em Inteligência Artificial 

Ética é um conjunto de preceitos e regras de ordem moral e valorativa. É, também, a investigação dos princípios que motivam o comportamento humano. Quando aplicamos o conceito à inteligência artificial, devemos ter em mente os mentores dessa tecnologia. Que cultura cria os algoritmos? O que fornecemos a eles para que formem seu aprendizado? É fundamental pensar nesses comportamentos. 

A General Data Protection Regulation (GDPR), lei de proteção a dados e privacidade da União Europeia, prevê exigências para que uma pessoa possa rever e explicar o processo de tomada de decisões automática por algoritmos. Seria uma segunda análise feita por um humano. 

Se, por um lado, aprendemos a nos comunicar com uma máquina (como Alexa, Cortana e Siri, as IA das grandes empresas de tecnologia), por outro somos seus formadores. Vê-se, então, o grande desafio ético e moral da inteligência artificial. 

 

Desafios éticos e morais da IA 

Um amigo robô ou uma máquina que substitui o advogado. Se a inteligência artificial já chegou neste ponto, trataremos ela como máquina ou como um de nós? Chegaremos, em alguns anos, ao ponto em que precisaremos de um conjunto de leis para regular robôs humanoides. 

Por esse motivo, é importante reforçar quais os principais desafios éticos e morais que a IA enfrenta: 

Viés 

A IA pode reproduzir e amplificar preconceitos e desigualdades já existentes na sociedade, especialmente quando é treinada com dados tendenciosos. Isso pode levar a discriminação em sistemas de recrutamento, crédito, saúde e justiça. 

Privacidade 

A coleta e análise de grande quantidade de dados pessoais pode ser invasivo e violar a privacidade das pessoas. Por esse motivo, é preciso garantir que as informações sejam tratadas de forma ética e segura. 

Responsabilidade 

Em casos em que a IA toma decisões que afetam a vida das pessoas, como em sistemas de direção autônoma, é preciso definir quem é responsável em caso de falhas ou acidentes. 

Transparência 

A IA pode ser complexa e difícil de entender, o que pode dificultar a identificação de erros ou vieses. É importante garantir que os sistemas sejam transparentes e que as decisões tomadas pela IA possam ser explicadas de forma clara. 

 Emprego 

A substituições de trabalhadores, gerando desemprego e desigualdade em diversas áreas, é o tema de maior preocupação na sociedade. É preciso pensar em formas de mitigar esses impactos e garantir a transição para uma economia mais automatizada. 

Autonomia 

À medida que a IA se torna mais avançada, é possível que ela desenvolva uma autonomia maior e comece a tomar decisões sem a intervenção humana. Isso levanta questões sobre quem controla a IA e qual é o papel da humanidade em um mundo cada vez mais automatizado. 

 

Diante desses dilemas, que já eram previstos há alguns anos, Isaac Asimov desenvolveu as “Três Leis da Robótica”. Sua ideia era tornar possível a coexistência de humanos e robôs inteligentes: 

  • 1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. 
  • 2ª Lei: um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei. 
  • 3ª Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis. 

Acima de todas elas, está a “Lei Zero”, criada posteriormente para definir que um robô não pode causar mal à humanidade ou permitir, por omissão, que ela sofra algum mal. É mais um desdobramento da Ética em Inteligência Artificial. 

 

Declaração de Montreal 

A Declaração de Montreal é um conjunto de diretrizes que abordam a Ética em Inteligência Artificial. Ela foi feita com a contribuição de pesquisadores de ciências sociais e humanidades, além de pesquisadores da área e público geral, para definir o uso ético da tecnologia centrada em humanos. 

O documento é parte de um processo da União Europeia para construir soluções confiáveis de IA. Isso pode se materializar em legislações, normas administrativas, projetos de pesquisa, ou orientações gerais para os fabricantes. Veja algumas diretrizes: 

  • Sistemas robustos e seguros que evitam erros ou sejam capazes que corrigir eventuais inconsistências, de modo a diminuir os impactos na sociedade, como queda de bolsas de valores que utilizam a tecnologia ou a discriminação de pessoas no acesso a um serviço; 
  • Transparência dos sistemas (rastreabilidade e explicabilidade), para evitar os riscos que a opacidade dessas tecnologias pode trazer diante de seu caráter inteligente que dificulta o entendimento sobre sua atuação; 
  • Sistemas que consideram a diversidade de segmentos e representações humanas (classe, raça, etnia, orientação sexual, gênero e outros) para evitar atuações discriminatórias; 
  • Relevância da participação e do controle dos seres humanos, evitando abordagens que prejudiquem o papel e os direitos das pessoas; 
  • Privacidade e controle dos cidadãos sobre seus dados, que não podem ser utilizadas para prejudicá-los. 

 

Preconceito algorítmico 

Os sistemas de inteligência artificial podem ser afetados por informações enviesadas que alimentam seu funcionamento. Essa é uma questão sensível da Ética em Inteligência Artificial. Se por um lado a eliminação do fator humano traz clareza e objetividade a processos sensíveis conduzidos por máquinas, por outro a máquina reproduz antigos preconceitos derivados de seus programados. 

Isso porque o sistema pode ser construído em cima de um banco de dados que reflete uma sociedade injusta. Naturalmente, a IA toma decisões discriminatórias. Basta alguma parcialidade em relação a determinado aspecto para que os preconceitos sejam naturalmente aprendidos. 

É o caso do programa COMPAS utilizado pela justiça dos EUA para prever a reincidência criminal. Apesar de não utilizar o critério “raça” para avaliar a chance de reincidência criminal, ele é mais rigoroso com negros do que com brancos. É uma distorção que ocorre, porque o sistema identifica mais comumente um negro como de alto risco, dado o contexto social dos EUA. 

 

Fairness, Accountability e Transparency (FAT)

Para tentar contornar essa questão da Ética em Inteligência Artificial quanto ao preconceito algorítmico, inventaram o FAT – Fairness, Accountability e Transparency. Os algoritmos precisam ser justos, transparentes e com resposta explicáveis. 

Um bom exemplo é o projeto na Unicamp busca prever cegueira causada por diabetes com base em imagens de retina. Os primeiros algoritmos tomavam decisões sem se explicar, mas passou buscar clareza, identificando na própria imagem as regiões consideradas para chegar ao resultado. Quanto à característica de justo, é preciso adotar como elementos de treinamento dados balanceados, que reproduzem características da doença na população em geral, considerando sua diversidade. 

Uma boa medida para prezar pela Ética em Inteligência Artificial e FAT é diversificar o perfil dos profissionais que trabalham no desenvolvimento desses algoritmos. No Direito, é importante que advogados que estejam antenados das tecnologias façam parte dessas equipes. 

Para definirmos um futuro, é necessário pensar na Ética em Inteligência Artificial, para que cada solução seja criada em conjunto por profissionais de diferentes abordagens. 

 

O papel do advogado na garantia da ética em inteligência artificial

O papel do advogado na questão da ética em inteligência artificial é fundamental, já que atua diretamente na formação de leis que podem ajudar a garantir que a utilização da tecnologia respeite as normas éticas e legais aplicáveis.

Em primeiro lugar, o advogado pode auxiliar na criação de políticas e regulamentos que orientem a utilização da inteligência artificial de forma ética. Ele pode ajudar a definir os princípios éticos que devem ser seguidos, bem como as consequências para os casos em que esses princípios são violados.

Além disso, o advogado pode avaliar se a utilização da inteligência artificial está em conformidade com as leis e normas aplicáveis, como as leis de proteção de dados, privacidade e direitos do consumidor. Ele também pode ajudar a prevenir a discriminação e o preconceito na utilização da inteligência artificial, por meio de análises de impacto regulatório e do monitoramento contínuo do seu uso.

Dessa forma, o papel do advogado na questão da ética em inteligência artificial é garantir que essa tecnologia seja utilizada de forma responsável, respeitando os valores éticos e os direitos dos indivíduos.

Confira também

Anterior

Estratégia

Nomadismo digital na advocacia e home office

Há poucas décadas, o nomadismo digital na advocacia sequer era uma possibilidade. Na verdade, esse estilo de vida só se […]

Próximo

Ética em Inteligência Artificial, como o direito lida com as tecnologias que mais se desenvolvem atualmente?

Inovação

Jogo de tabuleiro e conceitos de Cidadania e Justiça

O jogo está em fase de testes, mas promete levar de maneira lúdica e didática conceitos importantes e complexos de Direito e Justiça aos estudantes secundaristas das escolas de Curitiba.