É preciso pensar mais no futuro: Ética em Inteligência Artificial

Publicado em: Sem tempo para ler? Aperte o play abaixo e ouça o artigo!

Ética em Inteligência Artificial é um dos assuntos mais discutidos em tecnologia nos dias atuais. Há alguns anos atrás, Stephen Hawking desenvolveu um sistema computadorizado, baseado em algoritmos de aprendizado de máquina, para se comunicar com uma voz sintética. Ele já manifestava sua preocupação com o uso da inteligência artificial (IA).

O uso dessa tecnologia se expandiu e lidamos com ela diariamente. Nos smartphones, nos softwares jurídicos, em casa e em qualquer lugar. Mas qual o limite de desenvolvimento de uma tecnologia que pode, de fato, ocupar nossos lugares não só no mercado de trabalho, mas nas relações pessoais? É isso que a Ética em Inteligência Artificial discute.

O uso da inteligência artificial atualmente

Como a inteligência artificial se aplica atualmente? Drones militares, aplicações de vigilância governamental, jurimetria, carros autônomos e muito mais. E por que nós devemos conhecer o funcionamento dessa tecnologia? Porque é preciso apontar seus impactos e rumos, definir leis e direitos, pensar na Ética em Inteligência Artificial.

A IA está crescendo. Ela é baseada em acúmulo de aprendizado de acordo com comportamentos já existentes (machine learning). Apesar de seguir comandos, quem educa tecnologia? O autor ou usuário pode influenciar no comportamento da tecnologia. E basta que ele coloque sua visão de mundo nela para que a IA reproduza sua ação da mesma forma.

Na prática, isso significa que ela pode ampliar discriminação e preconceitos, porque são características tipicamente presentes nos dados utilizados para treinar os algoritmos. Em suma, ela reflete comportamentos, ainda que inconscientes, dos programadores. Daí a necessidade de se pensar em ética em inteligência artificial.

Ética em Inteligência Artificial

Ética é um conjunto de preceitos e regras de ordem moral e valorativa. É, também, a investigação dos princípios que motivam o comportamento humano. Quando aplicamos o conceito à inteligência artificial, devemos ter em mente os mentores dessa tecnologia. Que cultura cria os algoritmos? O que fornecemos a eles para que formem seu aprendizado? É fundamental pensar nesses comportamentos.

A General Data Protection Regulation (GDPR), lei de proteção a dados e privacidade da União Europeia, prevê exigências para que uma pessoa possa rever e explicar o processo de tomada de decisões automática por algoritmos. Seria uma segunda análise feita por um humano.

Vê-se o grande desafio ético e moral da inteligência artificial. Se por um lado aprendemos a nos comunicar com uma máquina (como Alexa, Cortana e Siri, as IA das grandes empresas de tecnologia), por outro somos seus formadores.

Desafios éticos e morais da IA

Um amigo robô ou uma máquina que substitui o advogado. Se a inteligência artificial já chegou neste ponto, trataremos ela como máquina ou como um de nós? Chegaremos, em alguns anos, ao ponto em que precisaremos de um conjunto de leis para regular robôs humanoides.

Existem alguns desafios éticos e morais que a IA enfrenta, especialmente em 4 pontos:

  • Limites: a inteligência das máquinas se equiparará a dos humanos até 2050. Se ela evolui por meio de aprendizagem, quem definirá os limites? Como ensinar ética e moral de forma imparcial, sem preconceitos e discriminações?
  • Responsabilidade: um carro auto-dirigível deve sempre se desviar e matar o passageiro, mesmo que para salvar um transeunte? Quem responde pelo fato, o usuário ou a empresa de tecnologia?
  • Desemprego: 45% dos postos de trabalho serão automatizados em 20 anos. As máquinas estão migrando do trabalho físico para o cognitivo estratégico.
  • Desigualdade econômica: as máquinas criam riquezas, mas como elas serão distribuídas?

Diante desses dilemas, que já eram previstos há alguns anos, Isaac Asimov desenvolveu as “Três Leis da Robótica”. Sua ideia era tornar possível a coexistência de humanos e robôs inteligentes:

  • 1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • 2ª Lei: um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
  • 3ª Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Acima de todas elas, está a “Lei Zero”, criada posteriormente para definir que um robô não pode causar mal à humanidade ou permitir, por omissão, que ela sofra algum mal. É mais um desdobramento da Ética em Inteligência Artificial.

Declaração de Montreal

A Declaração de Montreal é um conjunto de diretrizes que abordam a Ética em Inteligência Artificial. Ela foi feita com a contribuição de pesquisadores de ciências sociais e humanidades, além de pesquisadores da área e público geral, para definir o uso ético da tecnologia centrada em humanos.

O documento é parte de um processo da União Europeia para construir soluções confiáveis de IA. Isso pode se materializar em legislações, normas administrativas, projetos de pesquisa, ou orientações gerais para os fabricantes. Veja algumas diretrizes:

  • Sistemas robustos e seguros que evitam erros ou sejam capazes que corrigir eventuais inconsistências, de modo a diminuir os impactos na sociedade, como queda de bolsas de valores que utilizam a tecnologia ou a discriminação de pessoas no acesso a um serviço;
  • Transparência dos sistemas (rastreabilidade e explicabilidade), para evitar os riscos que a opacidade dessas tecnologias pode trazer diante de seu caráter inteligente que dificulta o entendimento sobre sua atuação;
  • Sistemas que consideram a diversidade de segmentos e representações humanas (classe, raça, etnia, orientação sexual, gênero e outros) para evitar atuações discriminatórias;
  • Relevância da participação e do controle dos seres humanos, evitando abordagens que prejudiquem o papel e os direitos das pessoas;
  • Privacidade e controle dos cidadãos sobre seus dados, que não podem ser utilizadas para prejudicá-los.

Preconceito algorítimico

Os sistemas de inteligência artificial podem ser afetados por informações enviesadas que alimentam seu funcionamento. Essa é uma questão sensível da Ética em Inteligência Artificial. Se por um lado a eliminação do fator humano traz clareza e objetividade a processos sensíveis conduzidos por máquinas, por outro a máquina reproduz antigos preconceitos derivados de seus programados.

Isso porque o sistema pode ser construído em cima de um banco de dados que reflete uma sociedade injusta. Naturalmente, a IA toma decisões discriminatórias. Basta alguma parcialidade em relação a determinado aspecto para que os preconceitos sejam naturalmente aprendidos.

É o caso do programa COMPAS utilizado pela justiça dos EUA para prever a reincidência criminal. Apesar de não utilizar o critério “raça” para avaliar a chance de reincidência criminal, ele é mais rigoroso com negros do que com brancos. É uma distorção que ocorre, porque o sistema identifica mais comumente um negro como de alto risco, dado o contexto social dos EUA.

FAT

Para tentar contornar essa questão da Ética em Inteligência Artificial quanto ao preconceito algorítmico, inventaram o FAT – Fairness, Accountability e Transparency. Os algoritmos precisam ser justos, transparentes e com resposta explicáveis.

Um bom exemplo é o projeto na Unicamp busca prever cegueira causada por diabetes com base em imagens de retina. Os primeiros algoritmos tomavam decisões sem se explicar, mas passou buscar clareza, identificando na própria imagem as regiões consideradas para chegar ao resultado. Quanto à característica de justo, é preciso adotar como elementos de treinamento dados balanceados, que reproduzem características da doença na população em geral, considerando sua diversidade.

Uma boa medida para prezar pela Ética em Inteligência Artificial e FAT é diversificar o perfil dos profissionais que trabalham no desenvolvimento desses algoritmos. No Direito, é importante que advogados programadores façam parte dessas equipes.

Para definirmos um futuro, é necessário pensar na Ética em Inteligência Artificial, para que cada solução seja criada em conjunto por profissionais de diferentes abordagens. E o advogado é fundamental, porque trabalha diretamente com a ética.

Please follow and like us: