BT

Disseminando conhecimento e inovação em desenvolvimento de software corporativo.

Contribuir

Tópicos

Escolha a região

Início Artigos Inteligência artificial: caminho ético pelo campo minado

Inteligência artificial: caminho ético pelo campo minado

Pontos Principais

  • Existem vários dilemas éticos profundamente entrelaçados no campo da Inteligência Artificial, muitos dos quais são frequentemente ignorados, mesmo dentro da comunidade de engenharia;

  • Mesmo as melhores intenções muitas vezes não são suficientes para garantir soluções livres de resultados indesejados ou não intencionais, pois as pessoas podem codificar acidentalmente preconceitos nas engines de IA e pessoas má intencionadas podem explorar as falhas dos modelos;

  • No curto prazo, a responsabilidade e a transparência por parte das empresas de tecnologia são críticas, assim como a vigilância constante pelos consumidores;

  • A IA certamente será o maior catalisador de mudanças que a humanidade já viu, mesmo pelas projeções mais conservadoras. Ainda assim, é muito importante que as pessoas não deem mais responsabilidade do que a máquina é capaz de suportar.

O termo "Inteligência Artificial" evoca, em muitos, uma imagem de um apocalipse antropomorfizado de robô assassino, como o Exterminador do Futuro. Os filmes de Hollywood, nas últimas décadas, serviram apenas para aprofundar essa noção. Físicos e filósofos morais, como Max Tegmark e Sam Harris, no entanto, afirmam que não precisamos temer uma superinteligência descontrolada que causa efeitos destrutivos, mas devemos nos preocupar com a habilidade dada as máquinas, que é um trampolim assustador para um futuro irreversivelmente prejudicial.

Dito isto, atualmente existem vários dilemas éticos muito mais nefastos, insidiosos e relevantes que merecem atenção. Em um mundo cada vez mais controlado por processos automatizados, estamos chegando rapidamente na época em que algoritmos adaptáveis e auto-aperfeiçoados guiam ou até ditam a maioria das decisões que definem a experiência humana.

Viés algorítmico

Foi Stephen "Wilf" Hey, quem primeiro cunhou a frase "Garbage In - Garbage Out" (traduzindo ficaria algo como: "entra lixo, sai lixo"), referindo-se à falha inerente das estruturas analíticas pelas quais entradas de baixa qualidade produzem invariavelmente resultados não confiáveis.

Para esse fim, todos os cientistas de dados devem se perguntar: "o conjunto de treinamento representa de forma adequada a maior parte da população, na qual a saída deste algoritmo será aplicada?"

Existem amplas evidências mostrando as desvantagens desse tipo de análise. Joy Buolamwini do MIT publicou recentemente uma pesquisa, abordando a presença de preconceitos raciais e de gênero nos sistemas de IA fornecidos por algumas das maiores empresas de tecnologia do mundo, provavelmente, por causa dos dados estarem enviesados no conjunto de treinamento.

A diferença de precisão entre a classificação de rostos masculinos mais claros e rostos femininos mais escuros é um presságio do que está por vir, na ausência de um treinamento mais consciente do modelo. Podemos até imaginar os efeitos negativos de implantar esse modelo em um sistema de justiça criminal.

No entanto, isso não deve ser confundido com algoritmos adequadamente treinados, que não tratam necessariamente todos os grupos socioeconômicos, raciais e religiosos da mesma maneira. A doutrina legal do "impacto diferenciado" (disparate impact) especifica que qualquer política, não importa quão inocentemente construída, que afete negativamente pessoas de certas classes protegidas, será proibida. O que deve ser feito se um bot de um aplicativo de hipoteca rejeitar as solicitações de tais membros, mesmo que essas rejeições não estejam vinculadas por algoritmos ao atributo relevante da classe protegida? Se uma companhia de seguros de saúde identificasse uma enzima específica como sendo o preditor mais útil na identificação de pacientes que provavelmente precisam de uma cirurgia cara, e essa enzima é encontrada predominantemente em pessoas de uma determinada raça, seria justo que a pessoa dessa raça pague mais caro o seguro de saúde, mesmo que o valor de seguro tenham sido justificado pela presença da enzima e não pela cor de sua pele?

Também devemos levar em consideração que os desenvolvedores podem codificar, mesmo sem saber, os seus valores nas máquinas e que podem não ser compartilhadas pela população em geral. Por exemplo, considere a adaptação moderna, cada vez mais popular, do problema do bonde de Phillipa Foot de 1967.

Suponha que um veículo autônomo possa detectar um acidente iminente e as vítimas que esse acidente produzirá. Além disso, suponha que o veículo possa avaliar se ocorrerá vítimas no caso de implantar uma manobra para evitar acidentes. Como as máquinas devem decidir, por exemplo, se salvam os passageiros do veículo ou o pedestre?

O Moral Machine do MIT é uma plataforma on-line interativa que permite as pessoas testarem suas próprias predisposições éticas com variações desse dilema, iteradas por vários parâmetros de preferência diferentes (por exemplo, status alto vs. status baixo, masculino versus feminino, velho versus jovem) que ajudam a separar preconceitos subjacentes. Depois de coletar mais de 40 milhões de decisões dos entrevistados em 233 países, o MIT Media Labs divulgou resultados interessantes referentes aos possíveis viés. Parece, pelo menos de uma perspectiva estatística, que certas preferências (por exemplo, uma preferência por inação em vez de ação) podem realmente ser muito mais cultural do que muitas de nossas intuições nos fazem acreditar.

É importante que as pessoas considerem em quais situações a regulamentação ou a adesão a uma doutrina centralizada dos melhores padrões, pode ser necessária para garantir que os humanos não codifiquem preconceitos humanos destrutivos nos sistemas de IA, ao mesmo tempo em que ponderam o peso da pressão sobre a inovação.

Integridade algorítmica

Garantir que a identificação do viés nos algoritmos e nos dados é apenas o primeiro passo. Os engenheiros devem ter certeza de que os sistemas de IA estão executando adequadamente as tarefas que pretendem resolver, de preferência da maneira que os desenvolvedores consigam explicar. Em um mundo ideal, é possível identificar as características dos conjuntos de dados e às conclusões tiradas deles.

No entanto, algoritmos cada vez mais complexos geralmente geram resultados inesperados ou mesmo indesejados que não podem ser rastreados até sua origem. Há um argumento para exigir a necessidade de alguma forma de licenciamento para implementar certas arquiteturas no estilo "caixa preta" e talvez proibi-las no contexto de aplicações específicas (por exemplo, uso militar, farmacêutica e justiça criminal). O movimento em direção à IA explicável (XAI) teve sua origem nessas preocupações. A DARPA avançou no sentido de estabelecer um padrão que abre caminho para o que eles chamam de "a terceira onda dos sistemas de IA".

Fonte: DARPA

Foram lançadas várias bibliotecas e toolkits em 2019 para promover a causa do XAI. Por exemplo, o Aequitas é um mecanismo de código aberto fornecido pelo Centro de Ciência de Dados e Políticas Públicas da Universidade de Chicago que faz auditoria em busca de viés. Os usuários do Tensorflow 2.0 podem utilizar tf-explore para melhorar a interpretabilidade das redes neurais. O pacote interpret-ml da Microsoft serve para "encontrar modelos de aprendizado de máquina interpretáveis e explicar os algoritmos de caixa preta".

Certamente, o uso onipresente de mecanismos preditivos de "caixa preta" servirá apenas para ampliar a atual Crise da Reprodutibilidade, na qual cientistas e acadêmicos falham repetidamente em recriar e verificar as descobertas de uma parte surpreendente das pesquisas, aparentemente respeitáveis e publicadas ao longo do século passado.

No entanto, não é como se a transparência representasse uma panacéia tecnológica. Suponha que todas pessoas de uma determinada raça tenha sua solicitação de empréstimo negada, mas o algoritmo de Machine Learning que conduz essa decisão é estruturado, de tal forma que os engenheiros sabem exatamente quais features estão direcionando essas classificações. Além disso, suponha que nada disso esteja relacionado à raça. O que a empresa deve fazer neste momento? Como mencionado anteriormente, a doutrina do Impacto Diferenciado proíbe práticas que afetam desproporcional e adversamente uma classe protegida, independentemente da lógica por trás dessas práticas.

Recentemente, foi relatado que o cartão de crédito fornecido por uma joint venture entre a Apple e a Goldman Sachs oferecia limites de crédito mais baixos para as esposas do que seus maridos, mesmo quando esses casais compartilham contas bancárias e declarem o imposto de renda de forma conjunta. Hipoteticamente falando, se fosse provado estatisticamente que o gênero é o maior preditor de inadimplência do cartão de crédito, e todas as outras características tivessem relevância similar, essa disparidade no limite do crédito poderia ser justificada ou considerada prudente?

Por um lado, é estranho endossar esse tipo de discriminação baseada em gênero. Por outro lado, parece igualmente, senão mais ilógico, proibir as empresas cujo modelo de negócios inteiro se baseia na avaliação precisa e orientada por dados da capacidade creditícia e em contrapartida o risco de utilizar os dados disponíveis. Esse certamente é o momento, no qual o uso das arquiteturas de IA mais explicáveis podem ser benéficas para diversas partes interessadas, embora, sem dúvida, falhasse em resolver todo o problema.

Benevolência algorítmica

Mesmo que algoritmos imparciais funcionem como seus desenvolvedores pretendem e o fazem de maneira inescrutável, os engenheiros ainda precisam ter certeza de que os objetivos perseguidos pela Inteligência Artificial estão de acordo com o bem-estar sustentável e a longevidade da humanidade.

Tim Libert, pesquisador da Universidade da Pensilvânia, publicou descobertas de que mais de 90% dos sites relacionados à saúde transmitem informações referentes a pesquisas e comportamento de navegação a terceiros. O artigo que aborda essa descoberta afirma: "isso significa que quando você pesquisa por 'herpes labial', por exemplo, e clica em um link como 'Visão geral sobre a herpes labial do site WebMD', o site está passando sua requisição sobre informações dessa doença para uma ou mais (e muitas vezes muitas, muitas mais) outras empresas".

Também foi relatado anteriormente que o sistema reCAPTCHA do Google autentica os usuários não testando seus recursos de reconhecimento de imagem, mas analisando os movimentos do mouse nos micro momentos imediatamente anteriores a um clique. O progresso na capacidade dos sistemas de IA em detectar a doença de Parkinson, por meio da análise dos movimentos do cursor, deu origem a novas preocupações nessa área, pois agora é provável que o Google possa fazer esse diagnóstico, juntar essa informação com o perfil de um determinado indivíduo e vender essa informação à seguradora de saúde do referido indivíduo.

Sintetizando mídia

A inteligência artificial também apresenta um grande risco, pois é um catalisador para uma dissociação potencialmente permanente da aparência da realidade. Por exemplo, existe a ameaça multifacetada representada pelo Deepfake, a técnica pela qual imagens e vídeos de seres humanos, geralmente com áudio correspondente, são sintetizados a partir de conjuntos cada vez mais esparsos de dados visuais existentes. O acesso às arquiteturas necessárias para produzir o Deepfakes rapidamente se tornou onipresente, embora a conscientização sobre os perigos da tecnologia esteja muito atrasada. O comediante Jordan Peele divulgou o vídeo a seguir para ajudar a chamar a atenção desse assunto.

Igualmente, se não for mais preocupante, é um futuro não tão distante, no qual uma pessoa capturada pela câmera, agindo de maneira indesejável, poderá simplesmente declarar que a evidência é apenas um Deepfake produzido por seus inimigos. É difícil provar que um conteúdo foi criado via Deepfake. Mas provar de forma irrefutável que não foi, será um problema infinitamente mais difícil. Embora várias organizações, como o Google AI, tenham financiado pesquisas e esforços para implementar detectores de deepfake, os próximos anos provavelmente serão um jogo de gato e rato entre aqueles que criam os deepfakes e aqueles que procuram identificá-los.

Até que essa pesquisa produza uma solução que possa ser utilizada ou, alternativamente, uma forma barata e fácil de assinar criptograficamente arquivos digitais, caberá às pessoas comuns permanecerem vigilantes ao assumir a autenticidade do conteúdo.

Aprendizado de máquina adversarial

Os problemas ficam mais impressionantes quando atores mal-intencionados usam tecnologia de ponta para gerar informações controversas. Usando cuidadosas coordenadas, que geram perturbações matemáticas na aparência da imagem de um panda, os engenheiros conseguiram enganar os principais sistemas de classificação de imagens do mundo para rotular o animal como um gibão com 99% de certeza, apesar do fato dessas alterações serem absolutamente indiscerníveis ao olho humano.

A mesma técnica foi usada posteriormente para enganar as redes neurais que orientam os veículos autônomos, assim classificando erroneamente um sinal de parada como sinal de junção de vias, também com alta certeza.

Como a visão humana geralmente é limitada a 8 bits (por canal) e muitos sistemas de visão computacional lidam com resolução de 32 bits, os engenheiros brincam especificamente com os últimos 8 bits de informação usados para codificar a imagem, de modo que essas mudanças seriam fisicamente impossíveis de serem percebidas por um ser humano. Para conseguir isso não é necessário acesso direto à arquitetura do classificador. Em vez disso, é possível simplesmente enviar uma série de entradas e registrar as saídas para fazer a engenharia reversa de uma representação suficientemente precisa do modelo.

Em um estudo ainda mais surpreendente, realizado no final de 2017, os pesquisadores do MIT utilizaram uma impressora 3D de baixo custo e a partir de materiais facilmente disponíveis, criaram uma tartaruga que, independentemente do ângulo em que fosse vista pelos sistemas de reconhecimento de objetos, sempre é classificada como um rifle. Dado que sua aparência ao olho humano é incontestavelmente de uma tartaruga, a implicação disso é que um rifle poderia ser fabricado de tal forma que um sistema de segurança baseado na visão computacional o classificasse como tartaruga ou outro objeto benigno.

Embora seja verdade que os humanos também possam receber informações contraditórias (como ilusões de ótica), é muito importante que não devemos dar, prematuramente, capacidades indevidas às máquinas que conduzem nosso mundo.

Como observa o filósofo e cientista cognitivo Dan Dennett, "acho que o perigo real, não é as máquinas fiquem mais inteligentes do que nós, ou que ocupem o papel de capitães dos nossos destinos, mas que superestimemos a compreensão das nossas mais recentes ferramentas de pensamento, cedendo prematuramente autoridade as máquinas, muito além da competência delas".

Realidades meta-éticas

Há um fluxo aparentemente interminável de dilemas éticos que os pesquisadores de IA enfrentam. No entanto, existe também a questão meta-ética, quem deve ser o responsável por responder às perguntas feitas neste artigo, em que base e com os interesses de quem em mente? Mesmo que possamos responder adequadamente a todas as perguntas difíceis abordadas neste artigo (e a infinidade nem sequer abordada), não é nada fácil avaliar quais partes interessadas devem ser as autoridades em tais assuntos, que estrutura essa autoridade deve adotar e como as soluções teóricas são convertidas em software operacional.

Conclusão

A complexidade e o poder dos sistemas de IA os tornam mecanismos intimidadores e convincentes para abordar diversos problemas difíceis. Não é essencial garantir apenas que os algoritmos estejam operando como desejado, mas também utilizando conjuntos de dados adequadamente construídos e que o público em geral seja informado sobre a evolução das tecnologias. Será necessária uma ampla conscientização dos casos de uso comuns da IA, junto com a vigilância por parte dos consumidores e grupos de defesa para classificar a enorme quantidade e variedade de mídia sintética e conteúdo gerado por computador.

Os dados certamente serão os recursos mais valiosos do século XXI, e os sistemas de IA que os alavancam com mais eficiência serão o catalisador mais potente para a mudança que a humanidade já viu. Garantir que os desenvolvimentos sejam feitos com um olhar atento aos interesses de longo prazo da humanidade, deve ser uma das principais prioridades em todo o cenário tecnológico.

Sobre o autor

Lloyd Danzig é o presidente e fundador do Consórcio Internacional para o Desenvolvimento Ético da Inteligência Artificial, uma ONG sem fins lucrativos 501(c)(3) dedicada a garantir que desenvolvimentos rápidos em IA sejam feitos com um olhar atento ao interesse de longo prazo da humanidade. Ele também é fundador e CEO da Sharp Alpha Advisors, uma empresa de consultoria de jogos esportivos com foco em empresas que implantam tecnologia de ponta. Danzig é o co-anfitrião da The AI Experience, um podcast que fornece uma análise acessível de notícias e tópicos relevantes de IA. Ele também atua como co-presidente do Conselho Consultivo da CompTIA AI, um comitê de líderes proeminentes focados em estabelecer as melhores práticas do setor que beneficiam os negócios e protegem os consumidores.

Avalie esse artigo

Relevância
Estilo/Redação

Conteúdo educacional

BT