BT

Disseminando conhecimento e inovação em desenvolvimento de software corporativo.

Contribuir

Tópicos

Escolha a região

Início Artigos Podemos confiar em algoritmos para tomada de decisão automática?

Podemos confiar em algoritmos para tomada de decisão automática?

Favoritos

Pontos Principais

  • A sociedade deve exigir transparência e responsabilidade legal e financeira para o uso de algoritmos na tomada de decisão automatizada. Caso contrário, nem o público e nem uma agência reguladora serão capazes de entender ou regular algoritmos complexos e as interconexões complexas entre as redes de dados que esses algoritmos utilizam;
  • Não há consenso sobre como definir, evitar ou mesmo tornar explícito o viés - distorção do julgamento - nos algoritmos usados na execução de políticas públicas ou em pesquisas científicas;
  • A natureza perfeita e conveniente de muitas tecnologias, como residências personalizadas, dificulta a compreensão de onde os dados vêm, como são usados por algoritmos e para onde vão;
  • Empresas e indivíduos, especialmente quando trabalham no setor público, devem assumir que os resultados das decisões dos algoritmos terão que ser explicados às pessoas que são adversamente afetadas por elas em tempo hábil, para que possam apelar ou contestar essas decisões.

O uso de tomada de decisão automatizada vem crescendo.

Os algoritmos subjacentes a esses sistemas podem produzir resultados incompreensíveis ou socialmente indesejáveis. Como os reguladores podem determinar a segurança ou a eficácia dos algoritmos incorporados em dispositivos ou máquinas, se não puderem compreendê-los? Como os cientistas podem entender um relacionamento baseado em uma descoberta realizada por meio de um algoritmo?

Exemplos de tais áreas são: determinar quem é libertado sob fiança ou quem deverá receber crédito financeiro, prever onde ocorrerá um crime, averiguar violações das leis anti-discriminação ou julgar a culpa em um acidente com um carro autônomo.

Não está claro se os algoritmos podem detectar suas próprias falhas mais do que um ser humano pode determinar se são realmente doentes mentais. Não há nenhuma linha de código nesses algoritmos que os instrua a fazer algo ruim a alguém.

O que podemos fazer para resolver este problema?

Integrantes deste painel:

  1. Rebecca Williams - professora de direito público e direito penal, em associação com o Pembroke College na Universidade de Oxford
  2. Andrew Burt - chief privacy officer e engenheiro jurídico na Immuta
  3. Michael Veale - integrante da University College London. Departamento de Ciência, Tecnologia, Engenharia e Política Pública

InfoQ: As pessoas geralmente desconhecem o papel dos algoritmos na sociedade. Qual é a melhor maneira de educar as pessoas sobre os benefícios e problemas associados ao crescente uso difundido de algoritmos?

Andrew Burt: O que mais precisamos é de história e contexto - sobre como este tipo de tecnologia foi usado antes, e sobre o que é diferente agora, especialmente quando se trata do que é comumente chamado de "IA". Temos, por um lado, pessoas como Elon Musk, declarando que a IA é uma ameaça existencial à vida na Terra, que está tendo um impacto real na maneira como o público pensa sobre a IA. E temos, por outro lado, alguns defensores obstinados da IA, sugerindo que isso resolverá todos os problemas que temos. A verdade está, naturalmente, em nenhum extremo. Além disso, nem todo desafio que a AI coloca é novo. Já desenvolvemos ferramentas e práticas para enfrentar alguns desses desafios em outras áreas. Então, acho que todos se beneficiam de uma discussão mais ampla que coloque os desafios da IA ​​em perspectiva e nos permita construir os sucessos do passado e corrigir os erros de como adotamos as tecnologias anteriores. Há muitas coisas boas que podemos fazer se acertarmos. Por outro lado, há muitos prejuízos que podem ocorrer se nos enganarmos - prejuízos discriminatórios, oportunidades perdidas e muito mais. As apostas são altas.

Rebecca Willians: Os Artigos 13(2)(f), 14(2)(g) e 15(1)(h) do GDPR declaram que os titulares de dados têm "o direito de saber a existência de tomadas de decisão automatizadas, incluindo perfis". Então, qualquer que seja a razão pela qual eles tenham acesso a informações sobre o processo, no mínimo as pessoas terão que ser avisadas quando uma decisão específica sobre elas ou a respeito delas estiver sendo tomada usando um processo automatizado. A esperança é que isso eleve a consciência de quando e como esses sistemas estão sendo usados.

Em termos de educação, obviamente, quanto mais cedo começarmos com essas questões, melhor. As escolas ensinam cada vez mais a codificação aos alunos, bem como questões éticas como cidadania ou educação pessoal e social, portanto, quanto mais puder ser feito para aumentar a conscientização e discussão nesses contextos, as futuras gerações estarão mais bem preparadas quando projetarem, operarem e interagirem com esses sistemas. Isto é definitivamente algo que as universidades também podem ajudar a facilitar. Já existem contextos em que acadêmicos visitam escolas para apoiar o aprendizado e seria ótimo se isso pudesse acontecer também nesse assunto.

Isso deixa claro a questão de como podemos alcançar aqueles que passaram pela educação escolar antes que surgissem esses tipos de preocupações. Os mesmos desafios surgem aqui como surgem em relação à disseminação de qualquer tipo de informação: as pessoas tendem a confiar em certas fontes ao invés de outras, dando origem ao risco de câmaras de eco e desinformação. Haverá certamente um papel para a grande mídia aqui e balanceamento, cientificamente baseado em relatórios por esses meios será vital, como sempre, mas quanto menos confiança o público colocar em tais fontes de informação, menos eficaz será. Haverá certamente um papel para instituições como o Gabinete do Comissário de Informação para fornecer aconselhamento e informação para os cidadãos por meio do seu website, e novamente como um acadêmico gostaria de ver as Universidades ajudando também neste contexto, apoiando estes outros pontos de venda ou por meio de engajamento público direto.

Michael Veale: No design de tecnologia, vem ocorrendo uma grande tendência para tornar os sistemas "perfeitos". Em suma, isso significa que as pessoas podem se concentrar no que desejam fazer, e não em como querem fazê-lo, o que geralmente é ótimo para os indivíduos ajudá-los a alcançar o que desejam. As casas inteligentes são um exemplo disso, embora muitas sejam um pouco desajeitadas demais para terem conquistado esse título. No entanto, com uma variedade de algoritmos de sistemas de hoje, muita uniformidade significa que os indivíduos não têm a chance de questionar se esse sistema funciona da maneira que eles querem. Sua casa inteligente pode ser personalizada, mas se não pode ver para onde e para quem está enviando os dados. Seu feed de notícias do Facebook pode parecer atraente, mas se sabe quem está sendo excluído e por quê.

Poderíamos realizar cursos sobre algoritmos na sociedade, mas é improvável que isso resolva problemas mais profundos. As tecnologias se movem rapidamente. Minha prima me contou outro dia, que na escola eles estavam aprendendo sobre segurança cibernética. "Eles nos disseram para não clicar em pop-ups", disse ela. "Mas como vou saber como é um pop-up?". Os navegadores mudaram muito rapidamente para bloqueá-los e, em dispositivos móveis, simplesmente não é mais o paradigma. Assim, uma educação única, a menos que esteja desenvolvendo habilidades críticas gerais, geralmente é um pouco demais para um alvo em movimento.

Assim, consequentemente, precisamos mesclar a educação nos produtos e serviços que usamos todos os dias. Esses serviços devem se explicar, não necessariamente com uma passagem de texto ou manual, mas em virtude de um design inteligente que deixa claro quando fluxo de dados, decisões automatizadas e outros comportamentos estão acontecendo. Nesse caso, os indivíduos devem ser capazes de aprofundar ainda mais para ver e aprender mais, se estiverem interessados: e então, sem dúvida, sentirão melhor o que está acontecendo ao seu redor, mesmo quando as opções para perceber e detalhar não estão lá.

InfoQ: Algoritmos serão frequentemente usados na execução de políticas públicas ou em pesquisas científicas que afetarão as políticas públicas. Requisitos legais, julgamentos de valor e parcialidade são quase inevitáveis. Como os valores sociais podem ser explicitamente visíveis, e o preconceito pode ser evitado na programação do algoritmo e na interpretação dos resultados?

Burt: Do lado da tecnologia, existem todos os tipos de ferramentas importantes que estão sendo desenvolvidas para ajudar a minimizar muitas dessas desvantagens. Uma ferramenta chamada LIME, que ajuda a explicar os chamados algoritmos de caixa preta, é um ótimo exemplo. Um cientista de dados chamado Patrick Hall realmente merece um elogio por fazer um ótimo trabalho sobre interpretabilidade no aprendizado de máquina. E há muitos outros exemplos para citar. Nossas equipes de engenharia jurídica e ciência de dados estão se mantendo no topo de todos esses desenvolvimentos na Immuta.

Mas acho que muitas vezes é esquecido o lado processual. Os processos usados para desenvolver e implantar Machine Learning (ML) são incrivelmente importantes, e modelar estruturas de gerenciamento de risco como o SR 11-7 do Federal Reserve Board que há muito tempo já reconhecem esse fato. Esse regulamento se aplica ao uso de algoritmos em instituições financeiras nos EUA. O pessoal do AI Now Institute também avançou com o que eles chamam de avaliações do impacto de algoritmos, que oferecem outra estrutura para esse tipo de abordagem.

Há muita coisa lá, francamente, e lançaremos um white paper resumindo brevemente algumas dessas práticas recomendadas - técnicas e processos - para ajudar nossos clientes e os outros a gerenciar os riscos da implantação de modelos de aprendizado de máquina na prática. Estamos trabalhando duro para finalizar o white paper e estamos animados para lançá-lo nos próximos meses.

Willians: Existem várias maneiras diferentes de abordar essa questão. Primeiro, é vital examinar cuidadosamente os dados usados ​​para treinar e operar sistemas automatizados de tomada de decisão. Se os dados em si forem tendenciosos, o resultado também será. Vem ocorrendo muita discussão sobre os sistemas de previsão de risco usados ​​no contexto da justiça criminal em vários estados dos EUA e a dificuldade com esses sistemas é que eles tendem a superestimar a reincidência de réus negros ao mesmo tempo que a subestimam para réus brancos. Mas, apenas para dar um exemplo, um potencial preditor de risco usado pode ser a prisão antecipada por ofensas de posse menores. E ainda assim tais ofensas são mais prováveis ​​de serem detectadas por stop e search, e as táticas de stop e search tendem a se inclinar na mesma direção: predizer uma razão para parar e procurar pessoas negras enquanto prevê a necessidade de parar e procurar pessoas brancas. Então, como parar e pesquisar é distorcido contra os negros em favor dos brancos, mais pessoas negras são consideradas portadoras do que brancas e, assim, os negros são calculados a ter um risco maior de reincidência do que os brancos. A discriminação inicial na coleta de dados, alimenta todo o sistema na saída. Portanto, se acharmos que nossos dados iniciais provavelmente produzirão esse tipo de efeito distorcido, devemos pensar cuidadosamente sobre se é ou não apropriado usá-lo, e talvez precisemos pensar em impor direitos para coletar dados de contrapeso.

Em segundo lugar, há importantes escolhas políticas a serem feitas no processo de codificação do sistema. O trabalho de Krishna Gummadi mostrou que nem sempre é possível ter um bolo e comê-lo. Normalmente, será necessário escolher entre diferentes medidas de precisão. Assim, por exemplo, um sistema que tem o método mais preciso de predição no agregado, considerado em todos os casos, também pode ter o maior problema de produzir resultados distorcidos em relação a categorias específicas de casos, como as mencionadas anteriormente. Ou, inversamente, um sistema que tenha precisão máxima em relação a qualquer categoria específica (como status étnico ou gênero) pode não ter um grau tão alto de precisão em todas as categorias em conjunto. É vital que tais escolhas políticas entre sistemas diferentes sejam entendidas como sendo apenas isso; são escolhas de políticas que devem ser feitas de forma aberta e transparente e por uma entidade que pode ser responsabilizada por fazê-las, não inconscientemente, por codificadores anônimos.

Terceiro, mesmo que estejamos confiantes de que fizemos tudo o que podemos, ex ante (antes de um evento ocorrer - termo jurídico) para coletar dados balanceados e fazer escolhas de códigos responsáveis, também será necessário um ex post (após o evento ocorrer - termo jurídico) para assegurar, que tais sistemas, sejam sujeitos a auditorias regulares para assegurar que eles não estejam espontaneamente gerando formas de discriminação que não havíamos previsto. Será necessário fazer isso mesmo se não tivermos certeza do motivo pelo qual isso está acontecendo, mas, em quarto lugar, também é vital que façamos tudo o que pudermos para tornar os algoritmos transparentes e responsáveis, de modo que, se uma auditoria deste tipo detectar um problema, podemos ver onde e como aconteceu. Há um número de pessoas trabalhando nisso e um grupo nosso em Aberdeen (Prof. Pete Edwards), Oxford e Cambridge (Dr. Jat Singh) acabam de receber uma doação do EPSRC para trabalhar mais nessa questão.

Em termos das fontes de regulação para cada uma dessas quatro questões, os sistemas serão usados por entidades públicas e privadas. Onde eles são operados por entidades públicas ou governamentais, acho que há definitivamente um papel para o direito público existente de desempenhar na responsabilização de tais entidades e impor mais deveres de transparência, justiça, etc., que já são inerentes ao direito público. Para as entidades privadas, o desafio será pensar quais desses deveres de transparência, responsabilidade e justiça devem ser levados para o setor privado, como o preço pelo aumento de poder oferecido por tais sistemas.

Veale: A maioria das evidências úteis é causal na natureza. Queremos saber o que causa o quê e como o mundo funciona. Algoritmos de aprendizado de máquina não são tão bons nisso, e seus resultados e poder preditivo podem ser bastante frágeis como resultado. A principal maneira de tornar os valores sociais explicitamente visíveis é desacelerar e reconhecer que nossos objetivos muitas vezes não são apenas previsão, mas compreensão. Estamos em grande perigo de treinar uma geração de pessoas que podem fazer o primeiro, mas não o segundo. Quando construímos modelos causais, temos uma oportunidade maior de discutir se é assim que queremos que o mundo funcione e se comporte. Talvez seja, talvez não seja: mas é uma conversa que é mais visível e muito mais fácil de ter e de comunicar.

InfoQ: Em maio deste ano, o Regulamento Geral de Proteção de Dados da União Europeia (GDPR) entra em vigor. Entre suas disposições, está o Artigo 22, que trata da tomada de decisão individual automatizada. Muitas pessoas argumentam que essa regra exige não apenas que os direitos de privacidade dos dados sejam respeitados, mas que as decisões tomadas pelos algoritmos sejam explicáveis.

O que acha dessa interpretação do regulamento? Este regulamento exige que os dados sejam removidos do uso por algoritmos? Se sim, isso poderia reduzir a eficácia do algoritmo? Em geral, a abordagem da União Europeia é válida, ou a "lei das consequências não intencionais" vai piorar a situação?

Burt: Há um enorme debate em andamento na comunidade jurídica sobre como, exatamente, o GDPR afetará a implantação do aprendizado de máquina. E dado que o GDPR só entrou em vigor em Maio de 2018, ainda há muita coisa no ar. Mas a minha opinião é que o Artigo 22 precisa ser lido ao lado dos Artigos 13-15, que afirmam que os titulares de dados têm o direito de "informações significativas sobre a lógica envolvida" em casos de tomada de decisão automatizada. Na prática, acho que isso significará que os titulares de dados terão o direito de ser instruídos sobre quando, por que e o mais importante, como algo como um modelo de aprendizado de máquina está usando seus dados. Como acontece com qualquer análise legal, há uma tonelada de nuances aqui. Por isso, incentivo os leitores a verificarem um artigo anterior que coloquei sobre o assunto para a Associação Internacional de Profissionais de Privacidade. Também vale a pena mencionar que um grupo chamado Working Group 29, que tem uma enorme influência sobre como as leis de privacidade da UE são aplicadas, saiu com suas próprias orientações sobre este assunto, afirmando categoricamente que a tomada de decisão automatizada é proibida por GDPR, com certas isenções.

Willians: Já sabemos que há um intenso debate entre Goodman e Flaxman, que argumentam que o GDPR dá um "direito à explicação" completo, enquanto Wachter, Mittelstadt e Floridi, na minha opinião, de forma mais plausível, argumentam que isso será suficiente para dados sujeitos a um componente de aprendizado de máquina a ser informado da existência e quais medidas de precisão estão sendo usadas para checá-lo. Concordo com eles que o assunto dos dados deve ser informado mais do que apenas quais pontos de dados estão sendo usados, mas também como eles são ponderados nas circunstâncias. Como mencionei anteriormente, em que o sistema está sendo operado por uma entidade pública, acho que existe um potencial significativo para uma analogia a ser tirada com nossa abordagem atual para as decisões do Procedimento de Material Fechado, no qual o impacto sobre o indivíduo é significativo, ele/ela tem o direito de saber, pelo menos, a 'essência' do processo contra ele/ela, de modo que ele/ela possa fazer uso 'significativo' do direito de resposta. Isso pode envolver apenas uma explicação ex ante, como sugerem Wachter, Mittelstadt e Floridi, mas também pode incluir explicações ex post. Em relação às entidades privadas, a situação é mais difícil, uma vez que estão geralmente sujeitas a menos deveres, embora a nossa lei existente sobre discriminação faça algum trabalho e haja também a possibilidade de deveres de estilo público serem associados ao uso de tais sistemas, mesmo em um contexto privado.

O Art 17 permite o direito de apagar dados pessoais, mas não onde o processamento é necessário para cumprir uma obrigação legal. A principal distinção aqui é entre dados individuais e gerais. Para a remoção de dados individuais, há alguns direitos limitados, como do Art 17, mas para qualquer dever ou obrigação de remover dados gerais (ou seja, dados que afetam uma categoria inteira de pessoas, como os dados descritos anteriormente), pode ser necessário olhar para as disposições mais gerais no regulamento, como "medidas adequadas para salvaguardar os direitos e liberdades e interesses legítimos da pessoa em causa", ou deveres gerais em, por direito público (onde que processa dos dados é uma entidade público/governamental) ou lei que proíbe a discriminação.

Novamente, isso depende, se o que está sendo usado é dado individual ou geral. A remoção de dados gerais distorcidos pode tornar o algoritmo mais preciso, ao passo que a remoção de dados individuais precisos em relação a tipos específicos de candidatos pode torná-lo mais impreciso e dar origem ao efeito de distorção.

Não acho que alguém sabe a resposta para isso com certeza neste momento! Acho que será necessário lembrar as auditorias ex post discutidas anteriormente neste painel, de modo que, se na prática vemos consequências não intencionais, há uma oportunidade de pegá-las e resolvê-las.

Veale: O Artigo 22 no GDPR é uma disposição realmente antiga. Ela remonta à lei francesa de 1978, e boa parte dela permanece inalterada em relação ao artigo 15 da Diretiva de Proteção de Dados em 1995 (Lei de Proteção de Dados do Reino Unido de 1998). No entanto, não tem sido muito utilizado, e alguns acadêmicos o chamaram de "direito de segunda classe" como resultado.

O propósito fundamental do Artigo 22 é garantir que, se uma organização quiser tomar uma decisão totalmente automatizada e potencialmente significativa sobre alguém, ela precisa ter uma base legal para fazê-lo (consentimento livre, necessidade de executar um contrato ou obrigação legal). Se a organização não tiver um desses, eles não poderão tomar a decisão. Se garantirem um, eles têm que colocar salvaguardas em prática para garantir que a decisão seja tomada de forma justa, incluindo permitir que um indivíduo desafie a decisão. Não está claro em muitos casos como esse desafio funcionará: muitas decisões importantes são tomadas rapidamente. Se um vídeo de um evento político, tópico, for automaticamente removido do Youtube, com que rapidez ele poderá ser reativado? Se o tempo de relevância tiver passado, uma revisão humana é de pouca utilidade.

Outra destas salvaguardas, para além do desafio humano, é descrita no Recital 71 do GDPR. Os recitais, que começam uma lei européia, destinam-se a ilustrar seu espírito e contexto, mas em leis muito disputadas como o GDPR, tornaram-se, frustrantemente para os advogados, um lugar para colocar coisas que realmente deveriam estar nos principais artigos obrigatórios. Esta salvaguarda da explicação, ao contrário de outras, como o direito à intervenção humana, foi colocada lá, e assim veremos se e quando o Tribunal de Justiça Europeu acha que é obrigatório para os responsáveis pelo tratamento de dados.

No entanto, não vamos esquecer o significado real do Artigo 22, que não é apenas sobre explicações. Isso definitivamente restringe alguns usos de algoritmos de sistemas que as pessoas acreditam que são injustos. Contratação automatizada e filtragem de Curriculum, por exemplo, são técnicas que são altamente suspeitas nos termos do Artigo 22. Quando se está decidindo entrevistar alguém automaticamente, usando um dos produtos analíticos no mercado hoje, estamos provavelmente tomando uma decisão apenas automatizada e significativa. Qual é a sua base legal? Não há um contrato e, provavelmente, não tem uma obrigação legal, o que permite o consentimento. O ato de consentir algo automático em qualquer contexto de emprego é altamente problemático devido aos desequilíbrios de poder, e raramente pode ser visto como dado livremente. Pessoalmente, penso que o Artigo 22 torna muitas práticas automáticas de contratação em larga escala muito legalmente suspeitas.

InfoQ: Qual é a questão crítica que as sociedades enfrentam com o uso generalizado de algoritmos em vez de humanos para tomar decisões críticas?

Burt: Em duas palavras: falhas silenciosas. À medida que começamos a nos basear mais em algoritmos complexos, especialmente em várias formas de redes neurais, nossa capacidade de explicar seu funcionamento interno se tornará progressivamente mais difícil. Isso não é simplesmente porque esses modelos são difíceis de interpretar, mas porque as redes às quais os conectamos estão se tornando cada vez mais complexas. Todos os dias, o mundo da TI fica mais difícil de gerenciar, temos mais endpoints, mais dados, mais bancos de dados e mais tecnologias de armazenamento do que nunca. E assim acredito que nosso maior desafio está em entender os ambientes de dados, nos quais estamos confiando. Porque, se não o fizermos, existe uma possibilidade muito real de estarmos constantemente a confrontar falhas silenciosas, em que algo correu mal e que simplesmente não sabemos, com consequências muito reais, e potencialmente devastadoras.

Willians: Acho que a maioria das pessoas iria encapsular isso na palavra "justiça". Mas isso realmente se resume em transparência e responsabilidade: (1) precisamos saber o máximo possível sobre o que esses sistemas estão fazendo, como e por quê. (2) É necessário haver uma entidade apropriada para responsabilizar-se por eles e um sistema apropriado e acessível para responsabilizar essa entidade.

Nossas estruturas legais e reguladoras precisam fornecer e incentivar essas duas coisas, trabalhando em estreita colaboração com os cientistas da computação que geram os sistemas.

Veale: O maior problema aqui é que os algoritmos exigem manutenção e supervisão, o que pode ser difícil de fazer em pequena escala. Eles teoricamente permitem um enorme volume e velocidade de decisões automatizadas, muito mais do que um ser humano pode fazer. Pequenas organizações podem realmente se beneficiar disso. Anteriormente, se as organizações queriam que muitas decisões acontecessem, precisavam de muita gente. Essas pessoas poderiam fornecer supervisão e feedback, mesmo que trouxessem seus próprios preconceitos. Agora, algumas pessoas podem implantar e gerenciar enormes infraestruturas de tomada de decisão, mas elas não trazem a capacidade humana de examiná-las e mantê-las. Isso cria um enorme desequilíbrio, particularmente para organizações de baixa capacidade que podem ser tentadas por confiar na automação e no aprendizado de máquina. Nestes casos, a supervisão externa é necessária; mas quem fornece isso? Quem paga por isso? E como isso realmente se encaixa em alguns desafios ocultos que a tomada de decisões algorítmicas pode causar, desafios que são frequentemente enterrados nas organizações e em suas políticas de trabalho?

Conclusão

Deixar de levar em consideração o que o público teme ou a incapacidade de prever consequências adversas impediu tecnologias como energia nuclear e culturas geneticamente modificadas.

A cidade de Nova York está estabelecendo uma força-tarefa para propor recomendações para obter explicações e mitigações para as pessoas afetadas pelo uso de algoritmos pelas agências da cidade. O Regulamento Geral de Proteção de Dados da União Européia é outra tentativa de começar a lidar com a questão.

Carl Jung tem a fama de ter dito que dentro de cada ser humano esconde-se um lunático. Se os algoritmos modelam o comportamento humano, o que isso significa para a sociedade?

Sobre os integrantes deste Painel

Andrew Burt é chief privacy officer e engenheiro jurídico da Immuta, uma das principais plataformas de ciência de dados e de gerenciamento de dados do mundo. Ele também é membro visitante do Projeto Sociedade da Informação da Yale Law School. Anteriormente, Burt foi consultor especial de política para o chefe da Divisão de Cyber ​​do FBI, onde atuou como principal autor do relatório do FBI sobre o ataque de 2014 à Sony. Burt publicou artigos sobre tecnologia, história e direito no New York Times, no Financial Times, no Los Angeles Times, Slate e no Yale Journal of International Affairs, entre outros. Seu livro American Hysteria: The Untold Story of Mass Political Extremism, nos Estados Unidos, foi chamado de “um livro de leitura obrigatória sobre um assunto que poucos querem abordar”, do Prêmio Nobel emérito Desmond Tutu, Arcebispo Nobel. Burt é doutor em direito pela Yale Law School e é bacharel pela McGill University. Ele é membro do Conselho de Relações Exteriores, membro do Conselho de Washington, DC e da Virginia State Bars, além de coordenador de resposta a incidentes cibernéticos GIAC (Global Information Assurance Certified).

Rebecca Williams é professora de direito público e direito penal na Universidade de Oxford. Seu trabalho inclui o exame de métodos ótimos de tomada de decisão e o uso do direito penal como forma de regulamentação. Cada vez mais seu trabalho também se concentra na relação entre lei e tecnologia e as maneiras pelas quais a lei precisará se desenvolver para acompanhar o desenvolvimento tecnológico.

Michael Veale é doutor e pesquisador em aprendizado de máquina e o responsável do setor público na University College London, especializada na justiça e responsabilidade de ferramentas baseadas em dados no setor público, bem como na interação entre tecnologias avançadas e lei de proteção de dados. Sua pesquisa foi citada por órgãos e reguladores internacionais, na mídia, bem como debatida no Parlamento. Ele atuou como consultor em aprendizado de máquina e sociedade para o Banco Mundial, Royal Society e British Academy, e trabalhou anteriormente em IoT, saúde e envelhecimento na Comissão Européia. Veale pode ser encontrado no twiter em @mikarv.

Avalie esse artigo

Relevância
Estilo/Redação

Conteúdo educacional

HTML é permitido: a,b,br,blockquote,i,li,pre,u,ul,p

HTML é permitido: a,b,br,blockquote,i,li,pre,u,ul,p

BT