Resumo: Diante da crescente vigilância promovida por governos com base em tecnologias de I.A., torna-se determinante impor limites contra o surgimento do autoritarismo e em promoção aos Direitos Humanos. Esse artigo visa analisar como a XAI - Inteligência Artificial Explicável e um Código de Ética Global para Inteligência Artificial podem contribuir para promover garantias e direitos fundamentais, bem como oferecer barreiras contra o avanço da vigilância e do surgimento de Estados Autoritários.
Palavras-chave: Vigilância; Direitos Humanos; Ética; Inteligência Artificial Explicável.
Abstract: Given the growing vigilance promoted by governments based on AI technologies, it becomes crucial to impose limits against the emergence of authoritarianism and in the promotion of Human Rights. This article aims to analyze how XAI - Explainable Artificial Intelligence and a Code of Ethics for Artificial Intelligence can contribute to promoting fundamental guarantees and rights, as well as offering barriers against the advance of surveillance and the emergence of Authoritarian States.
Keywords: Surveillance; Human rights; Ethic; Explainable Artificial Intelligence.
Sumário: Introdução. 1. Inteligência Artificial e a Vigilância pelos Governos 2. Ética e Inteligência Artificial 3. XAI – A importância da Inteligência Artificial Explicada. Considerações Finais. Referências.
Introdução
O principal marco sobre o início do desenvolvimento da Inteligência Artificial provém de um artigo de Alan Turing, de 1950, intitulado “Computing Machinery and Intelligence”.[1]O estudo apresentou o Teste de Turing, jogo em que um árbitro interrogava um homem e uma máquina. Se o juiz não conseguisse diferenciar, por meio das respostas, quem era o humano e quem era a máquina, considerava-se que a máquina havia passado no teste. O objetivo era verificar a capacidade de emulação do comportamento humano pela máquina.
A Inteligência Artificial apresenta como características o poder de raciocinar, aprender, reconhecer padrões e inferir. Essas características não conferem a máquina o poder de emular todas as características humanas, em especial o poder de autoconsciência que, no que pese as discussões éticas, ainda integra o gênero da ficção científica. As capacidades da I.A. se relacionam com a aplicação de lógicas relacionais a um conjunto de dados e aprendizado através de tentativa e erro.
Atualmente, I.A. é aplicada aos mais diversos setores, tais como: mídia, comércio eletrônico, saúde e governos. A tecnologia apresenta diversos benefícios, como resolver problemas, melhorar precisão e acerto, substituir trabalhos repetitivos e inovação. No entanto, a tecnologia pode apresentar riscos aos Direitos Humanos em decorrência de vieses, bem como à privacidade em razão da coleta de dados em massa.
A situação pode se agravar quando I.A. é aplicada por governos com objetivos de vigilância e policiamento. O uso de tecnologias de reconhecimento facial tem crescido exponencialmente à margem de qualquer regulamentação legal. Nesse contexto, o banimento do uso de tecnologias de reconhecimento facial e outros dados biométricos pode se mostrar uma alternativa interessante em defesa dos Direitos Humanos.
Antes de se implantar qualquer tecnologia de vigilância e policiamento, limites e salvaguardas devem ser estabelecidos para proteger cidadãos. Parâmetros éticos devem ser introduzidos em qualquer aplicação de I.A que possa repercutir em ofensa aos direitos e garantias fundamentais, além de diretrizes e requisitos para melhorar a qualidade de dados, a lógica relacional de aprendizado e os mecanismos de reforço de representação.
Além disso, ganha importância o desenvolvimento e a implantação da inteligência artificial explicável. A vinculação das garantias de interpretabilidade e explicabilidade aos casos de usos de I.A que possam ofender direitos, pode se tornar um importante instrumento em respeito aos Direitos Humanos.
Diante disso, a imposição de limites em defesa de direitos e liberdades civis, em face do aumento da vigilância pelos governos, se torna cada vez mais urgente.
1 Inteligência Artificial e Governos.
Governos ao redor do mundo têm aumentado drasticamente o uso de sistemas de vigilância com base em I.A. Em um estudo de 2010, promovido pela Fundação Rockefeller, foram previstos cenários hipotéticos para o desenvolvimento tecnológico e social. O cenário Lock-Step,[2]indicado no estudo, caracterizado por um controle governamental mais rígido e autoritário, se aproxima muito da realidade chinesa atual, em que tecnologias de controle com base na I.A, como tecnologias de reconhecimento facial e crédito social, estão cada vez mais difundidas. A inovação tecnológica nesse cenário é amplamente estimulada pelo governo.[3]
Em outra recente publicação, uma Grande Reinicialização Mundial é defendido no plano econômico, social, geopolítico, tecnológico e individual. O estudo sugere o retorno de um “grande” governo e a redefinição do contrato social. Segundo o estudo, o reinício seria permitido, em grande parte, pela crise da Covid-19. O estudo justifica o aumento da vigilância, por tecnologias de rastreamento, para o bem da saúde pública e da segurança.[4]
O uso de algoritmos de Inteligência Artificial pelos governos pode contribuir para o surgimento de Estados totalitários? Quais seriam os limites do uso de Inteligência Artificial pelos governos? A célebre expressão “Big Brother is watching you” se mostra cada vez mais presente no plano da realidade. A formação de um grande Leviatã baseado em Inteligência Artificial pode se tornar uma grande ameaça aos direitos e liberdades individuais. Ainda há tempo para evitar a expansão do Estado Orwelliano.[5]
O uso de Inteligência artificial para fins de vigilância não é exclusividade da China. Diversos países, mundo afora, se utilizam da tecnologia para fins questionáveis. Ao menos 75 de um total de 176 países ao redor do mundo usam ativamente sistemas de IA para objetivos de vigilância.[6]
Autores e pesquisadores influentes chamam a atenção ao redor do mundo para o crescente risco de distopia. Brad Smith alerta sobre a contribuição que a corrida tecnológica entre os EUA x China pode ter para o aumento da vigilância e defende uma revolução de código aberto para a redemocratização do mundo.[7]
No Brasil, foi recentemente publicada a Estratégia Brasileira de Inteligência Artificial. A estratégia foi organizada em eixos temáticos, tais quais: educação, força de trabalho e educação, PD&I e empreendedorismo, setores produtivos, poder público e segurança pública. No documento é possível observar diversos exemplos de aplicação de I.A na administração pública. A maioria dessas aplicações se relaciona com a melhoria da eficiência da administração e do gerenciamento dos seus respectivos órgãos.[8]
A título de exemplificação, o TCU utiliza I.A. para análise de licitações e editais (“Alice”) e para monitoramento de aquisições pelos poderes públicos (“Mônica”). O TST utiliza para a análise sobre a observância de prazos (“Bem-Te-VI”). O STF utiliza I.A. cuja finalidade é examinar os Recursos Extraordinários e especificar quais serão vinculados aos temas de Repercussão Geral.[9]
A maioria dessas aplicações não apresentam indício de coleta de dados ou informações que possam apresentar ofensa aos direitos, tais como a privacidade, a proteção de dados e a liberdade de expressão. Em nenhum dos casos exemplificados há o uso de I.A para fins de vigilância e segurança pública. Utilidades que causam maior preocupação devido ao uso de informações pessoais como imagens e vídeos de cidadãos.
Equipamentos de reconhecimento facial automatizado já são amplamente difundidos em países como a China. Pesquisadores do IPVM[10]descobriram que o governo chinês reuniu um banco de dados nacional com relatório individual sobre preferências políticas, atividades e relacionamentos de cada cidadão.[11] [12]
As aplicações de I.A. para vigilância e segurança pública apresentam diversos casos de falsos positivos, relacionados a vieses discriminatórios de algoritmos, em grande medida, em razão de base de dados pouco representativa.[13]Tecnologias de reconhecimento facial, assim como tecnologias de reconhecimento de voz e dados pessoais merecem maior atenção em razão dos seus potenciais efeitos colaterais danosos aos direitos e garantias fundamentais. O uso de I.A. na área de segurança pública deve obedecer ao direito da privacidade e da proteção de dados.
O governo brasileiro têm apoiado algumas diretrizes em promoção ao desenvolvimento tecnológico e em respeito à proteção de dados pessoais.[14]As diretrizes apoiadas pelo governo podem ser um importante passo para, mais do que proteger direitos e garantias fundamentais, impedir a transformação do Estado em um estado de vigilância ao estilo Orwelliano. A regulação da proteção de dados na área de segurança pública ganha importância ímpar diante desse contexto. Contudo, mais do que fazer leis para garantir os direitos à privacidade e a proteção de dados, é fundamental um olhar atento de toda a sociedade sobre o que acontece no plano da realidade.
Em uma interessante iniciativa, uma carta aberta foi publicada por instituições em defesa de direitos e liberdades individuais. A carta defende o banimento global do uso de tecnologias de reconhecimento facial e outros reconhecimentos biométricos remotos que facilitem vigilância em massa.[15]
O banimento do uso de sistema de reconhecimento facial e outros reconhecimentos biométricos pode parecer radical a primeira vista. Contudo, dada a velocidade com que os governos tem apoiado suas políticas em sistemas de vigilância e policiamento, a proibição destas tecnologias pode ter o efeito salutar de se reiniciar a discussão sobre o uso e os limites impostos aos governos.
Diante de um mundo globalizado onde o crescimento do uso de I.A. em sistemas de vigilância pelos governos cresce aceleradamente, uma iniciativa de banimento do uso da tecnologia para tais fins pode se fazer necessária. A medida pode contribuir para se retomar a discussão acerca da imposição de limites e salvaguardas em respeito aos Direitos Humanos. Mais do que isso, proteger os cidadãos de todo o mundo contra seus próprios governos, evitando, dessa forma, o surgimento de Estados autoritários.
2 Ética e Inteligência Artificial
O uso de inteligência artificial por meio da coleta de dados em massa, sobretudo pelos governos, pode abrir espaço para o crescimento do autoritarismo e do desrespeito aos direitos humanos. Uma das barreiras naturais contra esse risco é a aplicação de códigos de conduta ética no que se refere as tomadas de decisão e possíveis vieses, bem como sobre a coleta de dados dos cidadãos. Qualquer aplicação de I.A. deve ter como premissa básica o respeito a privacidade e a proteção de dados.
As tecnologias de I.A. usado pelos governos apresentam pouca ou nenhuma medida de transparência sobre os dados utilizados, os códigos de programação, algoritmos, tomadas de decisão e possíveis vieses, o que dificulta a análise ética de suas aplicações. O crescente uso da inteligente artificial trazem a tona diversos erros cometidos pelos algoritmos. Grande parte das alegações de erro se relaciona ao tratamento de imagens e reconhecimento facial.
Em um determinado caso, um pesquisador submeteu duas fotografias aos recursos de análise de imagens do Google. Em uma imagem um homem negro apontava um termômetro para a cabeça de outro homem, enquanto outra pessoa asiática tinha um termômetro apontado para a sua cabeça. Na foto do homem asiático, os termos que apareceram com maior frequência foram “Tecnologia” e “Dispositivo Eletrônico”. Na foto com o homem negro, o termo “arma” foi o mais frequente.[16]
Fonte: https://tarciziosilva.com.br/blog/google-acha-que-ferramenta-em-mao-negra-e-uma-arma/[17]
Seria possível relacionar tal erro apenas com o algoritmo de AI, como base de dados de qualidade insuficiente, lógica relacional do aprendizado de máquina, pouca diversidade no campo e aos programadores que não criam ou reforçam mecanismos de representação adequada?! Seriam os vieses do algoritmo apenas reflexos de problemas sociais mais profundos?
As respostas aos questionamentos têm o potencial de orientar a neutralidade ética da tecnologia. Ao se considerar hipoteticamente que determinado algoritmo reflete apenas a ética da vida em sociedade, com seus problemas e virtudes, é possível inferir sua neutralidade. Por outro lado, o afastamento das decisões algoritmias da realidade social pode indicar vieses intrínsecos ao algoritmo, ou seja, além dos preconceitos e comportamentos individuais e coletivos.
O erro do algorítmo supracitado, ao confundir o termômetro com uma arma, pode refletir um preconceito estrutural no atual contexto social. Diversos erros análogos ao da inteligência artificial do Google acontecem na vida cotidiana. Um caso emblemático, como exemplo, foi o de um PM que confundiu um garçom segurando um guarda-chuva com um fuzil. O garçom foi morto com três tiros. Não seria esse erro similar à decisão do algoritmo de I.A. do Google?[18]
Diante disso, parece que o algoritmo absorveu um comportamento racista diante de fatos e registros sociais que evidenciam o preconceito e racismo impregnado na sociedade. O algoritmo deveria corrigir esses viesses sociais mascarando a realidade social? Seria mais adequado que comportamentos de cunho preconceituoso e racista fossem extirpados na sociedade, através da educação, conscientização e correção de injustiças históricas. O aprendizado do algoritmo por dados que reflitam um mundo mais justo tende a se refletir também nas decisões algoritmias.
Diversas iniciativas têm surgido no mundo visando orientar a ética no uso da Inteligência Artificial. A ética de algoritmos de AI como reflexo da ética social média pode ser visto em um programa do MIT, universidade americana que criou um sistema em que qualquer pessoa pode acessar e ensinar o algoritmo a tomar decisões em relação aos dilemas morais.[19]Quanto mais pessoas participarem, mais o algoritmo tende a se aproximar de uma ética de consenso.
Um código de conduta ética e governança dedicado ao uso da Inteligência Artificial foi emitido pela OMS (Organização Mundial de Saúde). Dentre as principais diretrizes, destacam-se: pessoas devem permanecer no controle de sistemas de saúde e decisões médicas; aplicações de IA devem atender padrões de segurança, acurácia e eficácia; transparência das tecnologias quanto ao seu desenvolvimento e funcionamento; treinamento para profissionais quanto ao manuseio de produtos; princípios de inclusão e igualdade como fundamento para o desenvolvimento de ferramentas; e avaliação continua e transparente de produtos visando sanar erros rapidamente.[20]
Em 2018, no âmbito da União Europeia, foi emitido um guia sobre orientações éticas para uma IA de confiança. O documento apresenta uma série de princípios e requisitos a serem seguidos para o prudente uso e desenvolvimento de IA. São requisitos que devem ser aplicados e avaliados durante todo o ciclo de vida da IA, dentre os quais: transparência, diversidade, responsabilização, ação e supervisão humanas, solidez técnica e segurança, bem-estar social e ambiental, privacidade e governança dos dados, não discriminação e equidade.[21]
As orientações éticas emitidas pela União Europeia permitem um desenvolvimento mais seguro e justo da tecnologia. No mesmo sentido, a OMS definiu diretrizes que tendem garantir uma evolução mais segura da tecnologia no contexto da saúde. Ainda que a neutralidade da tecnologia se relacione com sua acurácia em refletir informações extraídas da realidade social. A orientação da I.A. em não replicar a discriminação, baseada em dados, em defesa de direitos individuais, mostra-se bem acertada.
A correção de vieses do algoritmo quando em promoção dos direitos individuais indica um caminho adequado para a evolução da tecnologia, ainda que desejável que os dados em sua origem refletissem uma realidade menos discriminatória e mais igual. As demais diretrizes e requisitos podem contribuir para a melhora da qualidade dos dados, da lógica relacional de aprendizado e os mecanismos de reforço de representação.
Todos esses requisitos éticos em conjunto podem fornecer uma interessante baliza contra o aparecimento da distopia e em promoção aos Direitos Humanos, principalmente ao se considerar a falta de transparência sobre o uso de sistemas de vigilância e reconhecimento facial por governos ao redor do mundo. Requisitos éticos devem ser introduzidos como parâmetros fundamentais em qualquer aplicação de I.A que possa repercutir em ofensa aos direitos e garantias fundamentais, especialmente em se tratando de governos.
3 XAI – A importância da Inteligência Artificial Explicável
Diante do uso cada vez mais disseminado de sistemas e tecnologias com base na I.A., ganha grande importância o conceito de XAI (Inteligência Artificial Explicável),[22]em especial em um contexto em que empresas e governos mantém os documentos dessas tecnologias fora do domínio público.[23]O conhecimento sobre a descrição dos algoritmos de I.A., os impactos esperados e os eventuais vieses, contribuem para a transparência e confiança na Inteligência Artificial, além de facilitar a auditabilidade das redes neurais.[24]
Os sistemas XAI devem orientar explicações para grupo de usuários específicos?[25]As explicações devem abordar um caráter mais geral? Os questionamentos não se mostram excludentes. Para promover a XAI deve se considerar a transparência, a interpretabilidade e a explicabilidade.[26]No entanto, modelos mais complexos de I.A. se tornam de difícil interpretação até para especialistas, ainda mais em um cenário que não há um padrão para medir a eficácia das explicações.
A explicação de cada algoritmo pode ser definida de acordo com sua finalidade. A referência da Inteligência artificial explicada é centrada nos usuários que dependem do resultado da I.A. Uma explicação para ser eficaz deve obedecer à heterogeneidade dos diferentes grupos que se utilizam do sistema de I.A.[27]
Neste cenário, modelos de aprendizado de máquina “caixa branca”, em que é possível rastrear e determinar os motivos pelos quais determinadas decisões foram tomadas pelo algoritmo, pode compor uma barreira interessante ao poder estatal de vigiar. O modelo de aprendizado de máquina “caixa branca” se concilia com o conceito de Inteligência Artificial Explicável - XAI. Os modelos de “caixa preta”, ao contrário, impõem dificuldades em se explicar os resultados e as decisões de uma rede neural até mesmo para especialistas.[28]
O enquadramento de algoritmos em modelos “caixa branca” ou “caixa preta” é diretamente influenciado pelo algoritmo de aprendizagem de máquina utilizado.[29]Árvores de decisão, regras de associação, redes neurais, lógica de programação indutiva e redes baynesianas são algumas das diversas abordagens para aprendizado de máquina, com suas vantagens, desvantagens e peculiaridades. Aplicações, que exigem explicações acerca das decisões tomadas, devem se vincular às abordagens de aprendizado de máquina que melhor se relacionem com os conceitos de explicabilidade, bem como a transparência e o respeito a privacidade.
A expansão dos casos de uso de I.A. e a melhora do desempenho dos modelos de aprendizado de máquina não avançam com o aumento da transparência. Para fins de exemplificação, considere o caso de uma professora que foi sempre bem avaliada por seus pares e seus alunos e, após aplicação de algoritmo de inteligência artificial para avaliação de professores, essa mesma professora foi mal avaliada e demitida por esse motivo. O mínimo que se poderia esperar seria uma explicação sobre os motivos e as circunstâncias que levaram o algoritmo a tomar esta decisão.[30]
Para se aproximar dos objetivos de explicabilidade e interpretabilidade, cinco métricas costumam aparecer como desejáveis, sendo elas: justiça, privacidade, confiabilidade, causalidade e confiança. No entanto, nem todos os modelos de I.A. geram impacto na vida das pessoas, não sendo imprescindível explicabilidade para esses casos, como no exemplo de uma I.A. que pode aprender a dançar.[31]Muito diferente de aplicações de reconhecimento facial, por exemplo, que podem vulnerar direitos humanos.
Considerando o desenvolvimento tecnológico atual e a expansão do uso de inteligência artificial, é importante vincular o uso de aplicações, que podem ofender direitos e garantias fundamentais, à garantia de sua explicabilidade e interpretabilidade. Isso inclui não apenas conhecer as motivações do julgamento, mas o porquê e como o resultado foi gerado. Além disso, para reforçar esse entendimento, as explicações devem adotar um caráter mais geral, para facilitar o entendimento de qualquer público. Dessa forma, determinadas aplicações somente poderiam ser estabelecidas sob essas garantias, sob pena de se inviabilizar o seu uso em razão à ofensa de direitos humanos.
De outra forma, o modelo “caixa preta” pode ter seu uso considerado para aplicações de menor potencial ofensivo ou experimentais, quando o impacto das decisões do modelo é menor, pelo menos no estágio tecnológico e regulatório atual. Nesse caso, é menos problemático orientar explicações para grupo de usuários específicos ao invés de estabelecer explicações mais gerais.
Diante desse contexto, torna-se premente vincular modelos “caixa branca” e algoritmos, que facilitem a explicabilidade e a interpretabilidade, aos sistemas de vigilância que possam vulnerabilizar à privacidade e os direitos humanos. Da mesma forma que um código de conduta ética deve ser considerado como parâmetro mínimo para a implantação de I.A, a explicabilidade e a interpretabilidade devem ser consideradas de igual forma.
Considerações Finais
Frente ao crescente uso de tecnologias de I.A. pelos governos para fins de vigilância e policiamento, torna-se premente fortalecer as discussões acerca dos limites e salvaguardas em proteção aos cidadãos em todo mundo. Dada a transnacionalidade das empresas e tecnologias envolvidas para tais fins, a promoção da democracia e dos direitos humanos devem se suceder mediante o desenvolvimento de diretrizes e um plano de conduta ética global para qualquer tecnologia que possa ofender direitos e garantias fundamentais.
Da mesma forma que uma máquina pode conseguir emular características humanas como aprender, raciocinar, reconhecer padrões e inferir, deve ser hábil em decidir eticamente e, mais que isso, disponibilizar informações que explicitem as razões sobre seu julgamento de forma clara e transparente. Definir diretrizes claras acerca da explicabilidade se tornam fundamental, sobretudo, no âmbito de sistemas de reconhecimento facial usados por governos.
Diante disso, torna-se fundamental a restrição sobre o uso de tais tecnologias para vigilância e policiamento enquanto não houver um plano ético bem definido, assim como parâmetros mínimos de interpretabilidade e explicabilidade. O desenvolvimento e a aplicação do conceito de inteligência artificial explicável, bem como imposição de parâmetros éticos e diretrizes, devem ser requisitos necessários para se pensar qualquer aplicação de I.A. que possa vulnerar direitos e garantias.
Referências
OLIVEIRA, Rui Flávio de. Inteligência Artificial. Londrina – PR. Editora e Distribuidora Educacional S.A., 2018
SCHAWAB, Klaus; MALLERET, Thierry. COVID-19: The Great Reset. Ed. 1°. World Economic Forum, 2020.
ORWELL, George. 1984. São Paulo: IBEP, 2003.
SILVA, Tarcizio. Google acha que ferramenta em mão negra é uma arma. Disponível em: https://tarciziosilva.com.br/blog/google-acha-que-ferramenta-em-mao-negra-e-uma-arma/. Acesso em: 21 ago. 2021.
Lee, Kai-Fu. AI superpowers: China, Silicon Valley, and the new world order. Houghton
Mifflin Harcourt, 2018.
CAMARGO, Renata. Como lidar com a Ética na Inteligência Artificial?. Disponível em: < https://glicfas.com.br/etica-na-inteligencia-artificial/>. Acesso em: 24 ago. 2021
INTELIGÊNCIA ARTIFICIAL. Expresso Futuro com Ronaldo Lemos. Canal Futura, 15 ago. 2017
Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: World Health Organization; 2021. Licence: CC BY-NC-SA 3.0 IGO.
Grupo de peritos de alto nível sobre a inteligência artificial. Orientações Éticas para uma IA de Confiança. Comissão Européia: 2018
The Rockefeller Foundation. Scenarius for the Future of Technology and International Development. may. 2010.
Ministério da Ciência, Tecnologia, Inovações e Comunicações. Consulta Pública: Estratégia Brasileira em Inteligência Artificial. MCTIC: 12. Dez. 2021.
Ministério da Ciência, Tecnologia, Inovações e Comunicações. Estratégia Brasileira em Inteligência Artificial - EBIA. MCTIC: jun. 2021.
Carta aberta para banimento global de usos de reconhecimento facial e outros reconhecimentos biométricos remotos que permitam vigilância em massa, discriminatória e enviesada. 7 Jun. 2021.
SMITH, Brown; ANN BROWNE, Carol. Tools and Weapons: The Promisse and The Peril of The Digital Age. New York. Penguin Press: 2019.
Arbulu, Rafael. Presidente da Microsoft critica “corrida pela IA” e pede regulamentações. OLHAR DIGITAL. Disponível em: < Presidente da Microsoft critica “corrida pela IA” e pede regulamentações (olhardigital.com.br) >. Acesso em: 29 set. 2021.
IPVM. BBC Panorama Documentary on AI Features IPVM. Disponível em: < BBC Panorama Documentary on AI Features IPVM >. Acesso em 29. Set. 2021.
FELDSTEIN, Steven. The Global Expansion of AI Surveillance. Carnegie Endowment for International Peace: 2019
Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S. ORCID: 0000-0001-6482- 1973 and Yang, G-Z. (2019). XAI-Explainable artificial intelligence. Science Robotics, 4(37), eaay7120. doi: 10.1126/scirobotics.aay7120
KENJI, Bruno. Machine Learning para Leigos. 18 dez. 2019. Disponível em: <Machine Learning para Leigos | Venturus>. Acesso em: 27 out. 2021.
UTSCH, Milo. O que é Xai, a Inteligência Artificial Explicável? 5 ago. 2020. Disponível em: < O que é xAI, conhecida como Inteligência Artificial Explicável? (take.net)>. Acesso em: 27 out. 2021.
TURING, Alan. M. Computing Machinery and Intelligence. Vol. Lix. N°236. Oct. 1950.
[1] TURING, Alan. M. Computing Machinery and Intelligence. Vol. Lix. N°236. Oct. 1950.
[2] “Top-Down Tighter World Scenario government control and more authoritarian leadership, with limited innovation and growing citizen resistance”. The Rockefeller Foundation. Scenarius for the Future of Technology and International Development. May. 2010, pg. 19.
[3]The Rockefeller Foundation. Scenarius for the Future of Technology and International Development. May. 2010.
[4] SCHAWAB, Klaus; MALLERET, Thierry. COVID-19: The Great Reset. Ed. 1°. World Economic Forum, 2020.
[5] ORWELL, George. 1984. São Paulo: IBEP, 2003.
[6] FELDSTEIN, Steven. The Global Expansion of AI Surveillance. Carnegie Endowment for International Peace: 2019
[7] SMITH, Brown; ANN BROWNE, Carol. Tools and Weapons: The Promisse and The Peril of The Digital Age. New York. Penguin Press: 2019.
[8] Ministério da Ciência, Tecnologia, Inovações e Comunicações. Estratégia Brasileira em Inteligência Artificial - EBIA. MCTIC: jun. 2021.
[9] Id. Ministério da Ciência, Tecnologia, Inovações e Comunicações.
[10] IPVM is a team of 25 with extensive experience working for security integrators, organizations, and manufacturers as well as graduates from Columbia, Dartmouth, Harvard, Lehigh, Northwestern, NYU, RIT, West Point, UPenn, and Yale. Disponível em: < https://ipvm.com/about >. Acesso em 30. Set. 2021.
[11] Arbulu, Rafael. Presidente da Microsoft critica “corrida pela IA” e pede regulamentações. OLHAR DIGITAL. Disponível em: < Presidente da Microsoft critica “corrida pela IA” e pede regulamentações (olhardigital.com.br) >. Acesso em: 29 set. 2021.
[12] IPVM. BBC Panorama Documentary on AI Features IPVM. Disponível em: < BBC Panorama Documentary on AI Features IPVM >. Acesso em 29. Set. 2021.
[13] Ministério da Ciência, Tecnologia, Inovações e Comunicações. Estratégia Brasileira em Inteligência Artificial - EBIA. MCTIC: jun. 2021.
[14] Id. Ministério da Ciência, Tecnologia, Inovações e Comunicações.
[15] Carta aberta para banimento global de usos de reconhecimento facial e outros reconhecimentos biométricos remotos que permitam vigilância em massa, discriminatória e enviesada. 7 Jun. 2021.
[16] SILVA, Tarcizio. Google acha que ferramenta em mão negra é uma arma. Disponível em: https://tarciziosilva.com.br/blog/google-acha-que-ferramenta-em-mao-negra-e-uma-arma/. Acesso em: 21 ago. 2021
[17] Id. SILVA, Tarcizio.
[18] Disponível em: < https://brasil.elpais.com/brasil/2018/09/19/politica/1537367458_048104.html>. Acesso em: 24 ago. 2021.
[19] INTELIGÊNCIA ARTIFICIAL. Expresso Futuro com Ronaldo Lemos. Canal Futura, 15 ago. 2017
[20] Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: World Health Organization; 2021. Licence: CC BY-NC-SA 3.0 IGO.
[21] Grupo de peritos de alto nível sobre a inteligência artificial. Orientações Éticas para uma IA de Confiança. Comissão Européia: 2018
[22] A inteligência artificial explicável (XAI) é um conjunto de processos e métodos que permite aos usuários humanos compreender e confiar nos resultados e na saída criados por algoritmos de machine learning. Disponível em: < IA explicável - Brasil | IBM >. Acesso em: 03 out. 2021
[23] FELDSTEIN, Steven. The Global Expansion of AI Surveillance. Carnegie Endowment for International Peace: 2019
[24] Disponível em: < IA explicável - Brasil | IBM >. Acesso em: 03 out. 2021
[25] Idem. XAI-Explainable artificial intelligence
[26] Disponível em: < IA explicável - Brasil | IBM >. Acesso em: 03 out. 2021
[27] Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S. ORCID: 0000-0001-6482- 1973 and Yang, G-Z. (2019). XAI-Explainable artificial intelligence. Science Robotics, 4(37), eaay7120. doi: 10.1126/scirobotics.aay7120
[28] Um modelo de caixa branca pode ser facilmente analisado para determinar por que um determinado dado recebeu o seguinte resultado. Por exemplo, podemos verificar as condições de uma árvore de decisão ou a função linear resultante de uma regressão linear e concluir o motivo exato do resultado obtido. Disponível em: <Machine Learning para Leigos | Venturus>. Acesso em: 27 out. 2021.
[29] Disponível em: <Machine Learning para Leigos | Venturus>. Acesso em: 27 out. 2021.
[30] UTSCH, Milo. O que é Xai, a Inteligência Artificial Explicável? 5 ago. 2020. Disponível em: < O que é xAI, conhecida como Inteligência Artificial Explicável? (take.net)>. Acesso em: 27 out. 2021.
[31] Idem. UTSH, Milo.
Especialista em Direito Digital pela Universidade do Estado do Rio de Janeiro - UERJ;
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: BATALHA, BRUNO DA SILVA. Inteligência Artificial e Governos: Os Limites do Poder de Vigiar Conteudo Juridico, Brasilia-DF: 09 set 2022, 04:26. Disponivel em: https://conteudojuridico.com.br/consulta/Artigos/59139/inteligncia-artificial-e-governos-os-limites-do-poder-de-vigiar. Acesso em: 22 nov 2024.
Por: Izabella Carvalho Santos
Por: Michael chagas pereira
Por: Jady de Paula Lopes
Precisa estar logado para fazer comentários.