RESUMO: Tendo em vista o significativo impacto da inteligência artificial (IA) sobre a vida das pessoas, o presente estudo visa discutir a regulamentação dos sistemas de IA com vistas à garantia de direitos humanos universais. Como metodologia foi empregada a pesquisa bibliográfica valendo-se de doutrinas e legislações pertinentes à temática abordada. Para tanto conceitua, classifica e expõe a aplicação da IA nos dias de hoje; e explica os possíveis impactos do Projeto de Lei (PL) 2338/2023 (Projeto que propõe a criação de um marco regulatório para a IA) sobre a proteção dos dados pessoais mais caros ao indivíduo e proteção dos direitos humanos universais.
Palavras-chave: Inteligência artificial. Marco regulatório para a inteligência artificial. Direitos humanos.
1 INTRODUÇÃO
A Inteligência Artificial (IA) é um ramo da ciência da computação que se dedica ao desenvolvimento de máquinas e sistemas com capacidade de realizar tarefas que normalmente demandam a inteligência humana. Isso pode incluir atividades como reconhecimento de voz, aprendizado, planejamento, resolução de problemas, percepção e manipulação de objetos[1]. Dito de outra forma, a IA é a tentativa de fazer com que os computadores imitem ou simulem a inteligência humana.
A IA pode ser classificada de várias maneiras, mas uma das mais comuns é a distinção entre IA fraca e IA forte[2]. A IA fraca, também conhecida como IA (narrow ou estreita), é um sistema de IA projetado para a realização de uma tarefa específica, como é o caso da recomendação de músicas, reconhecer rostos em imagens ou dirigir um carro. Já a IA forte, também conhecida como IA geral, é um sistema de IA que possui a capacidade de entender, aprender e aplicar o conhecimento a uma variedade de tarefas, de forma similar à inteligência humana. Até o momento, toda a IA criada é considerada IA fraca.
O Machine Learning (ML) é uma subcategoria da IA e é o método pelo qual ensina-se as máquinas a “aprender” e a se adaptar com o tempo. Em vez de programar explicitamente um computador para realizar uma tarefa, no ML, alimenta- se o computador com grandes quantidades de dados e um algoritmo que pode usar esses dados para aprender a realizar a tarefa por si mesmo[3]. Por exemplo, almeja- se criar um sistema de IA para identificar imagens de cachorros. Poder-se-ia tentar escrever um algoritmo que descreve as características de um cachorro. No entanto, isso seria extremamente difícil e provavelmente não funcionaria muito bem. Em vez disso, com o ML, alimenta-se o computador com muitas imagens de cachorros e permite-se que o algoritmo aprenda por si mesmos quais características são importantes para identificar um destes.
Existem várias técnicas de ML, incluindo aprendizado supervisionado, em que a aprendizagem do algoritmo se dá a partir de um conjunto de dados rotulados; aprendizado não supervisionado, onde o algoritmo aprende a partir de um conjunto de dados não rotulados; e aprendizado por reforço, onde o algoritmo aprende por tentativa e erro[4].
Assim, pode-se dizer que todo ML é IA, pois é uma maneira de alcançar a inteligência artificial, mas nem toda IA é ML, pois existem outras técnicas e abordagens para se alcançar a IA além do ML. O ML é uma parte crítica da IA hoje em dia, e é a base de muitos dos avanços mais significativos evidenciados no ramo nos últimos anos. No entanto, é importante lembrar que o ML é apenas uma das várias ferramentas e técnicas que os pesquisadores de IA têm à sua disposição, e a IA como um todo é um campo muito mais amplo e diversificado.
Feitas estas breves considerações iniciais e tendo em vista o significativo impacto da IA sobre a vida das pessoas, o presente estudo visa discutir a regulamentação dos sistemas de IA com vistas à garantia de direitos humanos universais.
Como metodologia foi empregada a pesquisa bibliográfica, valendo-se de doutrinas e legislações pertinentes às temáticas abordadas.
2 INTELIGÊNCIA ARTIFICIAL
A IA é uma área pertencente à ciência da computação que tem capturado a imaginação humana desde a sua concepção, e hoje está despontando e mostrando suas variadas formas de facilitação da vida cotidiana. Desde o seu início teórico na década de 1950, passando pelas várias fases de otimismo e decepção, até o seu recente renascimento, a IA tem sido uma força impulsionadora para o avanço tecnológico[5].
Um dos principais autores sobre o assunto, Kai-Fu Lee[6] acredita que ela transformará muitos setores da economia, automatizando muitos empregos, mas também criando oportunidades. Além disso, prevê que ela será responsável por uma nova revolução industrial, causando transformações significativas na economia global. Segundo ele, China e os EUA serão as duas superpotências da IA, dada a sua atual liderança em termos de pesquisa e desenvolvimento, bem como a disponibilidade de significativos volumes de dados necessários para treinar modelos de IA.
Lee também reconhece que a IA causará disfunções, incluindo a extinção de empregos, enfatizando a necessidade de preparar a sociedade para essas mudanças. Segundo ele, os humanos devem focar em habilidades que as máquinas não são capazes de replicar, como a criatividade e empatia.[7]
Bem, fato é que a IA é um campo vasto e diversificado, abrangendo várias subdisciplinas e abordagens, o que inclui o aprendizado de máquina (machine learning), que permite que os sistemas aprendam e melhorem a partir da experiência, e o processamento de linguagem natural, que possibilita que as máquinas compreendam e respondam à linguagem humana.[8]
Também, inclui áreas como a visão computacional, que dá às máquinas a capacidade de “ver” e interpretar imagens e vídeos, e a robótica, que envolve a criação de máquinas com capacidade de interagir com o mundo físico[9].
Na era digital atual, a IA desempenha uma função cada vez mais importante. Trata-se da força motriz por trás de uma diversidade de inovações e aplicações, desde motores de busca na internet e sistemas de recomendação personalizados, até assistentes virtuais e veículos autônomos. A IA está transformando indústrias, desde a saúde e a educação, até finanças e a manufatura, oferecendo novas oportunidades e desafios. Na saúde, por exemplo, agora é possível ter diagnóstico assistido por IA, que está sendo usado para melhorar a precisão e a celeridade dos diagnósticos médicos. A DeepMind, uma empresa do Google, desenvolveu um sistema de IA que pode diagnosticar certas condições oculares com a mesma precisão que os melhores especialistas humanos[10].
Na educação, ela permite um ensino mais personalizado e adaptativo, ajustando o conteúdo de acordo com as necessidades individuais do aluno. Empresas como a DreamBox Learning[11] oferecem plataformas de aprendizagem adaptativas baseadas em IA.
A detecção de fraudes também tem ganhado, detectando atividades suspeitas e prevenindo fraudes[12]. Na indústria a IA também tem sido usada. A General Electric, por exemplo, a utiliza para monitorar o desempenho de suas turbinas e prever necessidades de manutenção[13].
Um elemento-chave para o seu funcionamento é o uso de dados. A IA, especialmente o aprendizado de máquina, depende de grandes quantidades de dados para aprender e aperfeiçoar. Os algoritmos de IA são treinados em conjuntos de dados, aprendendo a reconhecer padrões e fazer previsões ou decisões com base nesses padrões. Quanto mais dados um algoritmo de IA tem para treinar, geralmente, mais preciso e eficaz ele se torna. Isso tornou a coleta e o uso de dados uma parte central da revolução da IA.
No entanto, o uso de dados pela IA também levanta uma série de questões importantes. Dentre os muitos questionamentos dos quais se tem conhecimento, citam-se: Quem possui os dados usados para treinar algoritmos de IA? Como esses dados são coletados e usados? Quais são as implicações para os direitos humanos? Como garantir que a IA seja empregada de forma responsável e ética? Essas são algumas das questões que estão no centro do debate sobre a IA e a proteção de dados.
Como visto, ela vem desempenhando um papel cada vez mais importante na direção da sociedade e economia hodiernas, proporcionando oportunidades sem precedentes para o progresso, ao mesmo tempo que apresenta desafios significativos.
Porém, também enfrenta desafios significativos. Questões referentes à privacidade e segurança de dados ganham cada vez maior proeminência, à medida que a IA depende do processamento de grandes volumes de dados, muitas vezes pessoais. Além disso, também levanta questionamentos sobre o futuro do trabalho e a desigualdade social, à medida que a automação ameaça certos tipos de empregos e pode levar a uma maior concentração de riqueza.
Ademais, a IA pode ser uma ameaça aos direitos humanos, notadamente em razão do uso de algoritmos com finalidades discriminatórias, como se observa do exemplo da Correctional Offender Management Profiling for Alternative Sanctions (COMPAS).
O COMPAS é um software que integra o pacote de softwares de suporte de decisões automatizado Suite Northpointe. É um sistema da Equivant, empresa estadunidense dedicada ao mercado de programas voltados ao sistema de justiça, desenvolvendo sistemas que atuam desde a avaliação da periculosidade e probabilidade de reincidência dos agentes até a sua supervisão dentro do sistema prisional e também o seu processo de reintegração na sociedade, conforme consta no próprio site da empresa[14].
Dentre as várias escalas do COMPAS, o COMPAS Pretrial teve incidência direta e indireta no desdobramento do caso e no tratamento atribuído ao possível delinquente vítima de discriminação algorítmica, o que influencia no processo decisório dos Tribunais que o utilizam.
Tratava-se, pois, de um software utilizado por tribunais americanos com o propósito de auxiliar juízes a decidirem sobre penas e concessão ou não de fiança a criminosos. Após ser condenado e receber uma avaliação de alta periculosidade, Eric Loomis recorreu à Suprema Corte de Wisconsin para obtenção de acesso aos critérios que o definiram, o que lhe foi negado sob a alegação de segredo industrial[15].
Não obstante, a organização não governamental americana ProPublica descobriu, com base na aplicação de um teste estatístico sobre as respostas geradas pelo mencionado mecanismo, que réus negros tinham maior probabilidade de serem considerados mais propensos ao cometimento de crimes violentos no futuro, 77% e 45% mais chances de previsão de cometimento de qualquer futuro crime.[16]
Como os softwares utilizados para a automatização das decisões são alimentados e treinados pelos dados, caso os dados apresentem algum tipo de defeito ou viés, essa característica passará a ser incorporada na própria programação.
A fim de explicitar como o fenômeno acontece, será utilizado o exemplo do COMPAS. Cathy O’Neil[17] explica que o mecanismo se utiliza de um questionário com perguntas sobre criação, família, onde reside, empregos, se já possui passagens pela polícia, condenações criminais anteriores, entre outras.
A mencionada autora também indica que um estudo de 2013 realizado pela Associação Nova-Iorquina para Liberdades Civis expôs que homens negros e latinos com idades entre 14 e 24 anos correspondem a 40,6% das paradas policiais apesar de configurarem apenas 4,7% da população, o que significa que possuem chances infinitamente maiores de responder processo judicial por crimes de menor potencial ofensivo, como consumo de bebida alcoólica acima do limite legal, por exemplo[18].
Além disso, ao considerar informações como local onde vive, familiares e amigos, o cidadão pobre também tem a sua periculosidade aumentada, uma vez que possivelmente reside em locais periféricos com maiores taxas de criminalidade e possui parentes que já têm passagens pela polícia. Assim, o sistema gerará resultados indicando alta periculosidade, fazendo com que não lhe seja concedido o direito de fiança, lhe seja aplicada sentença mais longa, tirando-o do convívio social por mais tempo e dificultando a sua reinserção no mercado de trabalho[19].
Em uma sociedade de grande exposição através das redes sociais como a vivida atualmente, é possível a utilização de informações disponibilizadas pelo próprio titular de dados, como círculo de amigos, viagens realizadas e restaurantes frequentados para a sua categorização. Sobre o assunto, alerta Stefano Rodotá: “[…] até as informações mais inócuas podem, se integradas a outras, provocar dano ao interessado”[20] Assim, deve haver também uma preocupação quanto à legitimidade da utilização de determinados dados para cada perfilamento.
Ainda mais agravante é o fato de que as decisões são tomadas de grande opacidade, ou seja, não é possível estabelecer exatamente quais os parâmetros e sua relevância para se atingir certo juízo de valor, o que é bastante conveniente ao responsável pelo tratamento, uma vez que seus interesses permanecem resguardados sob a égide da própria complexidade de programação.
Mesmo não trazendo nenhuma pergunta referente à raça, o sistema possui quesitos entendidos como representativos de situações raciais, a saber: “alguém em sua família foi preso?”, “Quantas vezes você foi preso?”, “Seus pais já foram presos?”, “Quantos de seus amigos usam drogas ilegais?”, “Com que frequência você brigava na escola?”. Essas perguntas, em geral, buscam obter informações que costumam ser mais propícias às minorias étnicas do que à população branco.[21]
Diante dessa discriminação disseminada através do uso da IA pelo Direito, é válido ressaltar que, diferentemente do que se poderia concluir, não há que se falar na possibilidade de o algoritmo “ser” racista, pois sendo a IA fruto do aprendizado de máquina, utilizando, portanto, apenas um conjunto finito de dados (casos ou exemplos) que descrevem o processo ou a situação com a finalidade de alcançar alguma solução a partir de tais dados/casos, o que há, na realidade, é a propagação de ideais racistas dos que criaram o algoritmo, bem como do próprio Tribunal no qual este é aplicado[22].
Tem-se, pois, que a IA é uma força transformadora na era digital. Ela está reformulando a forma como as pessoas vivem, trabalham e interagem uns com os outros e com o mundo. É uma ferramenta poderosa que, se usada de maneira responsável e ética, tem o potencial de trazer benefícios significativos para a sociedade. No entanto, também é importante reconhecer e abordar os desafios que a IA apresenta, para garantir que todos possam se beneficiar de suas promessas.
3 PROJETO DE LEI QUE CRIA UM MARCO REGULATÓRIO DA INTELIGÊNCIA ARTIFICIAL NO BRASIL (PL 2338/23)
No dia 03 de maio de 2023 o Presidente do Senado protocolou um projeto de lei (PL) que cria um marco regulatório da inteligência artificial no Brasil (PL 2338/23). O PL é oriundo do Relatório final da Comissão de Juristas que tem a responsabilidade de subsidiar a elaboração de substitutivo sobre a IA no Brasil.
Segundo o documento final da CJUSBIA, no panorama brasileiro atual, estabelecer um arcabouço legal ajudaria tanto a proteger o ente mais exposto ao uso de inteligências artificiais – o cidadão comum – quanto a fomentar um ambiente de clareza na interpretação das regras. Isso daria confiança para o desenvolvimento da inovação e o avanço econômico-tecnológico.
O texto também menciona que a proposta legislativa apresentada presume que não é adequado priorizar uma questão em detrimento de outra ao debater a salvaguarda de direitos e liberdades fundamentais, a valorização do trabalho e a dignidade humana frente a ordem econômica e à formação de novas estruturas de valor. O objetivo é alinhar a sugestão com a Constituição Federal e outros estatutos que enfrentam problemas parecidos, como o Código de Defesa do Consumidor (CDC) e a Consolidação das Leis do Trabalho (CLT).
Este projeto buscou equilibrar uma abordagem que leva em consideração os riscos com uma estrutura regulatória baseada em direitos, incluindo ainda mecanismos de supervisão para garantir responsabilidade e incentivar a boa conduta dos atores econômicos que gerenciam adequadamente os riscos associados ao desenvolvimento e uso de sistemas de IA.
Os juristas sugeriram que fossem definidos direitos e responsabilidades levando em conta o impacto dos sistemas de IA na vida diária das pessoas. Eles também pensaram em estabelecer direitos fundamentais que seriam aplicáveis em qualquer situação em que humanos interagem com máquinas. Eles queriam garantir o direito ao devido processo legal para aqueles cujos direitos e liberdades possam ser afetados por uma decisão tomada totalmente ou parcialmente por um sistema automatizado. Eles acreditam que há um equilíbrio adequado entre os riscos e as medidas gerais e específicas de supervisão.
Levando em consideração a importância das avaliações de impacto nas abordagens regulatórias americanas e europeias, eles dedicaram uma seção inteira a essa ferramenta.
Além de explicar brevemente os passos que são seguidos ao usar essa ferramenta, eles também afirmaram que essas avaliações devem ser públicas para que os riscos possam ser analisados e discutidos pelo público. Uma das principais metas da regulação proposta é diminuir a falta de equilíbrio na informação disponível, e por isso eles também sugerem a criação de um banco de dados público com as respectivas avaliações de impacto.
Com o objetivo de regular proporcionalmente as consequências adversas de um sistema de inteligência artificial, o relatório lista as chamadas “circunstâncias de risco elevado”. Estas representam situações em que o uso da tecnologia é vedado, graças à existência de direitos imprescindíveis. Ilustrações desses cenários englobam a incitação de ações nocivas à segurança e integridade física, e danos à autodeterminação, como o social scoring – um sistema de classificação que dá notas para acesso a bens, serviços e políticas governamentais. A identificação biométrica contínua e à distância em locais públicos, devido ao seu elevado grau de perigo, requer uma regulamentação federal específica.
Ao categorizar riscos e reforçar direitos e responsabilidades, é crucial destacar a consideração e incorporação da realidade brasileira, caracterizada por desigualdades e disparidades estruturais, com o racismo sendo uma das suas manifestações. Portanto, o relatório presta atenção especial a grupos vulneráveis, tanto na identificação de sistemas de alto risco quanto no fortalecimento de certos direitos. O projeto de regulamentação não deve ser apenas uma transposição de regras estrangeiras para o Brasil, um país com sua própria realidade política, econômica e social, como destacado por vários especialistas durante um seminário internacional em junho do mesmo ano. Nesse contexto, a proposta acentua a proteção contra a discriminação com uma série de mecanismos, como o direito à informação e ao entendimento, o direito de contestação e um direito particular de correção de viés discriminatório direto, indireto, ilegal ou abusivo, além de medidas preventivas de supervisão.
Assim, o projeto de substitutivo procura estabelecer critérios quantitativos e qualitativos para avaliar e reduzir riscos, utilizando tanto disposições prévias quanto posteriores. Esses critérios permitem a colaboração na regulamentação, ensejando que os setores interessados no processo regulatório participem da elaboração de políticas (corregulação).
Além de promover a adoção de acordos consensuais, o substitutivo dedica uma seção para definir os procedimentos para os chamados sandboxes regulatórios. Em consonância com o direito internacional, o substitutivo estabelece diretrizes para conformar os direitos autorais e de propriedade intelectual à noção de que os dados devem ser um bem comum e, portanto, devem ser compartilhados para o treinamento de máquinas e o desenvolvimento de sistemas de inteligência artificial, sem prejudicar os titulares desses direitos. Dessa forma, a regulação pode ser um instrumento para promover a inovação de maneira específica.
Com o objetivo de incentivar a pesquisa científica, o interesse público e a inovação, o art. 42 estabelece que:
A mineração de dados por organizações e instituições de pesquisa, jornalismo e museus, arquivos e bibliotecas, bem como outros atores em circunstâncias específicas, não viola direitos autorais, desde que não se destine a fins expressivos e esteja em conformidade com os requisitos estabelecidos nas convenções internacionais das quais o Brasil é signatário[23].
Isso elimina a insegurança jurídica e estabelece condições equitativas para atores nacionais e estrangeiros, ao mesmo tempo em que busca um equilíbrio desejado pelos diferentes setores envolvidos.
3.1 Sobre o PL 2.338/2023
No bojo do relatório encontra-se a minuta do substitutivo proposto pela Comissão que se tornou o PL 2.338/2023, o qual é composto por nove capítulos e quarenta e cinco artigos.
São capítulos: I – Das disposições preliminares (art. 1º a 4º); II – Dos direitos (art. 5º até 12); III – Da categorização dos riscos (art. 13 a 18); IV – Da governança dos sistemas de IA (art. 19 a 26); V – Da responsabilidade civil (27 a 29); VI – Dos códigos de boas práticas e governança (art. 30); VII – Da comunicação de incidentes graves (art. 31); VIII – Da supervisão e fiscalização (art. 32 a 43); e IX – Das disposições finais (art. 44 e 45).
No art. 1o do Capítulo I, o texto tem início dizendo que a lei busca estabelecer:
normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico[24].
O art. 2º[25] traz dez fundamentos. Neste sentido, os fundamentos podem ter algum ponto de conexão com a proteção de dados pessoais, no seguinte sentido:
a) A centralidade da pessoa humana. Isto porque a LGPD coloca a privacidade e os dados pessoais dos indivíduos no centro das preocupações e estabelece que as empresas e o poder público devem tratá-los com respeito e responsabilidade, de modo que se vislumbra uma conexão aqui.
b) O respeito aos direitos humanos e valores democráticos, ao proteger a privacidade e os dados pessoais dos indivíduos, bem como ao estabelecer regras claras e transparentes para o uso desses dados.
c) A proteção ao meio ambiente e defesa do desenvolvimento sustentável, pois, muito embora a LGPD não esteja diretamente relacionada à proteção ambiental, o respeito à privacidade e aos dados pessoais pode contribuir para a promoção de práticas mais sustentáveis, ao evitar o uso excessivo de recursos e a coleta indiscriminada de informações.
d) A igualdade, a não-discriminação e o respeito aos direitos laborais, tendo em vista que a LGPD estabelece regras para evitar a discriminação e promover a igualdade no tratamento dos dados pessoais, bem como para garantir o respeito aos direitos trabalhistas dos funcionários das empresas que lidam com esses dados.
e) A privacidade, a proteção de dados e a autodeterminação informativa. Este parece ser o fundamento da IA que guarda-maior conexão com a LGPD, já que esta é uma legislação voltada para a proteção da privacidade e dos dados pessoais, e estabelece regras claras para garantir a autodeterminação informativa dos indivíduos. Evidentemente é o fundamento mais conectado com a LGPD.
e) A promoção da pesquisa e do desenvolvimento com o objetivo de estimular a inovação nos setores responsáveis pela produção e no poder público, pois sabe- se que a LGPD não impede a pesquisa e o desenvolvimento de tecnologias inovadoras, mas estabelece regras para o uso de dados pessoais nesses processos, garantindo que sejam tratados com respeito e responsabilidade.
f) O acesso à informação e à educação, além da conscientização sobre os sistemas de IA e suas aplicações. A LGPD estabelece a necessidade de informar os indivíduos sobre o uso de seus dados pessoais e de garantir o acesso a essas informações, promovendo, assim, a conscientização sobre o tema.
O art. 3º traz[26] diversos princípios, que também podem se relacionar com a LGPD:
a) Autodeterminação e liberdade de escolha, que estabelece que os titulares de dados têm o direito de tomar decisões sobre o uso de seus dados pessoais, incluindo o direito de consentir ou não com o uso desses dados.
b) Não discriminação com fundamento em raça, gênero, predileção sexual ou outras características pessoais, além de estabelecer que os dados pessoais não podem ser usados para esse fim.
c) Transparência, explicabilidade, inteligibilidade e auditabilidade, sabendo-se que as empresas precisam ser transparentes com relação ao uso de dados pessoais, explicando de forma clara e inteligível como os dados serão usados, e permitindo que os titulares de dados tenham acesso a seus dados e saibam como eles estão sendo usados.
d) Confiabilidade e robustez dos sistemas de IA e segurança da informação, fazendo-se necessário mencionar que a LGPD estabelece regras para garantir a segurança dos dados pessoais, incluindo a proteção contra vazamentos e acessos não autorizados.
e) Devido processo legal, contestabilidade e contraditório, pois os titulares de dados têm o direito de contestar e contraditar as decisões tomadas com base em seus dados pessoais, e que essas decisões devem ser tomadas com base em processos legais adequados.
f) Rastreabilidade das decisões enquanto perdurar o ciclo de vida dos sistemas de IA como forma de prestar contas e atribuir responsabilidades a uma pessoa natural ou jurídica.
g) Prestação de contas, responsabilização e total reparação de danos pelo uso inadequado de dados pessoais.
h) Prevenção e precaução, além da mitigação dos riscos sistêmicos que derivam de usos intencionais e não-intencionais e efeitos não de sistemas de IA fora do espectro de previsão.
Os princípios que orientam o desenvolvimento e uso da IA e a LGPD possuem diversas relações entre si. Ambos visam garantir o uso ético e responsável de dados pessoais e sistemas automatizados, protegendo a privacidade e os direitos dos cidadãos. A LGPD estabelece regras para a coleta, uso, armazenamento e compartilhamento de dados pessoais, enquanto os princípios relacionados à IA buscam assegurar que esses sistemas sejam desenvolvidos e utilizados de forma ética e responsável. Dessa forma, a observância desses princípios na criação e uso desses sistemas, contribui para a garantia da privacidade, dos direitos humanos e para uma sociedade mais justa e inclusiva.
A interseção da IA com a LGPD no Brasil, como delineada nos artigos mencionados, sinaliza para um esforço consciente para assegurar que as práticas de IA estejam em conformidade com os padrões de privacidade e proteção de dados. De acordo com a LGPD, a privacidade do usuário deve ser uma prioridade desde a concepção de qualquer sistema ou serviço que lide com dados pessoais. Portanto, os princípios do privacy by design e privacy by default são essenciais ao desenvolver e implementar sistemas de IA.
Além disso, o foco na minimização de dados ressalta a necessidade de coletar e processar somente os dados estritamente necessários para o objetivo em questão. Isso se alinha com a LGPD e outras regulamentações globais de proteção de dados que exigem que os dados sejam utilizados de maneira responsável e proporcional. Constata-se, portanto, que as disposições legais para a IA no Brasil estão comprometidas em proteger os direitos dos indivíduos, colocando a privacidade e a proteção de dados pessoais como princípios centrais no desenvolvimento e uso de IA. Isso não apenas aumenta a confiança do público nos sistemas de IA, mas também ajuda a promover um ambiente de inovação responsável e ética.
Por fim, tratando dos artigos com referência mais específica à LGPS, o art. 42, § 3º menciona a atividade de mineração de textos e dados (também conhecida como text and data mining ou TDM) que envolvem dados pessoais, e a obrigatoriedade de sua conformidade com a LGPD. A mineração de textos e dados é uma prática que envolve a análise de grandes quantidades de dados para descobrir padrões, tendências e as informações necessárias. Quando essa prática envolve dados pessoais, ela pode potencialmente levantar questões significativas de privacidade e proteção de dados.
Considerando a LGPD, as organizações precisam garantir que a coleta, o processamento, o armazenamento e a partilha de dados pessoais estejam em conformidade com os princípios da lei, como as hipóteses legais de tratamento, entre outros aspectos, tais como transparência, finalidade e necessidade. Isso significa que qualquer atividade de mineração de textos e dados que envolva dados pessoais deve ser realizada de acordo com esses princípios, garantindo que os direitos do titular dos dados sejam respeitados. Por exemplo, se uma organização deseja realizar mineração de textos e dados em seus registros de clientes para fins de análise, ela deve garantir que tenha obtido o consentimento adequado, que os dados sejam usados apenas para a finalidade declarada, que os dados sejam devidamente protegidos e que qualquer outra obrigação da LGPD seja cumprida. Se a organização não puder garantir a conformidade com a LGPD, ela pode enfrentar sanções significativas, incluindo multas pesadas.
Dessa forma, o art. 42, § 3º, ao sujeitar a mineração de textos e dados que envolvam dados pessoais às disposições da LGPD, estabelece uma diretriz importante para garantir a privacidade e a proteção de dados no uso de tecnologias de IA. Isso reforça a ideia de que a inovação e a exploração de grandes volumes de dados não devem comprometer os direitos fundamentais dos indivíduos. A lei, portanto, incentivas práticas responsáveis e éticas no desenvolvimento e implementação de soluções baseadas em IA, garantindo que os direitos dos titulares dos dados sejam respeitados em todas as etapas do processamento de dados, desde a coleta até a análise e utilização dos resultados.
4 CONCLUSÃO
A rápida evolução da IA sinaliza uma era de inovação tecnológica sem precedentes, mas suscita questões críticas sobre a utilização responsável e ética dessas tecnologias, o que tem atraído a atenção de reguladores, organizações, acadêmicos e profissionais de diversas disciplinas.
A interseção entre a governança de IA e a proteção de dados tem se tornado cada vez mais evidente, desafiando os profissionais a decifrar as complexas dinâmicas que ligam as regulamentações de privacidade aos desenvolvimentos mais amplos da IA. À medida que as autoridades governamentais intensificam a regulamentação e a legislação nesta esfera complexa, torna-se crucial para as organizações compreenderem tanto os requisitos de proteção dos dados pessoais que atualmente se aplicam à IA, quanto aqueles emergentes.
Neste artigo, foi enfatizada a necessidade de recursos robustos e programas de proteção de dados eficientes que sejam compatíveis com as aplicações de IA. Afinal, a construção de tais estruturas terá o poder de assegurar a conformidade com as normas e, ainda, para aumentar e consolidar a confiança humana no uso responsável da IA. Isso é fundamental para garantir que o poder da IA seja usado de maneira benéfica e ética, servindo como um catalisador para o progresso sem comprometer os direitos individuais de privacidade.
No que diz respeito ao cenário legislativo brasileiro, embora bem-intencionado e com menções à proteção de dados pessoais nas propostas legislativas de regulamentação da IA, não parece crível que seja suficiente para, pelo simples advento de um texto legal, trazer a confiança necessária. É que a Autoridade Nacional de Proteção de Dados Pessoais – a ANPD – a despeito de estar se engajando positivamente nas suas atividades, ainda não está estruturada de forma compatível com a necessidade de fiscalização que a atualidade impõe. E muito menos estará adequada a analisar também aspectos da IA que possam repercutir na proteção de dados pessoais.
Almeja-se que seja possível engajar também a sociedade civil, especialmente no que diz respeito aos desenvolvedores da IA para que adotem desenvolvimentos éticos padronizados e com foco na proteção de dados pessoais. Sem essa contribuição essencial, a lei, por melhor que seja, não será suficiente para proteger vulneráveis com a devida efetividade.
REFERÊNCIAS
ANGWIN, J.; LARSON, J.; MATTU, S.; KIRCHNER, L. Machine Bias. ProPublica, 23.05.2016. Disponível em: https://www.propublica.org/article/machine-bias-risk- assessments-in-criminal-senten cing. Acesso em: 8 nov. 2023.
BECKER, D.; FERRARI, I.; WOLKART, E.N. Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. Revista dos Tribunais Online, v. 995, 2018, p. 2. Disponível em: http://governance40.com/wp content/uploads/2018/11/ARBITRIUM-EX-MACHINA- PANORAMARISCOS-E-A-NECESSIDADE.pdf. Acesso em: 8 nov. 2023.
BRANCO, Sérgio; MAGRANI, Eduardo (Coords.). Inteligência Artificial: Aplicações e desafios. Rio de Janeiro: Instituto de Tecnologia e Sociedade do Rio de Janeiro; ITS/Obliq, 2022.
BRASIL. PL no 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 9 novembro 2023
DE FAUW, J. et al. Clinically applicable deep learning for diagnosis and referral in retinal disease. Nature Medicine, v. 24, p. 1342–1350, 2018.
DOMINGOS, P. O Algoritmo Mestre. São Paulo: Novatec, 2015.
DREAMBOX LEARNING. DreamBox Learning – Online Math Learning for Students, K-8. 2021. Disponível em: http://www.dreambox.com/. Acesso em: 9 novembro 2023.
EQUIVANT. About us. Disponível em: https://www.equivant.com/about-us/. Acesso em: 8 novembro 2023.
GENERAL ELECTRIC. Predix Asset Performance Management (APM) Overview. 2021. Disponível em: https://www.ge.com/digital/applications/predix-asset-performan ce-management. Acesso em: 9 novembro 2023.
LARSON, S.M.; KIRCHNER, L.; ANGWIN, J. How We Analyzed the COMPAS Recidivism Algorithm. 23.05.2016. Disponível em: https://www.propublica.org/arti cle/how-we-analyzed-the-compas-recidivism-algorithm. Acesso em: 8 novembro 2023.
LEE, Kai-Fu. AI Superpowers: China, Silicon Valley, and the New World Order. Boston, MA: Houghton Mifflin Harcourt, 2018.
MASTERCARD. How Mastercard uses artificial intelligence to stop fraud and reduce false declines. 2021. Disponível em: https://www.mastercard.us/en-us/issuers/products-and-solutions/grow-manage-your-business/security-and-risk- management/artificial-intelligence.html. Acesso em: 9 novembro 2023.
O’NEIL, C. Algoritmos de destruição em massa: como o Big Data aumenta a desigualdade e ameaça a democracia. Trad. Raphael Abraham. Santo André, SP: Rua do Sabão, 2020
RODOTÁ, S. A vida na sociedade de vigilância: a privacidade hoje. Rio de Janeiro: Renovar, 2008
RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. Upper Saddle River, NJ: Prentice Hall, 2010.
SILVA, N.C. Inteligência Artificial. In: FRAZÃO, A.; MULHOLLAND, C. (Coord.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters, 2019.
[1] BRANCO, Sérgio; MAGRANI, Eduardo (Coords.). Inteligência Artificial: Aplicações e desafios. Rio de Janeiro: Instituto de Tecnologia e Sociedade do Rio de Janeiro; ITS/Obliq, 2022, p. 8.
[2] Stuart Russell e Peter Norvig, no seu livro “Artificial Intelligence: A Modern Approach”, discutem várias abordagens, conceitos e implicações da inteligência artificial. Eles tratam das distinções entre diferentes tipos de IA incluindo a diferença entre sistemas de IA especializados (equivalente à IA fraca ou Narrow AI) e a ideia de uma IA geral (equivalente à IA forte ou General AI). A IA fraca é descrita como sistemas que estão projetados para realizar tarefas específicas e não têm a capacidade de compreender ou aprender fora dessas tarefas. Por outro lado, a IA forte é apresentada como um tipo teórico de IA que poderia realizar qualquer tarefa cognitiva que um humano pode fazer, demonstrando um tipo de compreensão ou consciência. No entanto, o livro não se concentra apenas nessa distinção. Ele cobre uma ampla gama de tópicos dentro da IA incluindo aprendizado de máquina, lógica, planejamento, percepção, entre outros. Vide: RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. Upper Saddle River, NJ: Prentice Hall, 2010.
[4] SILVA, N.C. Inteligência Artificial. In: FRAZÃO, A.; MULHOLLAND, C. (Coord.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters, 2019. p. 35.
[6] LEE, Kai-Fu. AI Superpowers: China, Silicon Valley, and the New World Order. Boston, MA: Houghton Mifflin Harcourt, 2018, p. 33.
[8] RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. Upper Saddle River, NJ: Prentice Hall, 2010.
[10] DE FAUW, J. et al. Clinically applicable deep learning for diagnosis and referral in retinal disease. Nature Medicine, v. 24, p. 1342–1350, 2018.
[11] DREAMBOX LEARNING. DreamBox Learning – Online Math Learning for Students, K-8. 2021. Disponível em: http://www.dreambox.com/. Acesso em: 9 novembro 2023.
[12] MASTERCARD. How Mastercard uses artificial intelligence to stop fraud and reduce false declines. 2021. Disponívelem: https://www.mastercard.us/en-us/issuers/products-and-solutions/grow-manage-your-business/security-and-risk-management/artificial-intelligence.html. Acesso em: 9 novembro 2023.
[13] GENERAL ELECTRIC. Predix Asset Performance Management (APM) Overview. 2021. Disponível em: https://www.ge.com/digital/applications/predix-asset-performance-management. Acesso em: 9 novembro 2023.
[14] EQUIVANT. About us. Disponível em: https://www.equivant.com/about-us/. Acesso em: 8 novembro 2023.
[15] BECKER, D.; FERRARI, I.; WOLKART, E.N. Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. Revista dos Tribunais Online, v. 995, 2018, p. 2. Disponível em: http://governance40.com/wpcontent/uploads/2018/11/ARBITRIUM- EX-MACHINA-PANORAMARISCOS-E-A-NECESSIDADE.pdf. Acesso em: 8 nov. 2023.
[16] ANGWIN, J.; LARSON, J.; MATTU, S.; KIRCHNER, L. Machine Bias. ProPublica, 23.05.2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-senten cing. Acesso em: 8 nov. 2023.
[17] O’NEIL, C. Algoritmos de destruição em massa: como o Big Data aumenta a desigualdade e ameaça a democracia. Trad. Raphael Abraham. Santo André, SP: Rua do Sabão, 2020, p. 40.
[19] O’NEIL, C. Algoritmos de destruição em massa: como o Big Data aumenta a desigualdade e ameaça a democracia. Op. cit., p. 43-44.
[20] RODOTÁ, S. A vida na sociedade de vigilância: a privacidade hoje. Rio de Janeiro: Renovar, 2008, p. 36.
[21] LARSON, S.M.; KIRCHNER, L.; ANGWIN, J. How We Analyzed the COMPAS Recidivism Algorithm. 23.05.2016. Disponível em: https://www.propublica.org/article/how-we-analyzed-the-com pas-recidivism-algo rithm. Acesso em: 8 novembro 2023.
[22] O’NEIL, C. Algoritmos de destruição em massa: como o Big Data aumenta a desigualdade e ameaça a democracia. Op. cit., p. 42.
[23] BRASIL. PL no 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 9 novembro 2023.
[24] BRASIL. PL no 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 9 novembro 2023.
[25] Fundamentos previstos no PL no 2.338/2023: “I – a centralidade da pessoa humana; II – o respeito aos direitos humanos e aos valores democráticos; III – o livre desenvolvimento da personalidade; V – a proteção ao meio ambiente e o desenvolvimento sustentável; V– a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas; VI– o desenvolvimento tecnológico e a inovação; VII– a livre iniciativa, a livre concorrência e a defesa do consumidor; VIII – a privacidade, a proteção de dados e a autodeterminação informativa; IX – a promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e no poder público; X – o acesso à informação e à educação, bem como a conscientização sobre os sistemas de inteligência artificial e suas aplicações” (BRASIL. PL no 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/ 157233. Acesso em: 9 novembro 2023).
Assessora Jurídica de Desembargador do Tribunal de Justiça do Estado de Goiás. Pós-graduada em Direito Penal e Direito Constitucional.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: SOUZA, LUCIANE LEÃO DE. A regulamentação dos sistemas de inteligência artificial com vistas à garantia de direitos humanos universais Conteudo Juridico, Brasilia-DF: 04 jun 2024, 04:40. Disponivel em: https://conteudojuridico.com.br/consulta/ArtigOs/65491/a-regulamentao-dos-sistemas-de-inteligncia-artificial-com-vistas-garantia-de-direitos-humanos-universais. Acesso em: 23 dez 2024.
Por: RAPHAELA NATALI CARDOSO
Por: WALKER GONÇALVES
Por: Benigno Núñez Novo
Por: Mirela Reis Caldas
Precisa estar logado para fazer comentários.