RESUMO: A inteligência artificial é uma vasta área que tem crescido no mundo, tendo reflexos na vida de cada indivíduo que tem agora sua imagem registrada por câmeras de segurança que fazem comparações a todo instante com imagens armazenadas na memória como meio de identificar criminosos que estão foragidos. O reconhecimento facial é um conjunto de traços tecnológicos que medem a distância dos olhos e o sorriso fazendo distinção de uma face para outra. Essa tecnologia, que é nova e tem sido difundida em vários países, traz à tona questões como a segurança dos dados pessoais que podem ser utilizados por terceiros de má-fé. O presente estudo tem como foco a atuação da inteligência artificial no reconhecimento facial de pessoas negras que em sua maioria são presas e confundidas por falha do sistema de reconhecimento, como enfoque no Brasil e nos Estados Unidos, pela recente adesão ao método de segurança tecnológica em grandes centros regionais. O presente trabalho tem como técnica de pesquisa a referência bibliográfica e como meio de pesquisas, sites de busca, livros, artigos científicos e a norma brasileira. Busca-se apresentar e conceituar o termo com a intenção de consagrá-lo a um estudo mais profundo pelos acadêmicos e profissionais.
Palavras-Chave: Criminologia; Direitos Humanos; Relações Étnico-Raciais; Aprendizado de Máquinas; Biometria Facial.
SUMÁRIO: Introdução, 1. Do reconhecimento facial, 2. Inteligência artificial e a aprendizagem de máquina, 2.1 Reconhecimento facial como único meio de prova, 2.2 Informações processadas pelos algoritmos que tendência ao racismo, 2.3 Necessidade de aprimoramento da ia e a inserção de elemento de aleatoriedade como medida de predição dos algoritmos, 2.4 Necessidade de aprimoramento da ia e a inserção de elemento de aleatoriedade como medida de predição dos algoritmos, 3. A importância de mapeamento de dados não estruturados, Conclusão.
INTRODUÇÃO
O presente trabalho visa abordar a atuação da IA (Inteligência Artificial) no reconhecimento facial de pessoas negras, o qual se baseia na ciência da Informática, telemática e da ciência da computação para traçar o perfil algorítmico dos dados matemáticos e geométricos que influenciam na identificação das pessoas, utilizando aspectos de reincidência de presidiários, foragidos e criminosos. Os crimes em questão são cometidos por todo e qualquer cidadão, porém em sua maioria são identificadas pessoas jovens e negras. Tem-se, como finalidade colaborar com o julgamento justo para as pessoas que são incriminadas erroneamente nos processos jurídicos criminais.
Nesse diapasão, é importante elucidar como surgiu o termo “IA”, cujo nome apareceu em 1956 por John McCarthy. A Inteligência Artificial compreende máquinas que são capazes de desempenhar tarefas que são características da inteligência humana. Mais importante ainda, isso inclui planejamento, compreensão da linguagem, objetos e sons familiares, aprendizagem, resolução de problemas e muito mais.
Vale ressaltar que, para chegar ao resultado de hoje sobre a inteligência artificial e o reconhecimento facial de pessoas negras, ocorreu o estudo realizado por profissionais da área da Ciência da Informática baseado na psicologia investigativa.
Os crimes mais recorrentes ocorridos nesse contexto direcionaram-se a aprofundar-se nas ações realizadas pela inserção de dados que reconhecem o agente infrator, apresentado como segurança e privacidade individual. Para alcançar o objetivo de identificar a base de dados que é inserido na alimentação computacional da rede “neural” da “internet” que diferencia os indivíduos pela identificação facial.
Neste viés, verifica-se que esta é uma área nova aplicada no Brasil, que diferentemente dos Estados Unidos tem tido maior adaptabilidade. Mesmo ainda recente, é notável a importância do trabalho realizado pela identificação por reconhecimento facial, pois garante mais agilidade e maior segurança para os policiais, embora não exista comprovação específica de que esse ambiente seja totalmente seguro e eficaz.
A metodologia adotada é a pesquisa bibliográfica elaborada a partir de material teórico, disponível em livros, através de sites de busca, material digital, artigos publicados em revistas especializadas principalmente de cunho jurídico nacional ou internacional, doutrinas jurídicas, legislação e notícias em jornais pertinentes ao tema, com revisão de literatura elaborada segundo o método dedutivo de pesquisa, que parte de proposições gerais do enviesamento em prejuízo às pessoas negras.
O reconhecimento facial, área que trabalha à biometria dos traços faciais humanos, detecta traços geométricos medindo distância entre nariz, olhos, queixo e boca identificando até mesmo cicatrizes existentes na face como também o contorno do rosto no qual é identificado pelo sistema operacional de forma algorítmica com código binário que são uma sequência numérica utilizada pelos computadores.
Através de câmeras de dispositivos móveis é possível fazer comparações de pontos estratégicos na face que chama-se “pontos nodais” que detectam os indivíduos através de câmeras de segurança nas cidades, metrôs e órgãos públicos. Com uma precisão de 96% os programas de computadores conseguem identificar os indivíduos a partir do rastreio da captura de imagens onde é feita a ligação dos traços faciais.
Para o âmbito judicial fazer uso do reconhecimento facial com o intuito de identificar suspeitos e foragidos da polícia, por intermédio de comparações em um banco de dados onde ficam armazenados uma série de capturas fotográficas que não são totalmente eficazes devido ao ângulo, sombras e qualidade ruim e abrem margem a erros que podem causar sérios danos a um cidadão que não tenha praticado crime, mas que pelo reconhecimento facial pode acabar incriminado.
No ano de 2020 iniciou-se a identificação biométrica, facial e digital na polícia civil que, por sua vez, afirmou que essa tecnologia não seria utilizada “isoladamente como meio de prova” contudo, em número cada vez crescente as pessoas negras têm sido identificadas e presas devido a dados enviesados que podem analisar as pessoas negras como predispostas a praticar delitos, o que fere os direitos à privacidade.
As pessoas negras são afetadas por esse sistema de segurança de reconhecimento facial devido à oposição das máquinas em reconhecer tonalidades de peles negras agravado pelo grande número de dados de pessoas brancas inseridos na IA. Entretanto, isso não significa que as máquinas são racistas, haja vista que as máquinas não podem raciocinar de forma própria, mas sim aprender com as informações que lhe são passadas.
É imperioso mencionar a necessidade de investimento dos órgãos públicos nas instalações de vigilância tecnológica, haja vista que uma captura de imagem em local sem iluminação e baixa resolução pode tornar mais favorável o índice de erro na identificação de sujeitos. Os orçamentos disponibilizados para a área de segurança pública ainda é baixo e levando em consideração o progresso de um aparato tecnológico em capitais e regiões de interior reduziria constrangimentos e prisões injustas.
2.INTELIGÊNCIA ARTIFICIAL E A APRENDIZAGEM DE MÁQUINA
A inteligência artificial diferencia-se do Reconhecimento Facial pela capacidade de resolver problemas de forma inteligente com habilidades que se semelham a compreensão humana, aprendendo com os dados que são inseridos em seu sistema, seja através da análise de fotos, vídeos ou documentos.
A temática no âmbito da Lei Geral de Proteção de Dados (LGPD), lei 13.709/2018, concede proteção adentrando no quesito de terceiro se utilizar de informações privadas e define os direitos e responsabilidades sobre a devida forma de tutelar dado importante e sigiloso. A Resolução do CNJ 332/2020 versa a respeito do uso da IA por meio dos princípios morais. Os quais são analisados no parâmetro da possível inserção do reconhecimento facial na persecução penal.
Em Aprendizagem de Máquina, dispositivos computacionais são programados para aprender a partir de experiências passadas. Para tal, frequentemente empregam um princípio de inferência denominado indução, que permite extrair conclusões genéricas a partir de um conjunto particular de exemplos.
A Inteligência Artificial tem uma importância fundamental na vida das pessoas, haja vista que se tornou uma verdadeira auxiliar na resolução de casos, devido a sua velocidade na identificação de suspeitos e foragidos e para traçar um viés de dados que alimentam a IA com informações contendo fotos e descrições de criminosos até mesmo descrevendo cor da pele, é necessário entender se a tecnologia do reconhecimento facial é eficaz ou é passível de erros quanto à identificação da cor da pele.
A IA permite, a partir da tecnologia, em considerável medida, alterar a relação entre pessoas, potencializando suas capacidades criativas e habilidades. Tem, assim, uma função disruptiva e está diretamente associada à produtividade de ações e conhecimentos. A IA associa-se à engenhosidade humana, contribuindo com velocidade e precisão, especialmente em tarefas que demandariam muito tempo, repetição de esforços e fidelidade de parâmetros (PEIXOTO e SILVA, 2019, p. 21).
No entanto, durante o processo de aprendizagem, os algoritmos de aprendizagem de máquina procuram produtos que possam promover a relação entre o comportamento preditivo e objetivo nos modelos possíveis. (CARVALHO, 2021, p. 5).
É através dos algoritmos inseridos na máquina que irão realizar uma tarefa de busca até chegar aos criminosos, a mostrar-nos assim um identificado pelo reconhecimento facial, pondo em questão fatores importantes como a segurança e privacidade de dados pessoais. No Brasil, trata-se de uma forma de perícia policial com a finalidade de colaborar com as investigações e auxiliar os profissionais de âmbito forense.
Conforme a LGPD em seu artigo Art. 5º consideram-se dado sensível os dados relacionados a:
II - dado pessoal sensível: dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural (BRASIL, 2019).
A partir da definição da LGPD, averígua-se que o termo dado sensível é passível de discussão, haja vista, que merece um parâmetro exclusivo na segurança pública, sendo necessário que a inclusão de assuntos como: mecanismos de avaliação de impacto e monitoramento do uso dessas tecnologias, e outros dispositivos que se fazem imprescindíveis para a garantia de que o direito à privacidade dos cidadãos não seja violado.
O Art.7° da LGPD, o qual trata dos Requisitos para o Tratamento de Dados Pessoais impõe que somente poderá ser realizado nas seguintes hipóteses:
Art. 7º O tratamento de dados pessoais somente poderá ser realizado nas seguintes hipóteses:
I - mediante o fornecimento de consentimento pelo titular;
II - para o cumprimento de obrigação legal ou regulatória pelo controlador;
III - pela administração pública, para o tratamento e uso compartilhado de dados necessários à execução de políticas públicas previstas em leis e regulamentos ou respaldadas em contratos, convênios ou instrumentos congêneres, observadas as disposições do Capítulo IV desta Lei (BRASIL, 2019).
O modo indiscriminado da tecnologia de reconhecimento facial tem violado direitos fundamentais da pessoa como o consentimento para utilização de imagem, de tal maneira que lojas comerciais, aplicativos de celulares e até mesmo metrôs têm recorrido ao recurso.
Com o mesmo intuito da transparência e governança na produção e no uso da Inteligência Artificial a Resolução Nº 332 de 21/08/2020 dispõe:
Art. 2º A Inteligência Artificial, no âmbito do Poder Judiciário, visa promover o bem-estar dos jurisdicionados e a prestação equitativa da jurisdição, bem como descobrir métodos e práticas que possibilitem a consecução desses objetivos.
O artigo quando menciona a prestação equitativa da jurisdição traz a indagação se o recurso de reconhecimento facial funciona de forma igualitária a todos ou prejudica de forma discriminatória.
2.1 Reconhecimento facial como único meio de prova
Na Constituição Federal a produção da prova é um fator Fundamental, visto que assegura a efetividade ao direito de impetrar ação, com garantia a ampla defesa, o direito de contradizer, preservando os direitos individuais e coletivos (Art.5º, XXXV, LIV E LV, da CF/1988).
Todavia, independentemente de ser uma proteção e um Direito incontestável mencionado na Carta Magna, a elaboração probatória não abrange soberania total na modificação da veracidade histórica a função dos indivíduos e do Estado, mas contém limitações, de acordo com o que César Dário Mariano da Silva (2009) ensina:
Em qualquer democracia, a ordem constitucional e legal deverá ser obedecida, mormente quando da postulação em Juízo, um dos momentos culminantes do Estado Democrático de Direito. De tal forma, embora a busca da verdade real seja o objetivo principal do processo penal, certos limites deverão ser obedecidos quando da produção probatória.
Na obra do autor Eugênio Pacelli de Oliveira (2011), é descrito no tocante a construção probatória no processo penal:
Para a consecução de tão gigantesca tarefa, são disponibilizados diversos meios ou métodos de prova, com os quais (e mediante os quais) se espera chegar o mais próximo possível da realidade dos fatos investigados, submetidos, porém, a um limite previamente definido na Constituição Federal: o respeito aos direitos e às garantias individuais, do acusado e de terceiros, protegidos pelo imenso manto da inadmissibilidade das provas obtidas ilicitamente.
Para a deliberação é indispensável que o Juiz disponha de convencimento verossímil, ou seja, que não tenha hesitações, dado que se houver deverá estar a favor do acusado.
O Juiz possui o Poder Instrutório, um mecanismo que serve para cumprimento de garantias individuais e coletivas, bem como o empenho necessário pela veracidade dos fatos ocorridos, eliminando contradição e prezando pela paz coletiva, objeto essencial do processo. Logo, deve assegurar a comunidade transparência através de uma decisão com retidão, onde sua efetividade atende na busca de produção da prova capaz de aproximar mais da realidade.
Segundo Palma e Pacheco (2020), foi feito um estudo pela Rede de Observatórios em Segurança das prisões realizadas pelo sistema na Bahia, em que se constatou que a grande maioria foi de pessoas negras, sendo que dos 42 casos em que foi verificado a cor da pele dos apreendidos, a informação apurada foi de que 90,5% eram negras e apenas 9,5% eram brancas. Como resultado observou-se que havia padrão quanto à raça e cor.
Nesse sentido, a constituição de prova criminal fundamentada apenas em um registro fotográfico ou de vídeo pelas câmeras de reconhecimento facial mostra-se insuficiente, visto o sistema de reconhecimento facial ser comprovadamente suscetível a erro para condenar um indivíduo a uma pena gravosa.
É claro que o uso indiscriminado dessa tecnologia infringiu uma série de direitos individuais a privacidade, centenas de pessoas encontram-se hoje encarceradas injustamente e como único meio probatório para constituição de sua pena criminal o reconhecimento facial prejudicado pelo viés racista em sua configuração e de forma perigosa incrimina pessoas inocentes.
É extremamente importante mencionar que o reconhecimento facial que tem sido utilizado no Brasil auxilia o judiciário a penalizar, servindo como meio probatório legal, porém a prova deve servir como um processo justo e democrático que ao final pode-se obter uma decisão com base sólida conjuntamente de elementos de prova previstos nos autos, e não integrado de opiniões e ideologias preconceituosas de terceiros que possam vir a prejudicar e condenar injustamente alguém.
O juiz ao fundamentar-se quanto à validade da prova digital como meio de convencimento probatório deve-se ater se a leitura jurídica sobre o fato e precisa saber se o fato ocorreu ou não e, se sim, todas as circunstâncias. A prova, em linhas gerais, é o meio pelo qual é formada a convicção desse alguém em relação a fato específico (THAMAY e TAMER, 2020).
De tal forma fazer-se uso de mecanismos de convicção como exemplo a prova pericial, serve de instrumento de vistoria que irá contribuir para medidas justas não restando erro na identificação quanto ao real infrator e tampouco abrir brechas para o viés inconsciente que é o estereótipo que todas as pessoas carregam consigo e podem prejudicar decisões sérias, considerando que são capazes de discriminar e possui grandes obstáculos para impedir e responsabilizar os culpados.
O meio probatório pericial, nessa perspectiva, pode ser entendido como o meio transporte do fato para dentro do processo ou procedimento que se dá por uma forma necessária e específica: por meio da tradução técnica especializada. Ou seja, o trabalho do perito é fundamental para que o fato seja compreensível e inteligível. Sem a sua participação técnica (sua tradução) não é possível constatar, com a mínima segurança jurídica necessária, a ocorrência ou não do fato e suas circunstâncias. Em outras palavras, se o fato demandar uma leitura técnica, portanto, a ausência dos trabalhos periciais resulta em meros indícios e mera dedução, estimativa ou cogitação sobre o fato e suas circunstâncias (THAMAY e TAMER, 2020, p.157-158).
No que lhe concerne, é de suma importância que diante de uma tecnologia inovadora e revolucionária capaz de solucionar crimes, haja melhor aperfeiçoamento como a ajuda pericial que contribui na descoberta minuciosa, para que uma classe minoritária não seja condenada injustamente perpetuando não só na sociedade o racismo, mas também na esfera condenatória da identificação facial.
2.2 Informações processadas pelos algoritmos que tendenciam ao racismo
É inteligível que a inteligência artificial busca permitir, através da combinação de várias tecnologias, que a máquina entenda, aprenda, identifique ou complete a atividade humana. Efetivado com finalidades específicas, em atividades repetitivas, a IA é programada para aprender e agir.
O reconhecimento de imagem facial para prevenção de ocorrências criminais, por exemplo, é utilizado pelas forças policiais de diversos países, inclusive do Brasil. Sua aplicação vai do reconhecimento de suspeitos até o auxílio na localização de foragidos da Justiça, passando por detecção de placas de veículos furtados, aglomerações e atos de violência (ROSA e BERNARDI, 2018, p. 01).
Embora esta tecnologia traga benefícios sociais importantes e até empolgantes, podem acarretar abusos (PEIXOTO e SILVA, 2019). O Big Brother Watch (2017) é um grupo que realiza campanha pelas liberdades civis do Reino Unido que luta por um futuro livre, já discutiu a confiabilidade da tecnologia e seu potencial viés racial.
Ainda que já exista amparo legal em caso de direitos violados a LGPD, em seu artigo 11, explica que de acordo com o que descreve o artigo 5, existe a preocupação com os dados sensíveis que são informações mais delicadas e cujas possibilidades de mau uso (para fins discriminatórios e prejudiciais ao indivíduo, por exemplo) são mais altos. Consequentemente, são conhecidos como dados sensíveis aqueles relativos à crença, raça/etnia, convicção diplomática, orientação sexual e informação gênica ou biométrica (como a biometria facial ou o “DNA” de um indivíduo).
Na respectiva Constituição Federal em seu artigo 5° inciso V e X destaca o direito a indenização em caso de dano material, moral ou à imagem, decorrente de sua violação. O Código civil no Art. 20 também apresenta que a utilização da imagem pessoal de um determinado indivíduo poderá ser vedada, a seu requerimento e sem malefício a indenização que couber, se lhe for afetada a dignidade, a boa fama, o decoro, ou se dispuserem a fins lucrativos.
Como fruto de programação, pode haver a projeção de elementos negativos da própria inteligência humana. Peixoto e Silva (2019) apresentam o contexto de um problema do funcionamento da IA pela métrica usada para tomada de decisão para refletir uma criação humana. Segundo ela, os preconceitos podem surgir muito facilmente em razão da necessidade de treinamento.
Como um sistema probalístico, baseado numa alimentação de dados para determinada conduta, os algoritmos de machine learning podem trazer benefícios ou problemas que refletem discriminação, parcialidades, escolhas ofensivas, desinformações, ou seja, human bias ocorre quando o sistema computacional basicamente reflete os valores implícitos de seu criador, distorcendo o conjunto de dados para o treinamento do sistema (PEIXOTO e SILVA, 2019).
Não obstante, já se mostra a realidade de pessoas que foram alvo da tecnologia de reconhecimento facial e confundido com foragidos da justiça refletindo a importância de aprimoramento diante de algo que reflete na vida de todos e que não deve estigmatizar uma parcela pela da população em razão da cor da pele. Uma condição fundamental para o que está por vir, como a autora denomina de “internet das coisas” é que sua ampliação não seja realizada em desfavor da segurança e da privacidade dos seres humanos (MAGRANI, 2018).
É comprovado que desde a utilização do monitoramento facial no Brasil o número de prisões em decorrência do reconhecimento de imagem se agravou principalmente nas regiões da Bahia, Rio de Janeiro, Santa Catarina e Paraíba, para muitos demonstrando eficiência na segurança pública, porém resultou em um problema mais grave, constrangimento, prisões arbitrárias e violações dos direitos humanos (NUNES, 2019).
Entender o motivo da tendência desse viés que tem apreendido em sua maioria as pessoas negras é relembrar questões históricas e culturais que mostram não ser atual o julgamento pela cor da pele, algo que ainda está tão presente nas relações sociais e agora se integra à tecnologia para determinar a liberdade de seres humanos. Porém, a máquina é submissa a comandos humanos e é através deles que podem ser inseridos preconceitos racistas.
Integrante do Grupo de Pesquisa em Políticas e Economia da Informação e Comunicação da UFRJ, Silvana Bahia ressalta que o racismo algorítmico reproduz e intensifica o racismo presente na sociedade. Nas palavras dela, “o racismo algorítmico ocorre quando sistemas matemáticos ou de inteligência artificial são pautados por informações enviesadas/tortas que alimentam e regem seu funcionamento. As consequências são muitas, mas talvez a maior delas seja o aumento de desigualdades, sobretudo em um momento onde estamos cada vez mais tendo muitos dos nossos gostos e políticas mediadas por máquinas, com o avanço da tecnologia” (HERCOG e MELO, 2019).
De acordo mit media lab, organização acadêmica de pesquisa do mundo Joy Buolamwini (s.d.), poetisa que usa a arte e a pesquisa para iluminar as implicações sociais da inteligência artificial, conta que quando era estudante universitária usou um “software” de detecção facial com IA para um projeto de codificação, o robô que ela programou não conseguia detectar seu próprio rosto. Teve então que pegar emprestado o rosto do colega de quarto de pele clara para terminar a tarefa. Mais tarde, trabalhando em outro projeto como aluna de pós-graduação no MIT Media Lab, recorreu ao uso de uma máscara branca para conseguir ter sua presença reconhecida.
Conta ela: “Minha experiência é um lembrete de que a inteligência artificial, muitas vezes anunciada por seu potencial para mudar o mundo, pode na verdade reforçar o preconceito e a exclusão, mesmo quando usada da maneira mais bem intencionada” (BUOLAMWINI, 2018).
A Sra. Buolamwini chama de “olhar codificado” o viés tendencioso pré-existente nos algoritmos, possuindo moldes com prioridades e preconceitos, visto que o manuseio das pessoas que agregam informações na IA também incluem opiniões as quais prejudicam os resultados, bem como a tomada de decisões por magistrados.
É importante trazer para debate que a questão racial tem ido muito além e acarretado riscos as pessoas negras, tem fotos de negros na busca de imagens no Google que são comparadas á “gorilas” situações vexatórias que acomete apenas as pessoas negras e é essa tecnologia de reconhecimento facial que está sendo cada vez mais usada na aplicação da lei, controle de fronteiras, vigilância escolar e contratação (BUOLAMWINI, 2018).
Sem dúvidas a participação governamental tem importante espaço para que a inclusão de dados com engajamento tome lugar em meio a décadas de brechas para o viés tendencioso ao racismo.
2.3 Necessidade de aprimoramento da ia e a inserção de elemento de aleatoriedade como medida de predição dos algoritmos
No mesmo momento em que é beneficial, o uso de algoritmo demonstra ameaças não compreensíveis, derivados em particular de: (i) de “data sets” viciados; (ii) da possibilidade de propiciarem a discriminação ainda bem estruturados; (iii) da opacidade na sua forma de atuação, resultado das técnicas de “machine” e “deep learning” (FERRARI, 2020).
É possível apontar três tópicos associados à tomada de decisões por algoritmos.
A primeira preocupação é sobre a “data Sets” que estabelece conjuntos viciados ou incompletos, como visto no caso de Joy Buolamwini, que gerou um efeito discriminatório para ela. Em segundo lugar, há também o risco de algoritmos causarem efeitos discriminatórios, mesmo que tenha um conjunto de “Data Set” que corresponda à realidade. Em terceiro lugar, importante destacar a questão da opacidade na forma como estes softwares operam, que se deve a técnicas de aprendizagem automática.
Como salienta Burrell (2016, p. 1-12), a opacidade dos “learners” é resultado da alta proporção de dados, da multiplicidade de código e da instabilidade da lógica de tomada de decisões. Por fazerem uso de centenas ou milhares de normas, por seu prognóstico estar programado probabilisticamente de formas complexas, pela velocidade no processamento das informações, e pela multiplicidade de variáveis operacionais, parecem estar além das capacidades humanas em apreenderem boa parte – senão todas – as estruturas decisórias que empreguem a técnica de “machine learning”. Assim sendo, o simples acesso ao código revela muito pouco, sobrevivendo a complexidade de compreender o processo decisivo.
Barrocas e do Selbst (2016) destacam: “Um algoritmo é tão bom quanto os dados que o alimentam.” Isso ocorre porque se o algoritmo aprender com os dados, ele replicará esse erro, que pode gerar efeitos discriminatórios.
É constatado que a presença de um “Data Sets” viciado pode influir na tomada de decisão e informação sobre crimes que ocorrem em um determinado lugar de modo que a frequência de ocorrência numa localidade ou bairro contribuísse para um círculo vicioso do software.
A maioria dos sistemas de reconhecimento facial que existem são treinados em bancos de dados de fotos. Os bancos de dados de Mugshot são desproporcionalmente populados com imagens digitalizadas de indivíduos negros e pardos, como resultado do excesso de policiamento e da criminalização desproporcional das comunidades negras e pardas (GARVIE; BEDOYA e FRANKLE, 2016).
Atualmente a inclusão de um elemento de aleatoriedade difunde um caráter modificativo, haja vista que, através dessa alteração é possível que o algoritmo que antes pela frequente indicação de haver crime apenas num só determinado ambiente, como nas regiões pobres e de maior concentração populacional é possível também que seja constado os crimes que ocorrem em regiões favorecidas. Por exemplo: se antes os policiais eram direcionados apenas para uma determinada região, com o sistema de aleatoriedade, a tendência é que em algum momento o “software” coloque esses policiais em uma região distinta.
Sendo assim, torna-se possível que gradualmente o “software” corrija as falhas nos dados.
O caso Loomis, representa claramente o exposto, bem como a importância de readaptação dos algoritmos que podem estar sujeitos a falhas. No ano de 2013, Eric Loomis foi detido em flagrante no regime americano de Wisconsin, após apoderar-se de coisa alheia, sendo o objeto um veículo, após ainda tendo de esquivar-se de um agente de trânsito e se comprometer em um tiroteio.
Loomis foi considerado culpado com pena final de seis anos de prisão - decisão calculada com auxílio de um algoritmo rigoroso.
Ao decretar pelo cárcere de Loomis, o tribunal realçou que ele fora avaliado tal como um "indivíduo que representa alto risco para a comunidade".
Ao menos, isso foi o desfecho da enquete que ele transmitiu no momento da detenção (MAYBIN, 2016).
Isto posto, o que fazemos quando o acordo social sobre os direitos individuais não é apenas espalhado, mas também algorítmico e automatizado? Deve-se considerar o contexto histórico e as implicações atuais para transformar a realidade assim como os julgamentos sobre eles em dados do qual todos os sistemas tecnológicos são construídos.
3.A IMPORTÂNCIA DE MAPEAMENTO DE DADOS NÃO ESTRUTURADOS
Os dados não estruturados podem ser definidos como dados, de qualquer maneira, não têm um modelo ou formato predeterminado. Este tipo de dado é gerado por várias fontes, incluindo áudio, vídeos, imagens e texto.
O gerenciamento de dados não estruturado não é tão simples visto que o volume de dados significa grande quantidade e falta de formato coerente. Os dados não estruturados são gerados pela máquina (por exemplo, através de um dispositivo IoT), portanto, eles precisam do formato e consistência apropriados. Além disso, a disponibilidade de menos ferramentas e técnicas também permite um desafio.
Uma das principais diferenças entre dados estruturados e não estruturados é a categoria de informação a que se propõe. Para dados estruturados, eles são limitados apenas a dados descritivos ou diagnósticos. No entanto, com dados não estruturados, pode-se usar algoritmos de inteligência artificial e aprendizado automático para dados preditivos e apresentativos.
O gerenciamento com dados não estruturados pode ajudar as empresas a identificar o caminho para a tomada de decisões eficazes com melhores descobertas e análise melhorada. Pode ajudá-lo a obter uma perspectiva muito mais ampla sobre sua empresa, seus clientes e produtos com todos os dados disponíveis.
A Lei Geral de Proteção de Dados Pessoais (LGPD), em seu Artigo 20, dispõe no que diz respeito aos direitos dos detentores de dados pessoais, como o direito de verificar decisões automatizadas quanto ao tratamento de seus dados que possam afetar seus interesses, como exemplo: preparação de perfis privativos, profissionais, aspectos de consumo, crédito e personalidade.
A LGPD garante o dever de informações sobre os procedimentos de automação por essas decisões, caso contrário, uma multa de agentes de tratamento se aplica com auditorias e sanções, que são utilizadas pela Autoridade Nacional de Proteção de Dados Pessoais.
É possível que a integração de dados de armazenamento seja eficaz, desde que atenda às normas já existentes, tal como sigam um gerenciamento e consistência adequada.
CONSIDERAÇÕES FINAIS
A sensação de constrangimento, bem como de impunidade faz com que seja necessário o debate acerca das atuais decisões judiciais. A Inteligência Artificial é uma área que tem tido grande proporção em um período curto de tempo. O reconhecimento facial diferentemente daquilo que antes era observado apenas em filme fictício, hoje, sabemos que envolve um conjunto de dados matemáticos referente a um grande número de indivíduos.
Nas informações que são repassadas aos dados contêm os vieses inconscientes, que são um conjunto de estereótipos que conservamos de diferentes grupos de pessoas, situações e experiências que experimentamos ao longo da vida. Essas informações podem ser consideradas perigosas, pois não auxiliam quando carregam preconceitos quanto a cor da pele restringindo a liberdade de ir e vir.
A tecnologia tem determinado nossas liberdades e com isso feito reféns injustamente. Atualmente, mesmo com o avanço tecnológico beneficiando comodidade aos policiais e facilitando questões como aprisionamento de suspeitos e foragidos, o retrocesso veio de forma étnica. O número de encarcerados negros e presos injustamente pela cor da pele faz com que seja imediato o debate acerca da utilização da tecnologia de reconhecimento facial para fins de prova na persecução penal.
O poder dado aos algoritmos determina o futuro das pessoas, como menciona a matemática e engenheira de dados Cathy O'Neil alertando sobre os impactos negativos da seleção de dados feita por algoritmos que ela chama de armas da destruição. Através da captura facial é possível determinar se é permitido entrar ou não em um determinado local, se possui ou não passagem pela polícia, bem como outras diversas capacidades da tecnologia.
Sem controle, a participação ativa do governo federal, financiando este uso de tecnologia pela polícia é crescente. É necessário desacelerar este processo para que através de campanhas de conscientização se possa discutir profundamente os riscos e o potencial dessa tecnologia para a população, especialmente a população negra. O racismo está integrado no núcleo brasileiro, e agora também na internet.
É fundamental que haja regulamentação em todos os países que usem a Inteligência Artificial para garantir segurança e ética na aplicação da tecnologia, bem como a importância de investir em métodos que colaborem para o aprimoramento dessa ferramenta, como a inserção de elementos de aleatoriedade.
O fato é que o sistema de reconhecimento facial não pode ser considerado racista e sim os dados que são inseridos na IA por pessoas que possuem convicções preconceituosas que as inserem nos computadores e decidem prevalecendo sobre as decisões do juiz, abrindo-se margem à vigilância e eficácia para todos. Para um modelo mais justo e inclusivo é necessário entender as diferenças de forma para não permitir que o racismo se mecanize.
REFERÊNCIAS
BRASIL. Constituição (1988). Constituição da República Federativa do Brasil de 1988. Brasília, DF: Senado, 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicaocompilado.htm. Acesso em 15 de out. de 2020.
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Diário Oficial da União, Brasília, DF, 11 de jan. 2002. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm. Acesso em 13 nov. de 2020.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm/. Acesso em 15 nov. de 2020.
BUOLAMWINI, J. A. The founder of the Algorithmic Justice League. 2018. Disponível em: https://www.nytimes.com/2018/06/21/opinion/facial-analysistechnology-bias.html. Acesso em 12 Jan. de 2021.
BUOLAMWINI, J. Assistentes de pesquisa afiliados do MAS. Mit media lab people. Disponível em: https://www.media.mit.edu/people/joyab/overview/. Acesso em 17 de mar. de 2021.
COELHO, A. Z. Tecnologia e design na justiça brasileira: o pioneirismo do iJuspLab. In: GREGÓRIO, A. et al. Inovação no Judiciário: conceito, criação e práticas do primeiro Laboratório de Inovação do Poder Judiciário. São Paulo: Blucher, 2019, p. 218.
FERRARI, I. et al. Arbitrium ex machina: Panorama, riscos e a necessidade de regulamentação das decisões informadas por algoritmos. Revista dos tribunais. [S.l.]. Vol. 995, 2018. Disponível em: http://governance40.com/wp-content/uploads/2018/11/ARBITRIUM-EX-MACHINA-PANORAMA-RISCOS-E-A-NECESSIDADE.pdf. Acesso em 19 de mar. de 2021.
FERRARI, I.; BECKER, D. Direito à explicação e decisões automatizadas: Reflexões sobre o princípio do contraditório. 2° ed. Revista, atualizada e ampliada. [S.l.]. Editora Juspodivm, 2021. Disponível em: https://www.editorajuspodivm.com.br/cdn/arquivos/6acd38d6d171b644ce530d4a068ee757.pdf. Acesso em 20 de mar. de 2021.
HERCOG, A.; MELO, P. V. O racismo que estrutura as tecnologias digitais de informação e comunicação. Brasil de fato, 2019. Disponível em: https://www.brasildefato.com.br/2019/12/03/artigo-or-o-racismo-que-estrutura-astecnologias-digitais-de-informacao-e-comunicacao. Acesso em 25 nov. de 2020.
JUNIOR, P. C. N. Judiciário 5.0: inovação, governança, usucentrismo, sustentabilidade e segurança jurídica. São Paulo, Editora Edgard Blücher Ltda, 2020.
MAGRANI, E. A internet das coisas. Rio de Janeiro: FGV Editora, 2018.
MAYBIN, S. Sistema de algoritmo que determina pena de condenados cria polêmica nos EUA. 2016. Disponível em: https://www.bbc.com/portuguese/brasil-37677421. Acesso em 09 de abril. de 2021.
NUNES, D.; MARQUES, A. L. P. C. Inteligência artificial e direito Processual: vieses algoritmos e os riscos de atribuição de função decisória às máquinas. Revista de processo. [S.l.]. Vol. 285, p.421-447.2018. Disponível em: https://bityli.com/wYfUy. Acesso em 20 de mar. de 2021.
NUNES, P. Algoritmo e racismo nosso de cada dia: Reconhecimento facial aposta no encarceramento e pune preferencialmente população negra. Folha de São Paulo, 02 de Jan de 2021. Disponível em: https://piaui.folha.uol.com.br/o-algoritmo-e-racismo-nosso-de-cada-dia/. Acesso em 05 fev. de 2021.
NUNES, P. Exclusivo: levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros. The Intercept, 2019. Disponível em: https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasilnegros/. Acesso em 25 nov. de 2020.
OLIVEIRA, M. F. de. Metodologia Científica: um manual para a realização de pesquisas em administração. Universidade Federal de Goiás, Catalão, 2011. Disponível em: https://files.cercomp.ufg.br/weby/up/567/o/Manual_de_metodologia_cientifica_-_Prof_Maxwell.pdf . Acesso em 25 nov. de 2020.
PALMA, A.; PACHECO, C. Presos pela cara: polêmico sistema de reconhecimento facial identificou 109 foragidos na BA. Correio, 2020. Disponível em: https://www.correio24horas.com.br/noticia/nid/presos-pela-cara-polemico-sistemade-reconhecimento-facial-identificou-109-foragidos-na-ba/. Acesso em 25 nov. de 2020.
PEIXOTO, F. H.; SILVA, R. Z. M. da. Inteligência artificial e direito. 1. ed. Curitiba: Alteridade Editora, 2019.
SALMEIRÃO, C. Do procedimento probatório e do momento da sua produção com participação ativa do magistrado em busca da decisão justa no direito processual penal. Revista Âmbito Jurídico, 2012. Disponível em: https://ambitojuridico.com.br/edicoes/revista-98/do-procedimento-probatorio-e-do-momento-da-sua-producao-com-participacao-ativa-do-magistrado-em-busca-da-decisao-justa-no-direito-processual-penal/. Acesso em 17 mar. de 2021.
SANTANA, A. Pode a tecnologia ser racista? Uol, 2020. Disponível em: https://noticias.uol.com.br/colunas/andre-santana/2020/10/16/pode-a-ternologia-ser-racista.htm. Acesso em 7 mar. de 2021.
THAMAY, R.; TAMER, M. Provas no direito digital: conceito da prova digital, procedimentos e provas digitais em espécie. São Paulo: Thomson Reuters Brasil, 2020.
Artigo publicado em 21/09/2021 e republicado em 03/05/2024
Graduação completa pelo curso de Direito.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: BORGES, ERIKA SILVA. Inteligência artificial e o reconhecimento facial de pessoas negras. Conteudo Juridico, Brasilia-DF: 03 maio 2024, 04:36. Disponivel em: https://conteudojuridico.com.br/consulta/artigos/57212/inteligncia-artificial-e-o-reconhecimento-facial-de-pessoas-negras. Acesso em: 22 nov 2024.
Por: Marco Aurelio Nascimento Amado
Por: Mario Raposo da Silva
Por: Rafaela dos Reis Baldissera
Por: Benigno Núñez Novo
Precisa estar logado para fazer comentários.