Resumo: O presente trabalho científico teve por objetivo trazer luz a um debate pouco estudado e discutido no Brasil, que é o uso da IA nos limites éticos existentes. Para melhor apresentar um tema de tamanha complexidade, foi trazido à baila da discussão algumas alegorias com o filme de Stanley Kubrick “2001 Uma Odisseia no Espaço” e a sua personagem HAL 9000, uma inteligência artificial poderosa que acaba se rebelando contra os tripulantes da nave que controla. Além desta discussão, o presente artigo também aborda perspectivas e conceitos referente à inteligência artificial e o promissor campo das novas tecnologias, resguardando sempre a defesa do humano. Para fazer esta análise, foi utilizada a pesquisa bibliográfica em livros e sites que abordam o tema.
Palavras-chave: inteligência artificial; HAL 9000; tecnologia; ser humano; ética.
Abstract: The present scientific work aimed to bring light to a debate little studied and discussed in Brazil, which is the use of AI within the existing ethical limits. To better present a theme of such complexity, some allegories were brought up with Stanley Kubrick's movie "2001 - A Space Odyssey" and its character HAL 9000, a powerful artificial intelligence that ends up rebelling against the crew of the spaceship it controls. Besides this discussion, this article also approaches perspectives and concepts concerning artificial intelligence and the promising field of new technologies, always protecting the human being. To do this analysis, we used bibliographical research in books and websites that approach the theme.
Keywords: artificial intelligence; HAL 9000; technology; human being; ethics.
Sumário: Resumo. Abstract. Introdução. 1. A IA numa perspectiva histórica. 1.1. O que é a IA? Opera sintática ou semanticamente? 1.2. HAL 9000 e a potencialidade destrutiva da IA. 1.3. Um sinal de alerta: pontos negativos da IA. 1.3.1. A IA no âmbito das armas militares autônomas. 1.4. Os vieses da IA e a questão da responsabilidade civil. 1.4.1. A IA pode ter preconceitos e vieses absorvidos do ser humano? 1.4.2. Quem é o responsável pelos erros cometidos pela IA? 1.5. Uma nova esperança: o que a IA pode nos trazer de bom e um processo regulatório é possível? 1.5.1. A IA como auxiliar do ser humano. 1.5.2. A necessidade de regulação da IA. Conclusão. Referências.
Introdução
A primeira obra de ficção científica da qual temos notícia é o clássico livro de Mary Shelley, de 1831, chamado Frankstein. Na obra, conhecemos a história do Dr. Victor Frankstein, que numa tresloucada sanha em criar uma forma de dar vida a um corpo morto, em experimentos e estudos, acaba dando vida a um monstro de forma e aparência horripilantes, que acaba se transformando em um motivo de tristeza e dor para o criador do que júbilo e alegria.
Esta citação foi feita apenas para demonstrar que ímpeto criador e desbravador do ser humano sempre existiu ao longo da história, pois ele está ligado a duas características marcantes do homem: a busca pela verdade e pela felicidade.
E a sedução pelos avanços tecnológicos sempre foi uma presença marcante no coração do homem sedento por conhecer novas realidades e trazer mais conforto para a sua vida. Dos clássicos livros de Isaac Azimov como O homem bicentenário e Eu, Robô ao uso em massa dos smartphones, internet em super velocidade, passando pela chegada do homem ao espaço, a bomba nuclear e a própria existência da misteriosa e apavorante robô Sophia, uma espécie de IA super avançada que replica a aparência e sentimentos humanos com uma perfeição absurda.
Todavia, como na obra de terror de Shelley, nem sempre as criações e avanços tecnológicos e científicos resultam em algo bom para a humanidade. Isto ocorre, quando o ser humano inventa longe dos parâmetros éticos que o circundam. O homem não é um ser formado apenas pela razão, como idealizou o filósofo Imannuel Kant, mas também por valores e afetos, que devem permear suas escolhas e decisões.
A humanidade encontra-se no epicentro da 4ª Revolução Industrial, que possui o fluxo de dados como seu principal ativo, permitindo os avanços cada vez maiores da robótica e informática.
E longe de replicar os ludistas na 1ª Revolução Industrial, não se requer impedir os avanços da técnica, mas apenas deixar sobre estes um olhar sempre humano e cético sobre o caminho que está sendo trilhado, para que as lamentações não superem a euforia e conquistas
1. A IA numa perspectiva histórica
A ideia de que a humanidade poderia criar seres com autonomia suficiente para serem independentes dos seres humanos não é somente dos tempos de agora, mas possuem longa data.
O famoso mito grego de Talos, gigante de bronze construído pelo deus Hefesto, com a missão de proteger a ilha de Creta. Também é possível elencar os autômatos desenhados por Al-Jazari nesta vocação da humanidade a projetar-se em suas criações.[1]
Todavia, a engenhosidade da IA é um evento cronologicamente recente. Alan Turing, considerado o grande “pai” da inteligência artificial, publicou um famoso artigo em 1950, com o nome Computing machinery and intelligence, um marco definitivo para a tecnologia futura.[2]
No presente artigo, Turing formulou um jogo de imitação o qual participam três personagens: um homem (A), uma mulher (B) e um interrogador. A e B ficariam dentro de uma sala com a porta fechada, enviando mensagens por baixo da porta para o interrogador, que deveria ser capaz de identificar pelas respostas quem era quem. Mas o verdadeiro desafio era descobrir se uma máquina era capaz de imitar uma das pessoas e enganar o interrogador, que pensaria ser uma pessoa de verdade.[3]
Turing conclui que dentro de 50 anos, as máquinas desempenhariam um papel tão formidável e semelhante ao que faz o ser humano, que seria difícil distinguir quem era a máquina e quem era o humano em grande parte das ocasiões.[4]
A expressão Inteligência Artificial só apareceu com John McCarthy em 1956, num grande ciclo de estudos sobre o tema.[5] Após este episódio, a IA ficou estagnada por algumas décadas, somente voltando a cena na década de 80, com o advento das redes neurais[6] e a grande industrialização da tecnologia.
Em 1997, um acontecimento emblemático irá popularizar e trazer o uso da IA definitivamente para o debate público. O programa Deep Blue foi capaz de derrotar o campeão mundial de xadrez, Garry Kasparov. O episódio mostrou que Turing estava certo e que a máquina seria capaz de realizar tarefas especificamente humanas.[7]
Memorável feito só foi possível de acontecer devido a força pujante do aprendizado de máquina (machine learning)[8], atributo da IA, que permite a máquina, após processar grande quantidade de dados de partidas anteriores jogadas por humanos, “aprender” as melhores jogadas e as melhores decisões a serem tomadas por conta própria.[9]
O êxito do Deep Blue não foi a única façanha perpetrada pela IA, pois em 2016, alguns anos depois da vitória em 1997, o software AlphaGo, venceu o campeão Lee Sedol no jogo asiático Go, a partir do mecanismo da machine learning.[10]
Esses dois marcos históricos mostram que em ações e atividades que usam meramente a matemática, a desenvoltura e resultado das máquinas supera e muito a capacidade humana, justamente pela capacidade gigantesca de processar os dados.[11]
1.1. O que é a IA: opera sintática ou semanticamente?
Numa análise bem sintetizada e simples, a IA é um “sistema algorítmico adaptável, relativamente autônomo, emulatório da decisão humana.”[12]
A IA, desta forma, não apenas seguem regras e adaptam todo o seu conhecimento adquirido para tomar decisões e mudar o curso da história humana em diversas oportunidades.
Importante destacar que a ideia de que a máquina pode adquirir algo semelhante à “consciência humana” é um tanto utópica, haja vista ser a consciência uma realidade de ordem imaterial e toda IA não transcende, ainda, a ordem material.
Por isso, conforme destaca Juarez e Thomas Freitas, a IA não, apesar de tomar decisões, não é capaz de intencionar os seus atos:
“Da mesma forma, a IA possui as instruções – a sua programação é feita por meio de algoritmos – para realizar decisões, mas carece do genuíno entendimento do que está sendo decidido. Assim, Searle refuta a hipótese de a IA possuir intencionalidade, vendo a capacidade de “pensamento” restrita aos seres humanos.[13]
Deste modo, a IA opera basicamente numa perspectiva sintática, ou seja, ancorada numa mentalidade binária, que apenas segue decisões e mantém uma postura dentro de regras e mecanismos que não ultrapassam a mecanicidade de esquemas matemáticos.
A IA, por outro lado, não possui uma análise semântica da realidade, isto é, ela não é capaz de interpretar o meio que a cerca e dar um tom criativo para a situação que está diante de si.
É como trazer os próprios conceitos de análise sintática e semântica da língua portuguesa para o caso em tela, sendo a primeira facilmente aplicável a uma IA, pois somente demanda o aprendizado estático e sequenciado de regras e memorizações.
Já na análise semântica, é preciso a obtenção de um conhecimento de mundo mais amplo e dinâmico, com aplicação de valores a cada caso concreto apresentado, não sendo possível uma máquina fazer tal façanha.
A máquina pode conseguir resolver, talvez, problemas como aprimoramento da produtividade, evolução da técnica, melhoramento da qualidade de vida etc. No entanto, problemas como a desigualdade, a paz mundial, erradicação da fome e outras mazelas sociais fogem de sua alçada, pois estão inseridas dentro de um espectro que demanda valores e intenções, atributos que só existem em seres dotados de uma alma racional, como a humana.
Ressalte-se, com a devida vênia, que o uso crescente da IA não assusta e causa medo por uma possível inteligência extremada das máquinas, mas sobretudo pela mecanização da humanidade.[14]
Até que ponto os seres humanos também não estão cada vez mais valendo-se da análise sintática do meio em que vive (virtualização das relações pelas redes sociais, dependência dos celulares e televisão etc.) em detrimento do semântico? A tecnologia super avançada não estaria “esfriando” o homem a tal ponto de colocá-lo em igualdade com as máquinas? Perguntas que em breve clamarão por respostas.
1.2. HAL 9000 e a potencialidade destrutiva da IA
Era o ano de 1968 e o cinema estava prestes a estrelar umas das películas mais importantes e renomadas da história da indústria cinematográfica, seja por sua lucidez ao tratar de temas tão profundos e inquietantes como a evolução filosófica do homem ou o uso e receios acerca da inteligência artificial, ainda muito incipiente.
Stanley Kubrick, aclamado diretor do filme “2001 uma odisseia no espaço”, não só dirigiu um longa metragem que marcou época e que se transformou num clássico do ramo, haja vista ser discutido e estudado até os dias de hoje, mesmo após mais de 50 anos da sua estreia, como também lançou luzes para a discussão de como o homem lidaria com os enormes avanços da tecnologia e como isso afetaria a sua vida e a sociedade como um todo.
O filme aborda diversas discussões existenciais, filosóficas e sobre os avanços tecnológicos vindouros, sobretudo pelo longa ter sido produzido no coração da Guerra Fria, em plena corrida armamentista e espacial travadas pelos EUA e pela URSS.
No entanto, a atenção máxima acaba sendo dada a este último ponto, de maior duração no filme. Uma tripulação é enviada numa missão para manter contato com possíveis extraterrestres que acompanham a história da humanidade e possivelmente habitam o planeta Saturno.
Esta nave espacial é comandada por uma intrigante IA chamada HAL 9000, um robô capaz de emitir a fala humana de maneira perfeita, com habilidades de comunicação sofisticadas e até mesmo uma “consciência”, que lhe permite controlar e vigiar toda a nave e seus comandos. Em um momento do filme ocorre uma cena profética, quando HAL 9000 vence facilmente os tripulantes num jogo de xadrez, algo que acontecerá com o programa Deep Blue em 1997.
E é neste momento que o robô vilão começa a demonstrar seu maligno. Ao desenvolver um mecanismo capaz de fazer leitura labial, HAL 9000 descobre que os tripulantes da nave estão querendo eliminá-lo e toma a severa decisão de assassinar os astronautas a bordo, alegando que os humanos já não são mais capazes de tomar a melhor decisão.
Há 5 décadas depois, o medo e as dúvidas acerca da inteligência artificial ainda são latentes e relevantes. Guardadas as devidas proporções de uma construção hollywoodiana e o fato de HAL 9000 não ser necessariamente uma inteligência artificial, mas quase que uma “vida autônoma sintética”, a metáfora é possível.
Na obra “Direito e inteligência artificial: em defesa do humano”, Freitas e Bellini apontam para uma questão peculiar das IA, que talvez seja possível traçar um paralelo com HAL 9000:
“O ponto crítico é que os algoritmos de aprendizagem na IA são organizados com maior complexidade do que na automação, pois não apenas seguem regras como também tomam decisões, aprendendo sozinhos sobre os dados coligidos. Implica dizer que, no âmbito da IA, a máquina é um sistema dotado de relativa autonomia. Grife-se: a IA toma decisões. Tal fenômeno não pode ser ignorado.”[15]
Apesar de não se poder dizer que a IA toma de fato uma decisão, haja vista a ausência de razão, por conta da sua grande adaptabilidade e capacidade de reter e processar milhões de dados em um curto espaço de tempo, é possível perceber que a IA pode caminhar para um trajeto bem distinto daquele para o qual foi programada por seu desenvolvedor.
Deste modo, por conta da sua grande autonomia e capacidade de evoluir muito além da sua programação, o potencial destrutivo que uma IA pode atingir é um fato que não pode ser ignorado.
1.3. Um sinal de alerta: pontos negativos da IA
Como foi apontado acima, a grande escalabilidade da IA aponta para um cenário de grande temor e incertezas diante do quão longe uma inteligência artificial pode chegar.
Saindo um pouco da ficção científica idealizada por Kubrick ao criar a personagem HAL 9000, não é difícil encontrar vários casos em que a IA já ocasionou diversos prejuízos e até mesmo tragédias com as suas ações.
O primeiro caso, talvez o mais grave envolvendo a IA, pode ser o do acidente ocorrido com um carro autônomo da Tesla, o Tesla Model S 2019 estava viajando em alta velocidade quando não conseguiu fazer uma curva em uma estrada sinuosa e acabou colidindo com uma árvore, matando 2 passageiros que estavam a bordo no carro.[16]
Outro icônico caso ocorreu com o aplicativo Google Fotos, em que pessoas negras tiravam fotos e, através da funcionalidade tags do app, que reúne fotos semelhantes numa mesma pasta, acabavam descobrindo que as fotografias iam para um álbum intitulado “Gorilas”.[17]
Mais situações envolvendo a IA e sua capacidade de lesionar o se humano podem ser encontradas, como os casos de negativa de crédito nos sistemas de scoring com base exclusiva na localização da pessoa ou até mesmo a produção em massa das deep fake news[18] , amplamente utilizadas em corridas eleitorais ao redor do mundo.
Diante destes casos emblemáticos, a humanidade fica diante de outro problema grave da IA: sua capacidade “enviesante”, isto é, faculdade de adotar as perspectivas e preconceitos dos seus desenvolvedores. E diante deste quadro, de quem seria a responsabilidade pelos erros cometidos por uma IA? Análise a ser feita no ponto seguinte.
1.3.1. A IA e as armas militares autônomas
Em um estudo intitulado Os Prós e os Contras dos Sistemas de Armas Autônomos, os PhD Amitai e Oren Etzioni, apresentam um importante olhar sobre o uso da inteligência artificial em um campo que pode definir o futuro do planeta e da humanidade.[19]
A criação da bomba nuclear no século passado, apesar do grande avanço tecnológico e científico que foi a sua invenção, também revelou um grande e profundo regresso no que tange à ética que pauta a vida humana. A imagem do grande “cogumelo” formado pela explosão é uma cena que impacta os olhos do espectador até hoje.
A discussão em torno do uso da IA no processo de inovação bélico-militar também carece de uma visão que equacione os prós e os contras de tamanha empreitada.
No estudo apontado acima, os autores conseguem discriminar tanto o lado positivo como o lado negativo do uso da IA neste âmbito. Um dos argumentos mais relevantes para a adoção dos sistemas de armas autônomos é o custo benefício que eles podem gerar.
Isto ocorre, pois o sistema apoiado na IA multiplicaria a força do aparato militar, pois o número de soldados necessário para uma missão seria menor e a eficácia do trabalho executado seria maior. Um outro ponto que também merece ser abordado é o fato do alto custo que um militar gera para os cofres públicos. Num artigo do The Fiscal Times, foi estimado um valor de US$ 850.000,000 por militar no Afeganistão por ano. Comparado a isso, um pequeno robô TALON, um rover que pode ser equipado com armas custaria o valor de US$ 230.000,00.[20]
O relato do Major Jason S. DeSon, da Força Área dos EUA, apontado no mencionado artigo, afirma que o uso da IA no serviço de aeronáutica traria grandes benefícios para produtividade e performance das atividades, pois um piloto automático não teria tensão física de um piloto humano, bem como teria uma concentração mental bem mais robusta e preparada para diversas situações de perigo e instabilidade.[21]
Por outro lado, o argumento contrário ao uso de armas autônoma parte de um ponto de vista mais moral do que material. Os adeptos desta visão defendem que é inviável delegar às máquinas o poder de decidir sobre a vida ou morte de alguém. Isto porque, como um dos problemas, pode ocorrer a violação do princípio da distinção, haja vista dificilmente as máquinas poderem distinguir militares de civis.
Numa carta aberta em julho de 2015[22], grandes nomes da tecnologia mundial como Elon Musk (fundador da Tesla), Stephen Hawcking (renomado físico da Universidade de Cambridge), Steve Woniask (cofundador da Apple) dentre outros fizeram um apelo para que armas autônomas não fossem utilizadas ou promovido seu desenvolvimento, haja vista sua grande letalidade e descontrole da ação humana.
Há poucos anos atrás, robôs programados para matar ou conter a criminalidade, não passavam de uma boa experiência de ficção científica, como o clássico filme Robocop. No entanto, os grandes avanços nos estudos da IA já ventilam a possibilidade de algo bem parecido num futuro próximo.
E dentro desta discussão fascinante do universo da IA e suas implicações práticas, avaliar o uso da inteligência artificial, sempre com a perspectiva de que nunca deixará de existir por trás de toda máquina um ser humano desenvolvedor, que nem sempre terá a melhor das intenções ou uma visão pautada na ética e no bem comum.
1.4. Os vieses da IA e a questão da responsabilidade civil
1.4.1. A IA pode ter preconceitos e vieses absorvidos do ser humano?
Na supracitada obra de Juarez Freitas e Thomas Bellini, no capítulo acerca dos vieses da inteligência artificial, os autores fazem o seguinte apontamento:
“O reino dos vieses é o reino do impulsivismo acrítico e, nessa medida, da supressão parcial ou total do livre-arbítrio. Diante do fenômeno, o desenvolvimento (ou a reprogramação intencional das predisposições discriminatórias e injustas) é uma agenda mandatória. Em outras palavras, automatismos têm que ser criticamente reciclados para vetar os condicionamentos nefastos – ostensivos ou velados – que minam o livre arbítrio e o melhor da humanidade.”[23]
Os autores lançam o grande problema da IA operar de maneira mecânica e ao mesmo eivada de vieses e preconceitos, que fazem-na reproduzir uma infinidade de posturas discriminatórias e excludentes em relação ao ser humano.
Um ponto importante de ser lembrado é o fato da IA estar sendo cada vez mais utilizada no recrutamento e seleção de candidatos para vagas de empreso, traçando um perfil e supondo sua compatibilidade com os postos pleiteados. Portanto, diversos candidatos podem ser excluídos injustamente dos processos seletivos, como no caso, por exemplo, da máquina estar impregnada do viés ilícito e imoral do racismo.[24]
Por esta razão, é imperioso o início de um movimento de desenviesamento da IA, para que a mesma não só seja programada sem estes vícios e preconceitos, mas também funcione como um braço auxiliar na tentativa de também melhores os vieses presentes no ser humano.
1.4.2. Quem é o responsável pelos erros cometidos pela IA?
A pergunta acima ainda não possui uma resposta definitiva, uma vez que todas as discussões acerca da responsabilidade pelos atos da IA ainda são muito novas e a situação é totalmente desafiadora.
Seria a culpa do desenvolvedor do programa? Ou seria melhor punir o consumidor que estava utilizando-o? Não seria o caso de punir o Estado, pois a decisão algorítmica seria uma conduta pública? Ou, de maneira mais utópica, seria o caso de punir a própria IA, pois possui autonomia suficiente para tomar decisões? [25]
Entende-se que de todas as opções elencadas, a melhor alternativa ainda seria responsabilizar o desenvolvedor e a empresa criadora da IA, com base na teoria do risco do empreendimento[26], haja vista o alto grau de periculosidade deste ramo tecnológico.
Todavia, o próprio atributo do machine learning presente na IA faz com que a mesma evolua, por essência, de maneira relativamente autônoma, sendo impossível para o criador deter o controle cabal do aprendizado e desenvolvimento que a máquina poderá atingir por si só.[27]
Este atributo faz com que a construção primária e o produto final sejam cada vez mais distantes entre si, nem mesmo existindo este produto final, pois a escalabilidade e franco desenvolvimento são características precípuas do aprendizado de máquina.[28]
Esse seria o estágio conquistado por HAL 9000? Seria o famigerado computador inteligente uma espécie de “personalidade artificial”? Teriam as redes neurais artificiais concedido tamanha independência para as máquinas? HAL 9000 era capaz de cantar, tinha medo da morte e assassinou os tripulantes da nave.[29] A evolução da IA caminha para esta realidade? Muitas são as perguntas e limitadíssima é a capacidade humana para responder qualquer uma delas.
Contudo, apesar desta hipótese parecer fantasiosa e distante, tal perplexidade já esboça contornos práticos. A IA já foi capaz de produzir diversas obras como a conclusão da 10ª Sinfonia de Beethoven, escreveu um conto para competição literária, criou receitas culinárias e construiu uma obra de arte avaliada em milhares de dólares.[30]
Outro caso também a ser destacado é o desenvolvimento do GPT-3, uma espécie de chatbot que pensa, capaz de criar textos idênticos ao de seres humanos, através da ferramenta de processamento computacional de línguas ou processamento de linguagens naturais.[31] Ainda poderia se falar neste caso dos eventuais empregos que a IA poderia tirar dos seres humanos, caso este projeto realmente se concretize.
Há um perigo claro no uso desenfreado e sem freios da IA, haja vista o seu alto potencial em coletar informações e a partir delas tornar-se independente do ser humano. Mas há luzes perante estas trevas, pois os pontos positivos da IA também existem e a regulação deste mercado também é possível e necessária para frear o seu ímpeto destrutivo.
1.5. Uma nova esperança: o que a IA pode nos trazer de bom e um processo regulatório é possível?
1.5.1. A IA como auxiliar do ser humano
Como diz o dito popular “depois da tempestade sempre vem a bonança”! Desta forma, após lançar mão do caráter nebuloso e obscuro da IA, é hora de jogar luzes nesta escuridão e apontar os ganhos que a sociedade atual pode ter com o uso responsável da IA.
Muitas podem ser as frentes as quais a inteligência artificial auxilie o ser humano a atingir resultados mais satisfatórios e positivos, ocasionando uma melhor qualidade de vida para todos.
Nos dias atuais, de modo rudimentar, já podemos observar veículos autônomos que auxiliam os agricultores nas colheitas, proporcionando um ganho muito mais elevado na produtividade.[32]
Não podemos olvidar o sofisticado mecanismo de reconhecimento facial, o qual a IA é capaz de reconhecer rostos seja para desbloquear um celular, permitir o acesso a uma área restrita ou ajudar nas investigações criminais com câmeras de segurança que façam este reconhecimento. [33]
Também é possível apontar o uso de IA no auxílio aos profissionais da medicina em cirurgias, seja de baixo ou alto risco, que otimizam o trabalho e agem de acordo com uma programação direcionada a poupar os médicos de serviços que possam ser desempenhados por uma máquina.
Outro grande exemplo de melhorias que a IA nos proporcionou pode ser o dos famosos chatbots utilizados por empresas que possuem uma alta demanda de ligações e reclamações dos seus clientes, como empresas de telefonia, bancos, grandes varejistas etc., que necessitam solucionar uma miríade de problemas num curto espaço de tempo, o que não seria possível fazer somente com o trabalho humano, de maneira satisfatória.[34]
Assim sendo, muitas são as hipóteses nas quais a inteligência artificial pode ser de grande valia para a vida humana, pois apresenta uma capacidade de absorção de conteúdo e processamento do mesmo numa capacidade muito mais elevada que a humana.
Segundo Freitas e Bellini, na conclusão de sua obra sobre o assunto, o ponto positivo da IA pode ser visto da seguinte forma:
“A IA pode ser extremamente benfazeja, se regulada apropriadamente, em áreas vitais como saúde, segurança e educação. Além de ampliar a acurácia, funciona como instrumento que enseja a formulação e a implantação de políticas efetivamente baseadas em evidências, tendo na devida conta os princípios da prevenção e da precaução.”[35]
Em um texto publicado pelo Valor Econômico, em 01/10/2020, o advogado especialista em tecnologia, mídia e propriedade intelectual, Ronaldo Lemos, apresenta a IA como a nova infraestrutura dos negócios, sobretudo após o advento da pandemia da Covid-19.
Lemos aponta para o proliferado uso de processamento de linguagem natural, com o intuito de criar chatbots capazes de informar sobre os dados a respeito do vírus em tempo real, bem como o uso de aplicações como a Kunumi, empresa de IA com sede em São Paulo, que em parceria com o Grupo Fleury criou uma ferramenta capaz de detectar infectados pelo coronavírus com base em padrões sanguíneos.[36]
1.5.2. A necessidade da regulação da IA
A regulação do uso da IA no Brasil precisa ser feita para que as regras do jogo sejam estabelecidas. Assim como aconteceu com a proteção de dados pessoais, com o advento da Lei 13.079 de 2018, Lei Geral de Proteção de Dados Pessoais, a IA também carece de um marco regulatório.
Ronaldo Lemos, no mesmo texto supracitado, defende a criação de um Plano Nacional de Inteligência Artificial[37], documento que estabeleceria uma reunião de uma gama de dados existentes em banco de dados públicos ou privados, com o fim de alimentar estruturas de aprendizado de máquina para melhoria da prestação de serviços em ambos os setores.
A regulação também é importante para definir os limites éticos do uso da IA, em quais ramos e áreas esta tecnologia poderá ser usada, delinear a responsabilidade pelos erros cometidos e prejuízos causados, trazer segurança jurídica para um mercado tão vasto e perigoso ao mesmo tempo.
Conclusão: o uso ético da IA em defesa do humano
O futuro da IA é avassalador e o uso cada vez mais frequente da mesma pelo ser humano é uma realidade inevitável. Mas esta aparente necessidade que o mundo terá desta poderosa ferramenta não quer dizer necessariamente que a humanidade deverá estar submissa aos ditames da tecnologia e suas seduções.
O filme de Stanley Kubrick encerra de forma trágica e assustadora para o seu público, com a triunfante vitória do robô HAL 9000, que demonstra ter de fato um poderio e controle total sobre a vida humana em seus domínios.
Em certos momentos do filme, Kubrick, de forma intencional ou não, mostra como o ser humano é frágil e pequeno diante do mundo das novas tecnologias. No espaço, o homem precisa voltar a comer “papinhas”, necessita reaprender a andar e se vê como uma criança indefesa diante de um poder tão colossal como o tecnológico.
O mesmo homem que olha para trás e se espanta com a deficiência e rudimentariedade do seu parente distante do paleolítico, agora é observado pelas máquinas, que em muito o superam, em praticamente tudo.
Mas a sombra do humano ainda insiste em relembrar aos avanços tecnológicos que há limites éticos para o campo de atuação e crescimento da IA e novas tecnologias. Tudo nos leva a pressupor que os trabalhos monótonos, repetitivos e burocráticos serão varridos do mapa de domínio do ser humano e darão lugar às máquinas programadas para isso.
Todavia, sempre existirão funções que demandarão a indelegável e intransferível ação e supervisão humana[38], como uma decisão jurídica, uma análise valorativa de alguma situação, ou seja, há realidade que demandam o uso de valores, afetos, atributos que não podem existir numa máquina feita eletrodos, fusíveis e fios.
O uso da IA é louvável e os avanços na área devem sim ser incentivados, contudo, o controle humano sobre a questão e a palavra final em tudo que envolver o tema deve permanecer no campo de incidência da ação humana.
Numa matéria de 21/10/2020, o portal G1.com noticiou que, segundo relatório do Fórum Econômico Mundial, dentro de 5 anos, 85 milhões de empregos serão perdidos em razão da automação.[39] Os números são assustadores, sobretudo por estar-se falando da automação, um grau de automatização bem inferior à IA. E diante deste cenário, até onde o avanço não pode ser considerado um regresso?
Após 50 anos do primeiro assassinato de um ser humano cometido por uma IA, o épico HAL 9000, o fantasma do medo do que aguarda o homem com os crescentes e exponenciais avanços da tecnologia persiste.
Porém, a preocupação ainda maior deveria estar não no avanço da tecnologia, que é salutar, mas onde o ser humano está nesta história. Ele é o protagonista desta história, só permitindo o avanço até onde possua controle e dentro dos limites éticos? Ou se comporta como um mero espectador de tudo isso, permitindo que mentes malévolas, com a desculpa do avanço tecnológico, coloquem suas agendas antiéticas em curso e não se preocupem com os prejuízos que suas ações possam causar?
O maior perigo dentro deste cenário é a própria virtualização e mecanização do homem, que passa a ser uma espécie de robôs com sentimentos dentro do mundo cada vez mais digital. E se o próximo HAL 9000, inimigo da humanidade, for o próprio ser humano? E se o pretexto de avançar com a tecnologia e lucrar cada vez mais com este mercado tão rentável for um caminho no qual a destruição do genuinamente humano seja o único resultado possível? Perguntas que somente seres humanos poderão responder!
Referências bibliográficas
ALECRIM, Emerson. Machine learning: o que é e por que é tão importante. Disponível em: https://tecnoblog.net/247820/machine-learning-ia-o-que-e/
Armas autônomas: uma carta aberta de pesquisadores de IA e robótica. Disponível em: https://futureoflife.org/open-letter-autonomous-weapons/. Acesso em 03/07/2021.
BATTAGLIA, Rafael. Afinal, o que são deepfakes? Disponível em: https://super.abril.com.br/tecnologia/afinal-o-que-sao-deepfakes/
BRASIL. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: <http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm>. Acessado em: 01 de jul. de 2021.
CAVALLINI, Marta. Automação deve acabar com 85 milhões de empregos nos próximos 5 anos, diz relatório do Fórum Econômico Mundial. Disponível em: https://g1.globo.com/economia/concursos-e-emprego/noticia/2020/10/21/automacao-deve-fechar-85-milhoes-de-empregos-diz-relatorio-do-forum-economico-mundial.ghtml. Acesso em 03/07/2021.
DE ASSIS, Pablo. O que são Redes Neurais? Disponível em: https://www.tecmundo.com.br/programacao/2754-o-que-sao-redes-neurais-.htm
EDITORIAL. O que é Big Data? Disponível em: https://canaltech.com.br/big-data/o-que-e-big-data/
EDITORIAL. Tesla: acidente com carro 'sem motorista' mata 2 pessoas nos EUA. Disponível em: https://www.bbc.com/portuguese/internacional-56806154
ETZIONI, Amitai e Oren. Os prós e os contras dos sistemas de armas autônomos. Disponível em: https://www.armyupress.army.mil/Portals/7/militaryreview/Archives/Portuguese/Online%20Exclusives/Etzioni-Sistemas-de-Armas-Aut%C3%B4nomos.pdf. Acesso em 03/07/2021.
FARINACCIO, Rafael. IA inspirada no vilão do filme '2001' pode funcionar em estações espaciais. Disponível em: https://www.tecmundo.com.br/software/136465-ia-inspirada-vilao-filme-2001-funcionar-estacoes-espaciais.htm
FRANCIS, David. Como um novo exército de robôs pode reduzir o orçamento de defesa. Disponível em: https://www.thefiscaltimes.com/Articles/2013/04/02/How-a-New-Army-of-Robots-Can-CuttheDefense-Budget. Acesso em 03/07/2021.
FREITAS, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020.
HARADA, Eduardo. Fail épico: sistema do Google Fotos identifica pessoas negras como gorilas. Disponível em: https://www.tecmundo.com.br/google-fotos/82458-polemica-sistema-google-fotos-identifica-pessoas-negras-gorilas.htm
LEMOS, Ronaldo. Ronaldo Lemos: inteligência artificial, a nova infraestrutura dos negócios. Disponível em: https://valor.globo.com/patrocinado/juntos-no-proximo-nivel/noticia/2020/10/01/ronaldo-lemos-inteligencia-artificial-a-nova-infraestrutura-dos-negocios.ghtml
SCHULTZ, Daniel. Chatbot que pensa? Afinal, como é o "cérebro" da IA mais avançada do mundo. Daniel Schultz et al. Disponível em: https://www.uol.com.br/tilt/colunas/para-onde-o-mundo-vai/2020/10/22/gpt-3-por-que-a-plataforma-de-inteligencia-artificial-e-revolucionaria.htm
[1] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 21.
[2] Idem.
[3] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 22.
[4] Idem.
[5] Idem.
[6]De Assis, Pablo. O que são Redes Neurais? Disponível em: https://www.tecmundo.com.br/programacao/2754-o-que-sao-redes-neurais-.htm. Redes neurais são sistemas de computação com nós interconectados que funcionam como os neurônios do cérebro humano. Usando algoritmos, elas podem reconhecer padrões escondidos e correlações em dados brutos, agrupá-los e classificá-los, e – com o tempo – aprender e melhorar continuamente. Acessado em 28/06/2021.
[7] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 23.
[8]Alecrim, Emerson. Machine learning: o que é e por que é tão importante. Disponível em: https://tecnoblog.net/247820/machine-learning-ia-o-que-e/. Acessado em 28/06/2021. Aprendizado de máquina é um sistema que pode modificar seu comportamento autonomamente tendo como base a sua própria experiência — o treinamento que abordamos anteriormente. A interferência humana aqui é mínima.
[9] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 23.
[10] Idem.
[11]O que é Big Data? Disponível em: https://canaltech.com.br/big-data/o-que-e-big-data/. Acessado em 28/06/2021. O machine learning trabalha com outro grande conceito para o mundo das novas tecnologias que é o big data. Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade. Para isso são necessárias soluções específicas para Big Data que permitam a profissionais de TI trabalhar com informações não-estruturadas a uma grande velocidade.
[12] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 30.
[13] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 35.
[14] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 36.
[15] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 29.
[16]Tesla: acidente com carro 'sem motorista' mata 2 pessoas nos EUA. Disponível em: https://www.bbc.com/portuguese/internacional-56806154. Acessado em 29/06/2021.
[17]Harada, Eduardo. Fail épico: sistema do Google Fotos identifica pessoas negras como gorilas. Disponível em: https://www.tecmundo.com.br/google-fotos/82458-polemica-sistema-google-fotos-identifica-pessoas-negras-gorilas.htm. Acessado em 29/06/2021.
[18]Battaglia, Rafael. Afinal, o que são deepfakes? Disponível em: https://super.abril.com.br/tecnologia/afinal-o-que-sao-deepfakes/. Nesta matéria, o conceito de deepfake é melhor trabalhado. Acessado em 29/06/2021.
[19] Etzioni, Amitai e Oren. Os prós e os contras dos sistemas de armas autônomos. Disponível em: https://www.armyupress.army.mil/Portals/7/militaryreview/Archives/Portuguese/Online%20Exclusives/Etzioni-Sistemas-de-Armas-Aut%C3%B4nomos.pdf. Acesso em 03/07/2021. P.1.
[20] Francis, David. Como um novo exército de robôs pode reduzir o orçamento de defesa. Disponível em: https://www.thefiscaltimes.com/Articles/2013/04/02/How-a-New-Army-of-Robots-Can-CuttheDefense-Budget. Acesso em 03/07/2021.
[21]Etzioni, Amitai e Oren. Os prós e os contras dos sistemas de armas autônomos. Disponível em: https://www.armyupress.army.mil/Portals/7/militaryreview/Archives/Portuguese/Online%20Exclusives/Etzioni-Sistemas-de-Armas-Aut%C3%B4nomos.pdf. Acesso em 03/07/2021. P. 2.
[22] Armas autônomas: uma carta aberta de pesquisadores de IA e robótica. Disponível em: https://futureoflife.org/open-letter-autonomous-weapons/. Acesso em 03/07/2021.
[23] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 93.
[24] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 95.
[25] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 121 e ss. Para uma melhor compreensão da questão da responsabilidade pelas ações da IA, ver o capítulo 9 da presente obra.
[26] A teoria do risco do empreendimento consiste no caso de a transferência da responsabilidade ser exclusiva daquele que se submete ao risco de empreender em determinado ramo que possua um elevado grau de periculosidade. Nestes casos, não há que se falar em análise da culpa do infrator, mas apenas avaliar se sua conduta está ligada ao dano ocorrido.
[27] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 123.
[28] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 142.
[29]Farinaccio, Rafael. IA inspirada no vilão do filme '2001' pode funcionar em estações espaciais. Disponível em: https://www.tecmundo.com.br/software/136465-ia-inspirada-vilao-filme-2001-funcionar-estacoes-espaciais.htm. Acessado em 29/06/2021. A matéria fala sobre a IA inspirada no HAL 9000 que terá como função controlar estações espaciais.
[30] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 144.
[31]Schultz, Daniel. Chatbot que pensa? Afinal, como é o "cérebro" da IA mais avançada do mundo. Daniel Schultz, Monica Matsumoto, Shridhar Jayanthi, Guilherme Pimentel , Luiz Gustavo Martins e Cristina Schultz. Disponível em: https://www.uol.com.br/tilt/colunas/para-onde-o-mundo-vai/2020/10/22/gpt-3-por-que-a-plataforma-de-inteligencia-artificial-e-revolucionaria.htm. Acessado 29/06/2021.
[32] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 24.
[33] A preocupação com o uso deste mecanismo de reconhecimento facial e o grau de vigilância permitido, bem como a utilização deste mecanismo como ferramenta de controle estatal serão objeto de um estudo mais aprofundado a ser redigido em breve.
[34] A questão dos chatbots não pode silenciar os casos em que há a necessidade uma intervenção humana, haja vista que por operar de forma sintática e mecânica, muitas vezes a IA não conseguirá resolver o problema apresentado.
[35] Freitas, Juarez. Direito e Inteligência Artificial: em defesa do humano/ Juarez Freitas e Thomas Bellini Freitas. – Belo Horizonte: Fórum, 2020. P. 148.
[36] Lemos, Ronaldo. Ronaldo Lemos: inteligência artificial, a nova infraestrutura dos negócios. Disponível em: https://valor.globo.com/patrocinado/juntos-no-proximo-nivel/noticia/2020/10/01/ronaldo-lemos-inteligencia-artificial-a-nova-infraestrutura-dos-negocios.ghtml. Acessado em 30/06/2021.
[37] Idem.
[38] O art. 20 da Lei 13.079 de 2018 (LGPD) aborda o direito do titular de dados de pedir a revisão de decisões inteiramente automatizadas.
[39] Cavallini, Marta. Automação deve acabar com 85 milhões de empregos nos próximos 5 anos, diz relatório do Fórum Econômico Mundial. Disponível em: https://g1.globo.com/economia/concursos-e-emprego/noticia/2020/10/21/automacao-deve-fechar-85-milhoes-de-empregos-diz-relatorio-do-forum-economico-mundial.ghtml. Acesso em 03/07/2021.
Bacharel em Direito pelo Centro Universitário La Salle e Pós-graduado em Direito Público pela Faculdade Legale. Advogado.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: RICARDO RODRIGUES DOS SANTOS JúNIOR, . Os avanços tecnológicos e a ética: o que “2001 uma odisseia no espaço” e a inteligência artificial tem a nos dizer? Conteudo Juridico, Brasilia-DF: 17 ago 2021, 04:30. Disponivel em: https://conteudojuridico.com.br/consulta/Artigos/57111/os-avanos-tecnolgicos-e-a-tica-o-que-2001-uma-odisseia-no-espao-e-a-inteligncia-artificial-tem-a-nos-dizer. Acesso em: 22 nov 2024.
Por: Marco Aurelio Nascimento Amado
Por: Mario Raposo da Silva
Por: Rafaela dos Reis Baldissera
Por: Benigno Núñez Novo
Precisa estar logado para fazer comentários.