Resumo: O artigo examina a transição dos oráculos da antiguidade para os oráculos modernos de inteligência artificial (IA), destacando a ascensão da startup chinesa DeepSeek e o ambicioso projeto norte-americano Stargate em parceria com as big techs, examinando desafios jurídicos, éticos e geopolíticos da programação de algoritmos, com método de pesquisa em livros, revistas e jornais aborda as implicações da concentração de poder nas big techs, a vulnerabilidade das startups de IA e a necessidade de regulamentações robustas e governança global, obtendo como resultado esperado a necessidade de equilíbrio entre inovação tecnológica de sistemas de IA, transparência e explicabilidade algorítmica para garantir a soberania digital.
Palavras-Chave: Inteligência Artificial; Soberania Digital; DeepSeek; Stargate; Big Techs; Algoritmos.
Abstract: The article examines the transition from ancient oracles to modern artificial intelligence (AI) oracles, highlighting the rise of the Chinese startup DeepSeek and the ambitious American Stargate project in partnership with big techs. It explores the legal, ethical, and geopolitical challenges of algorithm programming through a research methodology based on books, magazines, and newspapers. The study addresses the implications of power concentration in big techs, the vulnerabilities of AI startups, and the need for robust regulations and global governance. The expected outcome emphasizes the necessity of balancing technological innovation in AI systems with algorithmic transparency and explainability to ensure digital sovereignty.
Keywords: Artificial Intelligence; Digital Sovereignty; DeepSeek; Stargate; Big Techs; Algorithms.
Sumário: Introdução; 1. Oráculos Modernos de Inteligência Artificial; 1.1. Aplicações da IA em Setores Estratégicos; 1.1.1. Saúde; 1.1.2. Finanças e Consumo; 1.1.3. Segurança Pública; 1.1.4. Trabalho; 2. Implicações Jurídicas e Éticas da IA; 3. Transparência e Explicabilidade; 4. Vieses Algorítmicos e Discriminação; 5. Responsabilidade; 6. Projeto de Infraestrutura Stargate; 7. Startup DeepSeek; 8. Soberania Digital; Considerações Finais; Referências Bibliográficas.
Introdução
Desde os primórdios da civilização, os oráculos desempenharam um papel central na tomada de decisões estratégicas, oferecendo previsões e conselhos que moldaram sociedades e determinaram rumos políticos e econômicos.
Na Grécia antiga, o Oráculo de Delfos era consultado por líderes em busca de respostas para questões existenciais e políticas, enquanto no Egito antigo o Oráculo de Siwa detinha influência sobre decisões de alcance imperial que, embora baseados em crenças espirituais e interpretações subjetivas, esses oráculos legitimavam escolhas que impactavam profundamente o destino de povos e nações.
No cenário contemporâneo, os oráculos do passado são substituídos pelos sistemas de inteligência artificial (IA), que, ao processarem grandes volumes de dados, fornecem análises precisas e predições fundamentadas em evidências.
Esses novos oráculos modernos estão presentes em setores estratégicos como saúde, finanças, consumo, segurança pública e trabalho, influenciando decisões que vão desde o diagnóstico médico até políticas de segurança nacional.
Entretanto, diferentemente dos oráculos antigos, que estavam associados a sacerdotes e rituais religiosos, as decisões baseadas em IA são mediadas por algoritmos, controlados por grandes corporações tecnológicas (big techs) e startups de IA disruptivas.
Entre os exemplos mais emblemáticos desse novo ecossistema tecnológico está a ascensão da startup chinesa DeepSeek, que, por meio de soluções de IA mais acessíveis e eficientes, desafiou o domínio das big techs norte-americanas e europeias.
Simultaneamente, o governo dos Estados Unidos lançou o ambicioso projeto de infraestrutura de IA, batizado de Stargate, em colaboração com empresas como OpenAI, Oracle e SoftBank, que visa investir US$ 500 bilhões no setor, intensifica a disputa geopolítica pela supremacia tecnológica, evidenciando os desafios relacionados à soberania digital, cibersegurança e regulamentação ética.
Nesse contexto, a crescente dependência de sistemas de IA levanta preocupações cruciais sobre transparência, responsabilidade e concentração de poder.
A ausência de regulamentações específicas, aliada à rápida evolução tecnológica, coloca em risco tanto os direitos fundamentais quanto a autonomia dos Estados diante de um cenário global dominado por interesses privados e disputas econômicas.
Diante dessa realidade, este artigo propõe uma análise crítica das implicações jurídicas, éticas e geopolíticas da infraestrutura de IA representada pelo projeto Stargate e pela startup DeepSeek, buscando refletir sobre os desafios da soberania digital em um mundo cada vez mais influenciado por tecnologias avançadas.
Tecidas tais considerações, este artigo responderá a seguinte questão-problema:
Como assegurar que as infraestruturas de inteligência artificial, desenvolvidas e controladas por big techs e startups, promovam inovação tecnológica de forma ética e transparente, ao mesmo tempo em que respeitem os direitos fundamentais e preservem a soberania digital dos Estados em um cenário marcado pela concentração de poder, ciberameaças e intensificação das disputas geopolíticas?
1. Oráculos Modernos de Inteligência Artificial
As big techs e startups ditam as programações algorítmicas de sistemas de IA generativa, realizando grande análise de dados e previsões.
Apesar do caráter tecnológico, a influência desses sistemas de IA em decisões pessoais e institucionais remete à mesma busca por previsões e orientações que marcava os oráculos míticos da antiguidade rodeados por crendices.
Atualmente vivemos numa sociedade consumo, regida pelo capitalismo digital e as big techs e startups são os oráculos modernos envoltos por implicações jurídicas e éticas.
1.1. Aplicações da IA em Setores Estratégicos
Os sistemas de inteligência artificial (IA) tem se consolidado como uma ferramenta essencial em diversos setores estratégicos, promovendo inovações que otimizam processos, reduzem custos e aprimoram a tomada de decisões, tendo as big techs e startups importância central, posto que o desenvolvimento dessa tecnologia disruptiva delas depende, cujas aplicações abrange diversas áreas, como por exemplo a saúde, finanças, consumo, segurança pública e mercado de trabalho, cada uma com particularidades e benefícios específicos.
A seguir, serão exploradas as principais aplicações da IA nesses setores, destacando suas contribuições e os desafios inerentes à sua implementação.
1.1.1. Saúde
A aplicação da Inteligência Artificial (IA) no setor da saúde tem se expandido significativamente, abrangendo desde diagnósticos médicos até a personalização de tratamentos e a previsão de surtos epidemiológicos.
Tais avanços tecnológicos proporcionam benefícios inegáveis, como a detecção precoce de doenças e a otimização de terapias. Contudo, emergem preocupações jurídicas relevantes, especialmente no que tange à responsabilidade civil e à proteção de dados dos pacientes.
No que concerne à responsabilidade civil, a utilização de sistemas de IA na prática médica suscita questionamentos sobre a imputação de responsabilidade em casos de eventuais erros de diagnósticos ou falhas terapêuticas, posto que, tradicionalmente, a responsabilidade civil médica no Brasil é de natureza subjetiva, exigindo a comprovação de culpa, dolo ou negligência por parte do profissional para a caracterização do dever de indenizar.
Entretanto, a introdução da IA na medicina amplia a complexidade dessa dinâmica, uma vez que eventuais falhas podem ser atribuídas ao software ou ao hardware utilizados.
Nessa perspectiva, discute-se se a responsabilidade recairia sobre o desenvolvedor do sistema, o agente de saúde que emprega a tecnologia ou a instituição de saúde que disponibiliza o serviço.
Alguns estudiosos argumentam que o médico não deve ser responsabilizado de forma objetiva por erros decorrentes do uso da IA, sugerindo a necessidade de identificar outros possíveis responsáveis, dependendo das circunstâncias específicas do caso.
Ademais, a Lei Geral de Proteção de Dados (LGPD) impõe salvaguardas rigorosas para o tratamento de dados pessoais sensíveis, categoria que inclui informações de saúde dos pacientes.
A LGPD estabelece que o tratamento de dados pessoais sensíveis somente é permitido em hipóteses específicas, como mediante consentimento do titular ou para a tutela da saúde, exclusivamente, em procedimento realizado por profissionais de saúde, serviços de saúde ou autoridade sanitária.
Além disso, a lei enfatiza a necessidade de transparência, exigindo que os titulares sejam informados sobre as finalidades e formas de tratamento de seus dados.
No contexto da IA na saúde, isso implica que pacientes e usuários devem ser claramente informados sobre como seus dados serão coletados, armazenados e analisados, garantindo-se o direito à privacidade e à autodeterminação informativa.
Não é possível deixar de comentar sobre o comércio eletrônico de medicamentos, o que já é por si só preocupante.
A jurista Maria Eugenia Reis Finkelstein leciona:
Com a explosão da Internet, notou-se um grande aumento do número de sites que disponibilizam a comercialização de medicamentos por meio eletrônico A questão causa grande preocupação nos organismos responsáveis pela normatização de atividades que envolvam a fabricação, distribuição e comercialização de medicamento.[1]
A IA não pode ser usada para influenciar um paciente a adquirir medicamentos pela internet opor meio de plataformas digitais de vendas mediante o emprego de gatilhos de consumo e exploração de suas vulnerabilidades.
A incorporação da IA na área da saúde demanda uma análise jurídica cuidadosa, visando equilibrar os benefícios tecnológicos com a proteção dos direitos dos pacientes.
É imperativo que os profissionais e instituições de saúde adotem medidas para assegurar a conformidade com as normas de responsabilidade civil e proteção de dados, garantindo a segurança e a confiança no uso da inteligência artificial.
1.1.2. Finanças e Consumo
No setor financeiro, a Inteligência Artificial (IA) tem desempenhado um papel fundamental em três frentes principais: a gestão de riscos, a prevenção de fraudes e a análise de tendências de mercado. Por meio da capacidade de processar grandes volumes de dados em tempo real, os sistemas de IA permitem maior previsibilidade e eficiência nas decisões financeiras, sendo amplamente utilizados por bancos, seguradoras e empresas de investimento.
A incorporação dessa tecnologia não está isenta de desafios, sobretudo nos âmbitos da discriminação algorítmica e da transparência.
A discriminação algorítmica constitui um dos principais riscos associados ao uso da IA no setor financeiro.
Decisões automatizadas baseadas em algoritmos podem reproduzir ou ampliar preconceitos preexistentes nos dados de treinamento, gerando desigualdades na concessão de créditos e seguros.
Por exemplo, sistemas que utilizam dados históricos podem acabar negando crédito de forma desproporcional a determinados grupos sociais, em razão de padrões discriminatórios embutidos nesses dados.
Esse fenômeno viola princípios como o da igualdade e da não discriminação, protegidos pela Constituição Federal de 1988 e pela legislação infraconstitucional.
No que se refere à transparência, um desafio recorrente está na compreensão dos critérios utilizados pelos algoritmos para a tomada de decisão.
A opacidade desses sistemas, muitas vezes tratados como "caixas pretas", dificulta a auditoria e o monitoramento por parte de órgãos reguladores e dos próprios consumidores.
Essa falta de clareza gera insegurança jurídica, além de comprometer a confiança no sistema financeiro.
Os gatilhos de consumos inseridos em programações algorítmicas podem ensejar e aumentar o endividamento do consumidor, comprometendo sua segurança financeira e retirando sua capacidade de se sustentar, ou seja, sobreviver com dignidade.
O jurista Marcio Pugliesi leciona:
A racionalidade tecnológica interfere em toda a sociedade e, em particular, em todo o consumo. A dominação atua não apenas na contenção dos prazeres, mas em sua própria produção e na notícia de sua existência, tendo como meio a comunicação de massa (mass-media). Os produtos insidiosamente doutrinam e condicionam, modelam uma falsa consciência incapaz de apreender o que revela de falso.[2]
O fortalecimento de mecanismos de governança algorítmica é essencial para garantir que os processos decisórios sejam auditáveis, explicáveis e aderentes aos princípios éticos e de direito.
O jurista Marcelo Barbosa Sacramone leciona:
A atividade ulterior a ser desempenhada pela sociedade deve ter conteúdo lícito. Todos os objetos sociais que não contrariem a lei podem ser convencionados no contrato da sociedade. Nesse ponto, determina o art. 35, I, da Lei n. 8.934/94, que as Juntas Comerciais não arquivarão documentos que contenham matéria contraria aos bons costumes e à ordem pública. Algumas atividades, entretanto, para serem exploradas, necessitam de autorização governamental em razão do interesse público ou da soberania nacional. Embora a Constituição Federal assegure a livre-iniciativa e a liberdade de concorrência entre os agentes econômicos no art. 170, ressalva a possibilidade de autorização de órgãos públicos excepcionalmente para a exploração de determinadas atividades. O Código Civil, em seu art. 1.123, atribui a competência para autorizar a exploração sempre ao Poder Executivo Federal, o qual poderá cassar a autorização concedida a qualquer tempo, se a sociedade infringir disposição de ordem pública ou praticar atos contrários aos fins declarados em seu estatuto.[3]
Além disso, destaca-se a relevância do papel das agências reguladoras, como o Banco Central do Brasil (BCB) e a Comissão de Valores Mobiliários (CVM), na elaboração de diretrizes específicas para o uso da IA no setor financeiro.
Essas entidades podem contribuir para a implementação de normas que previnam discriminações, promovam a transparência e assegurem a responsabilidade dos agentes econômicos no uso dessas tecnologias.
A harmonização entre os interesses econômicos e a proteção dos direitos dos consumidores deve ser o norte das iniciativas regulatórias nesse contexto.
Assim, é indispensável que o desenvolvimento e a aplicação da IA no setor financeiro sejam acompanhados de regulações claras, que mitiguem os riscos e promovam um equilíbrio entre inovação e segurança jurídica.
1.1.3. Segurança Pública
No campo da segurança pública, a aplicação da Inteligência Artificial (IA) tem gerado debates sobre sua capacidade de prevenir crimes e melhorar a eficácia das políticas de segurança.
Tecnologias preditivas, como o policiamento baseado em IA, analisam grandes volumes de dados para identificar áreas de maior probabilidade de ocorrência de delitos ou mesmo prever comportamentos criminosos.
Tal uso também suscita uma série de preocupações jurídicas e éticas, sendo que um dos principais desafios está relacionado à proteção dos direitos fundamentais. A utilização de sistemas preditivos pode levar a situações de discriminação e violação do princípio da proporcionalidade, ao concentrar esforços de policiamento em determinadas regiões ou grupos sociais, perpetuando estigmas históricos. Além disso, a possibilidade de erros nos algoritmos pode resultar em abordagens ou detenções indevidas, comprometendo a dignidade da pessoa humana, conforme garantido no artigo 1º, inciso III, da Constituição Federal de 1988.
Outro aspecto crítico é o controle social e os riscos associados à vigilância massiva. Sistemas de monitoramento por câmeras, integrados a algoritmos de reconhecimento facial, têm gerado preocupações sobre a proteção da privacidade e o potencial para abusos de poder.
Quando utilizados sem regulações claras, esses mecanismos podem criar cenários de vigilância constante, ferindo garantias individuais e gerando um clima de desconfiança entre a população.
A realização de auditorias independentes e a participação de diversos atores da sociedade civil no monitoramento desses sistemas são medidas essenciais para assegurar um uso ético e eficaz da IA no setor.
Para mitigar esses riscos, é fundamental que a aplicação da IA na segurança pública seja acompanhada por regulamentações robustas, que assegurem a transparência dos processos e a responsabilização em casos de abusos ou falhas, sendo que políticas públicas devem ser desenvolvidas para garantir que essas tecnologias sejam utilizadas de forma proporcional, respeitando os direitos fundamentais e promovendo a justiça social.
1.1.4. Trabalho
A automação impulsionada pela IA tem o potencial de transformar significativamente o mercado de trabalho, substituindo tarefas humanas por processos automatizados.
Embora isso possa levar a ganhos de eficiência, também suscita preocupações sobre desemprego tecnológico e a necessidade de requalificação profissional.
Estima-se que milhões de empregos tradicionais poderão ser substituídos por automação até 2030, afetando particularmente setores como manufatura, logística e serviços.
Por outro lado, novas oportunidades de emprego podem surgir em áreas relacionadas à tecnologia, como ciência de dados, desenvolvimento de algoritmos e cibersegurança.
Para aproveitar essas oportunidades, é imprescindível que políticas públicas sejam desenvolvidas para mitigar os impactos negativos, promovendo programas de capacitação e reciclagem profissional.
Além disso, a adoção de incentivos fiscais para empresas que invistam na requalificação de seus colaboradores e na criação de empregos relacionados à tecnologia pode ajudar a equilibrar os efeitos da automação.
As parcerias entre governos, setor privado e instituições de ensino também são fundamentais para assegurar que a força de trabalho esteja preparada para os desafios do futuro.
2. Implicações Jurídicas e Éticas da IA
A rápida adoção da inteligência artificial (IA) em diferentes setores da sociedade contemporânea traz consigo uma gama de implicações jurídicas e éticas que desafiam os marcos regulatórios existentes.
A complexidade tecnológica da IA, somada ao seu impacto potencial sobre os direitos fundamentais, exige uma análise profunda e multidisciplinar para garantir que seu uso esteja alinhado aos princípios de equidade, justiça e respeito aos direitos humanos.
No campo jurídico, as principais questões giram em torno da responsabilidade civil por danos causados por sistemas de IA, a proteção de dados pessoais e a transparência dos algoritmos utilizados em processos decisórios.
Esses desafios demandam o desenvolvimento de normas específicas que garantam a segurança jurídica e a proteção dos indivíduos diante de possíveis abusos ou falhas tecnológicas.
Sob a ótica ética, surgem preocupações relacionadas ao viés algorítmico, à discriminação automatizada e à concentração de poder em grandes corporações tecnológicas.
Tais questões levantam debates sobre como evitar a perpetuação de desigualdades e assegurar que as decisões automatizadas sejam tomadas de forma justa e imparcial.
A seguir, serão abordados os principais aspectos das implicações jurídicas e éticas da IA, com ênfase na responsabilidade civil, transparência e governança algorítmica, bem como nos princípios éticos que devem nortear o desenvolvimento e a aplicação dessa tecnologia.
3. Transparência e Explicabilidade
A transparência e a explicabilidade são elementos centrais para garantir a confiança no uso da Inteligência Artificial (IA), especialmente diante da complexidade dos algoritmos que fundamentam essas tecnologias. A capacidade de um sistema de IA de justificar suas decisões, de maneira clara e compreensível, não apenas promove a auditabilidade, mas também assegura que os direitos dos indivíduos sejam respeitados no âmbito dos processos decisórios automatizados.
A ausência de transparência nos sistemas de IA, muitas vezes tratados como "caixas-pretas", dificulta a compreensão dos critérios utilizados para determinar decisões automatizadas. Essa opacidade algorítmica não apenas compromete a confiança dos usuários, mas também levanta preocupações regulatórias, especialmente em setores sensíveis como saúde, finanças e segurança pública. A falta de clareza nos processos decisórios pode levar a erros graves ou à perpetuação de preconceitos e discriminações.
A explicabilidade, por sua vez, refere-se à capacidade de um sistema de IA de fornecer justificativas detalhadas e compreensíveis sobre como chegou a uma determinada decisão.
Essa característica é essencial para permitir que órgãos reguladores, usuários e partes interessadas avaliem a adequação das decisões tomadas e identifiquem possíveis falhas ou vieses no algoritmo, sendo necessário a transparência algorítmica.
O matemático Eduardo Mendes Machado leciona:
171. Estabelecer diretrizes para garantir a justiça e a transparência dos algoritmos LLM na distribuição e visibilidade de conteúdo.[4]
Em termos regulatórios, instrumentos como o AI Act da União Europeia destacam a importância da transparência e da explicabilidade ao estabelecer requisitos obrigatórios para sistemas de alto risco.
Entre esses requisitos, incluem-se a realização de avaliações de impacto, auditorias independentes e a documentação de todos os critérios algorítmicos utilizados, garantindo que os processos sejam verificáveis e conformes com os padrões éticos e jurídicos.
No Brasil, a aplicação da Lei Geral de Proteção de Dados (LGPD) pode ser um ponto de partida para exigir maior transparência em sistemas de IA, especialmente quando dados pessoais estão envolvidos.
A LGPD prevê o direito à explicação sobre decisões automatizadas que afetam os titulares dos dados, reforçando a necessidade de que algoritmos sejam projetados com mecanismos que permitam a auditabilidade.
É imprescindível que os sistemas de IA sejam desenhados e implementados com foco na transparência e na explicabilidade, promovendo não apenas a confiança dos usuários, mas também o cumprimento de princípios éticos e normativos. Sem esses elementos, o risco de desigualdades, discriminações e erros algorítmicos aumenta, prejudicando a legitimidade e a eficácia das soluções tecnológicas na sociedade contemporânea.
4. Vieses Algorítmicos e Discriminação
Os vieses algorítmicos configuram um dos mais relevantes desafios jurídicos e éticos no uso da Inteligência Artificial (IA), especialmente em razão de seu impacto direto em decisões automatizadas que afetam direitos fundamentais de indivíduos e grupos sociais.
Esses vieses frequentemente decorrem de falhas nos dados de treinamento utilizados no desenvolvimento dos sistemas de IA, os quais, por sua vez, refletem preconceitos históricos, sociais ou culturais.
Como resultado, tais sistemas podem perpetuar ou mesmo amplificar discriminações já existentes, conduzindo a decisões desiguais e injustas que afrontam princípios constitucionais.
Um exemplo emblemático ocorre em processos de recrutamento, onde algoritmos treinados com dados históricos priorizam candidatos masculinos devido à predominância de homens em posições de liderança no passado.
Similarmente, no setor financeiro, sistemas de concessão de crédito podem adotar critérios enviesados que desfavorecem determinados grupos raciais ou socioeconômicos, gerando discriminação indireta, ainda que não intencional.
Do ponto de vista jurídico, a reprodução de discriminações por sistemas de IA contraria fundamentos do ordenamento jurídico brasileiro, como a dignidade da pessoa humana, prevista no art. 1º, inciso III, da Constituição Federal de 1988, e o direito à igualdade, consagrado no art. 5º, caput.
Além disso, esses casos podem configurar violação à Lei Geral de Proteção de Dados (LGPD), que, em seu art. 20, assegura aos titulares o direito de revisão de decisões automatizadas que impactem seus interesses de forma significativa. Tais dispositivos demandam a implementação de salvaguardas jurídicas e técnicas que previnam a perpetuação de discriminações estruturais.
A mitigação dos impactos causados pelos vieses algorítmicos exige uma abordagem multidimensional, com a adoção de medidas preventivas e a criação de um arcabouço regulatório robusto, como a transparência no Desenvolvimento de IA porque é imprescindível que os desenvolvedores de sistemas de IA assegurem a auditabilidade dos algoritmos, permitindo que critérios utilizados nas decisões sejam analisados por órgãos reguladores, partes interessadas e especialistas, sendo que a transparência é fundamental para identificar potenciais fontes de discriminação e promover a responsabilização dos agentes envolvidos.
Além disso, a diversidade nos dados de treinamento mediante a inclusão de dados diversificados e representativos na etapa de treinamento dos algoritmos é essencial para evitar vieses que excluam ou prejudiquem determinados grupos, posto que dados homogêneos ou incompletos tendem a reforçar padrões discriminatórios, agravando desigualdades preexistentes.
Antes da implantação de sistemas de IA, é imprescindível realizar testes rigorosos para detectar possíveis vieses.
O monitoramento contínuo dos sistemas deve ser regulamentado, com o objetivo de identificar e corrigir falhas ao longo de sua operação.
A implementação de um marco regulatório específico, como o AI Act da União Europeia, é crucial para classificar sistemas de IA de acordo com o grau de risco e estabelecer normas proporcionais para garantir a conformidade ética e legal para governança algorítmica no Brasil, sendo que regulamentações poderiam determinar obrigações claras para desenvolvedores e operadores, promovendo o uso responsável da IA.
Embora a LGPD já represente um avanço, sua aplicação ao contexto dos vieses algorítmicos demanda maior detalhamento, especialmente em relação à revisão de decisões automatizadas e à obrigatoriedade de mecanismos que garantam a explicabilidade dos sistemas.
Os vieses algorítmicos não apenas geram problemas jurídicos, mas também implicam desafios éticos e sociais profundos.
A perpetuação de discriminações por meio de tecnologias avançadas ameaça minar a confiança pública nos sistemas de IA e reforçar a percepção de que essas ferramentas são instrumentos de exclusão, em vez de inclusão.
A jurista Juliana dos Reis Habr leciona:
Atos discriminatórios ferem indubitavelmente direitos existenciais como a saúde e o bem-estar, ambos a base da vida de qualquer individuo.[5]
Isso é particularmente grave em um contexto de concentração de poder nas grandes corporações tecnológicas, que detêm significativa influência sobre a criação e aplicação de sistemas de IA.
Combater os vieses algorítmicos é, portanto, mais do que uma exigência legal; é uma responsabilidade ética e social que visa garantir que a IA funcione como um vetor de igualdade e justiça.
O enfrentamento dessa questão requer uma ação coordenada entre governos, setor privado, academia e sociedade civil, de forma a assegurar que os sistemas de IA sejam desenvolvidos e implementados com o mais alto padrão de responsabilidade e compromisso com os direitos humanos.
Somente com a conjugação de esforços legislativos, técnicos e sociais será possível construir um ambiente tecnológico inclusivo, justo e alinhado aos valores democráticos, promovendo a igualdade de oportunidades e a proteção dos direitos fundamentais.
5. Responsabilidade
A definição de responsabilidade em casos de danos causados por sistemas de Inteligência Artificial (IA) é um dos desafios mais complexos no âmbito jurídico contemporâneo.
A natureza autônoma e imprevisível desses sistemas levanta questões fundamentais sobre como imputar responsabilidades em situações de falhas ou comportamentos inadequados.
No contexto da responsabilidade civil, o desafio central é determinar quem deve responder por eventuais danos.
No Brasil, conforme os artigos 186 e 927 do Código Civil, a responsabilidade tradicionalmente exige a comprovação de dolo, culpa ou negligência.
No entanto, a IA introduz um elemento de complexidade ao afastar a ação direta e consciente do agente humano, dificultando a análise da relação de causalidade entre a conduta e o dano.
O conceito de responsabilidade objetiva surge como uma alternativa viável em casos envolvendo sistemas de IA, especialmente aqueles classificados como de alto risco.
Sob essa perspectiva, o desenvolvedor ou o operador poderia ser responsabilizado independentemente da existência de culpa, bastando que o dano e o nexo causal com a tecnologia sejam comprovados.
Esse modelo já é aplicado em situações análogas, como no caso de produtos defeituosos, conforme previsto no Código de Defesa do Consumidor (Lei nº 8.078/1990).
O jurista Paulo Marcos Rodrigues Brancher leciona:
A aplicação do Código de Defesa do Consumidor (Lei 8.078/1994 ou CDC) no comércio eletrônico tornou-se regra geral, a partir da consolidação jurisprudencial nesse sentido. Com isso, perdeu importância a criação de um diploma normativo específico de proteção ao consumidor no âmbito do comércio eletrônico.[6]
No âmbito da responsabilidade penal, os desafios são ainda maiores, pois o direito penal pressupõe a existência de dolo ou culpa por parte de um agente humano.
A IA, sendo uma entidade não humana, não possui consciência ou intenção, o que impede sua responsabilização penal direta.
Discute-se a possibilidade de atribuir responsabilidade penal a indivíduos ou organizações que desenvolvam, implementem ou supervisionem sistemas de IA que causem danos e que responsabiliza-los representaria um inibidor no desenvolvimento tecnológico de IA.
Essa abordagem merece reflexão sobre os conceitos tradicionais do direito penal, como culpabilidade e dolo, posto que parecer ser elementar que a responsabilidade deve ser atribuída ao desenvolvedor e ao programador de algoritmos caso os dados não devidamente tratados, posto que ao primeiro é necessário o dever de vigiar e zelar que a programação adote dados fidedignos, não contaminados, e que o programador não insira vieses intencionais ou não na programação, tendo o segundo o dever de observar se os dados estão corretos e tomar todas as cautelas para evitar erros de programação e inserção de viesses discriminatórios, além do dever não praticar eventual ilícito e não se sujeitar as eventuais pressões econômicas do contratante e empregador para algum tipo de programação em desconformidade com o ordenamento jurídico pátrio e que possa ferir direitos dos cidadãos, usuários e consumidores em geral.
Outro ponto crucial é a necessidade de regulamentação específica para definir claramente os limites e as obrigações de todos os atores envolvidos no ciclo de vida de um sistema de IA.
A aprovação do Projeto de Lei n.º 2338/2023 pelo Senado Federal representa um marco importante na regulamentação da IA no Brasil, sendo que, se for aprovado pela Câmara dos Deputados e se for sancionado pelo Presidente da República, irá promover o desenvolvimento ético dessa tecnologia disruptiva.
O AI Act da União Europeia, por exemplo, classifica sistemas de IA de acordo com o nível de risco e estabelece obrigações distintas para desenvolvedores, operadores e usuários.
Essa abordagem pode servir de modelo para o desenvolvimento de um marco regulatório no Brasil, sendo que o desenvolvimento de IA não pode ser tido como um vale tudo, sendo de rigor a necessidade de sérias e drásticas medidas fiscalizatórias e punitivas, o que, se implementadas, não irão travar o desenvolvimento tecnológico, mas sim garantir que o ecossistema de IA desenvolva-se com licitude para o bem da humanidade nos moldes da Declaração Universal dos Direitos Humanos.
As juristas Maria Celeste Cordeiro Leite dos Santos e Marilene Araújo lecionam:
Além do caráter universal e da preocupação quanto ao destino da humanidade, ou seja, em termos mais circunstanciados, em relação ao outro, a Declaração, em seu preâmbulo, deixa clara sua finalidade de resistência às barbaridades e de promoção de melhores condições de vida.[7]
Ademais, a segurança jurídica demanda a implementação de mecanismos preventivos, como avaliações de impacto, auditorias regulares e monitoramento contínuo dos sistemas de IA.
Essas medidas não apenas reduzem os riscos de danos, mas também reforçam a confiança na utilização dessas tecnologias.
A consolidação de um arcabouço jurídico robusto para a responsabilidade civil e penal no desenvolvimento de IA é essencial para garantir que o avanço tecnológico seja acompanhado de salvaguardas que protejam os direitos dos indivíduos e promovam a justiça social, posto que sem tais medidas, o uso da IA poderá gerar incertezas e desigualdades, prejudicando sua aceitação e legitimidade no contexto jurídico e social.
6. Projeto de Infraestrutura Stargate
O projeto de infraestrutura norte-americano batizado de stargate, anunciado em janeiro de 2025, em parceria com as empresas OpenAI, Oracle e SoftBank, tem previsão de investimentos de US$ 500 bilhões gera a preocupação sobre a dificuldade na concorrência das startups de IA nacionais pela fatia do mercado internacional.
Antes disso, as big techs em janeiro de 2024 já haviam se unido num programa piloto chamado National Artificial Intelligence Research Resource (NAIRR), sendo que a Microsoft, Nvidia e OpenAI se comprometeram em doar respetivamente US$ 20 milhões, US$ 30 milhões e US$ 1 milhão para o desenvolvimento de IA.
A disputa dos EUA com a China é muito forte, sendo que o governo chinês também tem investido em infraestrutura de IA, tanto é que a própria ByteDance, controladora da plataforma digital TikTok, pretende investir US$ 12 bilhões em chips de IA.
Segundo matéria publicada pelo jornal Valor Econômico:
A ByteDance planeja usar a maioria de seus chips de IA chineses – como o Ascend, da Huawei, e os da Cumbricon – para tarefas de “inferência”, a computação executada por modelos de linguagem de grandes modelos de linguagem de grande escala (LLMs) para gerar uma resposta a um comando. A ByteDance lançou o Doubao, seu “chatbot” de IA, em agosto de 2023, e o aplicativo tornou-se o mais usado do tipo na China, de acordo com o site de analises “Aicpb.com”.[8]
E para agravar o atual presidente dos EUA revogou as diretrizes de desenvolvimento de IA que haviam sido emitidas pelo anterior governo, o que aumenta a preocupação do desenvolvimento ético da IA e que a guerra concorrencial entre as big techs e startups de IA pelo mercado mundial acabe provocando danos irreversíveis aos direitos humanos.
A Meta, controladora do Facebook, Instagram e Whatsapp, por sua vez, anunciou em janeiro de 2025 que nos EUA irá diminuir a política de privacidade de dados, enquanto que afirmou para as autoridades brasileiras que irá mantê-las intensas no Brasil, mesmo porque detêm compromisso com a Autoridade Nacional de Proteção de Dados (ANPD) de respeitar as regras da LGPD.
Conforme matéria publicada pela CNN Brasil Money:
A Meta planeja gastar entre US$ 60 bilhões e US$ 65 bilhões este ano para desenvolver infraestrutura de inteligência artificial (IA), disse o presidente-executivo da companhia, Mark Zuckerberg, nesta sexta-feira (24). (...). Como parte do investimento, a Meta construirá um data center de mais de 2 gigawatts, que seria grande o suficiente para cobrir uma parte significativa de Manhattan. A empresa — um dos maiores clientes dos cobiçados chips de inteligência artificial da Nvidia — planeja terminar o ano com mais de 1,3 milhão de processadores gráficos.[9]
O Brasil também tem investido em infraestrutura de IA, sendo um exemplo a RT-One que pretende investir R$ 6 bilhões na instalação de data center na Cidade Maringá, PR.
Mas, é difícil para as startups de IA brasileiras competirem no mercado internacional, posto que, apesar do Plano Brasileiro de Inteligência Artificial (PBIA) prever R$ 23 bilhões de investimentos, é nítido que os investimentos norte-americanos e chineses superam em muito os investimentos brasileiros, como por exemplo a startup chinesa DeepSeek, rival da startup OpenAI.
7. Startup DeepSeek
A startup chinesa DeepSeek, fundada em 2023 por Liang Wenfeng, desenvolveu um assistente de inteligência artificial (IA) que superou o ChatGPT em número de downloads na App Store dos Estados Unidos.
Utilizando uma abordagem que combina menor consumo de dados e custos significativamente inferiores aos modelos adotados pelas grandes corporações estabelecidas no mercado, a DeepSeek alcançou um desempenho comparável ao de modelos líderes ocidentais, como os da OpenAI.
Este avanço técnico e econômico suscita importantes reflexões sobre a sustentabilidade dos volumosos investimentos em IA realizados por empresas norte-americanas e europeias, além de desafiar a hegemonia ocidental em um setor estratégico e sensível no contexto geopolítico global.
A ascensão da DeepSeek gerou impactos consideráveis no ecossistema tecnológico do Vale do Silício, colocando em xeque as teorias tradicionais que sustentam a supremacia tecnológica dos Estados Unidos no campo da inteligência artificial. Esse episódio expôs, ainda, a fragilidade dos controles de exportação de Washington, instituídos com o objetivo de restringir o acesso da China a tecnologias avançadas, como chips de alto desempenho e recursos associados à IA.
A resposta do mercado financeiro foi igualmente contundente, posto que as grandes empresas de tecnologia norte-americanas e europeias sofreram uma redução cumulativa de aproximadamente US$ 1 trilhão em valor de mercado.
Os players globais, como Nvidia, Meta e Alphabet, enfrentaram quedas acentuadas no preço de suas ações, refletindo não apenas a vulnerabilidade das big techs frente à competitividade de startups emergentes, mas também as incertezas quanto à viabilidade econômica de seus modelos de investimento em IA.
No mesmo cenário, a SoftBank, renomada por sua atuação como investidora em tecnologia, registrou perdas expressivas, evidenciando os riscos financeiros inerentes à dinâmica global do setor.
O rápido crescimento da DeepSeek foi acompanhado por um ciberataque em larga escala, levando a empresa a suspender temporariamente novos cadastros de usuários.
O ataque ocorreu no mesmo dia em que o assistente de IA da DeepSeek ultrapassou o ChatGPT como o aplicativo gratuito mais baixado na App Store dos Estados Unidos, cujo sucesso repentino impactou negativamente as ações de grandes empresas de tecnologia na bolsa Nasdaq, incluindo uma queda de 13% nas ações da Nvidia.
A DeepSeek destacou que seu modelo de IA foi desenvolvido com um investimento de apenas US$ 5,6 milhões, significativamente menor que os bilhões investidos por gigantes como Nvidia, Meta e Alphabet. Analistas sugerem que essa eficiência questiona a supremacia tecnológica dos EUA, embora alguns especialistas permaneçam céticos quanto às alegações da empresa chinesa.
Esse evento ressalta a vulnerabilidade de startups de IA a ameaças cibernéticas, as quais não apenas comprometem a estabilidade de suas operações, mas também geram volatilidade no mercado financeiro, intensificando o debate sobre a sustentabilidade dos investimentos e a segurança digital.
Torna-se premente uma análise jurídica e política aprofundada sobre soberania digital e governança tecnológica, posto que a experiência da DeepSeek evidencia a necessidade de regulamentações robustas, éticas e internacionais que equilibrem a promoção da inovação tecnológica com a proteção de direitos fundamentais, assegurando também a mitigação de riscos associados à concentração de poder, à cibersegurança e à instabilidade do mercado financeiro global.
8. Soberania Digital
A concentração de poder no setor de Inteligência Artificial (IA) nas mãos das grandes corporações tecnológicas, conhecidas como big techs, é fruto do capitalismo digital[10] e configura um dos maiores desafios para a soberania digital dos Estados.
Essas grandes empresas detêm vastos recursos tecnológicos, financeiros e humanos, o que lhes confere uma influência global desproporcional no desenvolvimento e na aplicação de tecnologias de IA.
Tal concentração não apenas monopoliza os avanços tecnológicos, mas também reforça desigualdades econômicas, limita a competitividade e reduz a autonomia dos Estados na regulamentação e governança digital.
No contexto jurídico, o domínio das big techs sobre a infraestrutura tecnológica global, aliado ao controle massivo de dados pessoais e sensíveis, apresenta desafios significativos à privacidade, segurança e autodeterminação informativa.
Essas empresas, frequentemente localizadas em jurisdições específicas, conseguem operar globalmente com pouca supervisão regulatória, o que enfraquece a capacidade dos Estados de proteger os interesses de seus cidadãos.
Além disso, o desequilíbrio de poder dificulta o desenvolvimento de soluções locais e cria uma dependência tecnológica que pode comprometer a segurança nacional e a soberania digital.
As startups de IA, que poderiam atuar como agentes inovadores e descentralizadores, enfrentam barreiras consideráveis para competir com as big techs.
A dificuldade de acesso a recursos financeiros, dados de qualidade e infraestrutura computacional coloca essas startups em desvantagem estrutural, limitando sua capacidade de crescer e contribuir para um ecossistema tecnológico diversificado. Esse cenário perpetua uma concentração de mercado que favorece os grandes players, em detrimento de iniciativas regionais ou nacionais.
No Brasil, a promoção da soberania digital requer políticas públicas que incentivem o desenvolvimento local de tecnologias de IA e fortaleçam startups por meio de incentivos fiscais, acesso a crédito facilitado e parcerias público-privadas.
Além disso, é fundamental ampliar a regulamentação existente, como a Lei Geral de Proteção de Dados (LGPD), para impor maior transparência e responsabilidade às big techs no uso de dados coletados em território nacional.
A criação de um marco regulatório específico para IA, inspirado em legislações como o AI Act[11] da União Europeia, pode estabelecer normas claras sobre o desenvolvimento e a aplicação de sistemas de alto risco, impondo restrições que protejam a soberania estatal e os direitos fundamentais.
Adicionalmente, o fortalecimento de parcerias regionais, como as realizadas no âmbito do BRICS[12] e a promoção de iniciativas conjuntas para a governança da IA podem auxiliar na construção de um ambiente mais equilibrado e inclusivo.
Investir em pesquisa e inovação tecnológica por meio de universidades e centros de excelência também se mostra indispensável para reduzir a dependência de tecnologias estrangeiras.
A concentração de poder no setor de IA não é apenas uma questão econômica ou tecnológica, mas uma preocupação ética e política. Garantir a soberania digital é essencial para preservar a autonomia dos Estados e proteger os direitos dos cidadãos em um cenário global cada vez mais moldado pela tecnologia.
O combate do desequilíbrio exige um esforço coordenado entre governos, setor privado e sociedade civil, promovendo um ambiente tecnológico mais justo, transparente e inclusivo.
A dependência de infraestruturas tecnológicas geridas por grandes corporações transnacionais compromete a segurança e a autonomia digital de estados soberanos.
A ausência de padrões claros de cibersegurança e regulamentações adequadas para proteger dados sensíveis e sistemas críticos expõe empresas e nações a riscos estratégicos.
Para mitigar esses desafios, é essencial que os países desenvolvam estruturas regulatórias que protejam não apenas os cidadãos, mas também as startups de IA e seus produtos tecnológicos, o que inclui investimentos em infraestrutura nacional de cibersegurança, colaboração internacional e proteção de dados, apoio governamental às startups de IA e parcerias público-privadas para melhorar a segurança de dados e promover o uso ético e seguro da IA.
Então, garantir a soberania digital é questão de regulamentação e de estratégia de segurança cibernética, sendo que a integração de normas de cibersegurança com a governança da IA é essencial para proteger dados sensíveis e a competitividade tecnológica de startups de IA que desafiam o domínio das big techs nos mercados globais.
Considerações Finais
Diante do exposto, conclui-se que a transição dos oráculos antigos para os modernos, simbolizada pela adoção crescente da inteligência artificial (IA), trouxe transformações profundas e desafios inéditos para a sociedade contemporânea. Se por um lado os sistemas de IA oferecem avanços tecnológicos capazes de otimizar processos e solucionar problemas em setores estratégicos como saúde, finanças, segurança pública e trabalho, por outro lado, levantam preocupações jurídicas, éticas e sociais que demandam regulamentações robustas e uma governança responsável.
A questão-problema, que orientou este artigo, encontra resposta em uma abordagem que equilibre inovação tecnológica com medidas regulatórias e políticas públicas robustas.
A ascensão da startup DeepSeek e a iniciativa norte-americana Stargate demonstram a complexidade das disputas tecnológicas e geopolíticas.
A DeepSeek desafiou a hegemonia tecnológica das big techs ocidentais, utilizando modelos de IA eficientes e acessíveis, enquanto que, simultaneamente, o projeto Stargate, com investimentos bilionários em infraestrutura tecnológica, evidencia o papel estratégico que a IA desempenha no fortalecimento da soberania nacional.
Tais avanços também expõem a concentração de poder, as desigualdades no acesso à tecnologia e os riscos inerentes à ausência de regulamentações globais para a governança da IA.
A garantia de transparência, responsabilidade e proteção de direitos fundamentais passa pela implementação de marcos regulatórios robustos.
Instrumentos como o AI Act da União Europeia oferecem um modelo que pode ser adaptado ao contexto brasileiro, estabelecendo diretrizes claras para o desenvolvimento e uso de sistemas de IA, com ênfase em transparência, explicabilidade e mitigação de vieses algorítmicos.
A soberania digital demanda uma abordagem estratégica que promova a autonomia tecnológica dos Estados, o que inclui o incentivo ao desenvolvimento de startups locais, a ampliação de investimentos em pesquisa e infraestrutura tecnológica e a criação de mecanismos que assegurem a competição justa entre atores globais e nacionais.
A parceria entre governos, setor privado e academia é indispensável para construir um ecossistema de startups de inteligência artificial equilibrado, que privilegie a inovação inclusiva e a proteção de direitos fundamentais.
A governança internacional da IA precisa ser fortalecida por meio de iniciativas multilaterais que articulem uma resposta coordenada aos desafios éticos e jurídicos.
Os blocos econômicos, como o BRICS e o Mercosul, podem desempenhar um papel fundamental na formulação de padrões regulatórios globais que mitiguem os impactos da concentração de poder e promovam a segurança cibernética e a igualdade tecnológica.
É essencial reconhecer que a concentração de poder nas mãos de grandes corporações tecnológicas, big techs, compromete não apenas a soberania digital, mas também os valores democráticos.
A transparência algorítmica, a explicabilidade e a promoção de uma IA ética e inclusiva são elementos indispensáveis para que a sociedade contemporânea se beneficie dos avanços tecnológicos, preservando os direitos fundamentais e fortalecendo a autonomia dos Estados.
É vital a articulação política global, baseada em princípios de equidade, segurança jurídica e proteção de direitos humanos, garantindo que os oráculos modernos da inteligência artificial sejam instrumentos de progresso inclusivo e não de exclusão ou concentração de poder.
A promoção de um ambiente regulatório equilibrado, a proteção da soberania digital e a defesa dos valores éticos são pilares essenciais para enfrentar os desafios do cenário global de IA.
Portanto, garantir a soberania digital é uma questão de regulamentação e de estratégia de segurança cibernética, cuja integração de normas de cibersegurança com a governança da IA é essencial para proteger não apenas os dados sensíveis e a competitividade tecnológica de startups de IA que estão desafiando o domínio das big techs em mercados globais.
Referências Bibliográficas
ADRIANA, Laís, do Estadão Conteúdo. CNN Brasil. in DeepSeek provoca fortes perdas em ações de empresas vinculadas à IA. Desde o lançamento, os modelos R1 e V3 conquistaram uma onda de consumidores que levaram a DeepSeek ao topo da Apple App Store no fim de semana. Publicado aos 27/01/2025 às 11:10 | Atualizado 27/01/2025 às 12:03. Acessado aos 27/01/2025. Disponível em: https://www.cnnbrasil.com.br/economia/negocios/deepseek-provoca-fortes-perdas-em-acoes-de-empresas-vinculadas-a-ia/
AGÊNCIA SENADO. Senado Notícias. in Senado aprova regulamentação da inteligência artificial; texto vai à Câmara. Publicado aos 10/12/2024 23h33. Acessado aos 11/12/2024. Disponível em: https://www12.senado.leg.br/noticias/materias/2024/12/10/senado-aprova-regulamentacao-da-inteligencia-artificial-texto-vai-a-camara
AGÊNCIA SENADO. in Juristas concluem anteprojeto de código civil; direito digital e de família têm inovações. Da Agência Senado | 05/04/2024, 19h42. Acesso:05/12/2024. Disponível em: https://www12.senado.leg.br/noticias/materias/2024/04/05/juristas-concluem-anteprojeto-de-codigo-civil-direito-digital-e-familia-tem-inovacoes
ANPD. Autoridade Nacional de Proteção de Dados. in ANPD publica análise preliminar do Projeto de Lei nº 2338/2023, que dispõe sobre o uso da Inteligência Artificial - O documento apresenta um estudo preliminar da Autoridade sobre a proposta de regulação da IA no Brasil. Ministério da Justiça e Segurança Pública. Publicado em 06/07/2023 17h56 Atualizado em 07/07/2023 17h03. Acesso: 05/12/2024. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-publica-analise-preliminar-do-projeto-de-lei-no-2338-2023-que-dispoe-sobre-o-uso-da-inteligencia-artificial
ANZOLA, Pablo. Cadena Ser. in Economía y negócios. in La irrupción de DeepSeek, el ChatGPT chino, sacude a las tecnológicas en bolsa y lleva a Nvidia perder más de 600.000 millones de dólares
La startup china de inteligencia artificial amenaza con hacerle la competencia a los gigantes tecnológicos de Estados Unidos. Publicado aos 27/01/2025 - 16:23 GMT-3. Acessado aos 27/01/2025. Disponível em: https://cadenaser.com/nacional/2025/01/27/la-irrupcion-de-deepseek-el-chatgpt-chino-sacude-a-las-tecnologicas-en-bolsa-y-lleva-a-nvidia-perder-mas-de-400000-millones-de-dolares-en-minutos-cadena-ser/?utm_source=chatgpt.com
BEHNKEDA, Emilly. De Brasília. CNN. in Senado aprova marco regulatório da Inteligência Artificial no país. Texto define riscos e direitos do uso da tecnologia; proposta segue para análise da Câmara dos Deputados. Publicado aos 10/12/2024 às 20:29. Atualizado 10/12/2024 às 22:12.Acessado aos 11/12/2024. Disponível em: https://www.cnnbrasil.com.br/politica/senado-aprova-marco-regulatorio-da-inteligencia-artificial-no-pais/
BLASI, Weston. Marketwatch. in The battle over DeepSeek as AI enters new phase: hacks, restrictions and censorship. DeepSeek has challenged Wall Street’s notion of artificial-intelligence capital spending. The Chinese AI startup faces challenges of its own. Published: Jan. 27, 2025 at 3:33 p.m. ET. Acessado aos 27/01/2025. Disponível em: https://www.marketwatch.com/story/the-battle-over-deepseek-as-ai-enters-new-phase-hacks-restrictions-and-censorship-b615d767?utm_source=chatgpt.com
Brancher, Paulo Marcos Rodrigues. in Direito da concorrência e propriedade intelectual. Tomo Direito Econômico, Edição 1, Março de 2024. Acessado aos 14/11/2024. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/589/edicao-1/direito-da-concorrencia-e-propriedade-intelectual
BRANCHER, Paulo Marcos Rodrigues. in Proteção internacional de dados pessoais. Tomo Direito Internacional, Edição 1, Fevereiro de 2022. Acessado aos 14/11/2024. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/496/edicao-1/protecao-internacional-de-dados-pessoais
BRANCHER, Paulo Marcos Rodrigues. in Contrato eletrônico. Tomo Direito Comercial, Edição 1, Julho de 2018. Acessado aos 14/11/2024. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/259/edicao-1/contrato-eletronico
BRANCHER, Paulo Marcos Rodrigues. in Comércio Eletrônico. Tomo Direito Comercial. Edição 1, Julho de 2018. Acessado aos 14/11/2024. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/258/edicao-1/comercio-eletronico
CNN Brasil Money. Reuters. in Meta destinará até US$ 65 bi para impulsionar metas de IA em 2025. A Meta construirá um data center de mais de 2 gigawatts, que seria grande o suficiente para cobrir uma parte significativa de Manhattan. Publicado aos 24/01/2025 às 14:33. Acessado aos 27/01/2025. Disponível em: https://www.cnnbrasil.com.br/economia/macroeconomia/meta-destinara-ate-us-65-bi-para-impulsionar-metas-de-ia-em-2025/
COELHO, Fabio Ulhoa. in Curso de Direito Comercial. Volume 1. Editora Saraiva. 3ª Edição revista. São Paulo. 2000.
COELHO, Fabio Ulhoa. in Manual de Direito Comercial. 9ª ed. revista e atualizada. Editora Saraiva. São Paulo. 1997.
EUROPEAN COMMISSION. Legal framework of EU data protection. Information on EU legislation concerning the protection of personal data, as well as on the authorities that ensure that this legislation is applied consistently. Acessado aos 12/12/2024. Disponível em: https://commission.europa.eu/law/law-topic/data-protection/legal-framework-eu-data-protection_en?prefLang=pt#:~:text=Diretiva%20sobre%20a%20Prote%C3%A7%C3%A3o%20de%20Dados%20na%20Aplica%C3%A7%C3%A3o%20da%20Lei,-Diretiva%20(UE)%202016&text=Visar%C3%A1%2C%20nomeadamente%2C%20garantir%20que%20os,a%20criminalidade%20e%20o%20terrorismo.
FILHO, Michel Kalil Habr. in Soberania Popular e Tecnologia Cívica no Capitalismo Digital: ética no processo eleitoral e os limites das propagandas eleitorais na internet com inteligência artificial impostos pelo TSE. Conteudo Juridico, Brasilia-DF: 29 ago 2024, 04:20. Disponível em: https://conteudojuridico.com.br/consulta/artigos/66288/soberania-popular-e-tecnologia-cvica-no-capitalismo-digital-tica-no-processo-eleitoral-e-os-limites-das-propagandas-eleitorais-na-internet-com-inteligncia-artificial-impostos-pelo-tse. Acesso em: 19 set 2024.
FILHO, Michel Kalil Habr. in Startups de IA e Indústrias de Mineração e Siderurgia: impactos do Plano Brasileiro de Inteligência Artificial e da Declaração de Kazan no fortalecimento do Brasil no BRICS. Conteudo Juridico, Brasilia-DF: 07 nov 2024, 04:42. Disponivel em: https://conteudojuridico.com.br/consulta/artigos/66954/startups-de-ia-e-indstrias-de-minerao-e-siderurgia-impactos-do-plano-brasileiro-de-inteligncia-artificial-e-da-declarao-de-kazan-no-fortalecimento-do-brasil-no-brics. Acesso em: 07 nov 2024.
FILHO, Michel Kalil Habr. in Direito Econômico e Inteligência Artificial: a concorrência das startups de IA no comércio eletrônico e a intersecção da Declaração Conjunta de Livre Comércio UE-Mercosul com a Declaração de Bletchley e o AI Act .Conteudo Juridico, Brasilia-DF: 10 dez 2024, 04:30. Disponivel em: https://conteudojuridico.com.br/consulta/artigo/67255/direito-econmico-e-inteligncia-artificial-a-concorrncia-das-startups-de-ia-no-comrcio-eletrnico-e-a-interseco-da-declarao-conjunta-de-livre-comrcio-ue-mercosul-com-a-declarao-de-bletchley-e-o-ai-act. Acesso em: 10 dez 2024.
FINKELSTEIN, Maria Eugenia Reis. (2019). in A Evolução Do Comércio: O Comércio Eletrônico e Suas Novas Tendências. Revista Internacional Consinter De Direito, 5(8), 53–70. Acessado em: 31/05/2024. Disponível em: https://revistaconsinter.com/index.php/ojs/0803
FINKELSTEIN, Maria Eugenia Reis. PROENÇA, José Marcelo Martins. in Sociedades Anônimas. Direito Societário. Editora Saraiva. 2ª Edição. São Paulo. 2011.
FINKELSTEIN, Maria Eugenia Reis. in Direito Empresarial. 5ª Edição. Editora Atlas. Volume 20. Série Leituras Jurídicas Provas e Concursos. São Paulo. 2009.
FINKELSTEIN, Maria Eugenia Reis. in Direito do Comércio Eletrônico. 2ª Edição. Editora Elsevier. Rio de Janeiro. 2011.
FINKELSTEIN, Maria Eugênia Reis. ALMEIDA, Isabela Porto de. in A Captalização das Startups no Vale da Morte via Vesting Agreement. Themis Revista Jurídica. Volume 04, Número 06, Jan-Jul 2023, 177. Acessado aos 04/10/2024. Disponível em: https://revistathemis.com.br/arquivos/revista06/V4N6_Article08.pdf
FLORES, Márcio José das. BESS, Alexandre Leal. in Inteligência artificial aplicada aos negócios. 1ª ed. Intersaberes. Curitiba, PR. 2023.
G1. Redação. Tecnologia. in Musk questiona projeto anunciado por Trump que investe US$ 500 bi em inteligência artificial e ataca chefe da OpenAI. Bilionário colocou dúvidas sobre a chegada do dinheiro por parte de investidores e atacou a OpenAI e seu CEO, Sam Altman, que estão envolvidos na empreitada. Publicado aos 23/01/2025 12h44. Acessado aos 27/01/2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/23/musk-questiona-projeto-anunciado-por-trump-que-investe-us-500-bi-em-inteligencia-artificial-e-ataca-chefe-da-openai.ghtml
G1. Redação. Tecnologia. in Trump revoga medida de Biden que regulamentava IA e dá mais prazo ao TikTok. Atos do novo presidente modificam decisões que Joe Biden havia tomado sobre regulamentação da inteligência artificial e a rede social, que enfrenta o risco de ser banida nos EUA. Publicado aos 21/01/2025 15h22. Acessado aos 27/01/2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/21/trump-revoga-medida-de-biden-que-regulamentava-ia-e-da-mais-prazo-ao-tiktok.ghtml
G1. Redação. Tecnologia. in DeepSeek, rival chinês do ChatGPT, diz ter sofrido ciberataque e limita usuários novos após ganhar popularidade nos EUA. Assistente de IA, que ultrapassou o rival norte-americano em downloads na App Store dos EUA, sofreu instabilidade nesta segunda-feira (27). A ascensão do app motivou a queda das ações de outras empresas vinculadas a inteligência artificial. Publicado aos 27/01/2025 13h55. Acessado aos 27/01/2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/27/app-chines-deepseek-diz-ter-sofrido-ciberataque-apos-ganhar-popularidade-nos-eua.ghtml
CATTO, André. G1. Economia. in Empresas de tecnologia perdem US$ 1 trilhão em valor de mercado com ‘ameaça’ de IA chinesa Modelo de inteligência artificial da startup DeepSeek, sediada na China, motivou a queda das ações de outras empresas do setor, como a gigante Nvidia, que atingiu perdas de US$ 600 bilhões. Publicado aos 27/01/2025. Acessado aos 27/01/2025. Disponível em: https://g1.globo.com/economia/noticia/2025/01/27/empresas-de-tecnologia-perdem-us-1-trilhao-em-valor-de-mercado-com-ameaca-de-ia-chinesa.ghtml
G1. Redação. Tecnologia. in Usuários reclamam por seguir automaticamente perfil de Trump como presidente; Meta responde. Contas @potus e @vp são dedicadas ao presidente e ao vice que ocupam atualmente o cargo e passaram para as mãos dos republicanos após a posse de Trump. Dona do Facebook e Instagram diz que os perfis são gerenciados pela Casa Branca. Publicado aos 22/01/2025 12h34. Acessado aos 27/01/2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/22/usuarios-reclamam-por-seguir-automaticamente-perfil-de-trump-como-presidente-meta-responde.ghtml
G1. Redação. Tecnologia. in Trump anuncia investimento de até US$ 500 bilhões em inteligência artificial. Nova entidade, de nome Stargate, será criada em parceria com as empresas OpenAI, Oracle e SoftBank visando a construção de projetos para o desenvolvimento da IA. Publicado aos 21/01/2025 17h46. Acessado aos 27/01/2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/21/trump-anunciara-investimento-de-ate-us-500-bilhoes-em-inteligencia-artificial.ghtml
GOV.BR. Ministério da Segurança Pública. Autoridade Nacional de Proteção de Dados. in ANPD determina suspensão cautelar do tratamento de dados pessoais para treinamento da IA da Meta. Autoridade vislumbra indícios de tratamento de dados pessoais com base em hipótese legal inadequada, falta de transparência, limitação aos direitos dos titulares e riscos para crianças e adolescentes. Publicado em 02/07/2024 06h54 Atualizado em 02/07/2024 08h34. Acesssado aos 27/01/2024. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-determina-suspensao-cautelar-do-tratamento-de-dados-pessoais-para-treinamento-da-ia-da-meta
GOV.BR. Ministério da Segurança Pública. Autoridade Nacional de Proteção de Dados. in CASO META. Meta cumpre exigências da ANPD e poderá retomar, com restrições, o uso de dados pessoais para treinamento de inteligência artificial. Plano de conformidade aprovado pela ANPD determina que a empresa não realizará tratamento de dados de contas de crianças e adolescentes e implementará medidas que ampliam a transparência e simplificam a opção de negar o uso de dados pessoais. Publicado aos 30/08/2024 07h33. Acessado aos 27/01/2025. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/meta-cumpre-exigencias-da-anpd-e-podera-retomar-com-restricoes-o-uso-de-dados-pessoais-para-treinamento-de-inteligencia-artificial
GOV.BR. Presidência da República. Ministério da Cultura. Tecnologia. in Senado Federal aprova marco regulatório da inteligência artificial. Regras incluem transparência no uso de conteúdos protegidos por direitos autorais e negociações de remuneração aos autores; texto segue para análise da Câmara dos Deputados. Publicado em 10/12/2024 21h56. Atualizado em 11/12/2024 11h07. Acessado aos 11/12/2024. Disponível em: https://www.gov.br/cultura/pt-br/assuntos/noticias/senado-federal-aprova-marco-regulatorio-da-inteligencia-artificial
GOV.BR. Ministério do Desenvolvimento, Indústria, Comércio e Serviços. in Defesa Comercial e Interesse Público. Acessado aos 06/12/2024. Disponível em: https://www.gov.br/mdic/pt-br/assuntos/comercio-exterior/defesa-comercial-e-interesse-publico
HABR, Juliana dos Reis. Advogada e Mestre em Direito do Trabalho pela PUC/SP. in Discriminação nas Relações de Trabalho – Enfoque Racial na População Negra. Juruá Editora. 2024.
HOFFMANN-RIEM, Wolfgang. in Big Data e Inteligência Artificial: Desafios para o Direito. Publicado 6 JOURNAL OF INSTITUTIONAL STUDIES 2 (2020). Revista Estudos Institucionais, v. 6, n. 2, p. 431-506, maio/ago. 2020.
INFOMONEY, Equipe. in Megaprojeto de IA anunciado por Trump vai servir exclusivamente à OpenAI, diz jornal “O objetivo não é se tornar um provedor de data center para o mundo, é para a OpenAI”, disse uma das fontes do Financial Times. Publicado aos 24/01/2025 11h33. Acessado aos 27/01/2025. Disponível em: https://www.infomoney.com.br/business/megaprojeto-de-ia-anunciado-por-trump-vai-servir-exclusivamente-a-openai-diz-jornal/
JÚDICE, Lucas Pimenta. NYBO, Erik Fontenele. in Direito das Startups. Editora Juruá. 1ª Edição. Curitiba. 2016.
LEÓN, Lucas Pordeus. De Brasília. Agência Brasil. in Meta promete se aliar a Trump contra países que regulam redes sociais. Empresa anuncia o fim do programa de checagem de informações. Publicado aos 07/01/2025 - 16:09. Acessado aos 27/01/2025. Disponível em: https://agenciabrasil.ebc.com.br/internacional/noticia/2025-01/meta-promete-se-aliar-trump-contra-paises-que-regulam-redes-sociais
LIMA, Marcelo Chiavassa de Mello Paula. ANDRADE, Vitor Morais de. in Manual de Direito Digital. Editora Tirant to Blanch Brasil. 2ª Edição. 2023.
MILL, John Stuart. in Da Liberdade Individual e Econômica – Princípios e aplicações do pensamento liberal. Avis Rara. Tradução Carlos Szlak. 1ª Edição. São Paulo. 2019.
Ministério dos Direitos Humanos e da Cidadania. Internacional. Texto: R.L./A.F. Edição: R.D...in Em plenária final, RAADH aprova Declaração de Princípios de Direitos Humanos no âmbito da Inteligência Artificial no Mercosul Documento, elaborado pela Comissão Permanente de Comunicação em Direitos Humanos da Reunião de Altas Autoridades sobre Direitos Humanos do Mercosul, busca eliminar discriminação e segmentos étnico-raciais na inteligência artificial. Publicado em 24/11/2023 20h58 Atualizado em 24/11/2023 21h05. Acessado aos 25/10/2024. Disponível em: https://www.gov.br/mdh/pt-br/assuntos/noticias/2023/novembro/em-plenaria-final-raadh-aprova-declaracao-de-principios-de-direitos-humanos-no-ambito-da-inteligencia-artificial-no-mercosul
MISES, Ludwig Von. in Ação Humana – um tratado de economia. Vide Editorial. 2ª Edição. Tradução Ana Parreira. Campinas. 2020.
MACHADO, Eduardo Mendes. in 300 Prompts Developing Agency Validantig Algorithms. flip-book. janeiro/2024. Acessado aos 17/11/2024. Disponível em: https://heyzine.com/flip-book/ceaf56c539,html
MUZZOLON, Paulo. de Maringá. Valor Econômico. in Centro de dados Com Foco em inteligência artificial, o projeto ocupará uma área de 400 mil metros quadrados em zona livre comércio que o município pretende criar. RT-One prevê instalar ‘data center’ de R$ 6 bi em Maringá, no Paraná. Empresas. p. B4.
NIEVA, Richard. Forbes. in OpenAI, Nvidia, NASA e outros se unem em programa para aumentar acesso à IA. Projeto piloto do governo dos Estados Unidos tem o propósito de fomentar talentos e ideias de diferentes classes sociais. Publicado aos 25/01/2024. Acessado aos 27/01/2025. Disponível em: https://forbes.com.br/forbes-tech/2024/01/openai-nvidia-nasa-e-outros-se-unem-em-programa-para-aumentar-acesso-a-ia/
PEIXOTO, Fabiano Hartmann. in Inteligência artificial e Direito: Convergência Ética e Estratégica. Coleção direito, Racionalidade e Inteligência Artificial. volume 5. 1ª ed. Editora Alteridade. Curitiba, PR. 2020.
PERETTI, Cléia. GUIMARÃES, Edward. ALVES, Maria Jeane dos Santos. in Economia e Inteligência Artificial: Desafios à sociedade e à religião. São Paulo. Paulinas. 2024.
PERRIGO, Billy. PILLAY, Tharin. TIME. in What to Know About DeepSeek, the Chinese AI Company Causing Stock Market Chaos. Publicado aos January 27, 2025 1:55 PM EST. Acessado aos 27/01/2025. Disponivel em: https://time.com/7210296/chinese-ai-company-deepseek-stuns-american-ai-industry/?utm_source=chatgpt.com
PUGLIESI, Marcio. In Filosofia e Direito Deliniamentos de uma Filosofia do direito na Sociedade de Controle. Editora Aquariana. 1ª Edição. Volume 2. São Paulo. 2022.
PUGLIESI, Márcio. in Teoria Geral do Direito. Uma Abordagem Sistêmico-Construcionista. Editora Aquariana. 1ª Edição, São Paulo. 2022.
PUGLIESI, Márcio. in Social clothes: a proposal for a new approach to hermeneutics. LAP Lambert Academic Publishing. Republic of Moldova. 2024.
REUTERS. in DeepSeek limits registrations due to cyber attack. Publicado aos January 27, 20251:28 PM GMT-3Updated 5 hours ago. Acessado aos 27/01/2025. Disponível em: https://www.reuters.com/technology/cybersecurity/deepseek-limits-registrations-due-cyber-attack-2025-01-27/?utm_source=chatgpt.com
ROTH, Emma. in DeepSeek: all the news about the startup that’s shaking up AI stocks. Publicado aos Jan 27, 2025, 5:40 PM GMT-3. Acessado aos: 27/01/2025. Disponível em: https://www.theverge.com/24353060/deepseek-ai-china-nvidia-openai?utm_source=chatgpt.com
SACRAMONE, Marcelo Barbosa. in Manual de Direito Empresarial - De acordo com a Nova Lei de Falências. Lei n.º 14.112/2020. 3ª edição. 2022. 2ª tiragem. Editora Saraiva. São Paulo.
SANTOS, Maria Celeste Cordeiro Leite dos. ARAÚJO, Marilene. in Declaração Universal dos Direitos Humanos. Juruá Editora. Curitiba. 2018.
SANTOS, Celeste Cordeiro Leite dos. ARAÚJO, Marilene. in Limites do Direito – Decisões Contra Legem – Percepções Cognitivas na Interpretação da Norma. Juruá Editora. 2016.
SANTOS, Maria Celeste Cordeiro Leite dos. ARAÚJO, Marilene. in A Inteligência Artificial (IA) e a lei brasileira de responsabilidade e transparência na internet - Humanismo 4.0 - Impactos na cidadania. Enciclopédia Jurídica PUCSP. Tomo Direito Econômico, Edição 1, Março de 2024. Acessado aos 19/09/2024. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/577/edicao-1/a-inteligencia-artificial-%28ia%29-e-a-lei-brasileira-de-responsabilidade-e-transparencia-na-internet---humanismo-4.0---impactos-na-cidadania
SENADO FEDERAL. Atividade Legislativa. in Projeto de Lei n° 2338, de 2023. Iniciativa Senador Rodrigo Pacheco (PSD/MG). Assunto Economia e Desenvolvimento > Ciência, Tecnologia e Informática. Jurídico > Direito Civil > Responsabilidade Civil. Jurídico > Direitos e Garantias > Direitos Individuais e Coletivos. Natureza Norma Geral. Ementa: Dispõe sobre o uso da Inteligência Artificial. Decisão: Aprovada pelo Plenário. Destino: À Câmara dos Deputados. Último local: 10/12/2024 - Secretaria de Atas e Diários. Último estado: 10/12/2024 – Aprovado o substitutivo. Relator do projeto: Senador Eduardo Gomes. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233
SENADO FEDERAL. Institucional. Presidência. in Senado aprova projeto de Rodrigo Pacheco que regula o uso da inteligência artificial. Publicado aos 10/12/2024 21h55. Acessado aos 11/12/2024. Disponível em: https://www12.senado.leg.br/institucional/presidencia/destaque-noticia/senado-aprova-projeto-de-rodrigo-pacheco-que-regula-o-uso-da-inteligencia-artificial
Senado Notícias. in Regulamentação de IA é aprovada em comissão e vai ao Plenário do Senado. Publicado aos 05/12/2024, 15h17. Acessado aos 0512/2024. Disponível em: https://www12.senado.leg.br/noticias/videos/2024/12/regulamentacao-de-ia-e-aprovada-em-comissao-e-vai-ao-plenario-do-senado
SQUIZZATO, Ana Carolina. in Direito Financeiro e Econômico. 1ª ed. Rio de Janeiro. Editora Forense. São Paulo, Método. 2013.
WALDMAN, Ricardo. In Inteligência Artificial. Lumen Juris. 2020.
WU, Zijing. OLCOTT, Eleonor. Financial Times, de Hong Kong e Cingapura. Valor Econômico. Estratégia, in Bytedance planeja investir US$ 12 bi em chips de IA. Empresas. Publicado aos 24/01/2025. p. B4.
[1] FINKELSTEIN, Maria Eugenia Reis. in Direito do Comércio Eletrônico. 2ª Edição. Editora Elsevier. Rio de Janeiro. 2011. p. 67.
[2] PUGLIESI, Márcio. in Teoria Geral do Direito. Uma Abordagem Sistêmico-Construcionista. Editora Aquariana. 1ª Edição, São Paulo. 2022. p. 37.
[3] SACRAMONE, Marcelo Barbosa. In Manual de Direito Empresarial - De acordo com a NOVA LEI DE FALÊNCIAS Lei n.º 14.112/2020. 3ª edição. 2022. 2ª tiragem. Editora Saraiva. São Paulo. p. 45. Nota 19: Grau. Eros Roberto. A ordem econômica na Constituição de 1988. 7. Ed. São Paulo: Malheiro, 2002. P. 242. Nota 20: Idem. P. 245. Nota 21: Idem. P. 246. Nota 22: Coelho, Fábio Ulhoa. Op. Cit. P. 29. Nota 23: Idem. p. 144-145.
[4] MACHADO, Eduardo Mendes. in 300 Prompts Developing Agency Validantig Algorithms. flip-book. janeiro/2024. Acessado aos 17/11/2024. Disponível em: https://heyzine.com/flip-book/ceaf56c539,html
[5] HABR, Juliana dos Reis. Advogada e Mestre em Direito do Trabalho pela PUC/SP. in Discriminação nas Relações de Trabalho – Enfoque Racial na População Negra. Juruá Editora. 2024. p. 29.
[6] BRANCHER, Paulo Marcos Rodrigues. in Comércio Eletrônico. Tomo Direito Comercial. Edição 1, Julho de 2018. Acessado aos 14/11/2024. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/258/edicao-1/comercio-eletronico
[7] SANTOS, Maria Celeste Cordeiro Leite dos. ARAÚJO, Marilene. in Declaração Universal dos Direitos Humanos. Juruá Editora. Curitiba. 2018. p. 110.
[8] WU, Zijing. OLCOTT, Eleonor. Financial Times, de Hong Kong e Cingapura. Valor Econômico. Estratégia, in Bytedance planeja investir US$ 12 bi em chips de IA. Empresas. Publicado aos 24/01/2025. p. B4.
[9] Reuters. CNN Brasil Money. in Meta destinará até US$ 65 bi para impulsionar metas de IA em 2025. A Meta construirá um data center de mais de 2 gigawatts, que seria grande o suficiente para cobrir uma parte significativa de Manhattan. Publicado aos 24/01/2025 às 14:33. Acessado aos 27/01/2025. Disponível em: https://www.cnnbrasil.com.br/economia/macroeconomia/meta-destinara-ate-us-65-bi-para-impulsionar-metas-de-ia-em-2025/
[10] FILHO, Michel Kalil Habr. in Soberania Popular e Tecnologia Cívica no Capitalismo Digital: ética no processo eleitoral e os limites das propagandas eleitorais na internet com inteligência artificial impostos pelo TSE. Conteudo Juridico, Brasilia-DF: 29 ago 2024, 04:20. Disponível em: https://conteudojuridico.com.br/consulta/artigos/66288/soberania-popular-e-tecnologia-cvica-no-capitalismo-digital-tica-no-processo-eleitoral-e-os-limites-das-propagandas-eleitorais-na-internet-com-inteligncia-artificial-impostos-pelo-tse. Acesso em: 19 set 2024.
[11] FILHO, Michel Kalil Habr. in Direito Econômico e Inteligência Artificial: a concorrência das startups de IA no comércio eletrônico e a intersecção da Declaração Conjunta de Livre Comércio UE-Mercosul com a Declaração de Bletchley e o AI Act. Conteudo Juridico, Brasilia-DF: 10 dez 2024, 04:30. Disponivel em: https://conteudojuridico.com.br/consulta/artigo/67255/direito-econmico-e-inteligncia-artificial-a-concorrncia-das-startups-de-ia-no-comrcio-eletrnico-e-a-interseco-da-declarao-conjunta-de-livre-comrcio-ue-mercosul-com-a-declarao-de-bletchley-e-o-ai-act. Acesso em: 10 dez 2024.
[12] FILHO, Michel Kalil Habr. in Startups de IA e Indústrias de Mineração e Siderurgia: impactos do Plano Brasileiro de Inteligência Artificial e da Declaração de Kazan no fortalecimento do Brasil no BRICS. Conteudo Juridico, Brasilia-DF: 07 nov 2024, 04:42. Disponivel em: https://conteudojuridico.com.br/consulta/artigos/66954/startups-de-ia-e-indstrias-de-minerao-e-siderurgia-impactos-do-plano-brasileiro-de-inteligncia-artificial-e-da-declarao-de-kazan-no-fortalecimento-do-brasil-no-brics. Acesso em: 07 nov 2024.
Advogado; Especialista em Direito do Consumidor, Meio Ambiente e Processos Coletivos; Mestrando em Direito Comercial pela Pontifícia Universidade Católica de São Paulo.
Conforme a NBR 6023:2000 da Associacao Brasileira de Normas Técnicas (ABNT), este texto cientifico publicado em periódico eletrônico deve ser citado da seguinte forma: FILHO, Michel Kalil Habr. Oráculos Modernos de Inteligência Artificial: o projeto de infraestrutura Stargate, a ascensão da startup DeepSeek e os desafios da soberania digital. Conteudo Juridico, Brasilia-DF: 07 fev 2025, 04:40. Disponivel em: https://conteudojuridico.com.br/consulta/Artigos/67783/orculos-modernos-de-inteligncia-artificial-o-projeto-de-infraestrutura-stargate-a-ascenso-da-startup-deepseek-e-os-desafios-da-soberania-digital. Acesso em: 10 mar 2025.
Por: Juliana Melissa Lucas Vilela e Melo
Por: Marco Aurelio Nascimento Amado
Por: Mario Raposo da Silva
Precisa estar logado para fazer comentários.