Nas últimas duas semanas várias notícias sobre a inteligência artificial surpreenderam o mundo. Segue uma coletânea pessoal. Os artigos foram publicados no Jornal Folha de S. Paulo.
Familiares de vítimas processam OpenAI por não alertar polícia antes de ataque em escola no Canadá
Familiares das vítimas de um dos tiroteios em massa mais mortais do Canadá acionaram a Justiça dos Estados Unidos contra a OpenAI, empresa responsável pelo ChatGPT, e seu CEO, Sam Altman.

O ataque a tiros ocorreu na cidade de Tumbler Ridge, no nordeste da Colúmbia Britânica, em fevereiro deste ano. Nove pessoas morreram, incluindo a atiradora, que se suicidou. Um porta-voz da OpenAI chamou o episódio de “uma tragédia” e afirmou que a empresa tem tolerância zero para o uso de suas ferramentas na prática de violência.
“Como compartilhamos com autoridades canadenses, já fortalecemos nossas salvaguardas, incluindo melhorias na forma como o ChatGPT responde a sinais de sofrimento […] e no escalonamento de possíveis ameaças de violência”, escreveu o porta-voz em comunicado.
Os processos integram uma onda crescente de ações judiciais contra empresas de inteligência artificial, acusadas de não impedir interações que, segundo os autores, contribuem para automutilação, transtornos mentais e violência. Este seria o primeiro caso nos EUA a apontar o ChatGPT como fator na facilitação de um tiroteio em massa. O advogado Jay Edelson, que representa os autores, afirmou que pretende apresentar novas ações nas próximas semanas em nome de outras pessoas afetadas. As ações afirmam que recomendações internas da própria equipe de segurança da OpenAI foram ignoradas pela liderança da empresa. Segundo os processos, após identificar nas interações com o ChatGPT indícios de uma ameaça real e iminente, o time técnico teria sugerido acionar a polícia. A orientação, porém, não foi seguida pelos executivos.
De acordo com as investigações da polícia, Jesse Van Rootselaar, 18, matou a mãe e o padrasto em casa antes de ir até sua antiga escola, onde matou uma assistente educacional e cinco estudantes de 12 a 13 anos. Em seguida, cometeu suicídio. Entre os autores da ação estão familiares das vítimas e uma menina de 12 anos que sobreviveu após ser baleada três vezes e continua internada em estado grave. Segundo o processo, sistemas automatizados da OpenAI identificaram, em junho de 2025, conversas no ChatGPT nas quais a atiradora descrevia cenários de violência com armas de fogo.
A equipe de segurança teria recomendado acionar a polícia ao considerar a ameaça crível e iminente, segundo a ação. Altman e outros líderes da OpenAI teriam ignorado a recomendação, e a polícia nunca foi acionada, afirma o processo. A conta da atiradora foi desativada, mas ela conseguiu criar uma nova e continuar usando a plataforma para planejar o ataque, ainda segundo a ação, que cita reportagem do Wall Street Journal.
Na semana passada, um jornal local de Tumbler Ridge publicou uma carta aberta na qual Altman disse estar “profundamente arrependido” pelo fato de que o caso não foi reportado à polícia.
Em nota publicada na terça-feira (28), a OpenAI afirmou que treina seus modelos para recusar solicitações que possam “facilitar significativamente a violência” e que notifica autoridades quando há “risco iminente e crível de dano a terceiros”. A empresa disse que aprimora continuamente seus modelos e métodos de detecção com base no uso e na contribuição de especialistas. As ações pedem indenizações em valores não especificados e uma ordem judicial para que a empresa reformule suas práticas de segurança, incluindo protocolos obrigatórios de comunicação com autoridades. Os processos se somam a outras ações recentes contra a OpenAI em tribunais estaduais e federais dos EUA, que acusam o ChatGPT de facilitar comportamentos nocivos, suicídio e, em ao menos um caso, homicídio seguido de suicídio. Ainda em fase inicial, os casos devem levar a Justiça a discutir o papel de plataformas de IA na promoção da violência e até que ponto empresas podem ser responsabilizadas por seus sistemas ou pelos atos de usuários.
A OpenAI nega as acusações e, em um dos casos, argumenta que o autor tinha histórico prolongado de doença mental.
O procurador-geral da Flórida, James Uthmeier, anunciou neste mês a abertura de uma investigação criminal sobre o papel do ChatGPT em um tiroteio ocorrido na Universidade Estadual da Flórida. O grupo sustenta que a companhia identificou a atiradora como uma ameaça crível oito meses antes do ataque, com base na análise de interações da suspeita com o chatbot, mas não alertou a polícia. Os processos, apresentados em um tribunal federal em São Francisco nesta quarta-feira (29), acusam a OpenAI de omitir o caso para evitar expor o volume de conversas sobre violência no chatbot e não prejudicar os planos de uma oferta pública avaliada em quase US$ 1 trilhão (cerca de R$ 4,9 trilhões).
##########################
Como ação contra a Meta expõe plano chinês em disputa da IA
A China ordenou a reversão da compra da startup de inteligência artificial Manus pela Meta, dona do Facebook e Instagram. A ordem partiu da Comissão Nacional de Desenvolvimento e Reforma (NDRC, na sigla em inglês) e foi publicada na segunda-feira (27). O regulador exigiu que as partes desfaçam a transação, avaliada em mais de US$ 2 bilhões (R$ 11,4 bilhões). É a primeira vez que Pequim ordena a reversão de uma aquisição transfronteiriça de IA já concluída.

Lançada em março de 2025 pela Butterfly Effect, startup fundada em Wuhan, a Manus é um agente de inteligência artificial autônomo. Diferentemente de chatbots como o ChatGPT, ela planeja, navega na internet, manipula arquivos e gera código sem supervisão humana. A ferramenta superou modelos da OpenAI em testes internacionais de resolução de problemas. Tanto sucesso fez a imprensa estatal chinesa celebrar a empreitada como a próxima DeepSeek, referência nacional em IA generativa.
Os problemas com o governo começaram quando os fundadores, o CEO, Xiao Hong, e o cientista-chefe, Ji Yichao, decidiram transferir a empresa para Singapura. A operação envolveu demissões na China, fechamento de escritórios e bloqueio de acessos vindos do país. A empresa passou a ser apresentada singapurense para atrair capital americano e fugir das regulações chinesas.
A Benchmark Capital, fundo do Vale do Silício, liderou um aporte de US$ 75 milhões em maio de 2025 e, em dezembro, a Meta anunciou a compra da plataforma. As equipes foram integradas em semanas e mais de 100 funcionários passaram para os escritórios da Meta em Singapura. Nem a big tech americana ou a Manus pediram autorização ao governo chinês para a venda. Pequim reagiu em janeiro de 2026. O Ministério do Comércio abriu investigação sobre a conformidade do negócio com leis de exportação de tecnologia e investimento estrangeiro.
Em março, os dois fundadores foram convocados a Pequim pela NDRC e após os encontros, receberam a proibição de deixar o país. Desde então, não puderam se juntar às operações globais da Meta. O governo chinês argumenta que a origem da tecnologia, do talento e dos dados da Manus é chinesa e a mudança de sede para Singapura não alteraria a jurisdição de Pequim sobre esses ativos. O Global Times, jornal ligado ao Partido Comunista, publicou nesta terça-feira (28) que a questão não era onde a empresa está registrada, mas a extensão dos vínculos com a China em tecnologia, talento e dados.
Por que importa: o caso Manus testa um princípio novo na disputa tecnológica entre EUA e China, com Pequim reivindicando jurisdição sobre tecnologia desenvolvida por talentos chineses mesmo quando a empresa opera fora do país. O mecanismo espelha, do lado chinês, o que o Comitê de Investimentos Estrangeiros nos EUA (CFIUS, na sigla em inglês) faz ao barrar investimentos por razões de segurança nacional. A diferença é que a China aplicou o instrumento de forma retroativa, sobre um negócio já concluído.
Se esse modelo se consolidar, startups com qualquer vínculo original com a China enfrentarão um risco regulatório duplo. Washington pode bloqueá-las por considerar seus laços chineses muito fortes e Pequim pode fazer o mesmo por tentarem afrouxar relações.
################################
Google fecha acordo para fornecer IA para operações sigilosas do Pentágono
O Google anunciou nesta terça-feira (28) que fechou um acordo que permitirá ao Pentágono usar seus modelos de IA (inteligência artificial) para trabalhos sigilosos. A parceria surge em meio a uma disputa entre o Departamento de Defesa e a startup de IA Anthropic sobre o uso responsável da tecnologia durante guerras. O acordo faz parte de um contrato de US$ 200 milhões assinado no ano passado com o Pentágono para fornecer ferramentas de IA. Agora o Pentágono pode usar a IA do Google em sistemas sigilosos para “qualquer finalidade governamental legal”, disseram pessoas com conhecimento do acordo.

A linguagem espelhou acordos que o Departamento de Defesa firmou no mês passado com a OpenAI e a xAI, de Elon Musk, afirmaram pessoas que revisaram os contratos. “Temos orgulho de fazer parte de um amplo consórcio de laboratórios de IA líderes e empresas de tecnologia e nuvem que fornecem serviços e infraestrutura de IA em apoio à segurança nacional”, disse Jenn Crider, porta-voz do Google. “Continuamos comprometidos com o consenso dos setores privado e público de que a IA não deve ser usada para vigilância doméstica em massa ou armamento autônomo sem supervisão humana adequada.”
A nova parceria, somada aos acordos já firmados com a OpenAI e a xAI, pode dar flexibilidade aos militares e evitar uma situação em que uma única empresa tenha monopólio sobre os contratos, disse uma das autoridades. O Google se recusou a comentar detalhes contratuais. Uma autoridade do Pentágono confirmou que o contrato foi assinado, mas se recusou a fornecer detalhes. O site The Information divulgou anteriormente detalhes do acordo.
O Pentágono tem agido agressivamente para garantir acordos com as maiores empresas de IA desde janeiro, quando o secretário de Defesa Pete Hegseth anunciou que a tecnologia deveria ser amplamente integrada às forças armadas. A medida gerou atrito entre o Pentágono e algumas empresas do Vale do Silício sobre o papel da tecnologia na guerra. A Anthropic, startup cuja tecnologia de IA o Pentágono usou pela primeira vez em redes sigilosas, se recusou a remover proteções contra o uso de sua IA para armas autônomas ou vigilância doméstica. O Pentágono respondeu que uma empresa não deveria dizer ao governo como usar a IA. Em março, o Pentágono classificou a Anthropic como um “risco à cadeia de suprimentos”, designação que efetivamente impediu a empresa de trabalhar com o governo. A Anthropic desde então processou o Pentágono por causa da classificação e busca continuar trabalhando com outros setores governamentais.
Autoridades da Casa Branca se reuniram com a Anthropic há cerca de 10 dias para discutir um acordo sobre como o governo poderia usar a IA da empresa. Neste mês, a Anthropic lançou um poderoso modelo de IA chamado Mythos, que muitos acreditam ser fundamental para a segurança.
Autoridades de defesa disseram que a IA está se tornando cada vez mais central para seu trabalho. Na semana passada, o Pentágono pediu ao Congresso US$ 2,3 bilhões para expandir o Projeto Maven, sistema construído pela Palantir para integrar tecnologia de IA às forças armadas. O sistema usa a tecnologia de IA da Anthropic. Se a startup e o Pentágono não conseguirem chegar a um acordo, a tecnologia de outra empresa poderá ser introduzida em seu lugar, disseram duas autoridades familiarizadas.
O Gemini do Google já está em uso em sistemas não sigilosos no Departamento de Defesa. A introdução de novos modelos de IA criou alguns obstáculos técnicos, já que os provedores de nuvem do governo tiveram que alterar configurações ou atualizar hardware, afirmaram autoridades. O acordo com o Pentágono é a mais recente validação da tecnologia de IA do Google. Depois de ficar para trás em relação a rivais como OpenAI e Anthropic, a empresa —que foi pioneira em IA— alcançou o mesmo nível de desempenho e recursos com o mais recente lançamento do Gemini. O Google tem vantagens que seus rivais não têm. A empresa tem recursos financeiros abundantes, projeta seus próprios chips de IA e possui um negócio de computação em nuvem com data centers espalhados pelo mundo.
O Google firmou o acordo desta terça apesar da oposição de alguns funcionários. Nesta segunda-feira (27), mais de 560 pessoas das divisões de IA e nuvem da empresa assinaram uma carta pedindo que o CEO do Google, Sundar Pichai, negasse ao Pentágono o uso de sua tecnologia para operações militares sigilosas. Mais de 100 funcionários que trabalham com IA também assinaram uma carta em fevereiro pedindo ao Google que estabelecesse as mesmas salvaguardas em seus contratos governamentais que a Anthropic estava buscando.
Em 2018, o Google firmou um acordo militar com o governo dos EUA que causou revolta entre funcionários. A oposição levou a empresa a descontinuar o contrato. Nos anos seguintes, a empresa centralizou o processo de tomada de decisão em torno desses acordos e buscou conter o ativismo dos funcionários.
Google e Anthropic são rivais, mas também parceiros. O Google apoiou a Anthropic em seu início. Na semana passada, o Google disse que se comprometeu a investir até US$ 40 bilhões na Anthropic. A Anthropic, por sua vez, depende do Google e da Amazon para a computação em nuvem necessária para desenvolver IA e se tornou uma das maiores usuárias dos chips de IA personalizados das gigantes de tecnologia.
#########################################
Funcionários do Google pedem que CEO não permita uso militar de IA pelo governo dos EUA
Mais de 560 funcionários do Google assinaram uma carta aberta ao CEO Sundar Pichai pedindo que ele não permita que o governo dos Estados Unidos use sua tecnologia de IA (inteligência artificial) em operações militares sigilosas. “Queremos ver a IA beneficiar a humanidade, não sendo usada de formas desumanas ou extremamente prejudiciais”, dizia a carta, que foi enviada a Pichai nesta segunda-feira (27). “Isso inclui armas autônomas letais e vigilância em massa, mas vai além.” “A única forma de garantir que o Google não seja associado a tais danos é rejeitar qualquer carga de trabalho sigilosa”, continuava. “Caso contrário, tais usos podem ocorrer sem nosso conhecimento ou poder de impedi-los.”

As grandes empresas de tecnologia estão sob pressão para se posicionarem sobre o uso militar e de inteligência de seus produtos de IA após o embate entre o Pentágono e a startup de IA Anthropic. O CEO da Anthropic, Dario Amodei, recusou-se a dar ao governo acesso irrestrito aos seus modelos. Ele insistiu em salvaguardas para impedir que recursos fossem usados em armas autônomas letais e vigilância doméstica em massa. Em resposta, o governo classificou a Anthropic como risco à cadeia de suprimentos e o presidente Donald Trump ordenou que todos os departamentos governamentais parassem de usar o Claude, chatbot da empresa. A Anthropic contestou a classificação na Justiça.
Os funcionários da Alphabet estão reagindo a relatos de que o Google está perto de fechar um acordo com o Departamento de Defesa que permitirá que seu modelo Gemini seja usado em operações sigilosas sem as salvaguardas formais que a Anthropic exigiu. Uma pessoa que atua na campanha diz que situação não envolve apenas os militares, mas também a ameaça da vigilância com IA para a liberdade civil dos americanos, citando como a tecnologia é usada para apoiar o autoritarismo na China.
Funcionários da DeepMind, o laboratório de IA do Google, coordenaram a carta a Pichai, disseram duas das pessoas envolvidas. Dois quintos dos signatários trabalham na divisão de IA, com uma parcela semelhante na unidade de Cloud e o restante espalhado pela Alphabet. Mais de 18 funcionários seniores —incluindo diretores principais, diretores e vice-presidentes— assinaram, disseram as fontes. Cerca de dois terços optaram por ser identificados, com o restante decidindo permanecer anônimo. O cientista-chefe da DeepMind, Jeff Dean, tem sido o executivo mais vocal sobre o assunto até agora. Em fevereiro, ele postou no X que “A vigilância em massa viola a Quarta Emenda e tem um efeito inibidor sobre a liberdade de expressão”. Ele acrescentou que ainda apoia um compromisso de 2018 de banir armas autônomas letais.
O Google já enfrentou protestos anteriores contra seus vínculos militares. Em 2018, vários funcionários pediram demissão e milhares assinaram uma petição contra o Projeto Maven, que usava IA para melhorar ataques com drones. O Google não renovou o contrato e prometeu não trabalhar com IA para armas ou vigilância. No entanto, no ano passado, a empresa abandonou discretamente essa posição em uma revisão de seus “Princípios de IA”. A atualização excluiu a promessa de não buscar “armas ou outras tecnologias cujo principal propósito ou implementação seja causar ou facilitar diretamente danos a pessoas”.
O cofundador Demis Hassabis justificou a decisão dizendo que o mundo mudou desde que o Google adquiriu a DeepMind em 2014. Múltiplos modelos de fronteira agora estão amplamente disponíveis e as empresas de tecnologia dos EUA têm o dever de ajudar o país a se defender. Uma segunda pessoa que assina a carta afirma que o grupo se inspirou no protesto anti-Maven e acrescenta que há quase consenso contra o programa na DeepMind.
A OpenAI enfrentou uma reação negativa de seus pesquisadores por fechar seu próprio acordo com o governo logo após a proibição da Anthropic. O CEO Sam Altman depois se desculpou, chamando suas ações de “oportunistas e descuidadas”. “Tomar a decisão errada agora causaria danos irreparáveis à reputação, aos negócios e ao papel do Google no mundo”, conclui a carta. “Sabemos por nossa própria história que nossos líderes podem fazer as escolhas certas, para nós mesmos e para o mundo, quando há muito em jogo.”
#####################################
Novo modelo da Anthropic preocupa governos pelo mundo e expõe crescente divisão global em IA
Quando a Anthropic anunciou neste mês que havia construído um modelo de IA (inteligência artificial) tão poderoso que era perigoso demais para ser disponibilizado ao público, a empresa citou 11 empresas parceiras para montar um grupo de defesa, todas dos Estados Unidos. Em duas semanas, o modelo chamado Mythos desencadeou uma corrida global sem precedentes na era da IA. Segundo a Anthropic, o modelo tem uma capacidade extraordinária de encontrar e explorar falhas ocultas nos softwares que operam bancos, redes elétricas e governos do mundo, fazendo dele uma moeda de troca geopolítica —controlada por uma empresa americana.

Líderes mundiais têm tentado dimensionar os riscos de segurança e como resolvê-los. Além dos EUA, a Anthropic compartilhou o Mythos apenas com o Reino Unido.
O presidente do Banco da Inglaterra alertou publicamente que a Anthropic pode ter encontrado uma forma de “abrir completamente o mundo do risco cibernético”. O Banco Central Europeu começou a questionar discretamente os bancos sobre suas defesas. A ministra das Finanças do Canadá comparou a ameaça ao fechamento do estreito de Hormuz.
Para rivais dos EUA, como China e Rússia, o Mythos evidenciou as consequências de ficar para trás na corrida da IA. Um veículo russo pró-Kremlin chamou o modelo de “pior que uma bomba nuclear”.
As reações ilustraram uma realidade sobre a qual pesquisadores de IA há muito tempo alertam: quem liderar a construção dos modelos de IA mais poderosos obterá vantagens geopolíticas desproporcionais. Grandes avanços em IA estão começando a funcionar menos como lançamentos de produtos e mais como testes de armas, e a maioria das nações quer entender como as tecnologias funcionam e quais proteções são necessárias. À medida que os modelos fundamentais de IA “se tornam mais consequentes, o acesso se torna mais geopolítico”, disse Eduardo Levy Yeyati, ex-economista-chefe do Banco Central da Argentina e assessor regional de crescimento e IA no BID (Banco Interamericano de Desenvolvimento).
“Eu consideraria este episódio um alerta para políticas públicas. Os governos não podem mais ignorar a questão”, disse.
Até mesmo o governo dos EUA, que se envolveu em um conflito com a Anthropic sobre o uso militar da IA da startup, tomou conhecimento do Mythos. Na última sexta-feira (17), Dario Amodei, CEO da Anthropic, reuniu-se com autoridades da Casa Branca depois que alguns membros do governo Trump notaram o potencial do novo modelo para causar estragos em sistemas de computadores. A Anthropic, sediada em San Francisco, disse ao New York Times que estava restringindo o acesso ao Mythos por questões de segurança. A empresa tem focado em compartilhar o modelo com mais de 40 empresas que fornecem tecnologia usada na manutenção de infraestrutura global crítica, como a internet ou redes elétricas.
A Anthropic nomeou 11 das companhias, incluindo Amazon, Apple e Microsoft, que se comprometeram a ajudar a desenvolver correções para vulnerabilidades identificadas pelo modelo.
A empresa disse que não tinha um cronograma imediato para expandir amplamente o acesso, mas que trabalharia com o governo dos EUA e parceiros da indústria para determinar os próximos passos. Afirmou também que foi bombardeada por ligações de governos, empresas e outras organizações buscando acesso e informações, mas que essas organizações podem ter níveis variados de expertise para avaliar com segurança o modelo. A Anthropic acrescentou que espera que outros grupos lancem modelos de IA com capacidades cibernéticas semelhantes de forma mais ampla dentro de pelo menos 18 meses, dando às organizações tempo limitado para resolver problemas de segurança.
Na terça-feira (21), a Anthropic disse que estava investigando um relato de que usuários não autorizados obtiveram acesso a uma versão do Mythos. A corrida em torno do modelo acontece em um momento de cooperação internacional mínima em IA. Governos estão olhando uns para os outros com desconfiança enquanto corporações correm para superar rivais. Não há equivalente ao Tratado de Não Proliferação Nuclear, não há inspeções compartilhadas e não há regras acordadas sobre como lidar com algo como o Mythos.
Quando a Anthropic anunciou o modelo, muitos especialistas elogiaram a cautela da empresa em limitar quem pode testar o modelo, mas expressaram preocupações sobre a falta de coordenação internacional para lidar com o risco. O Reino Unido foi a única outra nação a obter acesso. O Instituto de Segurança em IA, organização apoiada pelo governo britânico, testou o Mythos e publicou uma avaliação independente na semana passada, confirmando que ele poderia realizar ataques cibernéticos complexos que nenhum modelo de IA anterior havia completado. “Isso representa um avanço nas capacidades cibernéticas da IA”, disse Kanishka Narayan, ministro de IA do Reino Unido, na semana passada nas redes sociais, afirmando que o país estava tomando medidas para proteger a “infraestrutura nacional crítica”.
Outros receberam menos informações. A Comissão Europeia, o braço executivo da UE, reuniu-se com a Anthropic pelo menos três vezes desde o lançamento do Mythos, disse um funcionário do bloco. Mas a empresa não forneceu acesso ao modelo porque os dois lados não chegaram a um acordo sobre como compartilhá-lo, acrescentou. Em comunicado, a comissão afirmou que estava “avaliando possíveis implicações” do Mythos, que “exibe capacidades cibernéticas sem precedentes”.
Claudia Plattner, presidente da agência de segurança cibernética da Alemanha, conhecida como BSI, disse que não recebeu acesso ao Mythos, mas se reuniu recentemente com funcionários da Anthropic em San Francisco para obter “informações significativas” sobre como ele funciona. As capacidades apontam para “uma mudança de paradigma na natureza das ameaças cibernéticas”, disse Plattner em comunicado.
Entre os rivais dos EUA, a resposta tem sido mais contida. Apesar do recente embate da Anthropic com o governo Trump, Amodei deixou claro que a IA deve ser usada para defender os EUA e outras democracias e derrotar adversários autocráticos. Nem Pequim nem Moscou fizeram declarações públicas importantes sobre o Mythos. Dentro da China, pesquisadores e a comunidade de IA em geral têm acompanhado de perto, segundo analistas que estudam a comunidade tecnológica do país.
Muitos dos bancos, empresas de energia e agências governamentais chineses operam com o mesmo software no qual o Mythos encontrou vulnerabilidades —mas, por enquanto, eles não têm lugar à mesa. Liu Pengyu, porta-voz da Embaixada da China em Washington, disse que a China não estava familiarizada com os detalhes do Mythos, mas apoiava um ciberespaço pacífico, seguro e aberto. O Mythos é o mais recente sinal de uma crescente divisão global em IA. Nações sem infraestrutura de computação poderosa e modelos de IA correm o risco de ficarem dependentes de empresas como Anthropic, Google e OpenAI, tendo pouca influência sobre como seus produtos são projetados e protegidos, disse Yeyati. “A ideia de que o acesso à IA de fronteira é algo que uma empresa pode restringir unilateralmente, usando critérios opacos e sem possibilidade de recurso, deveria ser uma preocupação real”, disse.
######################################
Beware the beast you feed.
William Shakespeare
Categorias:inteligência artificial, Sem categoria
Deixe um comentário