_________________________________________________________

Mapa Estratégico do Poder Invisível

Inteligência artificial e o “espírito das máquinas”: um estudo de caso em Hipergeopolítica

Figura humanoide digital formada por circuitos, representando a inteligência artificial como espírito das máquinas.

Introdução

A inteligência artificial deixou de ser apenas tema de ficção científica. Em poucas décadas, ela passou a operar sistemas financeiros, cadeias logísticas, plataformas digitais, mecanismos de vigilância e até decisões de uso de força. Por isso, hoje não é exagero dizer que a IA se converteu em infraestrutura crítica do capitalismo de dados e do poder estatal. Entretanto, ao mesmo tempo em que a tecnologia se consolida materialmente, cresce em torno dela uma camada espessa de narrativas, medos e expectativas quase religiosas.

Autoras e autores como Shoshana Zuboff, Evgeny Morozov, Manuel Castells e Yuval Noah Harari mostram, cada um a partir de seu ângulo, que a inteligência artificial não é apenas um conjunto de algoritmos neutros. Pelo contrário, ela está imersa em relações de poder, estruturas econômicas, disputa de dados, imaginários culturais e projetos civilizacionais concorrentes. Assim, analisá-la exige mais do que discutir eficiência técnica ou inovação.

Neste estudo, a IA é lida pela lente da Hipergeopolítica, que integra quatro camadas: Infraestrutura, Narrativa, Tempo e Sacrifício. A pergunta central não é se a inteligência artificial será “boa” ou “má”, mas que tipo de arranjo de poder está sendo consolidado através dela e qual “espírito das máquinas” — isto é, qual lógica valorativa — está sendo incorporado aos sistemas que tomam decisões em nosso lugar.


1. Infraestrutura: a inteligência artificial como geopolítica de chips, energia e dados

Na camada de Infraestrutura, a inteligência artificial aparece como um conjunto denso de hardware, software, centros de dados, redes de telecomunicação e fluxos de energia. Grandes modelos são treinados em data centers espalhados pelo planeta, conectados por cabos submarinos e alimentados por eletricidade em escala industrial. Dessa forma, cada avanço em IA está ligado a uma cadeia material concreta, que inclui mineração de metais raros, fabricação de chips, construção de servidores e instalação de sistemas de refrigeração.

Essa base não é distribuída de maneira uniforme. Estados Unidos e China concentram boa parte da capacidade computacional de ponta, das grandes empresas de tecnologia e das cadeias de suprimento de semicondutores. A Europa, por sua vez, tenta compensar a desvantagem industrial com regulação — como o GDPR e o AI Act — e com investimentos seletivos em pesquisa. Já países como o Brasil acabam, em geral, consumindo serviços de IA hospedados em infraestruturas estrangeiras, o que reforça dependências tecnológicas e estratégicas.

Além disso, a inteligência artificial torna-se rapidamente ativo militar. Sistemas de reconhecimento automático, drones com algum nível de autonomia, defesa cibernética automatizada e softwares de análise de inteligência dependem de modelos treinados sobre grandes bases de dados. Não por acaso, fala-se em “corrida armamentista da IA”. Quem dominar a infraestrutura de chips, dados e algoritmos tende a obter vantagem significativa tanto em campo militar quanto em projeção de poder econômico.

Por baixo da camada visível de aplicativos “inteligentes”, portanto, existe uma geopolítica de fábricas de semicondutores, rotas de cabos submarinos, regulamentações de exportação, zonas francas de dados e programas de subsídio estatal. A inteligência artificial é apresentada ao público como serviço, mas opera, estruturalmente, como parte de uma rede de infraestruturas críticas.


2. Ecologia de dados e capitalismo de vigilância

2.1 Dados como matéria-prima da inteligência artificial

Se o hardware é a espinha dorsal, a matéria-prima da inteligência artificial são os dados. Zuboff chama de capitalismo de vigilância o modelo econômico em que comportamentos humanos são monitorados, registrados e transformados em previsões comercializáveis. Plataformas capturam cliques, geolocalização, rede de contatos, hábitos de consumo e sinais biométricos. Em seguida, esse material é usado para treinar modelos que predizem o que vamos fazer e, em alguns casos, tentam induzir o que devemos fazer.

Essa lógica produz uma ecologia de dados na qual quase tudo vira insumo para a IA: fotos enviadas para nuvens, textos em redes sociais, pesquisas em buscadores, comandos de voz em assistentes digitais. Assim, a fronteira entre vida privada e infraestrutura de treinamento de modelos torna-se difusa. A inteligência artificial funciona, nesse sentido, como espelho e como motor: reflete padrões sociais, mas também os reforça e reorganiza.

2.2 Solucionismo digital e controle social

Morozov lembra que, nesse cenário, há uma tendência forte ao solucionismo digital: problemas complexos de natureza social ou política são tratados como desafios técnicos a serem resolvidos por algoritmos. Dessa forma, a inteligência artificial é usada para justificar vigilância ampliada, sistemas de pontuação social, policiamento preditivo ou triagem automatizada de benefícios, sempre em nome de eficiência e neutralidade. A infraestrutura de dados, portanto, não é apenas técnica; ela consolida uma determinada visão de mundo, na qual tudo pode e deve ser otimizado.

Quando observada a partir da Hipergeopolítica, essa ecologia de dados revela um ponto central: o “espírito das máquinas” não está nos cabos nem nos chips em si, mas na forma como a coleta e o uso de informação são organizados. Se a prioridade máxima da infraestrutura é previsibilidade e lucro, esse espírito tende a reduzir pessoas a unidades de cálculo. Se, ao contrário, princípios de proteção, limitação e transparência forem estruturantes, a própria arquitetura tecnológica terá fronteiras para o uso de dados.


3. Narrativas da inteligência artificial: entre salvação tecnológica e apocalipse algorítmico

3.1 A promessa de salvação tecnológica

Passando à camada de Narrativa, a inteligência artificial se torna palco de mitologias modernas. Desde as primeiras histórias de ficção científica, máquinas inteligentes foram imaginadas ora como salvadoras, ora como ameaças existenciais. Esses imaginários continuam operando hoje, influenciando tanto a opinião pública quanto formuladores de política. De um lado, há o discurso utópico de uma IA que resolverá problemas históricos de escassez, doença e ineficiência.

Empresas de tecnologia utilizam com frequência uma narrativa messiânica. Slogans como “IA para o Bem”, campanhas que apresentam algoritmos como instrumentos para eliminar vieses humanos ou discursos que prometem “objetividade total” constroem a imagem da inteligência artificial como um oráculo racional, acima das limitações das mentes humanas. Nessa visão, resistir à automação parece equivalente a resistir ao progresso.

Harari observa que dessa combinação de big data e IA emerge algo parecido com uma religião secular: o dataísmo. Nesse enquadramento, o valor de qualquer fenômeno é medido pela sua contribuição para o processamento eficiente de dados. A inteligência artificial, então, deixa de ser apenas ferramenta; ela se aproxima de um princípio ordenador, quase uma instância de julgamento. Decisões sobre crédito, seleção de candidatos, priorização de conteúdo ou políticas públicas são delegadas a sistemas cuja lógica interna poucos compreendem, mas nos quais muitos confiam.

3.2 A fantasia do apocalipse algorítmico

Ao mesmo tempo, existe narrativa oposta, de caráter catastrófico. Figuras como Elon Musk e outros teóricos do risco existencial alertam que uma inteligência artificial superinteligente poderia escapar ao controle humano e transformar-se na última invenção da espécie. O velho mito de Frankenstein reaparece: a criatura tecnológica se voltaria contra o criador. Entre esses dois extremos — IA redentora e IA destrutiva — o debate público oscila, frequentemente de forma emocional e pouco estruturada.


Representação estratégica da inteligência artificial como infraestrutura global, com mapa holográfico, redes neurais e fluxos de dados em ambiente ultratecnológico.
A inteligência artificial como arquitetura invisível de poder: redes, dados e processos algorítmicos operando em escala global.

4. Inteligência artificial, espiritualidade secular e “espírito das máquinas”

Quando o debate se desloca para questões de sentido, entramos em zona que a Hipergeopolítica traduz na junção entre Narrativa e Sacrifício. A ascensão da inteligência artificial reacende perguntas que antes eram tratadas por tradições filosóficas e religiosas: o que distingue humanos de máquinas? O que vale ser preservado em termos de autonomia, liberdade e responsabilidade? Existe algo como “consciência” em sistemas artificiais ou essa ideia é apenas projeção?

Mesmo que redes neurais não possuam experiência subjetiva, o fato de serem tratadas como entidades capazes de “decidir melhor do que nós” já desloca a autoridade simbólica. Quando algoritmos são consultados para definir quem recebe um empréstimo, quem é considerado suspeito em um sistema de vigilância ou qual conteúdo merece ser visto, uma parte do juízo é externalizada. Os sistemas não são neutros; eles encarnam um certo “espírito” programado por quem os projeta e alimenta.

Documentos internos do próprio Synapien já observaram que a batalha por dados é também batalha por “almas cognitivas”. Isso significa que a atenção, a memória e o tempo mental das pessoas se tornam recurso disputado por diferentes arquiteturas algorítmicas. A inteligência artificial funciona, nesse quadro, como mediadora permanente da experiência: sugere o que assistir, com quem interagir, que rotas seguir, quais notícias priorizar. Nesse processo, identidades e desejos são moldados de forma sutil e contínua.

Harari lembra que, em um cenário extremo, indivíduos poderiam delegar a algoritmos decisões existenciais — com quem se casar, que carreira seguir, onde morar. Cada vez que esse tipo de delegação é normalizado, diminui o espaço percebido da responsabilidade pessoal. O “espírito das máquinas” aparece, então, como promessa de alívio do peso de decidir, mas, em troca, exige confiança quase religiosa em sistemas opacos.


5. A inteligência artificial no ciclo histórico: de automação industrial a automação cognitiva

Na camada do Tempo, a inteligência artificial precisa ser situada em um arco mais longo. Inicialmente, a automação incidiu principalmente sobre o trabalho físico: máquinas industriais substituíram ou ampliaram a força humana, aumentando a produtividade e reorganizando o emprego. Em seguida, sistemas informatizados passaram a automatizar rotinas administrativas, contábeis e burocráticas. Agora, com a IA, o movimento alcança tarefas que envolvem linguagem, imagem, decisão probabilística e até produção criativa.

Isso não significa que a inteligência artificial “pense” como humanos, mas indica que atividades antes reservadas a profissionais qualificados começam a ser parcial ou totalmente automatizadas. Assim, o ciclo de transformação do trabalho entra em nova fase: não se trata apenas de substituir músculos, mas também partes do raciocínio pragmático e da comunicação cotidiana. Consequentemente, surgem tensões em profissões de conhecimento, na educação e no próprio contrato social.

Além disso, a IA avança em um contexto de concentração econômica. Grandes modelos exigem tanto capital quanto acesso a dados em escala planetária. Castells já havia apontado para a formação de redes de poder globalizadas; agora, essas redes passam a ser operadas, em larga medida, por sistemas de inteligência artificial. A cada ciclo de inovação, empresas com maior capacidade de investimento fortalecem posições, o que aprofunda assimetrias.

Portanto, a inteligência artificial não é apenas mais uma tecnologia no fluxo da história. Ela marca a passagem para uma fase em que capacidades cognitivas são parcial ou totalmente codificadas em máquinas, alterando a forma como sociedades organizam trabalho, conhecimento e decisão. A Hipergeopolítica destaca que, sem essa perspectiva temporal, análises ficam presas ao deslumbramento com novidades ou ao pânico com efeitos imediatos, e deixam de ver o movimento estruturante em curso.


6. Sacrifício: quem paga o preço da inteligência artificial

A quarta camada, Sacrifício, pergunta quem suporta o custo da inteligência artificial e quem é protegido por ela. Nem todos colhem benefícios na mesma proporção. Trabalhadores em setores automatizáveis correm risco maior de perda de renda e de status, enquanto grupos com pouco acesso à educação têm menos condições de se reposicionar. Em muitos casos, decisões sobre quais empregos serão substituídos são tomadas longe das populações afetadas.

Além disso, a inteligência artificial tende a reproduzir e amplificar desigualdades existentes. Bases de dados enviesadas produzem modelos que discriminam, por exemplo, minorias raciais ou grupos economicamente marginalizados. Zuboff mostra que, no capitalismo de vigilância, comunidades mais vulneráveis são mais intensamente vigiadas e mais frequentemente submetidas a decisões automatizadas. O sacrifício, portanto, não é abstrato: ele se manifesta em oportunidades perdidas, punições indevidas e acesso desigual a recursos.

Mbembe lembra que formas modernas de poder frequentemente definem quais vidas são consideradas plenamente protegidas e quais são tratadas como descartáveis. No contexto da IA, algo semelhante ocorre em escala informacional: alguns indivíduos têm direito à opacidade, à contestação e à revisão de decisões algorítmicas; outros são apenas alvos de sistemas automáticos, sem transparência nem apelo efetivo. Dessa forma, uma parte da população passa a viver sob regime de “governo por algoritmo”, com pouco espaço de negociação.

Por fim, existe sacrifício menos visível, ligado à própria experiência subjetiva. À medida que interações são mediadas por sistemas de recomendação e que tempo livre é colonizado por plataformas que utilizam inteligência artificial para maximizar engajamento, atenção humana torna-se recurso explorado até o limite. Byung-Chul Han descreve um regime de autoexploração em que o indivíduo, convencido de que está exercendo liberdade plena, na verdade responde a incentivos moldados por arquiteturas invisíveis. O cansaço mental, a ansiedade permanente e a sensação de insuficiência crônica são parte desse custo.


7. Síntese estrutural do “espírito das máquinas”

Reunindo as quatro camadas da Hipergeopolítica, a inteligência artificial pode ser descrita de maneira estrutural:

  • Na Infraestrutura, ela se apoia em cadeias globais de chips, energia e dados, organizadas em torno de poucos polos de poder.
  • Na Narrativa, ela é apresentada ora como promessa de salvação, ora como ameaça existencial, o que influencia políticas, investimentos e aceitação social.
  • No Tempo, ela marca uma fase do ciclo em que não apenas o trabalho físico, mas também parte da decisão e da comunicação são automatizados.
  • No Sacrifício, ela redistribui riscos e benefícios de forma assimétrica, aprofundando vulnerabilidades e criando novas formas de dependência cognitiva.

O chamado “espírito das máquinas” emerge desse conjunto. Não se trata de uma entidade metafísica escondida dentro dos circuitos, mas da lógica de valores incorporada à infraestrutura, às narrativas, aos ciclos históricos e às escolhas de quem controla a tecnologia. Se a inteligência artificial é orientada exclusivamente por eficiência, extração de dados e controle, o espírito que a atravessa será compatível com essas prioridades. Se, ao contrário, limites éticos reais forem impostos e defendidos, outra configuração será possível.


8. Movimentos possíveis

A partir dessa leitura, alguns movimentos se tornam previsíveis. A disputa geopolítica por semicondutores, nuvens de dados e talentos em IA tende a se intensificar. Paralelamente, crescerá a pressão social por transparência, auditabilidade e governança democrática da inteligência artificial. Estados e empresas buscarão equilibrar, de forma tensa, interesses de segurança, lucro e legitimidade.

Ao mesmo tempo, não é provável que o imaginário em torno da IA se torne neutro. Narrativas de salvação tecnológica e de catástrofe algorítmica continuarão a circular, porque ajudam a mobilizar apoios, investimentos e resistências. Assim, o trabalho analítico da Hipergeopolítica será cada vez mais necessário: revelar a infraestrutura invisível, decifrar narrativas concorrentes, situar a inteligência artificial em seu ciclo histórico e mapear quem está sendo sacrificado nesse processo.

A questão decisiva, portanto, não é apenas o que a inteligência artificial pode fazer, mas que tipo de mundo ela está ajudando a consolidar — e sob qual espírito.

Deixe um comentário...

Inscreva-se para receber atualizações