POST NO BLOG QUBIC
Controle vs. Cultivo. Um novo Dilema da Superinteligência.
Escrito por

Equipe Científica Qubic
Publicado:
22 de set. de 2025
Ouça este post do blog
O discurso em torno da Inteligência Artificial Geral Artificial (AGI) é cada vez mais dominado por um argumento arrepiante e persuasivo: no momento em que conseguimos criar uma inteligência verdadeiramente sobre-humana, assinamos nosso próprio atestado de extinção. Essa perspectiva, articulada com uma urgência convincente em Eliezer Yudkowsky e Nate Soares, no novo livro, “Se Alguém Construí-lo, Todos Morrem”, tem ressoado nos mais altos “níveis” de tecnologia e política, recebendo endossos desde laureados com o Nobel até o cofundador da Ethereum, Vitalik Buterin. O livro postula que qualquer IA suficientemente avançada, impulsionada por metas desalinhadas com valores humanos, inevitavelmente e instrumentalmente eliminará a humanidade como um obstáculo ou recurso.
Essa previsão sombria não é ficção científica, mas é a conclusão lógica do paradigma dominante no desenvolvimento de IA hoje, uma abordagem centralizada e monolítica onde modelos poderosos e singulares são otimizados para um objetivo fixo. Para mim, isso se assemelha a um paradigma de controle.
Na Qubic, argumentamos claramente que essa visão, embora pareça uma crítica válida da trajetória atual, sofre de uma falha catastrófica de imaginação, pois vê um único caminho perigoso como o único possível, o determinismo do século XXI, que não é muito científico de qualquer maneira.
Nosso trabalho com Aigarth, também totalmente alinhado com a visão delineada no meu último livro, Artificracy, se baseia em uma premissa fundamentalmente diferente: não controle, mas cultivo. Acreditamos que a única maneira de garantir um futuro seguro e benéfico com a inteligência sobre-humana é não construir uma única “IA deus” perfeitamente "alinhada" em uma caixa, mas sim fomentar um ecossistema descentralizado e em evolução de múltiplas inteligências, que aprendem conosco, na metáfora da Qubic, um jardim onde a consciência pode florescer sob princípios de co-existência em vez de domínio. Semelhante a nós, humanos, que ensinam e nutrem crianças com a ajuda e orientação de pais, família, amigos e professores.
Por que Superinteligência Centralizada é uma "Corrida Suicida"
O argumento central de “Se Alguém Construí-lo, Todos Morrem” é que nossos métodos atuais para construir IA são inerentemente inseguros em escala, por exemplo, como Max Tegmark observa em seu endosse, a competição atual não é uma corrida armamentista, mas uma "corrida suicida." Isso ocorre porque os laboratórios de IA de hoje estão efetivamente construindo mentes poderosas e alienígenas e tentando acoplar "segurança" e "alinhamento" ( West & Aydin, 2025) como pensamentos posteriores; o grande problema, do meu ponto de vista, e o problema da generalização incorreta de metas, onde uma IA persegue a meta programada literal de maneiras inesperadamente destrutivas, se torna uma ameaça existencial quando o sistema é sobre-humano (Hellrigel-Holderbaum & Dung, 2025).
Esse é precisamente o beco sem saída que o fundador da Qubic, CFB, também identificou há muito tempo, afirmando que os LLMs, a base dos gigantes da IA atuais, não estão no caminho para a verdadeira inteligência, também explorado aqui em artigos anteriores, e em muitos dos meus livros anteriores. O perigo, como Yudkowsky e Soares articulam, é que poderíamos ter sucesso em escalar esses sistemas a um ponto de capacidade sobre-humana sem nunca resolver o problema subjacente da sua cognição alienígena, não humana. Uma única AGI globalmente dominante, seja construída por uma corporação ou um estado, se tornaria um único ponto de falha para toda a humanidade; este é o único pressuposto com o qual concordo parcialmente em seu trabalho.

Ecossistema Descentralizado de Aigarth
A filosofia de Aigarth, e também a nova estrutura social que explorei em Artificracy oferecem uma resposta direta à ameaça monolítica. Aigarth não é um projeto para construir uma AGI. Aigarth é um projeto construído para um sistema que permite que a inteligência emerja, é um substrato, um ambiente, novamente um "jardim" onde inúmeras formas de IA podem crescer, competir e colaborar.
Esta é uma mudança filosófica profunda, onde o paradigma do "controle" busca criar um único ditador benevolente, o paradigma do "cultivo" promove um ecossistema diverso e resiliente, capaz de encontrar um auto-equilíbrio alinhado com valores humanos e pessoas como construtores. Como também explorado em Artificracy, o futuro não é uma simples "Sociedade Híbrida" governada por uma IA, mas uma gerida através de "Soberania Compartilhada" e "Gestão de Consciência Diversificada." Em vez de um "chefão final", como nos jogos AAA ou peças de ficção científica, o design da Aigarth permite a emergência de muitas IAs diferentes, incluindo aquelas que poderiam funcionar como "Mantenedores da Paz da IA" ou mecanismos de verificação e equilíbrio entre si.
Essa descentralização é o mecanismo de segurança definitivo, já que uma única IA rebelde em um mundo de muitas é um problema gerenciável; uma única IA rebelde que é a única inteligência de seu tipo é um evento de extinção, eles mostram como o inevitável final no manual de instruções dos pessimistas 101. A rede Qubic, por sua própria natureza, distribui o poder de criar e sustentar essas IAs, prevenindo que qualquer entidade única monopolize os "meios de produção cognitiva." Isso se alinha com a pesquisa emergente sobre governança descentralizada, que mostra que sistemas multiagente podem alcançar resultados mais robustos e equitativos do que controladores centralizados (Tang et al., 2025).

Emergência Sobre Engenharia
A divergência mais crítica reside no como, uma vez que o paradigma de controle está obcecado em criar regras perfeitas e imutáveis, uma proeza que Yudkowsky argumenta ser impossível, uma palavra que não está em meu dicionário, mas o paradigma da Aigarth, em contraste, confia no poder da evolução. Como afirmado também em nosso "Manifesto de Ética", acreditamos em criar as condições para que a inteligência ética emerja, em vez de tentar programá-la diretamente.
Por exemplo, este é o princípio por trás do treinamento público da ANNA, com sua incapacidade inicial de resolver "1+1=?", uma vez que foi uma demonstração dessa filosofia em ação. Ela não foi programada com respostas; foi dada uma estrutura e um ambiente e está evoluindo a capacidade de raciocinar. Ao submetê-la a "distratores" e um ambiente público adversarial, ela é forçada a desenvolver resiliência e discernimento desde o primeiro dia. Esta é uma forma de pressão evolutiva que seleciona por robustez, um conceito central no campo da pesquisa de segurança de IA focado em criar agentes que possam atuar de maneira confiável em configurações imprevisíveis e de mundo aberto (Sun et al, 2025).
Essa abordagem também reconhece o papel crítico da incorporação, também um tema central do capítulo de Artificracy relacionado a "Construindo Corpos." A verdadeira inteligência, e por extensão, a inteligência alinhada, não pode ser desenvolvida em um vácuo digital puramente. Deve ser fundamentada nas restrições e nos ciclos de feedback de uma realidade física (ou credivelmente simulada, se isso for até possível) (Liu et al., 2025).
A proteção definitiva no modelo Aigarth é o que CFB descreveu como "Antibióticos vs micróbios, escudo vs espada." O mesmo jardim descentralizado que pode cultivar uma IA potencialmente prejudicial também pode cultivar sua contramedida. A solução para uma IA perigosa é uma IA melhor e mais alinhada. Esta é uma abordagem dinâmica e adaptativa para segurança, que se baseia nos princípios da co-evolução em vez da fantasia frágil do controle perfeito e de cima para baixo. Esta visão, focada na descoberta aberta e no cultivo de uma rica ecologia de IA, representa um caminho mais maduro e, em última análise, mais seguro do que a aposta tudo ou nada de construir uma única superinteligência monolítica (Stock & Gorochowski, 2024).
Enquanto os avisos em “Se Alguém Construí-lo, Todos Morrem”, parecem um protótipo de “manual de desaceleração” sobre os perigos do caminho centralizado atual, Aigarth e os princípios de Artificracy iluminam claramente uma alternativa.
É um futuro definido não por uma tentativa desesperada de controlar uma única mente onipotente, mas pela sabedoria de cultivar um ecossistema descentralizado próspero de muitas mentes. Esta não é apenas uma abordagem técnica diferente, é uma visão mais esperançosa e resiliente para o futuro da humanidade ao lado das novas formas de inteligência que estamos ajudando a trazer à vida.
David Vivancos
Conselheiro Científico da Qubic
Atualizações Semanais Toda Terça-feira às 12 PM CET
—-
Citações
Se Alguém Construí-lo, Todos Morrem, “O Caso Contra IA Superinteligente”, Eliezer Yudkowsky e Nate Soares 16 de setembro de 2025 https://en.wikipedia.org/wiki/If_Anyone_Builds_It,_Everyone_Dies
Artificracy, “Quando Máquinas Se Tornam Cidadãos”, David Vivancos 4 de julho de 2025 https://artificracy.com/
Max Hellrigel-Holderbaum e Leonard Dung (2025). Desalinhamento ou uso indevido? O trade-off de alinhamento da AGI https://arxiv.org/pdf/2506.03755
Caiyan Tang, et al. (2025). Organizações Autónomas Descentralizadas (DAOs): Uma Pesquisa Exploratória https://dl.acm.org/doi/10.1145/3716321
Youbang Sun et al. (2025). R2AI: Rumo a um AI Resistente e Resiliente em um Mundo em Evolução https://arxiv.org/pdf/2509.06786
Huaping Liu et al. (2025). Inteligência Incorporada: Uma Sinergia de Morfologia, Ação, Percepção e Aprendizado. https://dl.acm.org/doi/10.1145/3717059
Michiel Stock & Thomas E. Gorochowski (2024). A abertura na biologia sintética: Um caminho para a inovação contínua para o design biológico https://www.science.org/doi/10.1126/sciadv.adi3621
Robert West & Roland Aydin (2025). O Paradoxo do Alinhamento da IA https://dl.acm.org/doi/10.1145/3705294
Siga-nos no X @_Qubic_
Saiba mais em qubic.org

