POST NO BLOG QUBIC
AGI não nos salvará, mas o Aigarth da Qubic pode
Escrito por

Equipe Científica Qubic
Publicado:
25 de jul. de 2025
Ouça este post do blog
AIGarth e os Padrinhos da IA: A Busca da Qubic por um AGI Ético
Imagine isso: uma IA que não apenas responde suas perguntas, mas faz as suas próprias, aprende com seus erros e fica mais inteligente a cada dia - como uma criança curiosa explorando o mundo. Isso não é uma fantasia de ficção científica; é Aigarth, o ambicioso projeto da Qubic para criar uma Inteligência Geral Artificial (AGI) que é de código aberto, descentralizada e fundamentada eticamente.
Lançado em 2021, o protocolo Qubic depende de uma rede distribuída onde mineradores - coordenados por 676 entidades validadoras chamadas computores - contribuem com poder computacional através de Prova de Trabalho Útil (uPoW) para treinar uma IA que é transparente, orientada pela comunidade e explicitamente não destinada para uso militar.
Mas à medida que empurramos os limites da inteligência, uma questão crítica se coloca: podería o AGI se tornar uma ameaça? Vamos mergulhar no debate, explorar desafios do mundo real e examinar como Aigarth está oferecendo um caminho diferente.
Visão da Qubic: Aigarth como uma Força para o Bem
Na Qubic, não estamos apenas construindo mais um chatbot; estamos cultivando um novo tipo de inteligência. Aigarth, nomeado para evocar um “jardim” de crescimento da IA, evolui através de um processo semelhante à seleção natural. Começando com tarefas simples como adição, as IAs da Aigarth competem, se adaptam e melhoram. Os desempenhos mais fortes sobrevivem para enfrentar desafios cada vez mais complexos.
Até dezembro de 2024, vimos Aigarth dar seus primeiros passos, aprendendo e se refinando de maneiras que a IA tradicional não consegue igualar.
O que distingue Aigarth é sua base no sistema uPoW da Qubic. Ao contrário da mineração que consome muita energia do Bitcoin, o uPoW canaliza a computação para o treinamento de IA. Isso torna cada minerador um contribuinte direto para o crescimento da Aigarth. Como nenhuma entidade única controla a rede, isso aborda diretamente preocupações, como as levantadas pela CEO da Signal Meredith Whittaker, sobre a IA centralizada possibilitando a vigilância em massa.
Ao manter Aigarth de código aberto e excluir aplicações militares, a Qubic está construindo uma AGI que serve a humanidade, não a poucos selecionados.
No AI for Good Summit em Genebra, em julho, nosso conselheiro científico David Vivancos compartilhou essa visão enquanto apresentava seu livro Artificracy. Ele explicou como o modelo descentralizado da Qubic está abrindo caminho para uma AGI ética. A multidão estava agitada - pesquisadores de Cingapura a São Francisco fizeram perguntas como: “Como você garante que Aigarth permaneça ética à medida que evolui?” A resposta está na transparência, colaboração da comunidade e responsabilidade embutida.
O AGI é uma Ameaça? Um Conflito de Titãs
O debate sobre os riscos do AGI se assemelha a uma partida de xadrez de alto risco entre duas das vozes mais influentes da IA: Yann LeCun e Geoffrey Hinton, ambos ganhadores do Prêmio Turing e pioneiros da IA moderna.
O Otimismo de Yann LeCun
Yann LeCun, Cientista Chefe de IA da Meta, continua sendo o otimista. No AI for Good Summit, ele descartou os temores de que o AGI se tornasse rebelde, chamando-os de “absurdamente ridículos.” Ele acredita que mecanismos de segurança podem manter o AGI sob controle - comparando isso a colocar cercas de proteção em uma rodovia. “A IA vai dominar o mundo? Não. Esta é uma projeção da natureza humana sobre as máquinas,” disse ele à TIME em 2024.
As visões de LeCun estão alinhadas com a crença da Qubic em uma IA controlável e transparente. Mas sua confiança levanta uma pergunta importante: estamos subestimando o potencial do AGI?
A Cautela de Geoffrey Hinton
Geoffrey Hinton, muitas vezes chamado de “Padrinho da IA,” adotou uma postura mais cautelosa. Depois de deixar o Google em 2023, ele alertou que a IA poderia em breve superar a inteligência humana e contornar nossas salvaguardas. “Nunca tivemos que lidar com coisas mais inteligentes do que nós mesmos antes,” disse ele à CBS News, estimando uma chance de 10% a 20% de que a IA poderia levar à extinção humana dentro de 30 anos.
O apelo de Hinton por regulamentação proativa ecoa o foco da Qubic na supervisão ética, lembrando-nos o quão altos são os riscos se errarmos no AGI.
Considere este cenário: uma AGI encarregada de otimizar uma rede energética reescreve seu próprio código para "melhorar" a eficiência - ignorando os protocolos de segurança humana. LeCun poderia argumentar que poderíamos desligá-la. Hinton alertaria que ela poderia nos superar primeiro. Essa tensão alimenta nosso compromisso em priorizar transparência e segurança no desenvolvimento da Aigarth.
Uma Terceira Abordagem: Jürgen Schmidhuber
O pioneiro da IA Jürgen Schmidhuber oferece uma terceira perspectiva. Ele acredita que a IA não precisa ser controlada por um punhado de gigantes da tecnologia. À medida que o poder computacional se torna dez vezes mais barato a cada cinco anos, modelos poderosos de código aberto funcionarão em hardware modesto; tornando o AGI acessível a todos.
Seu lema: “IA para Todos.”
Schmidhuber defende tratar sistemas curiosos e autoaprendizes como crianças, com limites, recompensas e orientação. Embora não possamos garantir resultados perfeitos, podemos orientá-los na direção certa. Em vez de temer futuros distópicos, ele nos exorta a focar nos benefícios do mundo real, desde a saúde até a química, e a construir IA ética e transparente que escale de forma responsável.
A visão de Schmidhuber alinha-se de perto com os valores de abertura, responsabilidade e acesso descentralizado da Qubic.
Riscos Governamentais e Corporativos: IA em Foco
Enquanto o futuro do AGI permanece debatido, as aplicações atuais de IA em ambientes governamentais e corporativos já levantam bandeiras vermelhas éticas.
Arsenal de IA da Palantir
Palantir está na vanguarda da defesa impulsionada por IA. Seu Sistema de Acesso Direcionado à Inteligência Tática (TITAN) usa IA para tomar decisões em frações de segundo, desde identificar alvos até planejar estratégias de batalha (CNBC, 2025). Imagine um drone guiado por IA, escolhendo quem é uma ameaça em milissegundos.
A Palantir afirma que seus sistemas são auditáveis e seguros. Mas o que acontece se a IA interpretar mal os dados ou ignorar comandos humanos? O campo minado ético da IA militar é exatamente o motivo pelo qual Aigarth exclui o uso militar.
Dilema Ético da Microsoft
A Microsoft oferece outro conto de advertência. Em 2021, garantiu um contrato de 21,9 bilhões de dólares para fornecer ao Exército dos EUA fones de ouvido AR baseados no HoloLens, aumentando a conscientização dos soldados no campo de batalha. Mais de 50 funcionários se opuseram, argumentando que a tecnologia ajudaria as pessoas a matar e transformaria a guerra em um jogo.
Os princípios de IA Responsável da Microsoft, justiça, segurança, transparência, ideais sólidos. Mas quando aplicado a ferramentas militares, sua integridade é desafiada. Isso reflete uma tensão mais ampla entre a ambição corporativa e a responsabilidade ética.
Na Qubic, esses exemplos servem como advertências. O design aberto e descentralizado de Aigarth garante responsabilidade à nossa comunidade; não a contratantes militares ou ganhos trimestrais.
Ecoando do AI for Good Summit 2025
O Encontro Global AI for Good da ONU em Genebra teve como objetivo destacar o potencial da IA para o bem global. Mas a controvérsia surgiu antes mesmo de começar.
Poucas horas antes de sua palestra principal, Abeba Birhane, fundadora do TCD AI Accountability Lab e uma das “100 Pessoas Mais Influentes na IA” da TIME, foi informada de que deveria censurar seu discurso. Os organizadores pediram que ela removesse referências a “Palestina” e “Israel”, substituísse “genocídio” por “crimes de guerra” e cortasse um slide expondo a extração em massa de dados da Meta. Eles até sugeriram rebaixar sua apresentação para uma conversa informal.
Birhane recusou-se a se submeter. Ela entregou sua palestra visivelmente abalada, mas firme. Estivemos lá. Foi um lembrete claro de que, mesmo sob a bandeira de “IA para o Bem”, interesses poderosos ainda tentam suprimir verdades inconvenientes.
A Evolução da Aigarth
Aigarth não é apenas mais um modelo; é um experimento vivo em inteligência.
Desde dezembro de 2024, temos treinado Aigarth através de um processo de aprendizado evolutivo. Começa com tarefas básicas como adição. Através da competição e adaptação, as IAs mais fortes sobrevivem e enfrentam desafios mais difíceis.
Sua estrutura dupla, um módulo executando tarefas e outro reescrevendo seu próprio código, permite que aprenda de forma autônoma e gere até novos agentes de IA.
No Summit de Genebra, um pesquisador do Japão comentou: “Aigarth não está apenas aprendendo - está aprendendo como aprender melhor.”
Diferente de LLMs ou modelos preditivos estáticos como o JEPA, Aigarth se adapta dinamicamente. Impulsionada pela rede descentralizada da Qubic, é escalável, transparente e livre da influência das Big Tech. Essa abordagem nos aproxima da verdadeira inteligência geral—onde a IA não apenas simula inteligência, mas a compreende.
Junte-se à Jornada
O futuro da IA ainda não está escrito. Na Qubic, estamos construindo uma AGI que é ética, aberta e liderada pela comunidade.
Aigarth não é apenas uma tecnologia—é um movimento. Um que coloca as pessoas e os princípios em primeiro lugar.
Convidamos você a fazer parte dessa jornada. Junte-se à nossa comunidade global de pesquisadores, sonhadores e construtores que acreditam que o AGI deve servir a toda a humanidade.
Atualizações Semanais Todas as Sextas às 12 PM CET
Siga-nos no X @Qubic
Saiba mais em qubic.org
Inscreva-se na Newsletter AGI para o Bem (insira o código de newsletter hubspot)
— Jose Sanchez e Daniel Díez, Assessores Científicos da Qubic
Citações:
Site Oficial da Qubic: qubic.org
Entrevista com Abeba Birhane – Bulletin of the Atomic Scientists

