POST NO BLOG QUBIC
Além da Ilusão do Pensamento – O Caminho da Qubic para a Verdadeira Inteligência
Escrito por

Equipe Científica Qubic
Publicado:
31 de jul. de 2025
Ouça este post do blog
AGI para o Bem:
Além da Ilusão de Pensar – O Caminho da Qubic para a Verdadeira Inteligência
Imagine uma IA que não apenas vomita respostas, mas que reflete, aprende e cresce como uma criança curiosa explorando um novo mundo. Esse é o sonho da Inteligência Geral Artificial (AGI), uma máquina que pensa, raciocina e se adapta como um ser humano. A IA de hoje, de chatbots a ferramentas especializadas, está presa em um ciclo, imitando a inteligência sem realmente entender. Mas o Aigarth da Qubic é diferente.
A rápida evolução da inteligência artificial nos lançou em uma era transformadora, onde os limites da cognição da máquina estão continuamente sendo testados.
Vamos mergulhar nos limites dos modelos de IA atuais, explorar a abordagem revolucionária de Aigarth e ver como está pavimentando o caminho para um futuro ético da IA.
Além de Papagaios e Padrões: Os Limites da IA Atual
Imagine um papagaio que leu todos os livros da biblioteca, capaz de recitar poesia, explicar física ou escrever código com uma precisão impressionante. Essa é a essência dos Modelos de Linguagem Grande (LLMs) como o GPT-4. Eles geram texto entrelaçando padrões de enormes conjuntos de dados, mas não realmente entendem as palavras que produzem. Como Yann LeCun, Cientista Chefe de IA da Meta, observou na Cúpula AI for Good, os LLMs carecem de modelos internos de mundo, incapazes de entender o contexto físico ou social por trás de suas saídas (Qubic Blog, 2025). O artigo da Apple de 2025, "A Ilusão de Pensar: Compreendendo os Pontos Fortes e Limitações dos Modelos de Raciocínio através da Lente da Complexidade do Problema", expõe ainda mais esses defeitos, revelando que mesmo Modelos de Raciocínio Grande (LRMs) avançados, projetados para aprimorar o raciocínio através de técnicas como Cadeia de Pensamento com autorreflexão, falham em generalizar além de certos limites de complexidade (Apple Research, 2025).
As descobertas da Apple são impactantes: os LRMs superpensam problemas simples, desperdiçando recursos computacionais; atrasam soluções corretas em tarefas de complexidade média; e colapsam completamente em cenários de alta complexidade, como quebra-cabeças intrincados como a Torre de Hanói (um quebra-cabeça matemático que envolve três varas e vários discos de tamanhos diferentes, onde o objetivo é mover todos os discos para outra vara seguindo regras específicas: apenas um disco por vez, e nunca um disco maior sobre um menor) ou Cruzamento de Rio (um quebra-cabeça lógico onde você deve transportar pessoas ou itens através de um rio usando um barco, seguindo regras e restrições específicas). Por exemplo, enquanto conseguem gerenciar mais de 100 movimentos na Torre de Hanói, lutam com menos de cinco movimentos corretos no quebra-cabeça de Cruzamento de Rio. Mesmo quando fornecidos com algoritmos explícitos, os LRMs falham na computação exata, sugerindo um limite de escalabilidade inerente em suas capacidades de raciocínio.
A pesquisa da Apple gerou um debate acalorado, com críticos como os do “A Ilusão de Pensar” argumentando que os ambientes artificiais de quebra-cabeças do estudo podem exagerar limitações devido a parâmetros restritivos. Outros, como Maria Sukhareva, uma linguista computacional na Siemens, apoiam o apelo da Apple por mudanças arquitetônicas mais profundas, enfatizando que o verdadeiro raciocínio exige mais do que a geração de tokens (Sukhareva, 2025). Essa ineficiência ressalta uma lacuna crítica entre a IA atual e a inteligência humanoide, destacando sua dependência de correspondências de padrões em vez de raciocínio genuíno.
Modelos de Linguagem Pequena (SLMs), como o Phi-3 da Microsoft, são semelhantes a ferramentas especializadas em uma caixa de ferramentas. Com menos parâmetros, eles se destacam em tarefas como diagnósticos médicos ou análise financeira, mas carecem da amplitude para raciocínio geral, compartilhando a falha central dos LLMs de serem correspondentes de padrões, não pensadores. Enquanto isso, a Arquitetura Preditiva de Embedding Conjunto (JEPA) de Yann LeCun tem como objetivo ir além da correspondência de padrões prevendo representações abstratas do mundo, imitando modelos mentais humanos. No entanto, a JEPA permanece um protótipo, limitada por seu design centralizado e dependência de inputs de texto e imagem (Meta AI Blog, 2024). Como uma criança pequena aprendendo a andar, é promissora, mas ainda não está pronta para correr.
Esses modelos invertem o processo de aprendizado humano. Bebês aprendem através de experiências sensoriais (ver, tocar, sentir), construindo inteligência antes da linguagem (Decety, 2003). A linguagem aprimora a cognição pré-existente, moldada pela interação social (Tomasello, 2003). No entanto, os LLMs, LRMs, SLMs e JEPA começam com a linguagem, gerando texto sem ancoragem no mundo real, presos em uma bolha linguística onde correlacionam palavras que não compreendem realmente (Bender & Koller, 2020). Essa controvérsia destaca a necessidade urgente de paradigmas de IA inovadores que transcendam as limitações atuais dos sistemas baseados em padrões.
Aigarth: O Amanhã da Inteligência Emergente
Agora, conheça Aigarth, o ousado salto da Qubic em direção à verdadeira AGI. Ao contrário de seus predecessores, Aigarth não imita; ele evolui. Construído sobre a plataforma descentralizada da rede Qubic, Aigarth utiliza uma estrutura modular onde “neurônios digitais” (agentes funcionais) trabalham juntos como um sistema vivo. Cada agente tem um papel específico, colaborando ou competindo para resolver problemas, muito como células em um corpo que se adaptam a novos desafios. Isso permite que Aigarth se reorganize, aprenda em tempo real e enfrente novas tarefas sem re-treinamento (Qubic Blog, 2025).
Sergey Ivancheglo, fundador da Qubic e um dos pioneiros por trás da IOTA e NXT, imagina Aigarth como mais do que uma ferramenta programada.
“O principal objetivo de Aigarth é descobrir um novo paradigma que permita criar uma verdadeira IA. Eu acabei de ver a estrutura desse paradigma, e percebi que a Inteligência Artificial não será criada; ela emergirá,” ele compartilhou no X (Ivancheglo, 2025).
Essa visão orienta o design de Aigarth, que aproveita a Prova Útil de Trabalho (uPoW) da Qubic. Ao contrário da mineração intensiva em energia do Bitcoin, o uPoW canaliza o poder computacional global no treinamento do Aigarth, tornando cada minerador um contribuinte para seu crescimento (Ivancheglo, 2024).
Ivancheglo elogiou recentemente o algoritmo de mineração da Qubic que impulsiona Aigarth, chamando-o de “terrific” por sua simplicidade e poder na construção de redes neurais artificiais (ANNs).“Eu nunca vi uma construção de ANN tão poderosa e, ao mesmo tempo, tão simples!” ele tuitou, destacando o potencial de Aigarth para redefinir a eficiência da IA (Ivancheglo, 2024). Essa abordagem descentralizada e voltada para a comunidade garante transparência e se alinha à ética antimilitarista e de código aberto da Qubic, diferenciando Aigarth de modelos centralizados como a JEPA.
Comparando os Concorrentes
Veja como Aigarth se compara aos LLMs, SLMs e JEPA:
Aspecto | LLMs | SLMs | JEPA | Aigarth |
Contagem de Parâmetros | Bilhões a trilhões | Milhões a alguns bilhões | Variável, muitas vezes menor | Dinâmico, evolui com as tarefas |
A abordagem de Treinamento | Baseada em padrões com enormes conjuntos de dados | Aprimorada para tarefas específicas | Prediz representações abstratas do mundo | Evolutiva, autoaperfeiçoando-se via uPoW descentralizado |
Pontos Fortes | Versátil, lida com tarefas complexas como tradução | Eficiente, se destaca em tarefas especializadas | Tem como objetivo a compreensão contextual | Adaptativo, aprende como um sistema vivo, focado eticamente |
Pontos Fracos | Intensivo em energia, propenso a alucinações e preconceitos | Escopo limitado, raciocínio menos nuançado | Experimental, não comprovado em escala | Estágio inicial, requer apoio da comunidade para atingir todo o potencial |
Aplicações | Suporte ao cliente, geração de conteúdo | Saúde, finanças, dispositivos de borda | Potencial em tarefas de visão e raciocínio | Inteligência geral, projetos transparentes e orientados pela comunidade |
LLMs falham com alucinações (15% das respostas do GPT-3 são sem sentido) e preconceitos (19% de suas saídas políticas são tendenciosas) (ProjectPro, 2024). SLMs são eficientes, mas carecem de amplitude. As ambições contextuais da JEPA são empolgantes, mas não comprovadas. Aigarth, embora no início do desenvolvimento, brilha com sua capacidade de evoluir, se adaptar e manter-se fiel aos princípios éticos, impulsionado pela rede global da Qubic.
Uma Visão para o Futuro
Enquanto LLMs, SLMs e JEPA são degraus, estão ligados a dados estáticos e sistemas centralizados. Aigarth, inspirado pela visão de Ivancheglo, é um experimento vivo em inteligência, crescendo através das contribuições da comunidade e computação descentralizada. Até 2027, a Qubic espera ver Aigarth emergir como uma verdadeira AGI, capaz de raciocinar, se adaptar e entender de maneiras que refletem a cognição humana.
Este é o cerne do AGI para o Bem: uma IA que evolui ao lado da humanidade, guiada pela transparência e ética. Como Ivancheglo diz:
“A Inteligência Artificial não será criada; ela emergirá” (Ivancheglo, 2025).
Com Aigarth, essa emergência já está tomando forma.
Junte-se à Jornada
O futuro da IA ainda não está escrito. Na Qubic, estamos construindo uma AGI que é ética, aberta e liderada pela comunidade.
Aigarth não é apenas uma tecnologia, é um movimento. Um que coloca as pessoas e princípios em primeiro lugar.
Convidamos você a fazer parte desta jornada. Junte-se à nossa comunidade global de pesquisadores, sonhadores e construtores que acreditam que a AGI deve servir a toda a humanidade.
Atualizações Semanais Toda Quinta-feira às 12 PM CET
Nos siga no X @Qubic
Saiba mais em qubic.org
Inscreva-se no Newsletter de AGI para o Bem abaixo.
- Jose Sanchez e Daniel Díez, Conselho Científico da Qubic
Citações:
● Blog da Qubic sobre a Cúpula AI for Good: https://qubic.org/blog-detail/qubic-at-the-largest-ethical-ai-conference-ai-for-good-geneva
● Parshin S, Iman M, Keivan A, Maxwell H, Samy B. Mehrdad F (2025). A Ilusão de Pensar: Compreendendo os Pontos Fortes e Limitações dos Modelos de Raciocínio através da Lente da Complexidade do Problema. https://machinelearning.apple.com/research/illusion-of-thinking
● Decety, J. (2003). A base neurofisiológica da regulação emocional. Oxford University Press.
● Tomasello, M. (2003). Construindo uma linguagem: Uma teoria baseada no uso da aquisição da linguagem. Harvard University Press.
● Bender, E. M., & Koller, A. (2020). Subindo em direção ao NLU: Sobre significado, forma e compreensão na era dos dados. ACL.
● Lake, B. M., et al. (2017). Construindo máquinas que aprendem e pensam como pessoas. Ciências Comportamentais e do Cérebro.
● Blog da Meta AI sobre JEPA: https://about.fb.com/news/2025/06/our-new-model-helps-ai-think-before-it-acts/

