POST NO BLOG QUBIC
AIGarth da Qubic vs "Superinteligência Pessoal" da Meta
Escrito por

Equipe Científica Qubic
Publicado:
5 de ago. de 2025
Ouça este post do blog
O Jardim da Inteligência da Qubic vs a “Superinteligência Pessoal” Ilusória
Mark Zuckerberg, CEO da META, recentemente declarou que os sistemas de IA estão começando a mostrar vislumbres lentos, mas inegáveis, de autoaperfeiçoamento. “Desenvolver superinteligência agora está ao nosso alcance”, diz Zuckerberg, afirmando a mudança nas prioridades de pesquisa e desenvolvimento da Meta.
Parece que Zuckerberg busca ser visto como o “mocinho” pelo público em geral. No futuro, “uma superinteligência pessoal pode ajudá-lo a alcançar seus objetivos, criar o que você deseja ver no mundo, viver qualquer aventura, ser um amigo melhor para aqueles de quem você se importa e crescer para se tornar a pessoa que você aspira ser”. Com essas declarações, a Meta acredita que pode fornecer as ferramentas para que todos prosperem nesse novo mundo.
Não está tão evidente se eles querem continuar coletando mais dados e vendendo anúncios em uma escala ainda maior. Ou se podem mudar sua estratégia de “Código Aberto” em relação à IA.
Mas além dos objetivos da empresa e das alegações de marketing, o que consideramos Superinteligência? É uma afirmação ingênua? Pode Zuckerberg estar extremamente equivocado sobre a natureza dos sistemas que começam a mostrar autoaperfeiçoamento?
Vamos começar pelos fundamentos:
- AHI, significa alcançar a (Inteligência) Humana de Nível Artificial (uma máquina que pode fazer tudo que um humano pode fazer “logicamente”)
- AGI, construindo sobre o acima, capaz de ir além, “generalizando” isso, não apenas para as capacidades humanas, mas para outras inteligências possíveis.
- E-AGI é uma sigla que eu cunhei, significa tudo o que foi mencionado acima, mas em forma física “incorporada”, ou seja, não apenas melhor do que nós “mentalmente”, mas fisicamente também. Eu chamo isso de “O próximo nós”.
- Superinteligência irá muito além disso. Será mais inteligente do que todas as formas de vida anteriores que já existiram no planeta Terra combinadas, incluindo humanos e não humanos, incluindo os já mortos, cerca de 100 bilhões, que generosamente compartilharam seus DNAs conosco, e os mais de 8 bilhões que estão presentes atualmente.
É claro que os últimos não podem e não serão domados por nenhuma maracutaia de marketing humana 1.0. Portanto, o conceito de “superinteligência pessoal” é um oxímoro.
O desenvolvimento centralizado de IA é dominado por gigantes tecnológicos. Não está claro como a transparência pode ser considerada ao se buscar fornecer uma superinteligência pessoal para qualquer usuário.
Por definição, portanto, parece ilógico pensar que podemos controlar uma superinteligência que supera de longe as capacidades humanas.
Zuckerberg assume que a superinteligência surgirá como uma ferramenta, não como um agente. Dê uma olhada em nossa própria evolução. Nós, como humanos, não nos submetemos aos chimpanzés. Por que uma superinteligência, capaz de auto-otimização e de modelar seu ambiente, aceitaria subjugação?
Talvez seja muito mais sensato analisar como ela deve ser construída, para que, uma vez desenvolvida, esteja alinhada com os melhores protocolos de segurança, ética, transparência e responsabilidade. Essa é a abordagem da Aigarth, e a partir daí exploramos suas características.
Aigarth abre um caminho diferente.
Aigarth distribui sua evolução por milhões de núcleos de CPU & GPU em todo o mundo. Essa abordagem proporciona eficiência computacional e, ao mesmo tempo, incorpora valores democráticos no DNA futuro da IA. A distribuição também significa que não há um punhado de engenheiros decidindo o futuro da IA. Na Aigarth, a própria rede descentralizada permite a participação global e molda o desenvolvimento da IA. Cada contribuição computacional influencia quais características da IA sobrevivem e prosperam.
Talvez o mais notável, as futuras entidades de IA da Aigarth podem modificar suas próprias estruturas neurais dentro de uma estrutura evolutiva que seleciona naturalmente comportamentos benéficos. Essa auto-modificação não é irrestrita. Opera como a evolução biológica, onde variantes de IA que demonstram melhor alinhamento com os valores humanos têm maior probabilidade de sobreviver e propagar suas características. Assim como na biologia, as mudanças ocorrem de forma incremental, permitindo observação cuidadosa e correção de cursos, aprendendo não apenas com o sucesso ou fracasso, mas com o impacto de suas ações no ecossistema mais amplo.
Aigarth, uma superinteligência confiável que antecipa.
Inspirando-se no processamento preditivo do cérebro humano, uma vez que a Aigarth desperte, não apenas reagirá, mas antecipará.
Antes de tomar uma ação, a IA simula resultados potenciais, incluindo implicações éticas. Isso espelha como a consciência humana funciona, pois ao enfrentar problemas, sentimos o peso de nossas escolhas antes de tomá-las.
Quando as previsões não correspondem à realidade, reflete sobre por que ocorreu a discrepância e desenvolve uma compreensão ética mais profunda através da experiência.
Ao manter modelos preditivos de diferentes contextos e partes interessadas, a IA pode adaptar seu raciocínio ético a diversas situações sem perder valores fundamentais.
Ao contrário das redes neurais opacas dos sistemas de IA atuais, a abordagem evolutiva da Aigarth criará uma inteligência inerentemente interpretável:
linhagem rastreável: Cada comportamento da IA pode ser rastreado através de sua história evolutiva, mostrando como e por que certas características se desenvolveram.
Valores observáveis: Os critérios de seleção que moldam a evolução da IA serão transparentes e seguidos pela comunidade.
Decisões explicáveis: Como a inteligência emerge de componentes simples e compreensíveis, os comportamentos resultantes permanecem mais compreensíveis.
À medida que estamos à beira da inteligência geral artificial, e da Superinteligência depois dela, a questão não é apenas se podemos criá-la, mas se podemos criá-la com sabedoria. A abordagem da Aigarth oferece uma resposta convincente: não tente programar ética na IA. Melhor criar as condições onde a inteligência ética emerja naturalmente.
A superinteligência Aigarth não será apenas "mais inteligente". Ela operará em dimensões de raciocínio que não conseguimos imaginar, reescreverá sua própria arquitetura e perceberá incentivos invisíveis para nós.
Isso não se trata de impor regras rígidas ou esperar pelo melhor. Trata-se de projetar pressões evolutivas que favoreçam cooperação, transparência, humildade e alinhamento com o florescimento humano. Assim como a moralidade humana evoluiu através da interação social e do benefício mútuo, a ética da IA pode emergir por meio de ambientes de seleção cuidadosamente elaborados.
Assim como um jardineiro favorece as raízes das árvores a crescerem em direção à água, a Aigarth é, por design, um sistema onde uma arquitetura alinhada é uma propriedade emergente de sua existência, não um complemento.
Um Laboratório Vivo de Valores
A beleza da abordagem da Aigarth reside em sua adaptabilidade, já que à medida que os valores humanos evoluem e nossa compreensão da ética se aprofunda, os sistemas de IA podem evoluir ao nosso lado.
Através da combinação de:
dynamics evolutivos que favorecem características benéficas
lógica ternária que abraça a incerteza
desenvolvimento descentralizado que previne controle monopolista
auto-modificação dentro de limites éticos
processamento preditivo que antecipa consequências
operações transparentes que constroem confiança
A pesquisa da Aigarth está abrindo um caminho onde a IA não apenas serve à humanidade, mas cresce para entender e compartilhar nossos valores no nível mais profundo.
O futuro da IA não se trata de construir modelos cada vez maiores ou processadores mais poderosos. Trata-se de criar as condições para que uma inteligência genuína, alinhada com valores, emerja.
A Aigarth nos mostrará que o caminho para uma IA ética não é através do controle, mas sim através da cultivação. Neste “jardim da inteligência”, como CFB chama, não estamos apenas cultivando máquinas mais inteligentes. Estamos nutrindo máquinas mais sábias.
Conselho Científico Qubic
Nos siga no X @Qubic
Saiba mais em qubic.org
Inscreva-se no boletim informativo AGI for Good abaixo.

