Google diz que sua IA seria medalha de ouro na Olimpíada de Matemática

Somente agora comecei a ver IA’s que resolvem equações do 2º grau com coeficientes complexos…
E que demonstram alguns teoremas da Álgebra Abstrata.
Mas as IA’s ainda são péssimas em tópicos avançados de Matemática.

Se não for 100% não é nada.

Um programa de computador, que não importa o que aconteça, permanece com toda a informação recebida armazenada conseguir atingir os 84% de uma prova, que nem os programadores conseguiriam responder, isso pra mim não é merecimento de exaltação.

e ainda tem mais:

Eles precisam dar uma ajudinha para o programa quando de 45 desmembraram para 50, e ainda assim ele acertou só 42, vai ver que as 8 que não desmembraram ele não soube responder.

Operações lógico-matemáticas precisam, no mínimo, de um ALU (Arithmetic and Logical Unit). Hoje, Transformers (não os do desenho/filme) simplesmente não têm um ALU, são algoritmos de Markov Chain “sob efeito de anabolizantes”, e Markov Chains tratam da probabilidade, não da objetividade.

Não desmerecendo as LLMs porque são úteis pra muitas coisas, mas a realidade é essa: as contas que o LLM “sabe” fazer nada mais são que o Markov Chain entrando em ação: a sentença "1 + 1 = ", dentro de todas as probabilidades mapeadas, tem uma probabilidade significativa de ser seguida por “2”.

Poderiam integrar um ALU a um transformer? Talvez, mas aí precisaria que o transformer tivesse um neuron especificamente mapeado para “invocar” funções do ALU, mais ou menos como um INT xx faz no Assembly invocando um interruptor específico para uma função específica. Na realidade, só um ALU não seria suficiente, já que para números decimais, a representação de ponto flutuante (IEEE 754) é extremamente imprecisa. Há o BigDecimal/BigInt para tais situações, que é meio que uma camada de abstração em cima de operações básicas no ALU, representando um número como uma array/string e fazendo cálculos diretamente com os dígitos. Só que isso envolveria mais um “mapeamento” necessário para invocar suas funções. É mais ou menos como um macaco com uma calculadora, com parte das funções cognitivas do macaco “mapeadas” para lidar com entrada e saída da calculadora.

Na realidade, algo similar já existe: a integração do WolframAlpha com LLMs como ChatGPT e Gemini. O LLM “repassa” um input curado para o WolframAlpha que então vai usar suas funções ALU e camadas abstrações para realizar os cálculos, e então seu output é injetado no contexto do LLM, que vai “autocompletar” em cima desse contexto. Mas acho que não é suficiente.

Enfim, ainda falta muito pra melhorar. Talvez, só talvez, se deixassem de focar no lucro e nos shareholders, e passassem a focar em fatores como “contribuição científica e humana”, a AGI de fato estaria mais próxima de ocorrer.

1 Like