Joseph Jacotot acreditava que todo ser humano era igualmente inteligente — e que qualquer um, desde que quisesse, era capaz de aprender tudo o que outro havia aprendido. Foi essa convicção radical que o levou a abdicar da explicação e confiar no impulso silencioso da vontade. Seu experimento com estudantes flamengos, já discutido nos posts anteriores — “Aprendizagem Autodirigida: Fundamentos e Evidências Científicas“ e “A Vontade de Aprender: O Papel da Motivação na Educação“ — não foi apenas uma lição pedagógica. Foi uma defesa da liberdade intelectual como condição do aprendizado.
Hoje, num mundo dominado por algoritmos e aprendizado de máquina, uma nova figura desafia — ou espelha? — essa visão: a inteligência artificial. Ela não tem consciência, não possui desejos, não sente necessidade alguma. E ainda assim, aprende. Aprende com volumes absurdos de dados, com muito menos estrutura do que se esperava, e com níveis de eficiência que, em certas tarefas específicas, já superam os humanos.
É nesse ponto que surge o paradoxo. A IA aprende sem querer, enquanto o ser humano muitas vezes não aprende — mesmo quando precisa. A máquina avança por refinamento estatístico. O humano, por motivação e sentido. Uma não tem vontade, mas tem método. O outro tem vontade (ou poderia ter), mas vive acorrentado por sistemas que sabotam sua autonomia. E ainda assim, buscamos na IA o modelo de um aprendizado ideal. Mas ideal para quem?
Neste texto, vamos explorar os pontos de contato e ruptura entre esses dois modos de aprender: o das máquinas e o nosso. E talvez a pergunta mais importante não seja “as máquinas estão se tornando como nós?”, mas “nós estamos aprendendo a aprender como as máquinas?”
A IA Aprende?
Depende do que você chama de “aprender”.
Se você estiver pensando em alguém que lê um texto, compreende suas ideias, estabelece conexões com experiências anteriores e reformula sua visão de mundo — não, a inteligência artificial não aprende. Nem perto disso. Não há consciência, intenção ou compreensão envolvida. Mas se sua definição de aprendizado for: extrair padrões de dados para prever ou gerar resultados futuros com mais precisão — então sim, a IA aprende. E aprende rápido.
Na prática, o que chamamos de aprendizado de máquina é um conjunto de técnicas computacionais, como mostram Goodfellow, Bengio e Courville (2016), que permitem a um sistema ajustar seus próprios parâmetros com base em dados de entrada. Esse ajuste é feito não por compreensão semântica, mas por otimização matemática: o sistema reduz seus erros ao longo do tempo, com base em um critério pré-estabelecido.
As abordagens mais comuns são três:
- Aprendizado supervisionado, em que o algoritmo recebe pares de entrada e saída previamente rotulados e aprende a modelar as relações estatísticas entre eles. Esse é o caso clássico de classificação de imagens ou predição de valores.
- Aprendizado não supervisionado, onde não há rótulos, e o sistema tenta organizar os dados por similaridade, revelando padrões ocultos — algo muito útil em sistemas de recomendação, por exemplo.
- Aprendizado por reforço, como descrito por Sutton e Barto (2018), em que o agente interage com um ambiente, recebe recompensas por certas ações e penalidades por outras, e aprende políticas ótimas para maximizar o retorno. Foi com essa técnica que AlphaZero aprendeu, a partir do zero, a vencer campeões humanos em jogos como xadrez e Go (SILVER et al., 2017).
Em todos esses casos, o aprendizado ocorre sem qualquer representação de sentido. A IA não sabe por que uma decisão é boa. Ela apenas calcula que é a mais provável de gerar a saída desejada, com base em milhões de ajustes internos. LeCun, Bengio e Hinton (2015) descrevem esse processo como camadas de abstração estatística — não cognitiva. A IA constrói representações úteis, mas não compreende.
É por isso que Melanie Mitchell (2019) insiste que chamar isso de “inteligência” pode ser enganoso. O que temos não é cognição, mas compressão estatística. A IA aprende como quem memoriza padrões para repetir com eficiência, não como quem constrói significado a partir da experiência.
E, no entanto, essa eficiência fria e sem sentido encontra eco no nosso próprio sistema educacional. Quantas vezes o que chamamos de “aprender” é apenas repetir, passar na prova, cumprir a tarefa, otimizar o desempenho? Quantas vezes humanos, colocados sob pressão, aprendem como máquinas — sem compreender, apenas ajustando seu comportamento ao que se espera?
A pergunta, então, se inverte: será que as IAs estão aprendendo como humanos? Ou estamos treinando humanos para aprender como IAs?
A Autonomia sem Consciência
Em 2017, a equipe da DeepMind publicou na Nature um artigo que surpreendeu o mundo: o AlphaZero, um sistema de aprendizado por reforço, havia aprendido a jogar xadrez, shogi e Go em poucas horas — e vencido os melhores programas do mundo, incluindo o lendário Stockfish, sem jamais ter visto uma única partida humana (SILVER et al., 2017). O feito era impressionante. Mas o mais inquietante talvez seja outro fato: AlphaZero fez tudo isso sem entender uma única regra no sentido humano da palavra. Nunca soube o que é uma torre, um xeque-mate, ou uma vitória. Ele apenas agiu, observou as consequências e ajustou seu comportamento com base em recompensas abstratas.
O que AlphaZero nos mostra — assim como outros modelos autônomos como GPT-4, Midjourney ou agentes de navegação em ambientes 3D — é que é possível alcançar desempenho funcional sofisticado sem qualquer consciência, intenção ou motivação. A autonomia da IA, nesse contexto, é operacional, não existencial. Ela escolhe ações, sim, mas não porque deseja algo. Ela “decide” porque foi programada para maximizar um critério — e dentro desse critério, ela testa, erra, adapta e refina. Tudo isso sem saber que está fazendo isso.
A expressão mais clara desse fenômeno está no campo do aprendizado por reforço, como sistematizado por Sutton e Barto (2018). A IA é recompensada por comportamentos que se aproximam de um objetivo — por exemplo, alcançar a meta em um jogo ou minimizar o tempo de resposta em uma tarefa. Não há representação de propósito. Apenas um mecanismo de retroalimentação que molda o comportamento de forma cada vez mais eficiente. Como uma marionete que puxa os próprios fios, mas sem saber que está em um teatro.
Isso cria um paradoxo fascinante. A IA pode ser mais autônoma em ação do que muitos seres humanos — porque ela precisa menos de explicações, menos de motivação, menos de supervisão. Mas essa autonomia não se traduz em compreensão, nem em sentido. Ela age bem, mas não sabe por quê. Ela não tem consciência de si, nem do mundo ao seu redor.
E é aí que a comparação com a aprendizagem humana se torna desconfortável. Em contextos educacionais altamente padronizados, o comportamento esperado do aluno muitas vezes se aproxima desse modelo: executar tarefas, atingir metas, seguir rotinas, sem necessariamente entender os porquês. A autonomia desaparece — não porque o aluno não seja capaz de pensar por si, mas porque o sistema exige que ele apenas funcione.
A autonomia, quando reduzida ao desempenho, perde sua dimensão mais importante: a liberdade de escolher o que vale a pena aprender e por que. Na IA, isso nunca esteve em jogo. Nos humanos, deveria estar. Mas em muitos ambientes, a educação ensina mais a se comportar como um sistema eficiente do que como uma consciência em busca de sentido.
Foi exatamente contra essa lógica que Joseph Jacotot se insurgiu — não com discursos, mas com uma ação radical: retirando-se da função explicadora e devolvendo ao aluno o poder da escolha, da dúvida e da decisão. Seus estudantes, diante de um livro e de um enigma linguístico, não seguiram instruções. Inventaram um caminho. E esse gesto — por mais rudimentar que tenha sido — continha algo que nenhum sistema artificial é capaz de reproduzir: a consciência de estar aprendendo porque se quer, porque se precisa, porque faz sentido.
A IA pode repetir esse processo de tentativa e erro. Pode até superá-lo em velocidade e precisão. Mas falta-lhe o essencial: o desejo. O sentido. A escolha verdadeira.
Talvez esse seja o maior risco da aproximação entre aprendizagem humana e artificial: confundir capacidade de ação com autonomia plena. Porque agir bem sem consciência não é sinal de inteligência superior. É apenas sinal de que fomos eficazes demais em transformar aprendizado em automatismo — e negligentes demais em preservar a liberdade de aprender por vontade própria.
A Vontade que as Máquinas Não Têm
A essa altura, já está claro que a inteligência artificial pode agir de forma autônoma, adaptar-se ao ambiente e até superar humanos em tarefas específicas. Mas há algo que ela não pode fazer — e que talvez nunca consiga: desejar. A máquina não tem vontade. Não sente curiosidade, não teme o fracasso, não busca sentido. Ela simplesmente calcula.
E é aqui que a comparação com o aprendizado humano chega a seu limite mais decisivo. Porque o ser humano, quando aprende de verdade, não está apenas ajustando comportamento. Está construindo significado. Está lidando com perguntas que, muitas vezes, nem sabe formular direito. Está aprendendo porque quer entender. E esse “querer” não pode ser simulado. Ele não pode ser reduzido a uma função de otimização.
A vontade é o motor oculto da aprendizagem humana. Sem ela, a inteligência permanece dormente. Foi isso que Jacotot descobriu quando retirou de seus alunos qualquer instrução e confiou apenas em sua vontade de compreender. Não lhes deu metas, nem recompensas. Deu-lhes um enigma e a liberdade de enfrentá-lo. O que os moveu não foi um algoritmo de reforço, mas o impulso silencioso de fazer sentido do mundo.
A neurociência, como vimos no post anterior, tem nos mostrado que a motivação não é um mero capricho subjetivo. Ela tem base biológica, estrutural. A liberação de dopamina não acontece automaticamente. Ela depende da percepção de que vale a pena agir. Ou seja, de que o esforço tem direção, e essa direção tem valor.
Nenhuma IA sente isso. Ela não pondera o sentido da tarefa, nem hesita diante da dúvida. O esforço, para ela, não tem custo emocional. Já para nós, sim. Aprender exige vulnerabilidade, abertura, risco. Exige confrontar a ignorância — não como falta de dados, mas como ausência de compreensão. A IA não se importa com nada disso. Mas nós nos importamos. E é justamente essa capacidade de se importar que torna o aprendizado humano tão profundo — e tão frágil.
Mas quando passamos a estruturar nossos sistemas educacionais como se aprender fosse apenas executar tarefas e atingir metas, começamos a apagar essa diferença fundamental. Agimos como se bastasse oferecer estímulos externos — provas, rankings, prêmios, ameaças — para produzir aprendizado. Como se a vontade fosse dispensável, substituível por condicionamento. E, nesse processo, passamos a tratar seres humanos como se fossem sistemas de otimização. Recompensamos resultados, padronizamos trajetórias, impomos rotinas. E aos poucos, sem perceber, sufocamos aquilo que faz do aprendizado uma escolha e não um reflexo: a vontade.
Jacotot não era um tecnófobo — até porque viveu muito antes da era digital. Mas seu gesto, lido hoje, funciona como um antídoto pedagógico contra o reducionismo computacional: ninguém aprende de verdade apenas porque pode. Aprende porque quer. Porque algo, lá dentro, pulsa como necessidade ou desejo. Porque, ao contrário das máquinas, nossa inteligência não basta — ela precisa de direção. E a direção só vem quando há vontade.
Mas mesmo as máquinas, que não desejam nem compreendem, nos confrontam com um dilema que vai além da vontade: a ausência de consciência do como. Quando admiramos a eficiência dos sistemas de IA, é fácil esquecer que eles operam com um tipo de opacidade radical — não apenas porque não querem, mas porque não podem explicar o que fazem. E isso, por contraste, revela uma das qualidades mais distintivas do aprendizado humano: a inteligibilidade.
A Opacidade que as Máquinas Não Conseguem Explicar
Há um paradoxo inquietante na forma como tratamos a inteligência artificial. Por um lado, admiramos sua capacidade de aprender sozinha, sem instruções explícitas. Por outro, não conseguimos explicar exatamente como ela aprende. É o chamado problema da caixa-preta — fenômeno em que, mesmo conhecendo os dados de entrada e os resultados de saída, não sabemos com clareza o que acontece no interior dos modelos mais complexos, como as redes neurais profundas (GOODFELLOW et al., 2016; LE CUN et al., 2015).
Esse não é um detalhe técnico. É uma ruptura epistemológica. Estamos criando sistemas que tomam decisões — inclusive com impactos sociais, jurídicos e econômicos — sem que nem mesmo seus desenvolvedores consigam dizer, com segurança, por que aquela decisão foi tomada. A IA aprende, sim, mas sem nenhuma capacidade de justificar seu processo de aprendizagem. Ela ajusta bilhões de parâmetros, reorganiza pesos e ativa padrões em camadas internas que só podem ser interpretadas de forma estatística — nunca experiencial. Em termos práticos: ela “sabe fazer”, mas não sabe explicar.
O contraste com a aprendizagem humana é gritante. Quando uma pessoa aprende algo de forma significativa, ela não apenas reproduz o conteúdo — ela é capaz de descrever o percurso, de justificar escolhas, de identificar dúvidas e reorganizar saberes. Mesmo quando o aprendizado é intuitivo, ainda há possibilidade de metacognição — ou seja, pensar sobre como se aprendeu. Esse é um traço essencial da inteligência humana: sua inteligibilidade.
E é exatamente aí que Jacotot nos reaparece — como símbolo de uma pedagogia que não apenas confia na capacidade de aprender, mas na capacidade de dar conta do próprio percurso de aprendizagem. Seus alunos, ao escreverem em francês com base em um texto que haviam lido por conta própria, não apenas repetiram estruturas linguísticas. Eles produziram sentido. E essa produção podia ser narrada, discutida, reformulada.
A IA não faz isso. Ela entrega resultados, não justificativas. E o risco, ao trazermos essa lógica para o campo da educação, é reforçarmos um modelo de aprendizagem voltado apenas para desempenho — onde o como e o por quê se tornam irrelevantes, desde que o resultado esteja dentro da curva.
Mas aprender, como vimos em toda esta série, é mais do que otimizar. É compreender, refinar, duvidar, justificar. É poder narrar o próprio caminho. A opacidade da IA nos serve como alerta: se não preservarmos a inteligibilidade do aprendizado humano, talvez acabemos apenas imitando aquilo que admiramos — sem perceber que, no fundo, isso nos torna menos humanos.
Conclusão — Aprender ou Otimizar?
No fundo, a inteligência artificial nos obriga a encarar uma pergunta desconfortável: o que exatamente valorizamos no aprendizado? A precisão? A eficiência? O desempenho mensurável? Se for isso, talvez devêssemos admitir que as máquinas já nos superaram — e que continuarão a fazê-lo. Elas não se cansam, não se distraem, não duvidam de si mesmas. Aprendem mais rápido, com menos hesitação, e sem precisar de motivação, afeto ou contexto.
Mas será que isso é aprender, no sentido humano da palavra?
Jacotot nos diria que não. Que aprender é um gesto de liberdade, não de obediência a algoritmos. Que é preciso querer — e querer não se reduz a função de erro mínimo ou ajuste de parâmetros. A máquina que joga xadrez melhor que qualquer pessoa nunca entendeu o que significa perder. O estudante flamengo, diante do texto em francês, entendeu. Porque seu esforço não era só técnico — era existencial.
A IA nos convida a revisar nossas práticas, nossos currículos, nossas formas de avaliação. Mas há um risco: o de adotarmos a lógica da máquina como ideal da pedagogia. De esquecermos que aprender, para nós, não é apenas acumular acertos — é transformar-se. E transformação exige sentido. Exige afeto. Exige vontade.
Estamos ensinando as máquinas a aprender como nós? Ou estamos ensinando a nós mesmos a aprender como máquinas?
Ou — pior — estamos abdicando de vez da nossa prerrogativa de aprender, delegando à IA o esforço, a dúvida e até o pensamento?
Jacotot entregou um livro a seus alunos e saiu da frente. Não porque tivesse desistido de ensinar, mas porque descobriu que aprender era algo que só o outro podia fazer por si. A inteligência artificial pode nos ajudar em muitas tarefas — mas não pode fazer isso por nós. Ela não nos substitui no aprendizado. Só nos substitui se desistirmos de aprender.
Referências
- GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep Learning. [S.l.]: MIT Press, 2016. Disponível em: <https://www.deeplearningbook.org/>. Acesso em: 16 mai. 2025.
- LAKE, Brenden M. et al. Building machines that learn and think like people. Behavioral and Brain Sciences, v. 40, p. e253, jan. 2017. Disponível em: <https://www.cambridge.org/core/journals/behavioral-and-brain-sciences/article/building-machines-that-learn-and-think-like-people/A9535B1D745A0377E16C590E14B94993>. Acesso em: 16 mai. 2025.
- LECUN, Yann; BENGIO, Yoshua; HINTON, Geoffrey. Deep learning. Nature, v. 521, n. 7553, p. 436–444, maio 2015. Disponível em: <https://www.nature.com/articles/nature14539>. Acesso em: 16 mai. 2025.
- MARVIN LEE MINSKY. The society of mind. [S.l.]: Simon & Schuster; Pages Bent edition, 1986. Disponível em: <http://archive.org/details/societyofmind00mins>. Acesso em: 16 mai. 2025.
- MITCHELL, Melanie. Artificial Intelligence: A Guide for Thinking Humans. [S.l.]: Farrar, Straus and Giroux, 2019. Disponível em: <http://gen.lib.rus.ec/book/index.php?md5=1bc25d606db058532dbada0905554562>. Acesso em: 16 mai. 2025.
- PEDREGOSA, Fabian et al. Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, v. 12, n. 85, p. 2825–2830, 2011. Disponível em: <http://jmlr.org/papers/v12/pedregosa11a.html>. Acesso em: 16 mai. 2025.
- RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 4th. ed. [S.l.: S.n.]. Disponível em: <https://books.ms/main/8DE6D0FE6A16921C5776BB98231CE45E>. Acesso em: 16 mai. 2025.
- SILVER, David et al. Mastering the game of Go without human knowledge. Nature, v. 550, n. 7676, p. 354–359, out. 2017. Disponível em: <https://www.nature.com/articles/nature24270>. Acesso em: 16 mai. 2025.
- SUTTON, Richard S.; BARTO, Andrew G. Reinforcement learning: an introduction. Cambridge, Mass: MIT Press, 1998. Disponível em: <https://www.andrew.cmu.edu/course/10-703/textbook/BartoSutton.pdf>. Acesso em: 16 mai. 2025.
- TURING, A. M. I.—COMPUTING MACHINERY AND INTELLIGENCE. Mind, v. LIX, n. 236, p. 433–460, 1 out. 1950. Disponível em: <https://doi.org/10.1093/mind/LIX.236.433>. Acesso em: 16 mai. 2025.
Este conteúdo foi produzido em parceria com o ChatGPT, uma ferramenta de inteligência artificial generativa da OpenAI.
Imagem de capa gerada pelo Midjourney, uma ferramenta de inteligência artificial generativa da Antrophic.