Uma brevíssima história da Inteligência Artificial: de Leibniz a Turing, e até hoje

Cientistas e pensadores têm trabalhado em inteligência artificial desde muito antes do que se imagina. Seu objetivo sempre foi desenvolver máquinas que pudessem aprender e pensar como humanos. Esse artigo apresenta uma (brevíssima) história dessa busca.

Cientistas e pensadores têm trabalhado em inteligência artificial desde muito antes do que se imagina. Seu objetivo sempre foi desenvolver máquinas que pudessem aprender e pensar como humanos. A história da inteligência artificial remonta à antiguidade, com filósofos refletindo sobre a ideia de que seres artificiais, homens mecânicos e outros autômatos existiriam, ou poderiam existir de alguma forma. Deixando de lado detalhes históricos, poderíamos pensar em grandes datas simbólicas, como as seguintes:

1308: As Rodas da Inteligência
O poeta e teólogo catalão Ramon Llull publica sua Ars Magna Generalis Ultima (Suprema Arte Geral), aperfeiçoando seu método de usar meios mecânicos baseados em rodas de papel para criar novos conhecimentos a partir de combinações de conceitos.
1666: O conhecimento combinatórioO matemático e filósofo Gottfried Leibniz publica Dissertatio de Arte Combinatoria, seguindo Ramon Llull ao propor um alfabeto do pensamento humano e argumentando que todas as idéias poderiam ser vistas como combinações de um número relativamente pequeno de conceitos simples. Sua ambição era chegar à characteristica universalis, a linguagem perfeita para se obter uma representação direta das ideias.
Início dos anos 1700: O Engine
Representações de máquinas oniscientes semelhantes a computadores começam a ser mais amplamente discutidas na literatura popular. O romance “Viagens de Gulliver”, de Jonathan Swift, mencionava um dispositivo chamado Engine, que pode ser considerado uma das primeiras referências à tecnologia moderna, especificamente a um computador.
1936: A Máquina de Turing
O matemático britânico Alan Turing propõe o primeiro modelo de um computador universal, conhecido como como “máquina de Turing”, que é capaz de executar processos cognitivos, desde que eles possam ser divididos em múltiplos passos individuais e representados por um algoritmo. Ao publicar suas ideias, Turing estabelece as bases para o que chamamos da computabilidade e da inteligência artificial moderna.

Seu artigo intitulado Computing Machinery and Intelligence abriu as portas para o campo que seria chamado de IA, embora isso tenha ocorrido anos antes de a comunidade adotar o termo Inteligência Artificial, cunhado pelo cientista John McCarthy. Turing propôs também um método para avaliar se as máquinas podem pensar, o que veio a ser conhecido como o Teste de Turing. Este teste adota uma abordagem pragmática simples, supondo que, quando um computador pudesse ser indistinguível de um ser humano em uma sequência de perguntas e respostas, então as máquinas poderiam ser consideradas como pensantes.

A partir dos anos 50 muitos cientistas, programadores, lógicos e teóricos ajudaram a solidificar a compreensão moderna da inteligência artificial. A cada nova década surgiam inovações e descobertas que mudaram o conhecimento fundamental das pessoas sobre o campo da inteligência artificial. Avanços históricos levaram a IA do patamar de uma fantasia inatingível, para uma realidade tangível.

1956: A história contemporânea começa e o termo “IA” é cunhadoNo verão de 1956, os cientistas se reuniram para uma conferência no Dartmouth College, em New Hampshire. Eles acreditavam que aspectos da aprendizagem, bem como outras características da inteligência humana, pudessem ser simulados por máquinas. O cientista John McCarthy propõe chamar a essa aventura de “inteligência artificial”. O primeiro programa de inteligência artificial do mundo, Logic Theorist – que conseguiu demonstrar várias dezenas de teoremas matemáticos – foi escrito durante a conferência.
1966: Nascimento do primeiro chatbot
ELIZA, o primeiro programa de computador para processamento de linguagem natural, foi criado em 1966 no Laboratório de Inteligência Artificial do MIT por Joseph Weizenbaum. ELIZA representa diálogos entre um usuário humano e um psicoterapeuta Rogeriano artificial. A simplicidade dos meios necessários para que ELIZA crie a ilusão de um parceiro de conversação humana é surpreendente, e ajuda o sonho de se chegar à IA.
1970: Por duas décadas, o “Inverno da IA”
A partir dos anos 70, apesar de algum otimismo, a indústria da IA entra em um período descrito como AI Winter, ou “Inverno da IA”. A frase foi tirada do “Inverno Nuclear”, uma teoria segundo a qual explosões nucleares apagariam o sol com fumaça e poeira, causando a queda das temperaturas globais, congelando a terra e extinguindo a humanidade. De fato, durante o Inverno da IA as atividades comerciais e científicas ligadas à IA diminuíram drasticamente. De certo modo, a IA ainda está se recuperando do inverno que durou quase duas décadas.
1997: Um computador vence o campeão mundial de xadrez
O computador Deep Blue da IBM derrota o então campeão mundial de xadrez Garry Kasparov em um torneio. Este é considerado um sucesso histórico em uma área anteriormente dominada por seres humanos. Os críticos, no entanto, encontraram falhas no Deep Blue, que no fundo ganhou por mera força bruta, calculando todos os movimentos possíveis, ao invés de trabalhar com inteligência cognitiva.
2011: “Watson” da IBM vence um show de perguntas
O programa de computador Watson compete em um programa de perguntas na televisão dos EUA sob a forma de um símbolo animado na tela, e vence os jogadores humanos. Ao fazê-lo, o Watson mostrou ser capaz de entender a linguagem natural, e ser capaz de responder rapidamente a perguntas complexas.
2015: A advertência
Elon Musk, Stephen Hawking e Steve Wozniak, entre outros 3.000 cientistas e cidadãos do mundo todo, assinam uma carta aberta pregando a proibição do desenvolvimento e uso de armas autônomas (para fins de guerra).
2015-2017: AlphaGo
O sistema AlphaGo do Google DeepMind, um programa de computador baseado em redes neurais especializado no jogo de tabuleiro Go, derrota vários campeões humanos.

AlphaGo é tido por muitos como um verdadeiro triunfo da IA. Mas será realmente inteligente um sistema que aprende com milhares de repetições e não oferece nenhuma explicação para o que faz?

2017: O debate simbólico versus conexionista
Isso tudo iniciou um grande debate em duas vertentes da IA. Por um lado, a Inteligência Artificial simbólica, conhecida como Good Old Fashioned AI (GOFAI), ou “Boa e Antiquada IA”, utiliza strings (sequências ou cadeias de símbolos) que representam entidades ou conceitos do mundo real. Essas cadeias são armazenadas manualmente ou incrementalmente em uma base de dados, e ficam disponíveis como representação dos fatos e regras memorizados, acionadas por lógica proposicional ou técnicas de cálculo de predicados de primeira ordem. Por outro lado, a Inteligência Artificial conexionista executa suas tarefas a partir de dados ambientais brutos, usando em geral correlações probabilísticas.

O grande assunto do momento é o Machine Learning, ou aprendizado de máquina, que em geral combina o enfoque simbólico e o conexionista. A proposta é criar algoritmos de auto-aprendizado para permitir que desenvolvedores e programadores resolvam problemas sem criar modelos específicos. Esta proposta, contudo, é vista por muitos críticos como anti-científica, no sentido em que despreza teorias científicas para se apoiar em meras correlações sem o nexo de causa e efeito, que por séculos guiou o método científico. O futuro trará mais surpresas…

Referências:

  • Alan Turing,1936. On Computable Numbers with an Application to the Entswcheidungsproblem. http://www.abelard.org/turpap2/tp2-ie.asp
  • Alan Turing, 1950. Computing Machinery and Intelligence. Mind 49,433 –460.
  • John Searle, 1980. Minds, Brains, and Programs. Behavioral and Brain Sciences 3, 417-424

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.