> http://nautil.us/issue/67/reboot/why-robot-brains-need-symbols
O artigo inspira um pouco de compaixão. Pobre Marcus. Argumentando
contra o sucesso.
Quem conhece um pouco da história da IA, e, portanto, entendeu a piada[1]
de Jeff Dean, sabe que, na verdade, a frase deveria ser:
All I am saying is to give Ps (and Qs) *another* chance.
Na época, anos 60 e 70, o dinheiro fluía para a pesquisa dos
simbolistas. Como quase todos cientistas, eles também inflavam a
significância e prospectos das suas pesquisas e descartavam
arrogantemente as críticas de quem não fosse especialista.
Nada fora do normal.
Marcus costumava dizer que o sucesso dos métodos conexionistas estariam
limitados aos âmbitos de classificação (principalmente na área de
percepção). O jogo de GO, no entanto, sempre foi considerado um marco
importante em IA, algo que envolveria não somente poder analítico, mas
também "intuição". Na véspera do torneio entre AlphaGo e Lee Sedol em
2016, Marcus reclamou[2] que o método não era geral o suficiente pois,
além de serem treinadas em jogos humanos, as redes neurais eram
auxiliadas por MCTS e outras técnicas calibradas especificamente para o
jogo de GO.
Algum tempo depois, DeepMind divulgou os resultados do AlphaGo Zero[3]
com um algorítimo muito mais geral. Marcus, meio pateticamente, devo
reconhecer, reclama que o artigo dedica "vastly greater attention to its
strengths than its *potential* limitations" e "*appears to imply*
similarly limitless horizons for deep-reinforcement learning" (minhas
ênfases). Quem acompanhou as declarações da equipe DeepMind durante a
cobertura do AlphaGO e leu imparcialmente os artigos que saíram na
Nature, sabe que não há nada aqui além, talvez, da falácia do
espantalho.
Há, sem dúvida, pontos fracos nesse tipo de algorítimo. Especialmente, o
que Marcus descreveu no seu sumário argumentativo: "These models cannot
generalize outside the training space". Isso significa que, embora o
algorítimo desempenhe de forma excelente na esmagadora maioria dos casos,
podem haver "brechas", isto é, situações inesperadas pelo algorítimo que
o levem a cometer erros elementares.
Um exemplo interessante aconteceu durante o desafio AlphaGO vs Lee
Sedol.
Durante a quarta[4] partida, após a jogada n. 78, AlphaGO, que até então
parecia ter capacidade sobre-humana, ficou confuso. Seu desempenho
piorou gradativamente até que a máquina foi forçada a conceder a
partida. A jogada n. 78[5], embora brilhante, não funciona. Existe uma
variação, em meio a dezenas de outras, que manteria a vantagem de
AlphaGO, algo que seres humanos perceberam, após algum tempo de análise,
sem muita dificuldade. O interessante é que, mesmo após AlphaGO ficar
confuso e começar a cometer erros elementares, os comentadores ficaram
receosos[6] em afirmar que AlphaGO errava, pois até então a máquina
apresentara um desempenho formidável e, anteriormente, muitas das suas
jogadas que pareciam equívocos acabavam se revelando esplêndidas e
criativas[7] (a este ponto, muitos comentaristas já se referiam a
AlphaGO como "he" ou "she" em vez de "it").
Hassabis havia expressado planos de aplicar técnicas usadas no
desenvolvimento do AlphaGO no âmbito da saúde. Em entrevista à imprensa
após a partida, um repórter da NHK perguntou[8] a Hassabis se defeitos
ou brechas como aquelas reveladas pela jogada n. 78 não o preocupavam.
Em combinação com o ponto feito por Marcus, essa questão de fato revela
algo crucial: Em casos de aplicação em cenários graves, nenhum volume de
testes pode garantir a precisão e a ausência de brechas em ditos
"métodos estatísticos".
Por outro lado, sistemas de IA são frequentemente submetidos a
expectativas e critérios muito mais rígidos do que seres humanos. Seres
humanos cometem erros o tempo todo, tanto em situações frívolas, como as
confusões perceptivas que raramente perdoamos em máquinas (por alguns
segundos, eu também pensei que a bola de basebol fosse um café
expresso), quanto em situações graves (de médicos a pilotos de avião).
É certo que sistemas de IA devem passar por um crivo mais severo,
principalmente porque as questões éticas de responsabilização são
diferentes para humanos e sistemas inteligentes. Mas também é certo que
nós temos uma opinião muito inflada de nós mesmos. Um exemplo disso
encontra-se nos populares argumentos estilo J. R. Lucas[9] no divertido
debate Mentes vs Máquinas. Em vista do segundo teorema de Gödel, uma
das consequências dos pressupostos implícitos do argumento é que, *dado*
um sistema formal *qualquer*, mentes humanas são inerentemente capazes
de julgar sua (in)consistência (o que parece enfim pressupor o que se
quer demonstrar, isto é, que mentes são mais poderosas que máquinas).
Contudo, mentes como a de Gottlob Frege, Alonzo Church, Jean-Yves Girard
e Per Martin-Löf, dentre outras, são indícios em contrário (todos eles
propuseram sistemas formais que se revelaram inconsistentes).
Independente de serem perfeitos, os métodos estatísticos da