> http://nautil.us/issue/67/reboot/why-robot-brains-need-symbols

O artigo inspira um pouco de compaixão.  Pobre Marcus.  Argumentando
contra o sucesso.

Quem conhece um pouco da história da IA, e, portanto, entendeu a piada[1]
de Jeff Dean, sabe que, na verdade, a frase deveria ser:

All I am saying is to give Ps (and Qs) *another* chance.

Na época, anos 60 e 70, o dinheiro fluía para a pesquisa dos
simbolistas.  Como quase todos cientistas, eles também inflavam a
significância e prospectos das suas pesquisas e descartavam
arrogantemente as críticas de quem não fosse especialista.
Nada fora do normal.

Marcus costumava dizer que o sucesso dos métodos conexionistas estariam
limitados aos âmbitos de classificação (principalmente na área de
percepção).  O jogo de GO, no entanto, sempre foi considerado um marco
importante em IA, algo que envolveria não somente poder analítico, mas
também "intuição".  Na véspera do torneio entre AlphaGo e Lee Sedol em
2016, Marcus reclamou[2] que o método não era geral o suficiente pois,
além de serem treinadas em jogos humanos, as redes neurais eram
auxiliadas por MCTS e outras técnicas calibradas especificamente para o
jogo de GO.

Algum tempo depois, DeepMind divulgou os resultados do AlphaGo Zero[3]
com um algorítimo muito mais geral.  Marcus, meio pateticamente, devo
reconhecer, reclama que o artigo dedica "vastly greater attention to its
strengths than its *potential* limitations" e "*appears to imply*
similarly limitless horizons for deep-reinforcement learning" (minhas
ênfases).  Quem acompanhou as declarações da equipe DeepMind durante a
cobertura do AlphaGO e leu imparcialmente os artigos que saíram na
Nature, sabe que não há nada aqui além, talvez, da falácia do
espantalho.

Há, sem dúvida, pontos fracos nesse tipo de algorítimo.  Especialmente, o
que Marcus descreveu no seu sumário argumentativo: "These models cannot
generalize outside the training space".  Isso significa que, embora o
algorítimo desempenhe de forma excelente na esmagadora maioria dos casos,
podem haver "brechas", isto é, situações inesperadas pelo algorítimo que
o levem a cometer erros elementares.

Um exemplo interessante aconteceu durante o desafio AlphaGO vs Lee
Sedol.

Durante a quarta[4] partida, após a jogada n. 78, AlphaGO, que até então
parecia ter capacidade sobre-humana, ficou confuso.  Seu desempenho
piorou gradativamente até que a máquina foi forçada a conceder a
partida.  A jogada n. 78[5], embora brilhante, não funciona.  Existe uma
variação, em meio a dezenas de outras, que manteria a vantagem de
AlphaGO, algo que seres humanos perceberam, após algum tempo de análise,
sem muita dificuldade.  O interessante é que, mesmo após AlphaGO ficar
confuso e começar a cometer erros elementares, os comentadores ficaram
receosos[6] em afirmar que AlphaGO errava, pois até então a máquina
apresentara um desempenho formidável e, anteriormente, muitas das suas
jogadas que pareciam equívocos acabavam se revelando esplêndidas e
criativas[7] (a este ponto, muitos comentaristas já se referiam a
AlphaGO como "he" ou "she" em vez de "it").

Hassabis havia expressado planos de aplicar técnicas usadas no
desenvolvimento do AlphaGO no âmbito da saúde.  Em entrevista à imprensa
após a partida, um repórter da NHK perguntou[8] a Hassabis se defeitos
ou brechas como aquelas reveladas pela jogada n. 78 não o preocupavam.
Em combinação com o ponto feito por Marcus, essa questão de fato revela
algo crucial: Em casos de aplicação em cenários graves, nenhum volume de
testes pode garantir a precisão e a ausência de brechas em ditos
"métodos estatísticos".

Por outro lado, sistemas de IA são frequentemente submetidos a
expectativas e critérios muito mais rígidos do que seres humanos.  Seres
humanos cometem erros o tempo todo, tanto em situações frívolas, como as
confusões perceptivas que raramente perdoamos em máquinas (por alguns
segundos, eu também pensei que a bola de basebol fosse um café
expresso), quanto em situações graves (de médicos a pilotos de avião).

É certo que sistemas de IA devem passar por um crivo mais severo,
principalmente porque as questões éticas de responsabilização são
diferentes para humanos e sistemas inteligentes.  Mas também é certo que
nós temos uma opinião muito inflada de nós mesmos.  Um exemplo disso
encontra-se nos populares argumentos estilo J. R. Lucas[9] no divertido
debate Mentes vs Máquinas.  Em vista do segundo teorema de Gödel, uma
das consequências dos pressupostos implícitos do argumento é que, *dado*
um sistema formal *qualquer*, mentes humanas são inerentemente capazes
de julgar sua (in)consistência (o que parece enfim pressupor o que se
quer demonstrar, isto é, que mentes são mais poderosas que máquinas).
Contudo, mentes como a de Gottlob Frege, Alonzo Church, Jean-Yves Girard
e Per Martin-Löf, dentre outras, são indícios em contrário (todos eles
propuseram sistemas formais que se revelaram inconsistentes).

Independente de serem perfeitos, os métodos estatísticos da corrente
conexionista recentemente obtiveram grandes sucessos enquanto os almejos
simbolistas das décadas de 60 e 70 permanecem, em grande medida, como
promessas.  Impressiona que o financiamento[10], a empolgação e a
especulação pseudocientífica esteja favorecendo os conexionistas e seus
métodos de aprendizado de máquina?

Notas:

[1]  https://twitter.com/JeffDean/status/1065342676143243265

[2]  https://medium.com/backchannel/has-deepmind-really-passed-go-adc85e256bec

[3]  https://en.wikipedia.org/wiki/AlphaGo_Zero

[4]  https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol#Game_4

[5]  https://youtu.be/yCALyQRN3hw?t=11406

[6]  https://youtu.be/yCALyQRN3hw?t=12152

[7]  https://www.youtube.com/watch?v=HT-UZkiOLv8

[8]  https://youtu.be/yCALyQRN3hw?t=21327

[9]  http://users.ox.ac.uk/%7Ejrlucas/Godel/mmg.html

[10]  http://cyber-valley.de/en

-- 
Hermógenes Oliveira

"If you give someone Fortran, he has Fortran. If you give someone Lisp,
he has any language he pleases."
Guy L. Steele

-- 
Você está recebendo esta mensagem porque se inscreveu no grupo "LOGICA-L" dos 
Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um 
e-mail para logica-l+unsubscr...@dimap.ufrn.br.
Para postar neste grupo, envie um e-mail para logica-l@dimap.ufrn.br.
Visite este grupo em https://groups.google.com/a/dimap.ufrn.br/group/logica-l/.
Para ver esta discussão na web, acesse 
https://groups.google.com/a/dimap.ufrn.br/d/msgid/logica-l/87tvjmkcnw.fsf%40camelot.oliveira.

Responder a