> http://nautil.us/issue/67/reboot/why-robot-brains-need-symbols
O artigo inspira um pouco de compaixão. Pobre Marcus. Argumentando contra o sucesso. Quem conhece um pouco da história da IA, e, portanto, entendeu a piada[1] de Jeff Dean, sabe que, na verdade, a frase deveria ser: All I am saying is to give Ps (and Qs) *another* chance. Na época, anos 60 e 70, o dinheiro fluía para a pesquisa dos simbolistas. Como quase todos cientistas, eles também inflavam a significância e prospectos das suas pesquisas e descartavam arrogantemente as críticas de quem não fosse especialista. Nada fora do normal. Marcus costumava dizer que o sucesso dos métodos conexionistas estariam limitados aos âmbitos de classificação (principalmente na área de percepção). O jogo de GO, no entanto, sempre foi considerado um marco importante em IA, algo que envolveria não somente poder analítico, mas também "intuição". Na véspera do torneio entre AlphaGo e Lee Sedol em 2016, Marcus reclamou[2] que o método não era geral o suficiente pois, além de serem treinadas em jogos humanos, as redes neurais eram auxiliadas por MCTS e outras técnicas calibradas especificamente para o jogo de GO. Algum tempo depois, DeepMind divulgou os resultados do AlphaGo Zero[3] com um algorítimo muito mais geral. Marcus, meio pateticamente, devo reconhecer, reclama que o artigo dedica "vastly greater attention to its strengths than its *potential* limitations" e "*appears to imply* similarly limitless horizons for deep-reinforcement learning" (minhas ênfases). Quem acompanhou as declarações da equipe DeepMind durante a cobertura do AlphaGO e leu imparcialmente os artigos que saíram na Nature, sabe que não há nada aqui além, talvez, da falácia do espantalho. Há, sem dúvida, pontos fracos nesse tipo de algorítimo. Especialmente, o que Marcus descreveu no seu sumário argumentativo: "These models cannot generalize outside the training space". Isso significa que, embora o algorítimo desempenhe de forma excelente na esmagadora maioria dos casos, podem haver "brechas", isto é, situações inesperadas pelo algorítimo que o levem a cometer erros elementares. Um exemplo interessante aconteceu durante o desafio AlphaGO vs Lee Sedol. Durante a quarta[4] partida, após a jogada n. 78, AlphaGO, que até então parecia ter capacidade sobre-humana, ficou confuso. Seu desempenho piorou gradativamente até que a máquina foi forçada a conceder a partida. A jogada n. 78[5], embora brilhante, não funciona. Existe uma variação, em meio a dezenas de outras, que manteria a vantagem de AlphaGO, algo que seres humanos perceberam, após algum tempo de análise, sem muita dificuldade. O interessante é que, mesmo após AlphaGO ficar confuso e começar a cometer erros elementares, os comentadores ficaram receosos[6] em afirmar que AlphaGO errava, pois até então a máquina apresentara um desempenho formidável e, anteriormente, muitas das suas jogadas que pareciam equívocos acabavam se revelando esplêndidas e criativas[7] (a este ponto, muitos comentaristas já se referiam a AlphaGO como "he" ou "she" em vez de "it"). Hassabis havia expressado planos de aplicar técnicas usadas no desenvolvimento do AlphaGO no âmbito da saúde. Em entrevista à imprensa após a partida, um repórter da NHK perguntou[8] a Hassabis se defeitos ou brechas como aquelas reveladas pela jogada n. 78 não o preocupavam. Em combinação com o ponto feito por Marcus, essa questão de fato revela algo crucial: Em casos de aplicação em cenários graves, nenhum volume de testes pode garantir a precisão e a ausência de brechas em ditos "métodos estatísticos". Por outro lado, sistemas de IA são frequentemente submetidos a expectativas e critérios muito mais rígidos do que seres humanos. Seres humanos cometem erros o tempo todo, tanto em situações frívolas, como as confusões perceptivas que raramente perdoamos em máquinas (por alguns segundos, eu também pensei que a bola de basebol fosse um café expresso), quanto em situações graves (de médicos a pilotos de avião). É certo que sistemas de IA devem passar por um crivo mais severo, principalmente porque as questões éticas de responsabilização são diferentes para humanos e sistemas inteligentes. Mas também é certo que nós temos uma opinião muito inflada de nós mesmos. Um exemplo disso encontra-se nos populares argumentos estilo J. R. Lucas[9] no divertido debate Mentes vs Máquinas. Em vista do segundo teorema de Gödel, uma das consequências dos pressupostos implícitos do argumento é que, *dado* um sistema formal *qualquer*, mentes humanas são inerentemente capazes de julgar sua (in)consistência (o que parece enfim pressupor o que se quer demonstrar, isto é, que mentes são mais poderosas que máquinas). Contudo, mentes como a de Gottlob Frege, Alonzo Church, Jean-Yves Girard e Per Martin-Löf, dentre outras, são indícios em contrário (todos eles propuseram sistemas formais que se revelaram inconsistentes). Independente de serem perfeitos, os métodos estatísticos da corrente conexionista recentemente obtiveram grandes sucessos enquanto os almejos simbolistas das décadas de 60 e 70 permanecem, em grande medida, como promessas. Impressiona que o financiamento[10], a empolgação e a especulação pseudocientífica esteja favorecendo os conexionistas e seus métodos de aprendizado de máquina? Notas: [1] https://twitter.com/JeffDean/status/1065342676143243265 [2] https://medium.com/backchannel/has-deepmind-really-passed-go-adc85e256bec [3] https://en.wikipedia.org/wiki/AlphaGo_Zero [4] https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol#Game_4 [5] https://youtu.be/yCALyQRN3hw?t=11406 [6] https://youtu.be/yCALyQRN3hw?t=12152 [7] https://www.youtube.com/watch?v=HT-UZkiOLv8 [8] https://youtu.be/yCALyQRN3hw?t=21327 [9] http://users.ox.ac.uk/%7Ejrlucas/Godel/mmg.html [10] http://cyber-valley.de/en -- Hermógenes Oliveira "If you give someone Fortran, he has Fortran. If you give someone Lisp, he has any language he pleases." Guy L. Steele -- Você está recebendo esta mensagem porque se inscreveu no grupo "LOGICA-L" dos Grupos do Google. Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para logica-l+unsubscr...@dimap.ufrn.br. Para postar neste grupo, envie um e-mail para logica-l@dimap.ufrn.br. Visite este grupo em https://groups.google.com/a/dimap.ufrn.br/group/logica-l/. Para ver esta discussão na web, acesse https://groups.google.com/a/dimap.ufrn.br/d/msgid/logica-l/87tvjmkcnw.fsf%40camelot.oliveira.