Re: [Logica-l] Doria Workshop - Dec 8 and 9, 2018 - Brazilian College of Advanced Studies

2018-12-09 Por tôpico Antonio Marmo
Caros,

Transcorreu o evento ontem e hoje. Tive a felicidade de participar dele neste 
domingo.

Estava muito bom, excelentes apresentações e assuntos variados, desde Economia 
até  Física, passando por vários tópicos de Lógica. Houve no final uma palestra 
proferida pelo próprio homenageado.

Fiquei muito honrado de finalmente encontrar a família Dória, cujo patriarca é 
ainda mais simpático pessoalmente.

Muita gente da UFRJ naturalmente compareceu, mostrando que a Lógica está cada 
vez mais forte no Rio de Janeiro, inclusive como um estudo verdadeiramente 
interdisciplinar! (Aliás, o evento foi num prédio ainda sob restauro que deverá 
ficar um primor tão logo acabem as obras!)

E também pude rever a professora Ítala depois de mais de um ano, que aliás fez 
uma exposição muito rica e muito profunda, trazendo os resultados do grupo de 
auto-organização da Unicamp.

Agradeço aos organizadores pelo gentil convite. Que haja outra oportunidade 
assim!

Dize à sabedoria: Tu és minha irmã...
Provérbios 7:4

> On 8 Dec 2018, at 18:47, Antonio Marmo  wrote:
> 
> Você me mata de rir, assim! Estou preparando a apresentação de amanhã!
> 
> Dize à sabedoria: Tu és minha irmã...
> Provérbios 7:4
> 
>> On 8 Dec 2018, at 18:44, jean-yves beziau  wrote:
>> 
>> melhor que o avião é o  helicóptero !
>> cavalo à bom também ...
>> 
>> 
>>> Le sam. 8 déc. 2018 à 21:16, Antonio Marmo  a écrit :
>>> Tive problemas com o avião. Amanhã estarei no evento.
>>> 
>>> 
 On 8 Dec 2018, at 17:52, jean-yves beziau  wrote:
 
 ja estamos a tarde
 
> Le sam. 8 déc. 2018 à 11:49, Tony Marmo  a écrit :
> So poderei estar ai pela tarde.
> 
> Em quarta-feira, 5 de dezembro de 2018, jean-yves beziau 
>  escreveu:
>> Doria Workshop - Dec 8 and 9,  2018 -  Brazilian College of Advanced 
>> Studies
>> http://www.rio-logic.org/doria
>> 

-- 
Você está recebendo esta mensagem porque se inscreveu no grupo "LOGICA-L" dos 
Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um 
e-mail para logica-l+unsubscr...@dimap.ufrn.br.
Para postar neste grupo, envie um e-mail para logica-l@dimap.ufrn.br.
Visite este grupo em https://groups.google.com/a/dimap.ufrn.br/group/logica-l/.
Para ver esta discussão na web, acesse 
https://groups.google.com/a/dimap.ufrn.br/d/msgid/logica-l/223E298C-785F-482A-A6BB-48A1616F2423%40gmail.com.


[Logica-l] Convite ´para resenha de livros (reviews)

2018-12-09 Por tôpico Walter Carnielli
Car@s  colegas e estudantes:

Estou à procura de revisores (reviewers) para os seguintes livros
recentes (abaixo) a serem publicados nos seguintes veículos:
:  :
Notre Dame Philosophical Reviews, Manuscrito, Notre Dame Philosophical Reviews
e Studia Logica.  Revisores  receberão uma cópia do livro

- The Significance of the New Logic
Edited and translated by Walter Carnielli,  Frederique Janssen-Lauret
and   William Pickering,
Cambridge University Press, 2018Notre Dame Philosophical Reviews
Online ISBN: 9781316831809
https://www.cambridge.org/core/books/significance-of-the-new-logic/AC6F9FCA320931A97A8E4BBA5804F5AD

-   Contradictions, from Consistency to Inconsistency
Walter Carnielli and  Jacek Malinowski (Eds.
Trends in Logic- Studia Logica Library, Springer, 2018
ISSN: 1572-6126
https://www.springer.com/series/6645

Journals:

1) Notre Dame Philosophical Reviews
https://ndpr.nd.edu/recent-reviews/

2) Manuscrito- An International Journal of Philosophy
http://www.scielo.br/scielo.php?script=sci_serial=0100-6045=en=iso

3) Logic and Logical Philosophy
http://www.logika.umk.pl/llp/

4) Studia Logica
https://slreviews.compute.dtu.dk/

 Por favor contactem me   em privado até no máximo o final do ano.

Abraços,

Walter



---
Walter Carnielli
Centre for Logic, Epistemology and the History of Science and
Department of Philosophy
State University of Campinas –UNICAMP
13083-859 Campinas -SP, Brazil
Institutional e-mail: walter.carnie...@cle.unicamp.br
Website: http://www.cle.unicamp.br/prof/carnielli
CV Lattes : http://lattes.cnpq.br/105496835379

-- 
Você está recebendo esta mensagem porque se inscreveu no grupo "LOGICA-L" dos 
Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um 
e-mail para logica-l+unsubscr...@dimap.ufrn.br.
Para postar neste grupo, envie um e-mail para logica-l@dimap.ufrn.br.
Visite este grupo em https://groups.google.com/a/dimap.ufrn.br/group/logica-l/.
Para ver esta discussão na web, acesse 
https://groups.google.com/a/dimap.ufrn.br/d/msgid/logica-l/CA%2Bob58PT21nwb6KWZjrDmJ5Ohy%2BCm%2Bg9PY15ke%3DJuZbtxAzsXQ%40mail.gmail.com.


Re: [Logica-l] "All I am saying is to give Ps (and Qs) a chance."

2018-12-09 Por tôpico Hermógenes Oliveira


> http://nautil.us/issue/67/reboot/why-robot-brains-need-symbols

O artigo inspira um pouco de compaixão.  Pobre Marcus.  Argumentando
contra o sucesso.

Quem conhece um pouco da história da IA, e, portanto, entendeu a piada[1]
de Jeff Dean, sabe que, na verdade, a frase deveria ser:

All I am saying is to give Ps (and Qs) *another* chance.

Na época, anos 60 e 70, o dinheiro fluía para a pesquisa dos
simbolistas.  Como quase todos cientistas, eles também inflavam a
significância e prospectos das suas pesquisas e descartavam
arrogantemente as críticas de quem não fosse especialista.
Nada fora do normal.

Marcus costumava dizer que o sucesso dos métodos conexionistas estariam
limitados aos âmbitos de classificação (principalmente na área de
percepção).  O jogo de GO, no entanto, sempre foi considerado um marco
importante em IA, algo que envolveria não somente poder analítico, mas
também "intuição".  Na véspera do torneio entre AlphaGo e Lee Sedol em
2016, Marcus reclamou[2] que o método não era geral o suficiente pois,
além de serem treinadas em jogos humanos, as redes neurais eram
auxiliadas por MCTS e outras técnicas calibradas especificamente para o
jogo de GO.

Algum tempo depois, DeepMind divulgou os resultados do AlphaGo Zero[3]
com um algorítimo muito mais geral.  Marcus, meio pateticamente, devo
reconhecer, reclama que o artigo dedica "vastly greater attention to its
strengths than its *potential* limitations" e "*appears to imply*
similarly limitless horizons for deep-reinforcement learning" (minhas
ênfases).  Quem acompanhou as declarações da equipe DeepMind durante a
cobertura do AlphaGO e leu imparcialmente os artigos que saíram na
Nature, sabe que não há nada aqui além, talvez, da falácia do
espantalho.

Há, sem dúvida, pontos fracos nesse tipo de algorítimo.  Especialmente, o
que Marcus descreveu no seu sumário argumentativo: "These models cannot
generalize outside the training space".  Isso significa que, embora o
algorítimo desempenhe de forma excelente na esmagadora maioria dos casos,
podem haver "brechas", isto é, situações inesperadas pelo algorítimo que
o levem a cometer erros elementares.

Um exemplo interessante aconteceu durante o desafio AlphaGO vs Lee
Sedol.

Durante a quarta[4] partida, após a jogada n. 78, AlphaGO, que até então
parecia ter capacidade sobre-humana, ficou confuso.  Seu desempenho
piorou gradativamente até que a máquina foi forçada a conceder a
partida.  A jogada n. 78[5], embora brilhante, não funciona.  Existe uma
variação, em meio a dezenas de outras, que manteria a vantagem de
AlphaGO, algo que seres humanos perceberam, após algum tempo de análise,
sem muita dificuldade.  O interessante é que, mesmo após AlphaGO ficar
confuso e começar a cometer erros elementares, os comentadores ficaram
receosos[6] em afirmar que AlphaGO errava, pois até então a máquina
apresentara um desempenho formidável e, anteriormente, muitas das suas
jogadas que pareciam equívocos acabavam se revelando esplêndidas e
criativas[7] (a este ponto, muitos comentaristas já se referiam a
AlphaGO como "he" ou "she" em vez de "it").

Hassabis havia expressado planos de aplicar técnicas usadas no
desenvolvimento do AlphaGO no âmbito da saúde.  Em entrevista à imprensa
após a partida, um repórter da NHK perguntou[8] a Hassabis se defeitos
ou brechas como aquelas reveladas pela jogada n. 78 não o preocupavam.
Em combinação com o ponto feito por Marcus, essa questão de fato revela
algo crucial: Em casos de aplicação em cenários graves, nenhum volume de
testes pode garantir a precisão e a ausência de brechas em ditos
"métodos estatísticos".

Por outro lado, sistemas de IA são frequentemente submetidos a
expectativas e critérios muito mais rígidos do que seres humanos.  Seres
humanos cometem erros o tempo todo, tanto em situações frívolas, como as
confusões perceptivas que raramente perdoamos em máquinas (por alguns
segundos, eu também pensei que a bola de basebol fosse um café
expresso), quanto em situações graves (de médicos a pilotos de avião).

É certo que sistemas de IA devem passar por um crivo mais severo,
principalmente porque as questões éticas de responsabilização são
diferentes para humanos e sistemas inteligentes.  Mas também é certo que
nós temos uma opinião muito inflada de nós mesmos.  Um exemplo disso
encontra-se nos populares argumentos estilo J. R. Lucas[9] no divertido
debate Mentes vs Máquinas.  Em vista do segundo teorema de Gödel, uma
das consequências dos pressupostos implícitos do argumento é que, *dado*
um sistema formal *qualquer*, mentes humanas são inerentemente capazes
de julgar sua (in)consistência (o que parece enfim pressupor o que se
quer demonstrar, isto é, que mentes são mais poderosas que máquinas).
Contudo, mentes como a de Gottlob Frege, Alonzo Church, Jean-Yves Girard
e Per Martin-Löf, dentre outras, são indícios em contrário (todos eles
propuseram sistemas formais que se revelaram inconsistentes).

Independente de serem perfeitos, os métodos estatísticos da