*Por Cesar Brod <http://www.brod.com.br/>*

*Data de Publicação: 08 de Agosto de 2008*

Em novembro de 2005 escrevi um artigo (que depois virou uma palestra)
chamado Computação para Humanos <http://tinyurl.com/56uryy>. Há mais tempo
eu já havia escrito outro sobre o projeto Oxygen <http://tinyurl.com/5jd94k>,
do MIT, relatando alguns exemplos do que é chamado computação
ubíqua<http://tinyurl.com/6oy5nb>,
ou onipresente. Há duas línguas oficiais no Brasil, uma delas é a
LIBRAS<http://www.libras.org.br/>,
que é usada na comunicação com (e entre) os surdos. Uma das áreas mais
fascinantes e que mais apresenta desafios na computação é a que trata da
interface <http://tinyurl.com/5m9tra> entre humanos e máquinas. Se já não é
trivial construir a interface ideal para aqueles que dispõem de todos os
sentidos, imagine como é tratar isto para os que não podem contar com um ou
mais deles. Mas já existe tecnologia para a construção de soluções que
tratam estas questões. Vou falar de algumas das quais não falei nos artigos
anteriores.

Eu, a torcida do glorioso Grêmio <http://www.gremio.net/> e todos os demais
que o conhecem são fãs do Rafinha Bastos <http://www.rafinhabastos.com.br/>,
que tem muitos de seus vídeos disponíveis no
Youtube<http://tinyurl.com/6mn9km>.
A comédia do Rafinha é ácida, crítica, inteligente. Mas tente assistir a
qualquer um dos vídeos dele sem som, como os surdos são obrigados a fazê-lo!
Não seria legal ter um plugin que permitisse abrir um gadget, um desklet, ou
qualquer outro tipo de janela que, em tempo real, traduzisse o que o Rafinha
fala, em seus vídeos, para LIBRAS?

O projeto V-ART <http://www.codeplex.com/vart>, desenvolvido no Innovation
Center UFRGS/Microsoft, trata de alguns aspectos desta questão. Com as
bibliotecas do V-ART é possível criar humanos virtuais, com articulações
fisiologicamente corretas. Usando um programa desenvolvido para o V-ART, que
é o Action Builder, já foi possível criar um humano que fala em LIBRAS, o
Human LIBRAS. Para o reconhecimento da fala <http://tinyurl.com/6ff5hc> há
vários projetos em andamento. Direcionando a saída de áudio do vídeo do
Rafinha para um sistema de reconhecimento de fala, e daí para um arquivo XML
que possa ser reconhecido pelo Human LIBRAS, tá pronta a solução!

Claro, as coisas não são tão simples assim. Esperar que um usuário seja
obrigado a instalar as bibliotecas do V-ART, o Human LIBRAS, mais algum
software de reconhecimento de fala e os integre com a saída de áudio de um
vídeo do Youtube é destruir, para uma grande maioria, a acessibilidade da
solução. As coisas precisam ser mais simples. Por isto, o Kao, do projeto
V-ART, está fazendo uma pesquisa que permitirá que os humanos gerados pelo
V-ART possam executar suas ações em um navegador web, através do
Silverlight<http://silverlight.net/>ou do
Moonlight <http://www.mono-project.com/Moonlight>, plugins que permitem a
exibição de animações sofisticadas diretamente no navegador. A idéia é que
estas ações possam ser também exibidas em um gadget ou desklet (aquelas
janelinhas no desktop que normalmente mostram fotos, calendários, notícias,
previsão do tempo, etc).

O reconhecimento da fala e seu processamento por um humano virtual que a
traduza, em tempo real, para LIBRAS são trabalhos que requerem um grande
poder de processamento. Estas tarefas podem ser divididas para a execução
paralela, entre vários computadores. Grupos de computadores que executam
tarefas de forma paralela são conhecidos por clusters. Seria muito bom se
todas as tarefas de reconhecimento de voz, tradução para o LIBRAS e a
própria animação do humano virtual pudessem ser distribuídas entre vários
clusters, sem a preocupação de saber qual sistema operacional roda cada um
deles e nem do lugar aonde estão localizados. Aí entra outro projeto,
desenvolvido no Innovation Center Unicamp/Microsoft, que é o Interop
Router<http://www.codeplex.com/lmsu>.
Hoje o Interop Router fornece uma interface web para a submissão de tarefas
em um conjunto de clusters mas, no futuro, fornecerá uma interface (API)
para a submissão de programas para uma "nuvem" de clusters conectados a
eles.

Mas não acaba por aqui. Queremos que nosso humano virtual, que traduz o que
o Rafinha fala para LIBRAS, ainda reaja às piadas e, quando for o momento de
rir, ele ria também. Também há projetos que tratam desta questão de emoções
e afetividade <http://tinyurl.com/6ogday>, que hoje estão sendo aplicadas em
ambientes virtuais de aprendizagem.

Falo com minhas filhas que moram em Porto Alegre e Brasília, com voz e
imagem, via web, através de meu computador. Abro o meu celular da mesma
forma que o Capitão Kirk abria seu comunicador para pedir ao Scotty que o
teletransportasse <http://tinyurl.com/y5zb58>. São coisas do futuro que
tornaram-se corriqueiras em meu dia-a-dia. Ainda verei o tempo em que
riremos do mouse e do teclado.

Esqueci de dizer, mas acho que isso já deve ser óbvio para meus leitores:
todos os projetos citados aqui são de código aberto. E as equipes que os
desenvolvem estão abertas a todo o tipo de colaboração. Quanto mais
colaboração, mais rápido o futuro chegará.


-- 

Lembre-se: "Ninguém educa ninguém, ninguém educa a si mesmo, os homens se
educam entre si, mediatizados pelo mundo."
"Nós não devemos deixar que as incapacidades das pessoas nos impossibilitem
de reconhecer as suas habilidades."
======= Assinatura =========
Hudson Augusto
Pessoal: http://metanave.blogspot.com/
Projetos: http://metaclave.ning.com
http://metareciclagem.org/
Faculdade: http://hudsonaugusto.4shared.com/
Msn/Gtalk: [EMAIL PROTECTED]
http://www.colab.info/cgi-bin/mailman/listinfo/metarec


Fone: 15 - 91250479
=============================
_______________________________________________
Lista de discussão da MetaReciclagem
Envie mensagens para [email protected]
http://lista.metareciclagem.org

Responder a