Robôs: tecnologia corporificada?

O robô da foto acima é o Asimo, criado pela Honda. A primeira versão dele foi lançada em 1986. O Asimo anda, corre, sobre escadas, segura objetos, entende de comandos de voz; é um robô cada vez mais completo. Será mesmo?

Apesar de fazer tudo isso, Asimo consome 16 vezes mais energia que nós, humanos, para andar. Essa ineficiência energética decorre do fato de que, nesse robô, tudo é uma questão de processamento central: todo movimento que ele realiza, todas as suas ações são fruto de um design baseado em algoritmos, que resolvem questões relacionadas às funções da visão, navegação e do equilíbrio desse robô; os algoritmos passam instruções detalhadas para a máquina seguir.

Além da ineficiência energética, um outro problema que o Asimo enfrenta relaciona-se ao seu equilíbrio: ao caminhar sobre uma superfície plana, ele dá conta do recado. Mas, se precisar fazer movimentos para se resguardar de oscilações no chão, por exemplo, ele falha tentando realizar cálculos que o mantenham de pé.

Andrew D. Wilson é um cientista cognitivo interessado no estudo de robôs que conseguem aproveitar o ambiente para se saírem melhor nas tarefas para as quais são designados. Ele propõe em um artigo publicado no Psychology Today a comparação do Asimo a um outro robô, chamado Big Dog, desenvolvido pelo Leg Lab do MIT*. Contando com membros elásticos, ligamentos bem localizados, caudas que se movem corretamente por causa da forma como foram construídas, e não porque há um processador central no comando, diz Wilson, Big Dog se sai muito melhor do que Asimo no quesito movimentos corporais.

A forma como Big Dog foi pensado e construído voltou-se para o aproveitamento máximo do ambiente “real” (não de laboratório) com suas irregularidades e seus obstáculos. Esses elementos do ambiente, em conjunto com o “corpo” construído para o robô visando o melhor desempenho e fundamentado em suas características físicas, dá origem a um sistema dinâmico em que as partes se complementam. O resultado é que o Big Dog se sai muito bem em situações imprevisíveis; por exemplo, se cai, levanta; se é empurrado, seu “corpo” reage, e por aí vai.

O que esses robôs nos ensinam?

“A diferença entre os dois robôs é que o Asimo representa mentalmente suas habilidades, enquanto o Big Dog as corporifica”, diz Wilson. Isso significa que o Asimo precisa de um intrincado maquinário computacional, gerenciado por um processador central, capaz de apresentar um algoritmo para cada função que ele venha a exercer. Seu “corpo” é como se fosse um apêndice, um apoio; assim, para Wilson, o Asimo nao é de fato uma tecnologia corporificada: para sê-lo, precisaria de fato utilizar seu corpo e, na dinâmica com o ambiente, potencializar suas capacidades físicas. Esse é o caso do Big Dog e de muitos outros robôs, uma vez que essa tem sido a tendência no campo da inteligência artificial e da robótica.

Imagem: http://robohub.org/

O design do Asimo não reflete a forma como nós, humanos, funcionamos. Somos muito mais como o Big Dog.Nosso corpo aproveita o ambiente de diversas formas, algumas delas já exploradas aqui neste blog. Basta, para isso, nos observarmos andando a pé, correndo em ladeiras, pedalando bicicletas, andando de patins, enfim. Olhando para a forma de estarmos no mundo, de fato, poderemos ser melhores em produzir robôs. Mas para isso é necessário acreditar que nosso sistema cognitivo não se limita ao cérebro e que, acoplados ao ambiente, formamos com ele sistemas dinâmicos. Sobre isso, leia mais neste meu post aqui.

*Não encontrei, no site do MIT, o robô Big Dog, mas o artigo de Wilson é de 2012, então ele pode ter dado lugar a outros projetos (realmente não sei). De qualquer forma, a tendência no mundo da robótica é bem representada pelo Big Dog e por outros que você vê no MIT e em outros laboratórios, como os robôs-insetos da Barbara Webb.

 

 

 

 

O cérebro que prevê (The Predictive Brain)

Segundo Anil K Seth, professor de neurociência cognitiva e computacional na Universidade de Sussex, o conceito do cérebro como uma “máquina que prevê” teria sido introduzido pelo matemático Hermann von Helmholtz no século 19 (veja neste artigo dele sobre o “hard problem” da consciência).

O conceito, que ocupa lugar de destaque nos estudos do filósofo da mente Andy Clark, baseia-se na imagem do cérebro humano como uma máquina com diversas camadas capaz de realizar previsões; sinais sensoriais são processados em múltiplos níveis neurais, que procuram predizer as informações sensoriais em fluxo. Essas previsões, inconscientes, nos preparam para lidar de forma rápida e eficiente com a corrente de sinais vindos do mundo.

Sendo assim, se o sinal sensorial que aparece é o esperado, nós vemos e ouvimos coisas que já começamos a nos preparar para ver e ouvir, ou revelamos comportamentos que já começamos a organizar. Mas, e se as coisas não saem como esperamos? Aí, acontece o chamado sinal de erro de previsão, que é calculado em cada área e nível de processamento neural, e revela que a previsão que fizemos estava errada. O cérebro é convidado a tentar novamente, armado com informações específicas que já incluem os novos erros. Dessa forma, o cérebro está permanentemente tentando adivinhar a forma e a evolução dos sinais sensoriais correntes, utilizando, para isso, o conhecimento armazenado do mundo.

Essa forma de o cérebro acoplar-se com o mundo pode nos ajudar em situações corriqueiras, como quando, em uma festa lotada, na qual está tocando música em volume alto, alguém chama nosso nome. Em meio a aqueles ruídos todos, conseguimos distiguir o chamado. Isso acontece, segundo a tese do predictive brain, porque o cérebro usa informação armazenada para realizar previsões sobre a ocorrência sensorial, e essas previsões ajudam a separar o sinal do barulho, revelando-nos o que realmente interessa no vasto mundo que habitamos.

Filosofia, ciência e o cérebro que prevê

Andy Clark é um filósofo que trabalha lado a lado com neurocientistas em busca de compreensão sobre como funcionamos, agimos, pensamos, aprendemos. Na University of Edinburgh, em que ele dá aulas, Clark realiza pesquisas junto a equipes dos laboratórios de inteligência artificial e robótica da universidade.

Clark está envolvido também no projeto X-SPECT, no qual, junto a outros especialistas, desenvolve pesquisas para aprofundar a teoria do predictive brain, por meio de experiências práticas. O grupo parece estar buscando ampla divulgação científica dos estudos, uma vez que criou página no Facebook, conta no Twitter e um site bem didático.

Clark é muito ativo e escreve sem parar. Em artigo recente, ele discute possíveis questões éticas advindas do predictive brain. De fato, dependendo do tipo de previsão que o cérebro fizer, com base em conhecimentos armazenados a partir de experiências anteriores, as consequências podem ser bastante complicadas. Ele usa como exemplo as estatísticas elevadas de homens negros baleados pela polícia que acreditava que eles estavam armados, mas não estavam (mais nesta matéria do NY Times, citada por ele).

O que acontece é que estamos inseridos num cenário cheio de informações distorcidas, que se transformam em sinais sensoriais errados para nossos cérebros e podem resultar, assim, em ações desmedidas. Soma-se a isso a quantidade de preconceitos que armazenamos em nossa sociedade, e que contribuem para formular nossas “previsões cerebrais”…

Alucinações?

De certa forma, estamos “alucinando” o tempo todo, diz Clark. Para Seth, a percepção é uma “alucinação controlada” (ele diz: “In this view, which is often called ‘predictive coding’ or ‘predictive processing’, perception is a controlled hallucination, in which the brain’s hypotheses are continually reined in by sensory signals arriving from the world and the body”).

Não à toa, questões éticas nos rondam o tempo todo e, à medida que avançamos tanto na compreensão de nossas próprias tecnologias corporais naturais como nas tecnologias inventadas, temos que ter ainda mais atenção a elas, além de continuar a luta para combater nossos próprios preconceitos.

Hard Problem da consciência

No artigo de Seth, da Universidade de Sussex, ele conecta o eterno hard problem da consciência à abordagem do predictive brain. Vale muito a leitura. Repetindo o link:

The Real Problem –  It looks like scientists and philosophers might have made consciousness far more mysterious than it needs to be

 

Imagem do post: Kaleb Nimz @ Unsplash

Amor… artificial?

Imagem: https://cdn2.hubspot.net/

O uso da internet para encontrar um amor não é recente. Todos conhecem – e muitos usam – os sites de relacionamentos, os apps como o Tinder e tantos outros.

Reportagem recente do Daily Mail traz a previsão de que quatro em cinco pessoas solteiras irão procurar por um amor na internet até 2050. Além disso, a reportagem destaca que deverá haver um aumento na idade média de quem buscará por parceiros pela Web – o que parece natural, devido ao fato de que estamos vivendo cada vez mais (temos que cuidar da humanidade para continuarmos assim, no entanto…!).

O curioso é que também até 2050, prevê o pesquisador britânico David Levy, autor de “Amor e Sexo com Robôs”, teremos a possibilidade de nos casar legalmente com robôs (!!!).

Levy acredita que relacionamentos de humanos com robôs serão uma realidade porque até lá a nossa relação com as máquinas já estará bastante natural…

Pode até ser.

Porém… há muitas questões aí, é claro.

Mas vou falar de apenas uma: quem pesquisa inteligência artificial e robótica e também está ligado às questões filosóficas provavelmente conhece o hard problem da filosofia (da humanidade?!): o da consciência.

A ciência ainda não conseguiu concluir como e por que temos consciência.

Consequentemente, também não há previsão para que robôs tenham consciência.

Então, por mais que uma máquina seja capaz de reproduzir o cérebro humano com perfeição, lhe faltará algo. Esse “algo”, que tem a ver com a nossa percepção, ainda envolve bastante mistério.

E aí, talvez caiba a pergunta: você namoraria alguém, melhor dizendo, um ser sem consciência?

Neste link do Guardian há uma boa reflexão sobre que tipo de relacionamento as sex-robots poderiam substituir…

Imagem: Michael Prewett @ Unsplash