Robôs com sentimentos?

Esta semana, a internet chacoalhou com a notícia de que, segundo um funcionário da Google, o chatbot LaMDA, produzido pela empresa, seria senciente. O funcionário acabou afastado depois de suas declarações. O interessante é que uma discussão que está tão presente na filosofia veio à tona por conta disso tudo. Então, o que é que está por trás de desse debate?

A ciência cognitiva é uma área que vem crescendo desde os anos de 1950, e eclodiu bem perto da explosão também da inteligência artificial enquanto área de pesquisa. No início, a IA tinha como foco reproduzir as capacidades humanas. E não era tão difícil crer na viabilidade disso, porque se acreditava que o cérebro poderia ser feito de qualquer material que poderia, de todo jeito, gerar uma mente. Então, teoricamente, um “cérebro” de silício também seria capaz de dar origem a pensamentos, sentimentos, enfim, tudo que compõe a mente.

Com o passar do tempo, as experiências em IA e robótica mostraram que a coisa não era bem assim. Um pesquisador que ajudou a mostrar que a distância entre humanos e máquinas era grande, e que ainda haveria um longo caminho pela frente até que se pudesse instanciar a inteligência humana em sistemas artificiais, foi Hubert Dreyfus. Ele trabalhou no MIT bem próximo a cientistas da computação engajados nessas pesquisas. E era ele quem colocava questões que certamente irritavam os programadores, mas que eram certeiras!

Por exemplo: como um computador poderia prever as milhares de coisas que poderiam acontecer em dada situação da vida cotidiana? Nós conseguimos rapidamente mudar a nossa maneira de agir dependendo do contexto em que nos encontramos: se algo cai no chão, pegamos de volta, colocamos em cima da mesa; se algo se parte, colamos; se alguém se machuca ou chora de repente, vamos acudir. Já sistemas artificiais precisam de mudanças extensas e detalhadas em todo o seu código quando algo muda. Eles não compreendem contextos. Também não compreendem certos atributos simples da vida cotidiana, que fazem parte do senso comum. Tipo: quando atendemos ao telefone, dizemos alô – ou “tô”, se for em Portugal; a pessoa do outro lado responde; combina-se de sair para um bar em alguma rua perto da casa dessas pessoas. O computador precisa de mais do que um simples “Então, vamos lá hoje?”­ para “entender” o que se passa.

É que na verdade a máquina não “entende”nada, de fato! Todas as informações que as pessoas envolvidas na conversa vão conhecendo ao longo da vida e vão incorporando em seu repertório – o que significa alô, o que é um bar, onde ele fica, de que bar estão falando, o que significa vamos lá etc. etc. ­– o computador precisa receber como inputs (até mesmo a informação de que duas pessoas são pessoas, conversam ao telefone, o que é telefone, o que é conversar etc. etc., já pensou?!). Isso precisa estar na programação do sistema. E, mesmo assim, o computador efetivamente não saberá nada: ele vai manipular aquelas informações, mas elas não vão significar nada para ele.

E a filosofia no meio de tudo isso?

A filosofia é uma área que investiga a inteligência humana, a cognição, a mente, a consciência. Para isso procura, antes de tudo, entender como se pode compreender ou conceituar cada uma delas. A maneira como se conceitua algo, afinal, faz muita diferença para os debates. Para pensar se uma IA pode ser consciente ou não, se é senciente ou não, cabe perguntar: o que é ter consciência? O que é senciência?

Há pesquisadores, por exemplo, que buscam na biologia as raízes para se compreender a mente humana. Para eles, a mente é como uma extensão da vida; onde há vida há atividade mental. Consequentemente, onde não há vida não há mente.  Também, se não há mente, não há sentimentos ou experiência. Por essa lógica, se robôs não são seres com vida biológica, não poderiam ter consciência ou senciência, nem sentir ou experimentar nada.

Esses pesquisadores acreditam, ainda, que a mente humana inclui muito mais do que o cérebro: o corpo como um todo constitui a mente. E é com a nossa atividade corporal, em acoplamento direto com o mundo natural, que vamos descobrindo e entendendo o que há no ambiente que nos cerca: assim é que fazemos sentido daquilo que está a nossa volta. Esses pesquisadores a que me refiro são estudiosos da cognição enativa. Alguns dos nomes mais importantes da área são Ezequiel Di Paolo, Hanne De Jaegher e Evan Thompson. Na minha tese de doutorado, eu abordo machine learning e enativismo. Se quiser saber mais, clica aqui.

Veja também o post especial no Instagram: @algoritmosfera