Participei da live da PUC-Rio sobre inteligência artificial

Participei de uma das entrevistas ao vivo da série que a TV PUC-Rio criou no intuito de desenvolver temas que se relacionem de alguma maneira com a COVID. Esta teve a ver com inteligência artificial e internet das coisas. Ao lado de dois professores da PUC-Rio, comentei sobre a minha pesquisa em educação e IA sob o viés da filosofia e da educação. O debate pode ser assistido no link a seguir.

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

No primeiro post sobre as investigações que marcam os campos da IA, machine learning e cognição, comentei sobre o vídeo do Pedro Domingos sobre machine learning. Aqui, discuto um pouco do que ele falou, contrapondo com questões dos 4Es da cognição que venho pesquisando e também comentando aqui no blog:

“We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain

Vamos olhar para este trecho: Domingos diz que atingimos, pela primeira vez, um ponto na história em que se pode dizer que poderemos ter um super computador quase tão poderoso quanto o cérebro humano.

Mas o que isso significa? O que significa ser tão poderoso quanto o cérebro humano? Se o cérebro humano é poderoso por fazer parte de um sistema dinâmico do qual participam nosso corpo com suas especificidades, o ambiente em que estamos inseridos, as tecnologias com as quais nos relacionamos e a sociedade de que fazemos parte, essa colocação dá muito o que pensar. Afinal, não é o cérebro sozinho que é “poderoso”, mas o sistema humano em interação com a natureza…

Vejamos agora este trecho:

“So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works.

Neste trecho, Domingos diz que o que está impedindo a IA de ir mais longe é a falta de entendimento acerca de como o processo de aprendizagem acontece. Esse é o ponto (ou um dos) que leva a haver tanta pesquisa em cognição humana: ainda não se sabe como aprendemos e há muito o que se investigar sobre isso. Então, pode-se dizer que há algo em comum entre as investigações em machine learning e em educação: entender como o ser humano aprende. Se depender disso para que a aprendizagem de máquina avance, parece que isso ainda demora… 😉

If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board”.

No trecho acima, o destaque vai para o desenvolvimento de um algoritmo que seria capaz de se sair tão bem na atividade de aprender quanto o cérebro humano. Mas será que a aprendizagem é mesmo algo que se deve a um algoritmo no cérebro humano? Como já reforcei acima, não parece ser o cérebro humano que aprende, sozinho. Se o nosso processo de estar no mundo, com um corpo, vivendo, experimentando, nos leva a aprender, como propõem as teses ligadas aos 4Es, como é que um algoritmo no cérebro daria conta disso tudo? Será que é mesmo assim que a cognição funciona?

Toda essa conversa levanta também questões como o que seria a inteligência humana, o que é aprendizado e o que a engenharia de software quer dizer quando afirma que um sistema aprende a partir de algoritmos – assuntos que pretendo explorar.

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 1

Estou entrando no meu segundo ano de doutorado e agora estou focada em dois dos tópicos da minha pesquisa: 1) Estudar fenomenologia e pós-fenomenologia; 2) Estudar machine learning.

A minha pesquisa de doutorado é em filosofia da educação/filosofia da tecnologia, já que a minha inquietação é com as tecnologias digitais no contexto da educação. Tomo como base, porém, um referencial teórico menos comum nessa área que é o dos 4Es da cognição – um conjunto de teses e argumentos filosóficos que vêm sendo desenvolvido a muitas mãos por diversos pesquisadores que buscam entender como a mente humana funciona. Esses pesquisadores trabalham diversos tópicos relacionados à atividade cognitiva humana, como a percepção, a memória, a aprendizagem, a questão das representações, entre outros, levantando importantes questões ainda não resolvidas acerca desses elementos. Uma introdução bastante didática aos 4Es encontra-se no livro “A Mente Humana para Além do Cérebro”, que lancei em Portugal com outros vários pesquisadores em novembro de 2019, link para o PDF aqui.

Neste post, vou focar no segundo tópico de meus estudos atuais, o machine learning.

Uma pesquisa sempre parte de perguntas, já que nós, pesquisadores, desejamos ir em busca de respostas para alguma coisa. No caso da minha pesquisa de doutorado, ainda estou trabalhando para formular minhas perguntas, mas, a partir das inquietações que venho apresentando, posso dizer que a pergunta mais ampla seria como a inteligência artificial pode contribuir para a educação. Porém, essa indagação precisa ser lida de um modo mais amplo do que o da simples e imediata aplicação; não quero perguntar como a IA pode ajudar a educação partindo do pressuposto de que já ajuda (muito menos de que concentra todas as soluções), e que então precisamos entender como aplicá-la em sala de aula, mas um passo anterior, digamos assim. Como é que, entendendo a inteligência artificial e os questionamentos que ela suscita, nós podemos pensar sobre aprendizagem & tecnologias digitais? Quais as questões despertadas no âmbito da IA que, revelando aspectos da cognição humana, podem contribuir para pensarmos a educação, vista aqui de maneira mais ampla do que a sala de aula; a educação como aprendizagem de um modo geral, um estar-no-mundo baseado em um processo contínuo de aprendizagem?

Para ir em busca da compreensão de tais questões, cuja fundamentação é filosófica, neste momento estou em busca de compreender os desafios que impulsionam os pesquisadores da IA. O que eles querem encontrar? O que pretendem? O que sentem que falta nas pesquisas deles para que cheguem aonde desejam? Aonde eles desejam chegar?

Preciso, também, entender quais os cruzamentos que poderiam ser estabelecidos entre os questionamentos dos pesquisadores da IA e os questionamentos filosóficos para a tecnologia – uma vez que o aporte teórico que escolhi é aquele relacionado às abordagens cognitivas atuais, estou fazendo uma jornada rumo à fenomenologia, que trata de aspectos essenciais da percepção humana, do nosso estar no mundo, da forma como percebemos as coisas e agimos a partir de tais percepções; a fenomenologia é capaz de estabelecer um contraponto especial com a IA por vários motivos, entre eles por ir fundo nas questões do corpo, defendendo um estar no mundo corporificado que leva em conta as nossas características orgânicas de um modo muito particular e com muitas possíveis aplicações. Em breve farei um post sobre fenomenologia e um sobre pós-fenomenologia, a qual é bastante voltada para as questões específicas da relação humana com a tecnologia.

Em busca de questionamentos que marcam o campo da IA, buscando ampliar aqueles que já conheço superficialmente, tenho lido artigos e livros e recentemente ingressei num curso online da University of London disponível no Coursera que tem bastante material sobre o assunto – indicações de livros, links e vídeos. Foi como conheci o nome do engenheiro e pesquisador da IA Pedro Domingos, que neste vídeo (desculpem, é no site da IBM, que não permite embedar o vídeo aqui) resume um dos problemas que impulsionam a IA, hoje.

O vídeo diz o seguinte (segue a transcrição completa):

People often ask me – what’s the relationship between AI and machine learning and big data? Machine learning is the subfield of AI that deals with getting computers to learn. So you can think of AI as the planet that we’re going to, and machine learning as the rocket that will get us there, and big data as the fuel for that rocket.

There are many examples of AI and machine learning at work in the world today, that touch people’s everyday lives, but they aren’t even aware of it. For example, every time you do a web search, when Netflix recommends a movie, when Facebook selects posts, when Amazon recommends a book, it’s machine learning that’s doing that. Then there are people who apply machine learning and AI in things like robotics, and vision, and natural language processing, or medicine, or oceanography, or social science, you name it.

We’ve gotten very far in AI in the first 50 years. There’s a million miles more to go. So we’re going to need a lot of compute power that is specialized for things like machine learning. I think Intel has something very important to contribute to all of this which is at the end of the day, it all starts with the hardware.

Intel is in the leading position to bring us the hardware and the architectures to try to foster this open community that we really do need to make progress.

We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain. So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works. If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board.

As partes em itálico na transcrição são marcações minhas. Vou falar sobre elas no segundo post que escrevi sobre isso, sigam-me se ficaram curiosos 😉

Imagem do post: Clarisse Croset @ Unsplash

Leia o próximo post:

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

Are robots the teachers of the future?

Are robots the teachers of the future? Are we going to lose (all) our jobs to artificial intelligence machines? Is the Digital Singularity human’s inescapable future?
 
These questions are on the cutting edge when it comes to the relationship between human cognition and digital technologies. Hence, they also affect the way we glimpse the future of education. These subjects are closely related to questions about the human cognitive system: how do we perceive the world? How do we learn? What makes us cognizers, in the deepest sense of the term? How do we experience the world we inhabit?
 
Our close relationship with technologies transmutes us into cyborgs, according to the philosopher Andy Clark, author of Natural born Cyborgs (2003) and one of the developers of the Extended Mind Thesis. Clark’s thesis advocates that humans extend their cognitive systems through technologies, not only digital but of all kinds. And this ability to integrate these artifacts into our cognitive circuitry, linked to our capacity to transform the environment and be altered by it, would be some of the main elements to distinguish us from other animals. As natural beings, we are in a continuous circular movement with nature, its creatures, plants, all living beings. This connection between experience and nature is part of the philosophy of John Dewey and some ideas that resemble his are also present in the theses of philosophers like Maurice Merleau-Ponty and Hubert Dreyfus. They hold that we are much more than computer-like processing machines, defending that there is much more to human cognition than information processing. Or, as the philosopher Alva Noë and the psychologist James Gibson would say, perception and action cannot be segregated, because we act in order to perceive: without action, there would be no perception at all. This perspective is connected to the enactive cognition approach, one of the contemporary research lines linked to cognition and the human mind.
 
The extended and the enactive cognitive approaches show we are far from being replaceable by robots. Unless artificial intelligence machines become more than input-output information crunchers, they will not be able to simulate some of the most important features of human cognition, and it will be hard for them to substitute us in a range of activities in which our experience is irreplaceable. In what concerns teaching and learning, emotions are a fundamental part of the process – according to philosophers like Dreyfus and the neuroscientist António Damásio, author of Descartes’ Error and The Strange Order of Things. Robots don’t have feelings. Therefore, machines are not able to actually learn anything. So, we could ask: are “creatures” not able to learn skilled to teach? Unless they become sentient, conscious creatures, these systems will probably not be able to become teachers, and will remain, at best, auxiliaries to teaching. So, as these features remain far from reality concerning A.I., we can give a shot at the question in the first paragraph of this text: robots may be the teachers of a distant future, but they are certainly not able to replace our teachers in the present.
 
Some references for those who want to read more:

Inteligência Artificial Humanística

Neste vídeo do TED, Tom Gruber, criador da Siri (assistente pessoal baseado em inteligência artificial da Apple) fala sobre como o caminho da inteligência artificial é amplificar e potencializar as capacidades humanas, gerando conexões e facilitando nossas vidas. É nisso que acredito: não se trata de substituir humanos em atividades que desenvolvemos bem. As máquinas podem nos ajudar com aquelas tarefas nas quais não somos tão bons, nos liberando delas para que nos dediquemos a outras coisas. A cognição humana se expande quando as tecnologias cognitivas se expandem…

Foto do post: Greg Rakozy @ Unsplash

Inteligência Artificial: uma face obscura

A euforia em torno da evolução tecnológica no campo da inteligência artificial não pode ser uma empolgação ingênua. A face obscura do brilhantismo dessa (r)evolução existe, e demanda a nossa atenção. Os sistemas de inteligência artificial, afinal, são feitos por seres humanos, e seres humanos cometem erros, inúmeros erros, que são reproduzidos pela I.A. às toneladas, em poderosas escalas não-humanas. A solução para treinar bem tais máquinas que “pensam” começa, justamente, no pensamento. Pensamento em torno da inteligência artificial, pensamento em torno de aonde queremos chegar com as tecnologias cognitivas, pensamento acerca de quem nos torna(re)mos com tais evoluções tecnológicas.

Existem pessoas interessantíssimas pensando em temas como esses, e os aplicando em seu trabalho. Será que, então, o desenvolvimento das tecnologias cognitivas pode gerar uma evolução na própria sociedade, levando-nos a rever certos conceitos e preconceitos? Essa seria, sem dúvida, uma excelente consequência do crescimento tecnológico, talvez o melhor cenário possível.

Uma das pessoas cujo trabalho é movido por essas preocupações é australiana e se chama Kate Crawford; talvez você não consiga saber muito mais do que isso sobre ela – sua conta no LinkedIn Não tem foto, apesar de reportagem no El País trazer uma imagem dela – porque Crawford se preocupa com a disseminação de seus dados na rede e o que pode ser feito deles. Nós também deveríamos nos preocupar.

Não apenas a privacidade está no centro das atenções de Crawford, mas os vieses da sociedade que vêm sendo reproduzidos pela inteligência artificial. De que modo isso acontece? Ao treinarmos máquinas, transferimos a elas todo o nosso preconceito, impresso nos padrões que atribuímos aos sistemas para que se tornem “inteligentes”. “Esses padrões têm um viés, reproduzem estereótipos, e o sistema de inteligência artificial os toma como verdade única. Estamos injetando neles as nossas limitações, nossa forma de marginalizar”, disse Crawford ao El País.

Esse é um risco apontado por Andy Clark, filósofo da mente e pesquisador da cognição cujo trabalho venho acompanhando. Com um porém: Clark destaca que preconceitos assim começam a ser formados já em nossos cérebros, que, conforme ele explica em seu livro “Surfing Uncertainty” (2016), funcionam a partir de inúmeras camadas de neurônios responsáveis por fazer previsões nas quais nos baseamos para viver e agir no mundo. Por exemplo, uma pessoa que vive em uma cidade violenta como o Rio de Janeiro, acostumada a ouvir notícias sobre balas perdias, assaltos à mão armada e tiroteios poderia se assustar ao ver algo que se parecesse com uma arma por baixo da blusa de certa pessoa, mesmo que se tratasse de um objeto qualquer; e as consequências de um erro assim podem ser, literalmente, fatais. Mais sobre a visão de Clark acerca desse tema pode ser lido neste outro post que fiz sobre o assunto, há alguns meses.

Vale ler a entrevista com Kate Crawford no El País e dar uma olhada no site do AI Now Institute, fundado por ela.

Imagem do post: Lux Interaction @ Unsplash

 

Os museus e a inteligência artificial

Recentemente, tive o prazer de entrevistar profissionais do Museu do Amanhã e da Pinacoteca de São Paulo, além de um especialista da IBM, para escrever sobre o uso da inteligência artificial nesses dois museus. Trata-se de um recurso múltiplo, capaz de aproximar o público das exposições e envolver os visitantes em uma experiência diferente.

Há muitas incertezas no cenário do uso da I.A., seja em museus ou em qualquer contexto. Mas não há dúvidas de que a tecnologia abre vários caminhos novos para que o público explore formas inovadoras de se relacionar com as exposições nesses espaços de uma maneira mais ativa.

As entrevistas resultaram em uma matéria publicada no site Porvir.

Leia a matéria 

Foto do post: Guilherme Leporace/Museu do Amanhã

Amor… artificial?

Imagem: https://cdn2.hubspot.net/

O uso da internet para encontrar um amor não é recente. Todos conhecem – e muitos usam – os sites de relacionamentos, os apps como o Tinder e tantos outros.

Reportagem recente do Daily Mail traz a previsão de que quatro em cinco pessoas solteiras irão procurar por um amor na internet até 2050. Além disso, a reportagem destaca que deverá haver um aumento na idade média de quem buscará por parceiros pela Web – o que parece natural, devido ao fato de que estamos vivendo cada vez mais (temos que cuidar da humanidade para continuarmos assim, no entanto…!).

O curioso é que também até 2050, prevê o pesquisador britânico David Levy, autor de “Amor e Sexo com Robôs”, teremos a possibilidade de nos casar legalmente com robôs (!!!).

Levy acredita que relacionamentos de humanos com robôs serão uma realidade porque até lá a nossa relação com as máquinas já estará bastante natural…

Pode até ser.

Porém… há muitas questões aí, é claro.

Mas vou falar de apenas uma: quem pesquisa inteligência artificial e robótica e também está ligado às questões filosóficas provavelmente conhece o hard problem da filosofia (da humanidade?!): o da consciência.

A ciência ainda não conseguiu concluir como e por que temos consciência.

Consequentemente, também não há previsão para que robôs tenham consciência.

Então, por mais que uma máquina seja capaz de reproduzir o cérebro humano com perfeição, lhe faltará algo. Esse “algo”, que tem a ver com a nossa percepção, ainda envolve bastante mistério.

E aí, talvez caiba a pergunta: você namoraria alguém, melhor dizendo, um ser sem consciência?

Neste link do Guardian há uma boa reflexão sobre que tipo de relacionamento as sex-robots poderiam substituir…

Imagem: Michael Prewett @ Unsplash