Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

No primeiro post sobre as investigações que marcam os campos da IA, machine learning e cognição, comentei sobre o vídeo do Pedro Domingos sobre machine learning. Aqui, discuto um pouco do que ele falou, contrapondo com questões dos 4Es da cognição que venho pesquisando e também comentando aqui no blog:

“We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain

Vamos olhar para este trecho: Domingos diz que atingimos, pela primeira vez, um ponto na história em que se pode dizer que poderemos ter um super computador quase tão poderoso quanto o cérebro humano.

Mas o que isso significa? O que significa ser tão poderoso quanto o cérebro humano? Se o cérebro humano é poderoso por fazer parte de um sistema dinâmico do qual participam nosso corpo com suas especificidades, o ambiente em que estamos inseridos, as tecnologias com as quais nos relacionamos e a sociedade de que fazemos parte, essa colocação dá muito o que pensar. Afinal, não é o cérebro sozinho que é “poderoso”, mas o sistema humano em interação com a natureza…

Vejamos agora este trecho:

“So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works.

Neste trecho, Domingos diz que o que está impedindo a IA de ir mais longe é a falta de entendimento acerca de como o processo de aprendizagem acontece. Esse é o ponto (ou um dos) que leva a haver tanta pesquisa em cognição humana: ainda não se sabe como aprendemos e há muito o que se investigar sobre isso. Então, pode-se dizer que há algo em comum entre as investigações em machine learning e em educação: entender como o ser humano aprende. Se depender disso para que a aprendizagem de máquina avance, parece que isso ainda demora… 😉

If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board”.

No trecho acima, o destaque vai para o desenvolvimento de um algoritmo que seria capaz de se sair tão bem na atividade de aprender quanto o cérebro humano. Mas será que a aprendizagem é mesmo algo que se deve a um algoritmo no cérebro humano? Como já reforcei acima, não parece ser o cérebro humano que aprende, sozinho. Se o nosso processo de estar no mundo, com um corpo, vivendo, experimentando, nos leva a aprender, como propõem as teses ligadas aos 4Es, como é que um algoritmo no cérebro daria conta disso tudo? Será que é mesmo assim que a cognição funciona?

Toda essa conversa levanta também questões como o que seria a inteligência humana, o que é aprendizado e o que a engenharia de software quer dizer quando afirma que um sistema aprende a partir de algoritmos – assunto que pretendo explorar no próximo post desta série…

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 1

Estou entrando no meu segundo ano de doutorado e agora estou focada em dois dos tópicos da minha pesquisa: 1) Estudar fenomenologia e pós-fenomenologia; 2) Estudar machine learning.

A minha pesquisa de doutorado é em filosofia da educação/filosofia da tecnologia, já que a minha inquietação é com as tecnologias digitais no contexto da educação. Tomo como base, porém, um referencial teórico menos comum nessa área que é o dos 4Es da cognição – um conjunto de teses e argumentos filosóficos que vêm sendo desenvolvido a muitas mãos por diversos pesquisadores que buscam entender como a mente humana funciona. Esses pesquisadores trabalham diversos tópicos relacionados à atividade cognitiva humana, como a percepção, a memória, a aprendizagem, a questão das representações, entre outros, levantando importantes questões ainda não resolvidas acerca desses elementos. Uma introdução bastante didática aos 4Es encontra-se no livro “A Mente Humana para Além do Cérebro”, que lancei em Portugal com outros vários pesquisadores em novembro de 2019, link para o PDF aqui.

Neste post, vou focar no segundo tópico de meus estudos atuais, o machine learning.

Uma pesquisa sempre parte de perguntas, já que nós, pesquisadores, desejamos ir em busca de respostas para alguma coisa. No caso da minha pesquisa de doutorado, ainda estou trabalhando para formular minhas perguntas, mas, a partir das inquietações que venho apresentando, posso dizer que a pergunta mais ampla seria como a inteligência artificial pode contribuir para a educação. Porém, essa indagação precisa ser lida de um modo mais amplo do que o da simples e imediata aplicação; não quero perguntar como a IA pode ajudar a educação partindo do pressuposto de que já ajuda (muito menos de que concentra todas as soluções), e que então precisamos entender como aplicá-la em sala de aula, mas um passo anterior, digamos assim. Como é que, entendendo a inteligência artificial e os questionamentos que ela suscita, nós podemos pensar sobre aprendizagem & tecnologias digitais? Quais as questões despertadas no âmbito da IA que, revelando aspectos da cognição humana, podem contribuir para pensarmos a educação, vista aqui de maneira mais ampla do que a sala de aula; a educação como aprendizagem de um modo geral, um estar-no-mundo baseado em um processo contínuo de aprendizagem?

Para ir em busca da compreensão de tais questões, cuja fundamentação é filosófica, neste momento estou em busca de compreender os desafios que impulsionam os pesquisadores da IA. O que eles querem encontrar? O que pretendem? O que sentem que falta nas pesquisas deles para que cheguem aonde desejam? Aonde eles desejam chegar?

Preciso, também, entender quais os cruzamentos que poderiam ser estabelecidos entre os questionamentos dos pesquisadores da IA e os questionamentos filosóficos para a tecnologia – uma vez que o aporte teórico que escolhi é aquele relacionado às abordagens cognitivas atuais, estou fazendo uma jornada rumo à fenomenologia, que trata de aspectos essenciais da percepção humana, do nosso estar no mundo, da forma como percebemos as coisas e agimos a partir de tais percepções; a fenomenologia é capaz de estabelecer um contraponto especial com a IA por vários motivos, entre eles por ir fundo nas questões do corpo, defendendo um estar no mundo corporificado que leva em conta as nossas características orgânicas de um modo muito particular e com muitas possíveis aplicações. Em breve farei um post sobre fenomenologia e um sobre pós-fenomenologia, a qual é bastante voltada para as questões específicas da relação humana com a tecnologia.

Em busca de questionamentos que marcam o campo da IA, buscando ampliar aqueles que já conheço superficialmente, tenho lido artigos e livros e recentemente ingressei num curso online da University of London disponível no Coursera que tem bastante material sobre o assunto – indicações de livros, links e vídeos. Foi como conheci o nome do engenheiro e pesquisador da IA Pedro Domingos, que neste vídeo (desculpem, é no site da IBM, que não permite embedar o vídeo aqui) resume um dos problemas que impulsionam a IA, hoje.

O vídeo diz o seguinte (segue a transcrição completa):

People often ask me – what’s the relationship between AI and machine learning and big data? Machine learning is the subfield of AI that deals with getting computers to learn. So you can think of AI as the planet that we’re going to, and machine learning as the rocket that will get us there, and big data as the fuel for that rocket.

There are many examples of AI and machine learning at work in the world today, that touch people’s everyday lives, but they aren’t even aware of it. For example, every time you do a web search, when Netflix recommends a movie, when Facebook selects posts, when Amazon recommends a book, it’s machine learning that’s doing that. Then there are people who apply machine learning and AI in things like robotics, and vision, and natural language processing, or medicine, or oceanography, or social science, you name it.

We’ve gotten very far in AI in the first 50 years. There’s a million miles more to go. So we’re going to need a lot of compute power that is specialized for things like machine learning. I think Intel has something very important to contribute to all of this which is at the end of the day, it all starts with the hardware.

Intel is in the leading position to bring us the hardware and the architectures to try to foster this open community that we really do need to make progress.

We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain. So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works. If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board.

As partes em itálico na transcrição são marcações minhas. Vou falar sobre elas no segundo post que escrevi sobre isso, sigam-me se ficaram curiosos 😉

Imagem do post: Clarisse Croset @ Unsplash

Leia o próximo post:

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

Are robots the teachers of the future?

Are robots the teachers of the future? Are we going to lose (all) our jobs to artificial intelligence machines? Is the Digital Singularity human’s inescapable future?
 
These questions are on the cutting edge when it comes to the relationship between human cognition and digital technologies. Hence, they also affect the way we glimpse the future of education. These subjects are closely related to questions about the human cognitive system: how do we perceive the world? How do we learn? What makes us cognizers, in the deepest sense of the term? How do we experience the world we inhabit?
 
Our close relationship with technologies transmutes us into cyborgs, according to the philosopher Andy Clark, author of Natural born Cyborgs (2003) and one of the developers of the Extended Mind Thesis. Clark’s thesis advocates that humans extend their cognitive systems through technologies, not only digital but of all kinds. And this ability to integrate these artifacts into our cognitive circuitry, linked to our capacity to transform the environment and be altered by it, would be some of the main elements to distinguish us from other animals. As natural beings, we are in a continuous circular movement with nature, its creatures, plants, all living beings. This connection between experience and nature is part of the philosophy of John Dewey and some ideas that resemble his are also present in the theses of philosophers like Maurice Merleau-Ponty and Hubert Dreyfus. They hold that we are much more than computer-like processing machines, defending that there is much more to human cognition than information processing. Or, as the philosopher Alva Noë and the psychologist James Gibson would say, perception and action cannot be segregated, because we act in order to perceive: without action, there would be no perception at all. This perspective is connected to the enactive cognition approach, one of the contemporary research lines linked to cognition and the human mind.
 
The extended and the enactive cognitive approaches show we are far from being replaceable by robots. Unless artificial intelligence machines become more than input-output information crunchers, they will not be able to simulate some of the most important features of human cognition, and it will be hard for them to substitute us in a range of activities in which our experience is irreplaceable. In what concerns teaching and learning, emotions are a fundamental part of the process – according to philosophers like Dreyfus and the neuroscientist António Damásio, author of Descartes’ Error and The Strange Order of Things. Robots don’t have feelings. Therefore, machines are not able to actually learn anything. So, we could ask: are “creatures” not able to learn skilled to teach? Unless they become sentient, conscious creatures, these systems will probably not be able to become teachers, and will remain, at best, auxiliaries to teaching. So, as these features remain far from reality concerning A.I., we can give a shot at the question in the first paragraph of this text: robots may be the teachers of a distant future, but they are certainly not able to replace our teachers in the present.
 
Some references for those who want to read more: