Pontos de Interrogação em IA, machine learning e cognição humana – Parte 1

Estou entrando no meu segundo ano de doutorado e agora estou focada em dois dos tópicos da minha pesquisa: 1) Estudar fenomenologia e pós-fenomenologia; 2) Estudar machine learning.

A minha pesquisa de doutorado é em filosofia da educação/filosofia da tecnologia, já que a minha inquietação é com as tecnologias digitais no contexto da educação. Tomo como base, porém, um referencial teórico menos comum nessa área que é o dos 4Es da cognição – um conjunto de teses e argumentos filosóficos que vêm sendo desenvolvido a muitas mãos por diversos pesquisadores que buscam entender como a mente humana funciona. Esses pesquisadores trabalham diversos tópicos relacionados à atividade cognitiva humana, como a percepção, a memória, a aprendizagem, a questão das representações, entre outros, levantando importantes questões ainda não resolvidas acerca desses elementos. Uma introdução bastante didática aos 4Es encontra-se no livro “A Mente Humana para Além do Cérebro”, que lancei em Portugal com outros vários pesquisadores em novembro de 2019, link para o PDF aqui.

Neste post, vou focar no segundo tópico de meus estudos atuais, o machine learning.

Uma pesquisa sempre parte de perguntas, já que nós, pesquisadores, desejamos ir em busca de respostas para alguma coisa. No caso da minha pesquisa de doutorado, ainda estou trabalhando para formular minhas perguntas, mas, a partir das inquietações que venho apresentando, posso dizer que a pergunta mais ampla seria como a inteligência artificial pode contribuir para a educação. Porém, essa indagação precisa ser lida de um modo mais amplo do que o da simples e imediata aplicação; não quero perguntar como a IA pode ajudar a educação partindo do pressuposto de que já ajuda (muito menos de que concentra todas as soluções), e que então precisamos entender como aplicá-la em sala de aula, mas um passo anterior, digamos assim. Como é que, entendendo a inteligência artificial e os questionamentos que ela suscita, nós podemos pensar sobre aprendizagem & tecnologias digitais? Quais as questões despertadas no âmbito da IA que, revelando aspectos da cognição humana, podem contribuir para pensarmos a educação, vista aqui de maneira mais ampla do que a sala de aula; a educação como aprendizagem de um modo geral, um estar-no-mundo baseado em um processo contínuo de aprendizagem?

Para ir em busca da compreensão de tais questões, cuja fundamentação é filosófica, neste momento estou em busca de compreender os desafios que impulsionam os pesquisadores da IA. O que eles querem encontrar? O que pretendem? O que sentem que falta nas pesquisas deles para que cheguem aonde desejam? Aonde eles desejam chegar?

Preciso, também, entender quais os cruzamentos que poderiam ser estabelecidos entre os questionamentos dos pesquisadores da IA e os questionamentos filosóficos para a tecnologia – uma vez que o aporte teórico que escolhi é aquele relacionado às abordagens cognitivas atuais, estou fazendo uma jornada rumo à fenomenologia, que trata de aspectos essenciais da percepção humana, do nosso estar no mundo, da forma como percebemos as coisas e agimos a partir de tais percepções; a fenomenologia é capaz de estabelecer um contraponto especial com a IA por vários motivos, entre eles por ir fundo nas questões do corpo, defendendo um estar no mundo corporificado que leva em conta as nossas características orgânicas de um modo muito particular e com muitas possíveis aplicações. Em breve farei um post sobre fenomenologia e um sobre pós-fenomenologia, a qual é bastante voltada para as questões específicas da relação humana com a tecnologia.

Em busca de questionamentos que marcam o campo da IA, buscando ampliar aqueles que já conheço superficialmente, tenho lido artigos e livros e recentemente ingressei num curso online da University of London disponível no Coursera que tem bastante material sobre o assunto – indicações de livros, links e vídeos. Foi como conheci o nome do engenheiro e pesquisador da IA Pedro Domingos, que neste vídeo (desculpem, é no site da IBM, que não permite embedar o vídeo aqui) resume um dos problemas que impulsionam a IA, hoje.

O vídeo diz o seguinte (segue a transcrição completa):

People often ask me – what’s the relationship between AI and machine learning and big data? Machine learning is the subfield of AI that deals with getting computers to learn. So you can think of AI as the planet that we’re going to, and machine learning as the rocket that will get us there, and big data as the fuel for that rocket.

There are many examples of AI and machine learning at work in the world today, that touch people’s everyday lives, but they aren’t even aware of it. For example, every time you do a web search, when Netflix recommends a movie, when Facebook selects posts, when Amazon recommends a book, it’s machine learning that’s doing that. Then there are people who apply machine learning and AI in things like robotics, and vision, and natural language processing, or medicine, or oceanography, or social science, you name it.

We’ve gotten very far in AI in the first 50 years. There’s a million miles more to go. So we’re going to need a lot of compute power that is specialized for things like machine learning. I think Intel has something very important to contribute to all of this which is at the end of the day, it all starts with the hardware.

Intel is in the leading position to bring us the hardware and the architectures to try to foster this open community that we really do need to make progress.

We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain. So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works. If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board.

As partes em itálico na transcrição são marcações minhas. Vou falar sobre elas no segundo post que escrevi sobre isso, sigam-me se ficaram curiosos 😉

Imagem do post: Clarisse Croset @ Unsplash

Leia o próximo post:

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

A Mente Humana para Além do Cérebro

Lançamento do nosso livro aconteceu em Coimbra em novembro

Estive em Coimbra, Portugal, para o Congresso Bem-Estar, Saúde, Cognição & Desenvolvimento, que aconteceu a partir de uma parceria entre o Instituto de Psicologia Cognitiva, Desenvolvimento Humano e Social da Universidade de Coimbra e a Fundação Beatriz Santos nos dias 28 a 30 de novembro.

Na ocasião, apresentei uma comunicação intitulada ” Uma Reflexão sobre a Inteligência Artificial para Além da Mente Representacional”, além do pôster “A Mente na Inteligência Artificial”. Foram realizadas diversas palestras interessantíssimas e me senti muito privilegiada de estar ao lado de pesquisadores tão feras. Pude conversar com muitos deles e isso me ajudou a pensar em diversos aspectos essenciais para a minha pesquisa de doutorado.

No Congresso aconteceu, ainda, o lançamento do livro A MENTE HUMANA PARA ALÉM DO CÉREBRO – PERSPECTIVAS A PARTIR DOS 4Es DA COGNIÇÃO, escrito a muitas mãos. Sou uma das organizadoras e autoras da obra, ao lado dos professores Eduardo Santos e Ralph Bannell e da pesquisadora Elsa Rodrigues. Mais sete autores colaboraram. A capa foi feita por um artista incrível de Portugal chamado Seixas Peixoto. O livro resulta do trabalho que temos realizado no E-Minds Lab, um grupo de estudos e pesquisas da Universidade de Coimbra do qual faço parte há cerca de dois anos. E está disponível em PDF neste link.

Foi lançado também o livro BRINCAR: DO CONCEITO ÀS PRÁTICAS, dos professores Ana Cristina Almeida e Eduardo Santos.

Que venham muitos projetos mais em 2020. É trabalhando que a gente resiste às intempéries deste nosso país e do mundo. Avante! FELIZ ANO NOVO A TODOS!

II Workshop sobre Enativismos

Estou participando do comitê de organização do II Workshop Enativismos, que acontecerá na PUC-Rio dias 13 e 14 de novembro. Além do workshop, haverá mesas-redondas e apresentações de trabalhos de mestrandos e doutorandos.

Enativismos são abordagens de estudo da mente humana e, consequentemente, da cognição, que enfatizam a participação da ação do corpo no ambiente. Ou seja, são abordagens que pensam muito além do cérebro quando se trata de perceber o mundo e aprender!

O tema pode ser novo para muita gente, principalmente no Brasil, mas é fascinante. A partir de tais debates, essencialmente filosóficos, conseguimos identificar implicações para estudos ligados aos campos da educação, psicologia, saúde, ciência da computação, inteligência artificial, tecnologias assistivas, tecnologias educacionais e muitos outros.

Para ministrar o workshop, convidamos o professor Juan Camilo Espejo-Serna, da Universidad de La Sabana, na Colômbia. Para saber mais sobre o workshop, clique aqui.

No dia 13, após o workshop, acontece a palestra de abertura com esse mesmo professor, com o tema “Computação radicalmente enativa“. Veja a descrição abaixo.

Além do workshop e da palestra, o evento contará com mesas -redondas ministradas pelos pesquisadores Ralph Ings Bannell (meu orientador de doutorado); Carlos Mario Márquez Sosa e Laura Machado Nascimento. Aqui tem informações sobre eles.

As inscrições precisam ser feitas antes do evento e são gratuitas. O formulário para fazer é este aqui

Se você quiser saber mais sobre o tema desse evento, entendendo já alguma coisa ou não; se ficou curioso(a) ou algo assim, este blog é para isso. Não se acanhe, pergunte. Nos vemos dias 13 e 14!

Palestra do dia 13:

Computação radicalmente enativa

Prof. Dr. Juan Camilo Espejo-Serna

Universidad de la Sabana, Colombia

November 13, 2019

Abordagens anti-representacionais nas ciências cognitivas, como o Enativismo Radical (Hutto and Myin 2013, 2017), são tipicamente tomadas como envolvendo a rejeição ao computacionalismo. Parte da razão parece ser a própria rejeição da representação, pois sem essa noção não há necessidade, ou mesmo lugar, para a noção de computação. Mas essa última noção tem um papel crucial em inúmeras explanações da cognição que fazem uso, por exemplo, de modelos computacionais para a mente; assim, eliminar a discussão sobre computação deixa o Enativismo em déficit. 

Apesar de o espírito do Enativismo Radical ser revolucionário, eu acredito que não haja necessidade de eliminar a computação. Nessa exposição, eu proponho uma visão radicalmente enativa de computação que não faz uso de representações. A ideia é que os modos dinâmicos e em loop através dos quais sujeitos interagem com seus ambientes são computações. Em um slogan: enação é computação. Para fazer sentido disso, explicarei o modo pelo qual uma dada interação com o ambiente é um processo computacional ao especificar a função sendo realizada. O núcleo do argumento dependerá de explicar como é possível especificar uma função sem mesmo um sentido mínimo de conteúdo representacional.


Materialidades é tema de seminário na PUC-Rio dia 16

Se você é de qualquer área de atuação, seja um pesquisador ou não, e tem curiosidade quanto às relações humanas com os mais variados artefatos materiais que nos cercam, esse encontro que acontecerá na PUC-Rio dia 16 de outubro, quarta agora, te interessa.

Explorações em Materialidades” discutirá temas tão diversos, mas com alguma coisa em comum, quanto máscaras, sangue, dinheiro e cabelo. Os debates seguirão três eixos: Natureza e Cultura, Mente, Self e Cognição, Material e o Simbólico.

A organização é da prof. Mylene Mizrahi e do prof. Ralph Bannell (departamento de Educação). Localização: PUC (Gávea), Auditório Padre Anchieta. Horário: das 9h às 19h. Gratuito. Mais informações: https://www.facebook.com/events/1147261502130639/

Primeira vez apresentando pôster em um evento acadêmico

Para quem não está familiarizado com a vida acadêmica e suas convenções, existe uma modalidade de apresentação em congressos e afins que é o pôster. O pesquisador produz um pôster contendo informações sobre o seu projeto de pesquisa e, se aprovado pela comissão do evento, expõe seu pôster na ocasião para que os visitantes leiam o que está escrito e esclareçam dúvidas.

Pela primeira vez, eu apresentei um pôster em um evento, e foi logo em um de alto gabarito, a reunião anual do INCog, o Grupo de Pesquisa Interdisciplinar em Neurociências e Cognição da PUC-Rio.

Foi uma experiência bastante interessante. Pessoas que visitaram meu pôster, que tinha como título A MENTE NA INTELIGÊNCIA ARTIFICIAL, ficaram curiosas em saber se eu achava que pessoas e robôs precisariam dos mesmos atributos para “aprender”; se eu acredito que haveria a necessidade de representações mentais para haver apreensão/percepção do mundo; de que forma eu consideraria que a IA poderia absorver questões relativas ao corpo e ao ambiente na cognição humana. Todas questões em aberto, sem respostas fechadas 😉 Agradeço muitíssimo a todos que me fizeram perguntas e contribuíram para o meu projeto de doutorado, que ainda estou desenhando.

http://www.camilaleporace.com.br/wp-content/uploads/2019/10/poster-incog-FINAL09OUT.pdf

Inteligência Artificial: uma face obscura

A euforia em torno da evolução tecnológica no campo da inteligência artificial não pode ser uma empolgação ingênua. A face obscura do brilhantismo dessa (r)evolução existe, e demanda a nossa atenção. Os sistemas de inteligência artificial, afinal, são feitos por seres humanos, e seres humanos cometem erros, inúmeros erros, que são reproduzidos pela I.A. às toneladas, em poderosas escalas não-humanas. A solução para treinar bem tais máquinas que “pensam” começa, justamente, no pensamento. Pensamento em torno da inteligência artificial, pensamento em torno de aonde queremos chegar com as tecnologias cognitivas, pensamento acerca de quem nos torna(re)mos com tais evoluções tecnológicas.

Existem pessoas interessantíssimas pensando em temas como esses, e os aplicando em seu trabalho. Será que, então, o desenvolvimento das tecnologias cognitivas pode gerar uma evolução na própria sociedade, levando-nos a rever certos conceitos e preconceitos? Essa seria, sem dúvida, uma excelente consequência do crescimento tecnológico, talvez o melhor cenário possível.

Uma das pessoas cujo trabalho é movido por essas preocupações é australiana e se chama Kate Crawford; talvez você não consiga saber muito mais do que isso sobre ela – sua conta no LinkedIn Não tem foto, apesar de reportagem no El País trazer uma imagem dela – porque Crawford se preocupa com a disseminação de seus dados na rede e o que pode ser feito deles. Nós também deveríamos nos preocupar.

Não apenas a privacidade está no centro das atenções de Crawford, mas os vieses da sociedade que vêm sendo reproduzidos pela inteligência artificial. De que modo isso acontece? Ao treinarmos máquinas, transferimos a elas todo o nosso preconceito, impresso nos padrões que atribuímos aos sistemas para que se tornem “inteligentes”. “Esses padrões têm um viés, reproduzem estereótipos, e o sistema de inteligência artificial os toma como verdade única. Estamos injetando neles as nossas limitações, nossa forma de marginalizar”, disse Crawford ao El País.

Esse é um risco apontado por Andy Clark, filósofo da mente e pesquisador da cognição cujo trabalho venho acompanhando. Com um porém: Clark destaca que preconceitos assim começam a ser formados já em nossos cérebros, que, conforme ele explica em seu livro “Surfing Uncertainty” (2016), funcionam a partir de inúmeras camadas de neurônios responsáveis por fazer previsões nas quais nos baseamos para viver e agir no mundo. Por exemplo, uma pessoa que vive em uma cidade violenta como o Rio de Janeiro, acostumada a ouvir notícias sobre balas perdias, assaltos à mão armada e tiroteios poderia se assustar ao ver algo que se parecesse com uma arma por baixo da blusa de certa pessoa, mesmo que se tratasse de um objeto qualquer; e as consequências de um erro assim podem ser, literalmente, fatais. Mais sobre a visão de Clark acerca desse tema pode ser lido neste outro post que fiz sobre o assunto, há alguns meses.

Vale ler a entrevista com Kate Crawford no El País e dar uma olhada no site do AI Now Institute, fundado por ela.

Imagem do post: Lux Interaction @ Unsplash