O que Arquitetura de Informação e UX têm a ver com Inteligência Artificial?

O que Arquitetura de Informação e UX têm a ver com Inteligência Artificial?

A arquitetura de informação é um conceito que se relaciona com um outro, mais amplo: o de Experiência do Usuário, ou UX – User Experience. Quando você navega em um ambiente virtual e consegue fazer tudo o que precisa, encontra as informações que esperava num tempo razoável, se sente bem navegando ali sem se perder e tudo o mais, você tem uma boa EXPERIÊNCIA com aquele ambiente digital, que pode ser um site, um ambiente de aprendizagem virtual ou um aplicativo. Quando é assim, e a sua experiência flui bem, curiosamente, você provavelmente quase nem percebe a forma como aquele site se estrutura. Mas, se algo sai errado, logo vamos perceber o que a arquitetura de informação teve a ver com isso (além do conteúdo em si, é claro).

Arquitetura de informação, então, é a maneira como organizamos as informações em um determinado ambiente para que elas se tornem alcançáveis, visíveis; para que não somente o Google e outros buscadores as encontrem (sim, os buscadores encontram melhor e mais rapidamente sites bem construídos, tanto em termos do código bem feito como da organização das informações; isso também tem a ver com SEO, as técnicas de otimização para buscas) como para que pessoas, em diversas condições, as encontrem também – independentemente de estarem usando um celular para isso ou um computador, e de terem ou não uma deficiência, por exemplo. O ramo dedicado a questões específicas de usabilidade para pessoas com deficiência é o da acessibilidade – aliás, um campo de estudo muito vasto e incrivelmente sedutor.

Bem, mas, voltando: o que é que toda essa ciência de organizar dados e informações de uma maneira que nós conseguimos nos entender com eles tem a ver com inteligência artificial? Bem, a inteligência artificial é muitas coisas, e não venho aqui defini-la, mas, de um modo geral, a IA se baseia na maneira como funcionamos ou, ao menos, como se acredita que funcionamos. Isso ela tem em comum com a arquitetura de informação: ao construir um ambiente digital, levamos em conta o mindset das pessoas (os usuários); a maneira como geralmente as pessoas classificam informações, fazem buscas etc. Para compreender isto, usamos métricas que vão nos mostrando os caminhos realizados.

Do mesmo modo, na inteligência artificial, procura-se construir sistemas a partir daquilo que se entende acerca do funcionamento cognitivo de seres humanos – seja para construir sistemas à semelhança de nossos sistemas cognitivos, seja para construir sistemas que nos atendam na realização de nossas tarefas que envolvem cognição.

 Imagem: niklas_hamann on Unsplash

Vamos pensar num exemplo que envolva uma questão de arquitetura de informação para depois analisá-lo à luz da IA: ao construir um site de decoração, pode-se imaginar que o usuário interessado em decorar sua casa vai chegar e buscar por “abajur amarelo”, porque deseja comprar um abajur amarelo, ora pois. Se ele assim o fizer, e a busca do site funcionar, verá resultados para abajures exatamente dessa cor. Mas, e se esse usuário que quer decorar sua casa chegar ao site sem ter tanta ideia de qual cor de abajur ficaria bom no ambiente da casa dele, ou se ele nem mesmo souber direito quais os elementos que deseja usar para decorar seu lar – uma luminária, uma mesinha, um tapete? Que tipo de busca ele vai fazer? Ele provavelmente nem vai ficar só na busca. Ele vai clicar em muitas coisas. Vai escrever vários termos no campo de busca. Vai ver muitas fotos, e por aí vai; até ter as ideias de que necessita para sua decoração.

O ponto é que, no geral, nós parecemos ser muito mais como o segundo decorador do que como o primeiro, quando se trata de viver experiências no mundo. Não temos tudo definido e perfeitamente organizado em nossas cabeças. Quando falamos, não tínhamos previamente todos os pensamentos organizados, que vão então sendo expelidos: nós pensamos ao falar e, ao falar, vamos pensando. Quando caminhamos, não temos mapas internos de todos os lugares para onde vamos, que acessamos quando precisamos: nós nos baseamos no entorno, nas pistas visuais que nos ajudam em nossa localização. Quando lidamos com uma certa situação, não temos listas mentais de opções quanto ao que fazer para acessar e fazer nossas escolhas: quando tomamos decisões e fazemos opções, entram em jogo nossas experiências anteriores, a maneira como nos sentimos – as emoções e sentimentos, e tantos outros fatores.

O engraçado é que, quando algo dá errado, passamos às vezes a refazer os nossos passos, rever mentalmente nossas opções, e até tentamos buscar um mapa mental para evitar nos perdermos. Quando isso acontece, ficamos mais parecidos com o que falei no começo do texto; parece que algo dá errado na fluidez da nossa experiência, de maneira parecida com aquele momento em que algo parece errado na arquitetura de informação de um site. Ficamos mais “robóticos”? Será que isso não revela bastante sobre a maneira como um robô trabalha, versus a maneira como nós lidamos com o mundo em que estamos inseridos?

Essas são questões que, acredito, podem nos levar a decisões importantes sobre a construção de espaços digitais. Como a minha maior preocupação é com a educação, volto-me mais para a construção de espaços de aprendizagem (mas creio que a internet toda é um espaço de aprendizagem!). Precisamos descobrir como a cognição humana funciona, se quisermos construir bons ambientes de aprendizagem virtuais. Conhecer e pensar sobre tudo isso ajuda também a quem deseja melhorar a experiência de seus consumidores em uma loja virtual, por exemplo; ou em um app dedicado a um serviço. Por vezes, as métricas são suficientes, mas na maior parte do tempo há muito que elas não revelam, principalmente se não estiverem ajustadas para os KPIs corretos e baseadas em premissas que façam sentido. Mas isso é tema para outro post 😉

Imagem principal do post: Halacious @Unsplash

Seguem alguns links interessantes sobre IA + UX:

UX of AI

Human-centered machine learning

Machine Learning is Very Much a UX Problem

Google Design – The UX of AI

Inteligência Artificial & Inteligência Emocional

Anotei e trago aqui alguns pontos interessantíssimos do debate que assisti nesta quarta, 29 de julho, com a pesquisadora em IA e ética Dora Kaufman e o CCO da Figtree, Ricardo Figueira, sobre inteligência artificial e inteligência emocional. O debate rolou no Instagram do Clube de Criação (@clubedecriacao).

  • Você quer usar tecnologias de IA na sua empresa/no seu negócio, num empreendimento, num sistema de ensino? Pense no problema que você precisa resolver, antes de pensar na tecnologia. Isso vale para qualquer tecnologia: ela vem para ajudar a resolver alguma questão, dificuldade etc. É preciso um propósito, sempre! Super concordo com isso. Precisamos sempre refletir e analisar aquilo que precisamos resolver para, então, tomar uma decisão sobre qual tecnologia escolher ou desenvolver. Já passei por diversas situações em que foi preciso relembrar os envolvidos no projeto acerca disso. A IA, da mesma forma, é atraente e tem muitas utilidades, mas é preciso pensar para que se quer utilizá-la, e então tomar uma decisão.
  • A IA não é, portanto, uma decisão da TI de uma empresa: é preciso mudar a cultura. E é o propósito que impulsiona a transformação digital de uma empresa. Cada negócio tem a sua necessidade e traz diferentes necessidades de usos de tecnologias. A cultura só muda a partir daí. Vivi bastante isso quando trabalhei num grande jornal que estava implementando a sua transformação digital, por exemplo. Não me refiro particularmente ao uso da IA, que não era o foco da empresa, mas de tecnologias digitais em geral, que foram alvo de muita resistência por parte de funcionários e até gerentes. A cultura, se emperrada não traz transformação.
  • Por trás das grandes empresas de tecnologias está a IA: Google, Amazon etc. O modelo de negócios delas é a inteligência de dados, e os modelos de IA são usados para extrair informações para a criação de serviços mais adaptados a seus públicos. Desse modo, a IA permeia diversas soluções tecnológicas que já estão entre nós;
  • A tecnologia dos bots/chatbots é a mais popular entre as empresas hoje (ex. a IA Bia do Bradesco). Mas as pessoas, segundo pesquisas, não gostam de se relacionar com máquinas e sim com pessoas (mesmo que humanos falhem mais!). Isso aponta para uma questão cultural. Um exemplo dado por Kaufman foi o do Japão: devido à crença no animismo (segundo a qual objetos também têm espírito), os robôs cuidadores são comuns, por exemplo; enquanto, para nós no Brasil, o valor das relações passa pelo olho no olho. Conheço pesquisas sobre robôs cuidadores em Portugal, também, algumas estavam indo bem até onde sei. Mas esse ponto levantado me fez repensar alguns aspectos que venho pesquisando em Hubert Dreyfus, filósofo que desenvolveu uma crítica à IA e sempre defendeu a ideia de que emoções são essenciais para a cognição. Ele menciona a questão do olho no olho na sala de aula: quando estamos online, acaba faltando esse cara a cara, típico do presencial. Quais as consequências disso? São mais relevantes/complexas quando se trata de educação do que de aplicações comerciais e/ou de entretenimento? Tendo a pensar que sim, mas sigo investigando.
  • Também temos, por outro lado, a característica de nos adaptar às transformações. Quanto ao uso de bots, por exemplo, 90% das perguntas feitas por usuários são perguntas padrão: podem, assim, ser previstas. Então, será que não podemos ter robôs respondendo a 95% delas, rápida e precisamente, e pessoas respondendo aos outros 5%, sem prejuízos para nossas interações e resoluções de problemas? Parece que sim. Outro dia, em meio à pandemia, troquei de operadora de celular e fiz tudo pela IA das operadoras, online. Gostei da experiência.
  • Entre os principais pontos de atenção da IA estão as questões éticas advindas do grande acúmulo e circulação de dados, pois eles podem sair do controle. Questões de privacidade surgem aí. Surgem também desigualdades no mercado de trabalho, que coloca as pessoas mais qualificadas (em menor quantidade) em uma ponta e um grande conjunto da população em outra ponta, muito mais numerosa, impactada pela perda de empregos em que a substituição pela tecnologia passa a predominar. Adiciono a essa questão ética uma que mencionei outro dia nesta live da TV PUC, e que diz respeito a educação e democracia: o acesso a tecnologias pode potencializar a cognição, especialmente no caso de tecnologias assistivas (utilizadas por pessoas com deficiência). Mas, como fica o caso das pessoas que não podem acessar essas tecnologias? Isso ficou bastante explícito e radicalmente posto no momento da pandemia, quando inúmeros estudantes, sem acesso à internet, ficaram sem poder assistir às aulas da escola ou faculdade, ou seguir estudando online de alguma maneira. Temos um problema ético, ou melhor, vários.
  • O modelo de deep learning é um modelo estatístico que tem uma capacidade de fornecer um conjunto de milhões de dimensões, enquanto modelos estatísticos tradicionais têm uma capacidade muito menor de fazer isso. Para sistemas de reconhecimento facial, por exemplo, isso faz toda a diferença. As expressões são captadas em detalhes, até mesmo em entrevistas de emprego em que algoritmos agem para identificar a forma como candidato se expressa (já tinha pensado nesse uso da IA? Eu não tinha!)
  • Esses modelos de aprendizagem de máquina correlacionam variáveis que fogem às ações do próprio programador. Eles não usam apenas variáveis pré-programadas. Esse é um ponto bastante importante e que deixa várias dúvidas, uma espécie de caixa preta da IA. Andy Clark fala sobre isso, se não me engano, em Mindware, este livro aqui.
  • Kaufman destacou que precisamos criar uma parceria com os modelos de IA, e podemos fazer isso compreendendo-os, conhecendo esse sistemas minimamente. Não só concordo com ela como falei sobre isso também na live da TV PUC, que já mencionei, bem como nos meus trabalhos acadêmicos. Conhecendo a IA, ainda que de maneira limitada; compreendendo seus usos possíveis, podemos nos posicionar criticamente em relação a essas tecnologias. Isso é fundamental. Temos que conhecer nossas potencialidades, nossas limitações e as potencialidades das tecnologias quando nos unimos a elas. A educação precisa conhecer essas tecnologias. Tememos o que não conhecemos…
  • Figueira destacou que precisamos compreender como as pessoas funcionam, sentem etc, para conseguirmos progredir mais nas tecnologias e em nossa relação com elas. Eu não podia concordar mais, tanto que dedico minha pesquisa de doutorado ao estudo da cognição na educação com foco nas emoções e no corpo. E Kaufman destacou que precisamos também conhecer sobre como as máquinas funcionam. Sim, totalmente. Os dois lados da mesma moeda, como a mente e o mundo na fenomenologia.

Introdução à Fenomenologia com Hubert Dreyfus

Hubert Dreyfus foi um filósofo que deixou como legado uma interpretação de conceitos da fenomenologia advindos de Husserl, Heidegger e Merleau-Ponty aplicados à inteligência artificial. Descobrir os conceitos da fenomenologia por meio dos ensinamentos desse filósofo é uma aventura bastante interessante e rica, que promete subverter muitas ideias pré concebidas que possamos ter da nossa existência no mundo.

Fiz aqui uma seleção de vídeos em que Dreyfus comenta alguns conceitos fundamentais da fenomenologia, que podem ser úteis para quem deseja entrar nesse universo.

Gap sujeito-objeto

Neste primeiro vídeo, na primeira parte da entrevista (chamada Fenomenologia), Dreyfus comenta sobre os movimentos de Heidegger contra a distinção sujeito-objeto cartesiana. Para a fenomenologia, não há um abismo entre sujeito e objeto, ou um gap; sujeito e objeto precisam um do outro para existir. Como aprendemos sobre o mundo? Não é armazenando uma série de fatos em nossas cabeças. Nós aprendemos na medida em que vamos discriminando o mundo, e assim ele vai se descortinando para nós. Merleau-Ponty compara esse fenômeno a uma cidade que a princípio não conhecemos e então nos parece caótica. Na medida em que a experimentamos, na medida em que a conhecemos, nós nos apropriamos dessa cidade e passamos a ser capazes de caminhar, de nos localizar por ela. Não precisamos de modelos do mundo armazenados em nossas mentes porque o mundo é o melhor modelo de si mesmo, diz Dreyfus, em clara referência à frase famosa do roboticista Rodney Brooks, “The world is its own best model”.

Na parte chamada de Inteligência Artificial, Dreyfus comenta sobre a premissa equivocada da IA, que partiu da ideia de que armazenamos representações do mundo, e sobre como isso não poderia dar certo porque não é assim que humanos funcionam. Ele explica o frame problem na IA (mais ou menos aos 13′ do vídeo) e comenta sobre a dificuldade de incutir, nas máquinas, conhecimentos do senso comum.

Imagem do post: Sharon McCutcheon @ Unsplash

Participei da live da PUC-Rio sobre inteligência artificial

Participei de uma das entrevistas ao vivo da série que a TV PUC-Rio criou no intuito de desenvolver temas que se relacionem de alguma maneira com a COVID. Esta teve a ver com inteligência artificial e internet das coisas. Ao lado de dois professores da PUC-Rio, comentei sobre a minha pesquisa em educação e IA sob o viés da filosofia e da educação. O debate pode ser assistido no link a seguir.

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

No primeiro post sobre as investigações que marcam os campos da IA, machine learning e cognição, comentei sobre o vídeo do Pedro Domingos sobre machine learning. Aqui, discuto um pouco do que ele falou, contrapondo com questões dos 4Es da cognição que venho pesquisando e também comentando aqui no blog:

“We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain

Vamos olhar para este trecho: Domingos diz que atingimos, pela primeira vez, um ponto na história em que se pode dizer que poderemos ter um super computador quase tão poderoso quanto o cérebro humano.

Mas o que isso significa? O que significa ser tão poderoso quanto o cérebro humano? Se o cérebro humano é poderoso por fazer parte de um sistema dinâmico do qual participam nosso corpo com suas especificidades, o ambiente em que estamos inseridos, as tecnologias com as quais nos relacionamos e a sociedade de que fazemos parte, essa colocação dá muito o que pensar. Afinal, não é o cérebro sozinho que é “poderoso”, mas o sistema humano em interação com a natureza…

Vejamos agora este trecho:

“So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works.

Neste trecho, Domingos diz que o que está impedindo a IA de ir mais longe é a falta de entendimento acerca de como o processo de aprendizagem acontece. Esse é o ponto (ou um dos) que leva a haver tanta pesquisa em cognição humana: ainda não se sabe como aprendemos e há muito o que se investigar sobre isso. Então, pode-se dizer que há algo em comum entre as investigações em machine learning e em educação: entender como o ser humano aprende. Se depender disso para que a aprendizagem de máquina avance, parece que isso ainda demora… 😉

If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board”.

No trecho acima, o destaque vai para o desenvolvimento de um algoritmo que seria capaz de se sair tão bem na atividade de aprender quanto o cérebro humano. Mas será que a aprendizagem é mesmo algo que se deve a um algoritmo no cérebro humano? Como já reforcei acima, não parece ser o cérebro humano que aprende, sozinho. Se o nosso processo de estar no mundo, com um corpo, vivendo, experimentando, nos leva a aprender, como propõem as teses ligadas aos 4Es, como é que um algoritmo no cérebro daria conta disso tudo? Será que é mesmo assim que a cognição funciona?

Toda essa conversa levanta também questões como o que seria a inteligência humana, o que é aprendizado e o que a engenharia de software quer dizer quando afirma que um sistema aprende a partir de algoritmos – assuntos que pretendo explorar.

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 1

Estou entrando no meu segundo ano de doutorado e agora estou focada em dois dos tópicos da minha pesquisa: 1) Estudar fenomenologia e pós-fenomenologia; 2) Estudar machine learning.

A minha pesquisa de doutorado é em filosofia da educação/filosofia da tecnologia, já que a minha inquietação é com as tecnologias digitais no contexto da educação. Tomo como base, porém, um referencial teórico menos comum nessa área que é o dos 4Es da cognição – um conjunto de teses e argumentos filosóficos que vêm sendo desenvolvido a muitas mãos por diversos pesquisadores que buscam entender como a mente humana funciona. Esses pesquisadores trabalham diversos tópicos relacionados à atividade cognitiva humana, como a percepção, a memória, a aprendizagem, a questão das representações, entre outros, levantando importantes questões ainda não resolvidas acerca desses elementos. Uma introdução bastante didática aos 4Es encontra-se no livro “A Mente Humana para Além do Cérebro”, que lancei em Portugal com outros vários pesquisadores em novembro de 2019, link para o PDF aqui.

Neste post, vou focar no segundo tópico de meus estudos atuais, o machine learning.

Uma pesquisa sempre parte de perguntas, já que nós, pesquisadores, desejamos ir em busca de respostas para alguma coisa. No caso da minha pesquisa de doutorado, ainda estou trabalhando para formular minhas perguntas, mas, a partir das inquietações que venho apresentando, posso dizer que a pergunta mais ampla seria como a inteligência artificial pode contribuir para a educação. Porém, essa indagação precisa ser lida de um modo mais amplo do que o da simples e imediata aplicação; não quero perguntar como a IA pode ajudar a educação partindo do pressuposto de que já ajuda (muito menos de que concentra todas as soluções), e que então precisamos entender como aplicá-la em sala de aula, mas um passo anterior, digamos assim. Como é que, entendendo a inteligência artificial e os questionamentos que ela suscita, nós podemos pensar sobre aprendizagem & tecnologias digitais? Quais as questões despertadas no âmbito da IA que, revelando aspectos da cognição humana, podem contribuir para pensarmos a educação, vista aqui de maneira mais ampla do que a sala de aula; a educação como aprendizagem de um modo geral, um estar-no-mundo baseado em um processo contínuo de aprendizagem?

Para ir em busca da compreensão de tais questões, cuja fundamentação é filosófica, neste momento estou em busca de compreender os desafios que impulsionam os pesquisadores da IA. O que eles querem encontrar? O que pretendem? O que sentem que falta nas pesquisas deles para que cheguem aonde desejam? Aonde eles desejam chegar?

Preciso, também, entender quais os cruzamentos que poderiam ser estabelecidos entre os questionamentos dos pesquisadores da IA e os questionamentos filosóficos para a tecnologia – uma vez que o aporte teórico que escolhi é aquele relacionado às abordagens cognitivas atuais, estou fazendo uma jornada rumo à fenomenologia, que trata de aspectos essenciais da percepção humana, do nosso estar no mundo, da forma como percebemos as coisas e agimos a partir de tais percepções; a fenomenologia é capaz de estabelecer um contraponto especial com a IA por vários motivos, entre eles por ir fundo nas questões do corpo, defendendo um estar no mundo corporificado que leva em conta as nossas características orgânicas de um modo muito particular e com muitas possíveis aplicações. Em breve farei um post sobre fenomenologia e um sobre pós-fenomenologia, a qual é bastante voltada para as questões específicas da relação humana com a tecnologia.

Em busca de questionamentos que marcam o campo da IA, buscando ampliar aqueles que já conheço superficialmente, tenho lido artigos e livros e recentemente ingressei num curso online da University of London disponível no Coursera que tem bastante material sobre o assunto – indicações de livros, links e vídeos. Foi como conheci o nome do engenheiro e pesquisador da IA Pedro Domingos, que neste vídeo (desculpem, é no site da IBM, que não permite embedar o vídeo aqui) resume um dos problemas que impulsionam a IA, hoje.

O vídeo diz o seguinte (segue a transcrição completa):

People often ask me – what’s the relationship between AI and machine learning and big data? Machine learning is the subfield of AI that deals with getting computers to learn. So you can think of AI as the planet that we’re going to, and machine learning as the rocket that will get us there, and big data as the fuel for that rocket.

There are many examples of AI and machine learning at work in the world today, that touch people’s everyday lives, but they aren’t even aware of it. For example, every time you do a web search, when Netflix recommends a movie, when Facebook selects posts, when Amazon recommends a book, it’s machine learning that’s doing that. Then there are people who apply machine learning and AI in things like robotics, and vision, and natural language processing, or medicine, or oceanography, or social science, you name it.

We’ve gotten very far in AI in the first 50 years. There’s a million miles more to go. So we’re going to need a lot of compute power that is specialized for things like machine learning. I think Intel has something very important to contribute to all of this which is at the end of the day, it all starts with the hardware.

Intel is in the leading position to bring us the hardware and the architectures to try to foster this open community that we really do need to make progress.

We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain. So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works. If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board.

As partes em itálico na transcrição são marcações minhas. Vou falar sobre elas no segundo post que escrevi sobre isso, sigam-me se ficaram curiosos 😉

Imagem do post: Clarisse Croset @ Unsplash

Leia o próximo post:

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

Are robots the teachers of the future?

Are robots the teachers of the future? Are we going to lose (all) our jobs to artificial intelligence machines? Is the Digital Singularity human’s inescapable future?
 
These questions are on the cutting edge when it comes to the relationship between human cognition and digital technologies. Hence, they also affect the way we glimpse the future of education. These subjects are closely related to questions about the human cognitive system: how do we perceive the world? How do we learn? What makes us cognizers, in the deepest sense of the term? How do we experience the world we inhabit?
 
Our close relationship with technologies transmutes us into cyborgs, according to the philosopher Andy Clark, author of Natural born Cyborgs (2003) and one of the developers of the Extended Mind Thesis. Clark’s thesis advocates that humans extend their cognitive systems through technologies, not only digital but of all kinds. And this ability to integrate these artifacts into our cognitive circuitry, linked to our capacity to transform the environment and be altered by it, would be some of the main elements to distinguish us from other animals. As natural beings, we are in a continuous circular movement with nature, its creatures, plants, all living beings. This connection between experience and nature is part of the philosophy of John Dewey and some ideas that resemble his are also present in the theses of philosophers like Maurice Merleau-Ponty and Hubert Dreyfus. They hold that we are much more than computer-like processing machines, defending that there is much more to human cognition than information processing. Or, as the philosopher Alva Noë and the psychologist James Gibson would say, perception and action cannot be segregated, because we act in order to perceive: without action, there would be no perception at all. This perspective is connected to the enactive cognition approach, one of the contemporary research lines linked to cognition and the human mind.
 
The extended and the enactive cognitive approaches show we are far from being replaceable by robots. Unless artificial intelligence machines become more than input-output information crunchers, they will not be able to simulate some of the most important features of human cognition, and it will be hard for them to substitute us in a range of activities in which our experience is irreplaceable. In what concerns teaching and learning, emotions are a fundamental part of the process – according to philosophers like Dreyfus and the neuroscientist António Damásio, author of Descartes’ Error and The Strange Order of Things. Robots don’t have feelings. Therefore, machines are not able to actually learn anything. So, we could ask: are “creatures” not able to learn skilled to teach? Unless they become sentient, conscious creatures, these systems will probably not be able to become teachers, and will remain, at best, auxiliaries to teaching. So, as these features remain far from reality concerning A.I., we can give a shot at the question in the first paragraph of this text: robots may be the teachers of a distant future, but they are certainly not able to replace our teachers in the present.
 
Some references for those who want to read more:

Inteligência Artificial Humanística

Neste vídeo do TED, Tom Gruber, criador da Siri (assistente pessoal baseado em inteligência artificial da Apple) fala sobre como o caminho da inteligência artificial é amplificar e potencializar as capacidades humanas, gerando conexões e facilitando nossas vidas. É nisso que acredito: não se trata de substituir humanos em atividades que desenvolvemos bem. As máquinas podem nos ajudar com aquelas tarefas nas quais não somos tão bons, nos liberando delas para que nos dediquemos a outras coisas. A cognição humana se expande quando as tecnologias cognitivas se expandem…

Foto do post: Greg Rakozy @ Unsplash

Inteligência Artificial: uma face obscura

A euforia em torno da evolução tecnológica no campo da inteligência artificial não pode ser uma empolgação ingênua. A face obscura do brilhantismo dessa (r)evolução existe, e demanda a nossa atenção. Os sistemas de inteligência artificial, afinal, são feitos por seres humanos, e seres humanos cometem erros, inúmeros erros, que são reproduzidos pela I.A. às toneladas, em poderosas escalas não-humanas. A solução para treinar bem tais máquinas que “pensam” começa, justamente, no pensamento. Pensamento em torno da inteligência artificial, pensamento em torno de aonde queremos chegar com as tecnologias cognitivas, pensamento acerca de quem nos torna(re)mos com tais evoluções tecnológicas.

Existem pessoas interessantíssimas pensando em temas como esses, e os aplicando em seu trabalho. Será que, então, o desenvolvimento das tecnologias cognitivas pode gerar uma evolução na própria sociedade, levando-nos a rever certos conceitos e preconceitos? Essa seria, sem dúvida, uma excelente consequência do crescimento tecnológico, talvez o melhor cenário possível.

Uma das pessoas cujo trabalho é movido por essas preocupações é australiana e se chama Kate Crawford; talvez você não consiga saber muito mais do que isso sobre ela – sua conta no LinkedIn Não tem foto, apesar de reportagem no El País trazer uma imagem dela – porque Crawford se preocupa com a disseminação de seus dados na rede e o que pode ser feito deles. Nós também deveríamos nos preocupar.

Não apenas a privacidade está no centro das atenções de Crawford, mas os vieses da sociedade que vêm sendo reproduzidos pela inteligência artificial. De que modo isso acontece? Ao treinarmos máquinas, transferimos a elas todo o nosso preconceito, impresso nos padrões que atribuímos aos sistemas para que se tornem “inteligentes”. “Esses padrões têm um viés, reproduzem estereótipos, e o sistema de inteligência artificial os toma como verdade única. Estamos injetando neles as nossas limitações, nossa forma de marginalizar”, disse Crawford ao El País.

Esse é um risco apontado por Andy Clark, filósofo da mente e pesquisador da cognição cujo trabalho venho acompanhando. Com um porém: Clark destaca que preconceitos assim começam a ser formados já em nossos cérebros, que, conforme ele explica em seu livro “Surfing Uncertainty” (2016), funcionam a partir de inúmeras camadas de neurônios responsáveis por fazer previsões nas quais nos baseamos para viver e agir no mundo. Por exemplo, uma pessoa que vive em uma cidade violenta como o Rio de Janeiro, acostumada a ouvir notícias sobre balas perdias, assaltos à mão armada e tiroteios poderia se assustar ao ver algo que se parecesse com uma arma por baixo da blusa de certa pessoa, mesmo que se tratasse de um objeto qualquer; e as consequências de um erro assim podem ser, literalmente, fatais. Mais sobre a visão de Clark acerca desse tema pode ser lido neste outro post que fiz sobre o assunto, há alguns meses.

Vale ler a entrevista com Kate Crawford no El País e dar uma olhada no site do AI Now Institute, fundado por ela.

Imagem do post: Lux Interaction @ Unsplash

 

Os museus e a inteligência artificial

Recentemente, tive o prazer de entrevistar profissionais do Museu do Amanhã e da Pinacoteca de São Paulo, além de um especialista da IBM, para escrever sobre o uso da inteligência artificial nesses dois museus. Trata-se de um recurso múltiplo, capaz de aproximar o público das exposições e envolver os visitantes em uma experiência diferente.

Há muitas incertezas no cenário do uso da I.A., seja em museus ou em qualquer contexto. Mas não há dúvidas de que a tecnologia abre vários caminhos novos para que o público explore formas inovadoras de se relacionar com as exposições nesses espaços de uma maneira mais ativa.

As entrevistas resultaram em uma matéria publicada no site Porvir.

Leia a matéria 

Foto do post: Guilherme Leporace/Museu do Amanhã