Participei da live da PUC-Rio sobre inteligência artificial

Participei de uma das entrevistas ao vivo da série que a TV PUC-Rio criou no intuito de desenvolver temas que se relacionem de alguma maneira com a COVID. Esta teve a ver com inteligência artificial e internet das coisas. Ao lado de dois professores da PUC-Rio, comentei sobre a minha pesquisa em educação e IA sob o viés da filosofia e da educação. O debate pode ser assistido no link a seguir.

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

No primeiro post sobre as investigações que marcam os campos da IA, machine learning e cognição, comentei sobre o vídeo do Pedro Domingos sobre machine learning. Aqui, discuto um pouco do que ele falou, contrapondo com questões dos 4Es da cognição que venho pesquisando e também comentando aqui no blog:

“We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain

Vamos olhar para este trecho: Domingos diz que atingimos, pela primeira vez, um ponto na história em que se pode dizer que poderemos ter um super computador quase tão poderoso quanto o cérebro humano.

Mas o que isso significa? O que significa ser tão poderoso quanto o cérebro humano? Se o cérebro humano é poderoso por fazer parte de um sistema dinâmico do qual participam nosso corpo com suas especificidades, o ambiente em que estamos inseridos, as tecnologias com as quais nos relacionamos e a sociedade de que fazemos parte, essa colocação dá muito o que pensar. Afinal, não é o cérebro sozinho que é “poderoso”, mas o sistema humano em interação com a natureza…

Vejamos agora este trecho:

“So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works.

Neste trecho, Domingos diz que o que está impedindo a IA de ir mais longe é a falta de entendimento acerca de como o processo de aprendizagem acontece. Esse é o ponto (ou um dos) que leva a haver tanta pesquisa em cognição humana: ainda não se sabe como aprendemos e há muito o que se investigar sobre isso. Então, pode-se dizer que há algo em comum entre as investigações em machine learning e em educação: entender como o ser humano aprende. Se depender disso para que a aprendizagem de máquina avance, parece que isso ainda demora… 😉

If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board”.

No trecho acima, o destaque vai para o desenvolvimento de um algoritmo que seria capaz de se sair tão bem na atividade de aprender quanto o cérebro humano. Mas será que a aprendizagem é mesmo algo que se deve a um algoritmo no cérebro humano? Como já reforcei acima, não parece ser o cérebro humano que aprende, sozinho. Se o nosso processo de estar no mundo, com um corpo, vivendo, experimentando, nos leva a aprender, como propõem as teses ligadas aos 4Es, como é que um algoritmo no cérebro daria conta disso tudo? Será que é mesmo assim que a cognição funciona?

Toda essa conversa levanta também questões como o que seria a inteligência humana, o que é aprendizado e o que a engenharia de software quer dizer quando afirma que um sistema aprende a partir de algoritmos – assunto que pretendo explorar no próximo post desta série…

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 1

Estou entrando no meu segundo ano de doutorado e agora estou focada em dois dos tópicos da minha pesquisa: 1) Estudar fenomenologia e pós-fenomenologia; 2) Estudar machine learning.

A minha pesquisa de doutorado é em filosofia da educação/filosofia da tecnologia, já que a minha inquietação é com as tecnologias digitais no contexto da educação. Tomo como base, porém, um referencial teórico menos comum nessa área que é o dos 4Es da cognição – um conjunto de teses e argumentos filosóficos que vêm sendo desenvolvido a muitas mãos por diversos pesquisadores que buscam entender como a mente humana funciona. Esses pesquisadores trabalham diversos tópicos relacionados à atividade cognitiva humana, como a percepção, a memória, a aprendizagem, a questão das representações, entre outros, levantando importantes questões ainda não resolvidas acerca desses elementos. Uma introdução bastante didática aos 4Es encontra-se no livro “A Mente Humana para Além do Cérebro”, que lancei em Portugal com outros vários pesquisadores em novembro de 2019, link para o PDF aqui.

Neste post, vou focar no segundo tópico de meus estudos atuais, o machine learning.

Uma pesquisa sempre parte de perguntas, já que nós, pesquisadores, desejamos ir em busca de respostas para alguma coisa. No caso da minha pesquisa de doutorado, ainda estou trabalhando para formular minhas perguntas, mas, a partir das inquietações que venho apresentando, posso dizer que a pergunta mais ampla seria como a inteligência artificial pode contribuir para a educação. Porém, essa indagação precisa ser lida de um modo mais amplo do que o da simples e imediata aplicação; não quero perguntar como a IA pode ajudar a educação partindo do pressuposto de que já ajuda (muito menos de que concentra todas as soluções), e que então precisamos entender como aplicá-la em sala de aula, mas um passo anterior, digamos assim. Como é que, entendendo a inteligência artificial e os questionamentos que ela suscita, nós podemos pensar sobre aprendizagem & tecnologias digitais? Quais as questões despertadas no âmbito da IA que, revelando aspectos da cognição humana, podem contribuir para pensarmos a educação, vista aqui de maneira mais ampla do que a sala de aula; a educação como aprendizagem de um modo geral, um estar-no-mundo baseado em um processo contínuo de aprendizagem?

Para ir em busca da compreensão de tais questões, cuja fundamentação é filosófica, neste momento estou em busca de compreender os desafios que impulsionam os pesquisadores da IA. O que eles querem encontrar? O que pretendem? O que sentem que falta nas pesquisas deles para que cheguem aonde desejam? Aonde eles desejam chegar?

Preciso, também, entender quais os cruzamentos que poderiam ser estabelecidos entre os questionamentos dos pesquisadores da IA e os questionamentos filosóficos para a tecnologia – uma vez que o aporte teórico que escolhi é aquele relacionado às abordagens cognitivas atuais, estou fazendo uma jornada rumo à fenomenologia, que trata de aspectos essenciais da percepção humana, do nosso estar no mundo, da forma como percebemos as coisas e agimos a partir de tais percepções; a fenomenologia é capaz de estabelecer um contraponto especial com a IA por vários motivos, entre eles por ir fundo nas questões do corpo, defendendo um estar no mundo corporificado que leva em conta as nossas características orgânicas de um modo muito particular e com muitas possíveis aplicações. Em breve farei um post sobre fenomenologia e um sobre pós-fenomenologia, a qual é bastante voltada para as questões específicas da relação humana com a tecnologia.

Em busca de questionamentos que marcam o campo da IA, buscando ampliar aqueles que já conheço superficialmente, tenho lido artigos e livros e recentemente ingressei num curso online da University of London disponível no Coursera que tem bastante material sobre o assunto – indicações de livros, links e vídeos. Foi como conheci o nome do engenheiro e pesquisador da IA Pedro Domingos, que neste vídeo (desculpem, é no site da IBM, que não permite embedar o vídeo aqui) resume um dos problemas que impulsionam a IA, hoje.

O vídeo diz o seguinte (segue a transcrição completa):

People often ask me – what’s the relationship between AI and machine learning and big data? Machine learning is the subfield of AI that deals with getting computers to learn. So you can think of AI as the planet that we’re going to, and machine learning as the rocket that will get us there, and big data as the fuel for that rocket.

There are many examples of AI and machine learning at work in the world today, that touch people’s everyday lives, but they aren’t even aware of it. For example, every time you do a web search, when Netflix recommends a movie, when Facebook selects posts, when Amazon recommends a book, it’s machine learning that’s doing that. Then there are people who apply machine learning and AI in things like robotics, and vision, and natural language processing, or medicine, or oceanography, or social science, you name it.

We’ve gotten very far in AI in the first 50 years. There’s a million miles more to go. So we’re going to need a lot of compute power that is specialized for things like machine learning. I think Intel has something very important to contribute to all of this which is at the end of the day, it all starts with the hardware.

Intel is in the leading position to bring us the hardware and the architectures to try to foster this open community that we really do need to make progress.

We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain. So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works. If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board.

As partes em itálico na transcrição são marcações minhas. Vou falar sobre elas no segundo post que escrevi sobre isso, sigam-me se ficaram curiosos 😉

Imagem do post: Clarisse Croset @ Unsplash

Leia o próximo post:

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

Are robots the teachers of the future?

Are robots the teachers of the future? Are we going to lose (all) our jobs to artificial intelligence machines? Is the Digital Singularity human’s inescapable future?
 
These questions are on the cutting edge when it comes to the relationship between human cognition and digital technologies. Hence, they also affect the way we glimpse the future of education. These subjects are closely related to questions about the human cognitive system: how do we perceive the world? How do we learn? What makes us cognizers, in the deepest sense of the term? How do we experience the world we inhabit?
 
Our close relationship with technologies transmutes us into cyborgs, according to the philosopher Andy Clark, author of Natural born Cyborgs (2003) and one of the developers of the Extended Mind Thesis. Clark’s thesis advocates that humans extend their cognitive systems through technologies, not only digital but of all kinds. And this ability to integrate these artifacts into our cognitive circuitry, linked to our capacity to transform the environment and be altered by it, would be some of the main elements to distinguish us from other animals. As natural beings, we are in a continuous circular movement with nature, its creatures, plants, all living beings. This connection between experience and nature is part of the philosophy of John Dewey and some ideas that resemble his are also present in the theses of philosophers like Maurice Merleau-Ponty and Hubert Dreyfus. They hold that we are much more than computer-like processing machines, defending that there is much more to human cognition than information processing. Or, as the philosopher Alva Noë and the psychologist James Gibson would say, perception and action cannot be segregated, because we act in order to perceive: without action, there would be no perception at all. This perspective is connected to the enactive cognition approach, one of the contemporary research lines linked to cognition and the human mind.
 
The extended and the enactive cognitive approaches show we are far from being replaceable by robots. Unless artificial intelligence machines become more than input-output information crunchers, they will not be able to simulate some of the most important features of human cognition, and it will be hard for them to substitute us in a range of activities in which our experience is irreplaceable. In what concerns teaching and learning, emotions are a fundamental part of the process – according to philosophers like Dreyfus and the neuroscientist António Damásio, author of Descartes’ Error and The Strange Order of Things. Robots don’t have feelings. Therefore, machines are not able to actually learn anything. So, we could ask: are “creatures” not able to learn skilled to teach? Unless they become sentient, conscious creatures, these systems will probably not be able to become teachers, and will remain, at best, auxiliaries to teaching. So, as these features remain far from reality concerning A.I., we can give a shot at the question in the first paragraph of this text: robots may be the teachers of a distant future, but they are certainly not able to replace our teachers in the present.
 
Some references for those who want to read more:

Lançamento do livro “O Corpo que nos Possui”

Dia 29 de junho, na PUC-Rio, acontece o lançamento do livro “O Corpo que nos Possui: Corporeidade e suas Conexões” (Editora Appris), que traz um capítulo escrito por mim e pelo professor Eduardo Santos, da Universidade de Coimbra. Temos realizado juntos pesquisas relacionadas a cognição e tecnologia, sendo esse o primeiro fruto concreto da nossa parceria. O coquetel será a partir das 18h no Solar Grandjean de Montigny. Nos vemos lá!

Clique para ampliar

 

Imagem do post: Franck V. @ Unsplash

Vida, ciência, tecnologia: seleção de reportagens e artigos

Train PhD students to be thinkers not just specialists

Aqui no Brasil, imagino que bastante gente não saiba que a sigla PhD quer dizer ‘Doctor of Philosophy’. Pode ser até porque seu significado, na prática, anda deixado de lado. A ideia dos pesquisadores Gundula Bosch e Arturo Casadevall, que estão por trás da R3 Graduate Science Initiative na Johns Hopkins Bloomberg School of Public Health, em Baltimore, Maryland, é fazer exatamente esse esforço: o de colocar o Ph de volta nessa sigla, para valer. Os pesquisadores alertam quanto à falta de pensamento crítico e de reflexão na formação de pesquisadores, e foi para mudar isso que criaram o programa.

Sem educação, os homens “vão matar-se uns aos outros”, diz António Damásio

O autor lançou um livro novo, “A estranha ordem das coisas”, que conta ser a continuação de “O erro de Descartes”, publicado há 22 anos. Para quem deseja saber mais sobre o papel das emoções nas decisões que tomamos, esse autor é importantíssimo.

Empresas tecnológicas barram pornô manipulado por inteligência artificial

Uma das preocupações que surgem com o desenvolvimento das tecnologias de inteligência artificial é a manipulação indevida de nossos dados e imagens. Imagina se seu rosto fosse “encaixado”, por meio de uma tecnologia, no corpo de atores/atrizes em um filme pornográfico? Aconteceu com algumas atrizes famosas, como mostra essa matéria do El País. E você aí achando que o maior perigo são os robôs.. que nada, são os humanos, mesmo…

A doença de Alzheimer não pode com a música

A música pode ser, para o cérebro, uma memória muito diferente das demais. Por isso, pessoas com Alzheimer são capazes de cantarolar canções antigas, apesar de terem dificuldade com outros tipos de conteúdo. Essa matéria fala sobre isso.

The “Father of Artificial Intelligence” Says Singularity Is 30 Years Away

Em cerca de 30 anos, as máquinas serão muito mais hábeis e rápidas que nossos cérebros, a tecnologia será mais barata, e assim teremos a singularidade tecnológica. É nisso que acreditam vários especialistas em inteligência artificial. Como venho repetindo por aqui, há pesquisadores que defendem que a questão não está apenas no cérebro, então… será que a singularidade tecnológica vai ser atingida mesmo somente com os devices feitos à semelhança de nossos neurônios e suas conexões? Bom, essa é mais uma matéria que diz que sim.

Imagem do post: Joel Filipe @ Unsplash

 

 

 

 

Os gestos e a cognição

Lembro bem de quando minha mãe me explicava química orgânica, em “aulas” na minha casa das quais também participavam meus colegas preocupados com o vestibular. Ela fazia gestos no ar, que representavam as cadeias de carbono. Com as mãos, nos fazia pensar em como as cadeias se conectavam. Aprendíamos com muito mais facilidade com aquele gestual todo, que complementava tão bem as explicações que ela dava.

Minha mãe nao é a única a gesticular bastante enquanto fala ou explica algo. Nasci em uma família de descendentes de italianos; gestos, portanto, são algo que não economizamos. É impressionante como mexemos as mãos ao falar! E não precisamos estar na presença da pessoa, gesticulamos quando falamos ao telefone também (e caminhamos para lá e para cá)…

Eis que na ciência cognitiva há uma explicação para essa profusão de gestos, sempre a acompanhar as palavras quando se trata não só da minha família, claro, mas de todos nós. Pesquisas apontam que os gestos são constitutivos dos nossos processos cognitivos, o que significa que vão muito além de simples expressões de pensamentos prontos. Os gestos são parte do processo de pensar. É nisso que acredita Andy Clark, que em seu livro Mindware – An Introduction to the Philosophy of Cognitive Science procura nos fazer refletir sobre o assunto destacando exatamente o exemplo que dei ali acima: gesticulamos ao falar com as pessoas ao telefone, ou seja, mesmo que nossos interlocutores não estejam nos vendo! Além disso, gesticulamos no escuro, quando ninguém pode ver, e também quando precisamos escolher entre algumas opções ou encontrar uma solução para determinado problema, em vez de apenas relatá-lo a alguém. Esses são indícios de que gesticular não tem a ver (ao menos não apenas) com transmissão de informação!

As mãos e a cognição

Provavelmente por conta disso é que as mãos se tornam grandes aliadas do processo de aprendizagem para as crianças, como defende a especialista em desenvolvimento cognitivo Susan Goldin-Meadow. A pesquisadora tem um trabalho interessantíssimo, voltado para o uso dos gestos no desenvolvimento da linguagem e de outras capacidades cognitivas.

Ela explica, no vídeo que está embedado a seguir, por que o uso das mãos é tão importante quando as crianças estão aprendendo. Ressalto que, nesse caso, o papel dos gestos manuais vai muito além do que normalmente se comenta com relação ao poder do uso das mãos em discursos e outras formas de comunicação: no caso da aprendizagem, não se trata apenas da importância dos gestos e das mãos para dar ênfase a pontos importantes passados aos alunos pelos professores; os gestos que os próprios alunos fazem durante a aprendizagem contribuem expressivamente para o processo, além de, quando observados, revelarem muito sobre o andamento desse processo para cada criança.

Talvez esse seja um excelente lembrete para evitarmos que as mãos de nossas crianças se limitem a apenas tocar as telas de tablets e smartphones:

Segundo a pesquisadora, famílias que gesticulam mais também contribuem para a formação do vocabulário de suas crianças – talvez seja essa uma das razões que me levaram a me apaixonar pela comunicação e então me tornar jornalista! Aliás, na faculdade de jornalismo fomos encorajados a deixar as mãos quietas enquanto falamos em público, mas se dependesse de ter sucesso nisso eu provavelmente não teria me formado… 🙂

 

 

Robôs: tecnologia corporificada?

O robô da foto acima é o Asimo, criado pela Honda. A primeira versão dele foi lançada em 1986. O Asimo anda, corre, sobre escadas, segura objetos, entende de comandos de voz; é um robô cada vez mais completo. Será mesmo?

Apesar de fazer tudo isso, Asimo consome 16 vezes mais energia que nós, humanos, para andar. Essa ineficiência energética decorre do fato de que, nesse robô, tudo é uma questão de processamento central: todo movimento que ele realiza, todas as suas ações são fruto de um design baseado em algoritmos, que resolvem questões relacionadas às funções da visão, navegação e do equilíbrio desse robô; os algoritmos passam instruções detalhadas para a máquina seguir.

Além da ineficiência energética, um outro problema que o Asimo enfrenta relaciona-se ao seu equilíbrio: ao caminhar sobre uma superfície plana, ele dá conta do recado. Mas, se precisar fazer movimentos para se resguardar de oscilações no chão, por exemplo, ele falha tentando realizar cálculos que o mantenham de pé.

Andrew D. Wilson é um cientista cognitivo interessado no estudo de robôs que conseguem aproveitar o ambiente para se saírem melhor nas tarefas para as quais são designados. Ele propõe em um artigo publicado no Psychology Today a comparação do Asimo a um outro robô, chamado Big Dog, desenvolvido pelo Leg Lab do MIT*. Contando com membros elásticos, ligamentos bem localizados, caudas que se movem corretamente por causa da forma como foram construídas, e não porque há um processador central no comando, diz Wilson, Big Dog se sai muito melhor do que Asimo no quesito movimentos corporais.

A forma como Big Dog foi pensado e construído voltou-se para o aproveitamento máximo do ambiente “real” (não de laboratório) com suas irregularidades e seus obstáculos. Esses elementos do ambiente, em conjunto com o “corpo” construído para o robô visando o melhor desempenho e fundamentado em suas características físicas, dá origem a um sistema dinâmico em que as partes se complementam. O resultado é que o Big Dog se sai muito bem em situações imprevisíveis; por exemplo, se cai, levanta; se é empurrado, seu “corpo” reage, e por aí vai.

O que esses robôs nos ensinam?

“A diferença entre os dois robôs é que o Asimo representa mentalmente suas habilidades, enquanto o Big Dog as corporifica”, diz Wilson. Isso significa que o Asimo precisa de um intrincado maquinário computacional, gerenciado por um processador central, capaz de apresentar um algoritmo para cada função que ele venha a exercer. Seu “corpo” é como se fosse um apêndice, um apoio; assim, para Wilson, o Asimo nao é de fato uma tecnologia corporificada: para sê-lo, precisaria de fato utilizar seu corpo e, na dinâmica com o ambiente, potencializar suas capacidades físicas. Esse é o caso do Big Dog e de muitos outros robôs, uma vez que essa tem sido a tendência no campo da inteligência artificial e da robótica.

Imagem: http://robohub.org/

O design do Asimo não reflete a forma como nós, humanos, funcionamos. Somos muito mais como o Big Dog.Nosso corpo aproveita o ambiente de diversas formas, algumas delas já exploradas aqui neste blog. Basta, para isso, nos observarmos andando a pé, correndo em ladeiras, pedalando bicicletas, andando de patins, enfim. Olhando para a forma de estarmos no mundo, de fato, poderemos ser melhores em produzir robôs. Mas para isso é necessário acreditar que nosso sistema cognitivo não se limita ao cérebro e que, acoplados ao ambiente, formamos com ele sistemas dinâmicos. Sobre isso, leia mais neste meu post aqui.

*Não encontrei, no site do MIT, o robô Big Dog, mas o artigo de Wilson é de 2012, então ele pode ter dado lugar a outros projetos (realmente não sei). De qualquer forma, a tendência no mundo da robótica é bem representada pelo Big Dog e por outros que você vê no MIT e em outros laboratórios, como os robôs-insetos da Barbara Webb.

 

 

 

 

O cérebro que prevê (The Predictive Brain)

Segundo Anil K Seth, professor de neurociência cognitiva e computacional na Universidade de Sussex, o conceito do cérebro como uma “máquina que prevê” teria sido introduzido pelo matemático Hermann von Helmholtz no século 19 (veja neste artigo dele sobre o “hard problem” da consciência).

O conceito, que ocupa lugar de destaque nos estudos do filósofo da mente Andy Clark, baseia-se na imagem do cérebro humano como uma máquina com diversas camadas capaz de realizar previsões; sinais sensoriais são processados em múltiplos níveis neurais, que procuram predizer as informações sensoriais em fluxo. Essas previsões, inconscientes, nos preparam para lidar de forma rápida e eficiente com a corrente de sinais vindos do mundo.

Sendo assim, se o sinal sensorial que aparece é o esperado, nós vemos e ouvimos coisas que já começamos a nos preparar para ver e ouvir, ou revelamos comportamentos que já começamos a organizar. Mas, e se as coisas não saem como esperamos? Aí, acontece o chamado sinal de erro de previsão, que é calculado em cada área e nível de processamento neural, e revela que a previsão que fizemos estava errada. O cérebro é convidado a tentar novamente, armado com informações específicas que já incluem os novos erros. Dessa forma, o cérebro está permanentemente tentando adivinhar a forma e a evolução dos sinais sensoriais correntes, utilizando, para isso, o conhecimento armazenado do mundo.

Essa forma de o cérebro acoplar-se com o mundo pode nos ajudar em situações corriqueiras, como quando, em uma festa lotada, na qual está tocando música em volume alto, alguém chama nosso nome. Em meio a aqueles ruídos todos, conseguimos distiguir o chamado. Isso acontece, segundo a tese do predictive brain, porque o cérebro usa informação armazenada para realizar previsões sobre a ocorrência sensorial, e essas previsões ajudam a separar o sinal do barulho, revelando-nos o que realmente interessa no vasto mundo que habitamos.

Filosofia, ciência e o cérebro que prevê

Andy Clark é um filósofo que trabalha lado a lado com neurocientistas em busca de compreensão sobre como funcionamos, agimos, pensamos, aprendemos. Na University of Edinburgh, em que ele dá aulas, Clark realiza pesquisas junto a equipes dos laboratórios de inteligência artificial e robótica da universidade.

Clark está envolvido também no projeto X-SPECT, no qual, junto a outros especialistas, desenvolve pesquisas para aprofundar a teoria do predictive brain, por meio de experiências práticas. O grupo parece estar buscando ampla divulgação científica dos estudos, uma vez que criou página no Facebook, conta no Twitter e um site bem didático.

Clark é muito ativo e escreve sem parar. Em artigo recente, ele discute possíveis questões éticas advindas do predictive brain. De fato, dependendo do tipo de previsão que o cérebro fizer, com base em conhecimentos armazenados a partir de experiências anteriores, as consequências podem ser bastante complicadas. Ele usa como exemplo as estatísticas elevadas de homens negros baleados pela polícia que acreditava que eles estavam armados, mas não estavam (mais nesta matéria do NY Times, citada por ele).

O que acontece é que estamos inseridos num cenário cheio de informações distorcidas, que se transformam em sinais sensoriais errados para nossos cérebros e podem resultar, assim, em ações desmedidas. Soma-se a isso a quantidade de preconceitos que armazenamos em nossa sociedade, e que contribuem para formular nossas “previsões cerebrais”…

Alucinações?

De certa forma, estamos “alucinando” o tempo todo, diz Clark. Para Seth, a percepção é uma “alucinação controlada” (ele diz: “In this view, which is often called ‘predictive coding’ or ‘predictive processing’, perception is a controlled hallucination, in which the brain’s hypotheses are continually reined in by sensory signals arriving from the world and the body”).

Não à toa, questões éticas nos rondam o tempo todo e, à medida que avançamos tanto na compreensão de nossas próprias tecnologias corporais naturais como nas tecnologias inventadas, temos que ter ainda mais atenção a elas, além de continuar a luta para combater nossos próprios preconceitos.

Hard Problem da consciência

No artigo de Seth, da Universidade de Sussex, ele conecta o eterno hard problem da consciência à abordagem do predictive brain. Vale muito a leitura. Repetindo o link:

The Real Problem –  It looks like scientists and philosophers might have made consciousness far more mysterious than it needs to be

 

Imagem do post: Kaleb Nimz @ Unsplash

Extended Mind: casos interessantes

Conheci recentemente mais casos interessantes de tecnologias que melhoram a vida das pessoas, atuando como extensões do corpo/da mente:

1. Óculos capazes de devolver a vida em cores para daltônicos

2. Próteses feitas especialmente para os seus donos

3. Os aparatos que este homem que sofreu um derrame, mostrado na série documental “Dark Net”, no Netflix, usa para se comunicar e para estar no mundo: