Uma interação com um chatbot é mesmo uma interação? 

Pensando a cognição humana a partir do enativismo

Material adicional à palestra para o PPGLM – URFJ, 31 de maio de 2023

Apresentação:

Links:

Minha tese de doutorado está disponível aqui e os artigos citados são:

O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus

ANOTHER BRICK IN THE WALL: THREATS TO OUR AUTONOMY AS SENSE-MAKERS WHEN DEALING WITH MACHINE LEARNING SYSTEMS

Alguns dos livros e artigos que usei como base são estes:

DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimo-tor Life. An Enactive Proposal. Oxford: Oxford University Press, 2017.

DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018

DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.

DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the EnactiveMind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.

DREYFUS, H. What Computers Still Can’t Do. MIT Press: New York, NY,USA: 1992.

DREYFUS, H. Skillful Coping – Essays on the phenomenology of everydayperception and action. Oxford: Oxford University Press, 2016

Quadro colaborativo feito durante a apresentação:

Para quem quer saber mais sobre Hubert Dreyfus, recomendo a leitura deste meu post:

Links gerais:

A força de trabalho por trás da inteligência artificial

15 Best AI Plagiarism Checkers to Detect ChatGPT-Generated Content

Após assistir 70.000 horas de Minecraft, um bot pode possibilitar o próximo grande avanço da Inteligência Artificial

How Did Scientists Succumb to Aunt Edna? The Dangers of a Superintelligent AI is Fiction

Precisamos trazer o conceito de consentimento para o campo da Inteligência Artificial

Inteligência artificial Generativa: Midjourney e ChatGPT

Um chatbot que faz perguntas pode ajudar você a perceber quando algo não faz sentido

Professores na Dinamarca usam aplicativos para avaliar o humor de seus alunos

Vídeo indicado:

O que a minha faceta nômade digital tem a ver com a minha tese

Jardim da Sereia, Coimbra, Portugal

Estudar a aprendizagem humana e a inteligência artificial foi algo que levou a valorizar ainda mais as experiências genuinamente HUMANAS. Existe algo que é exclusivo nosso e que é a capacidade de SENTIR, de experimentar, de vivenciar na pele cada momento vivido. Conhecemos texturas, gostos, sabores, cheiros e sensaç˜ões – que podemos considerar boas ou más. Máquinas não sentem. Não experimentam nada, de fato. E esse foi um dos pontos mais importantes que explorei na minha pesquisa.

A experiência é um aspecto essencial da aprendizagem humana. Justamente porque experimentamos é que aprendemos; cada habilidade que vamos desenvolvendo fica entranhada em nós, e é sentindo que vamos conhecendo o que está no nosso entorno e adquirindo mais e mais habilidades. Percebo que gosto de me desafiar. Estar em lugares desconhecidos, com pessoas novas, fazendo coisas diferentes e até viver situações não tão confortáveis são elementos que levam a grandes aprendizagens. Acho que além de ser viciada em desafios eu sou viciada em aprender. Por isso esse meu entusiasmo tão grande por VIAJAR.

Acho interessante que a minha pesquisa de doutorado tenha me levado além do que era esperado; isto é, desenvolvi conhecimento em determinada área, sim, claro mas, mais do que isso, eu adquiri “na pele” a dimensão de como a experiência humana é que nos diferencia dos sistemas artificiais. Um tratamento especial da experiência faz parte das teses que investiguei, pertencentes ao enativismo e à cognição corporificada. Mas o toque principal foi dado pelas próprias vivências que tive enquanto fazia a minha investigação de doutorado. Elas me fizeram refletir muito e acabaram compondo o resultado final que está na minha tese.

A robótica & os movimentos humanos: um paradoxo

Um dos grandes desafios para a indústria da robótica é a sofisticação dos movimentos humanos.

O nível de refinamento dos movimentos que os nossos corpos são capazes de fazer é altíssimo, e parece algo que já vem “embarcado” em nós.

É ainda muito pequenos que começamos a engatinhar, segurar objetos e desenvolver, assim, essa interação corporificada com o mundo a nossa volta, que só evolui mais e mais.

Movimentos simples para humanos podem ser complexos de ser reproduzidos em robôs. Essa questão difícil é conhecida como PARADOXO DE MORAVEC, em referência ao roboticista Hans Moravec.

Também é difícil exigir de robôs que “compreendam” o contexto das interações. Por isso o senso comum é um desafio para a indústria robótica. Isso transparece até quando testamos o Chat GPT. Senso comum não é o forte.

O que os computadores continuam não conseguindo fazer, 50 anos depois

O artigo que escrevi e submeti para a Revista Portuguesa de Educação, intitulado “O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus”, foi publicado neste link.

É uma grande satisfação ter um artigo publicado nessa revista, que é muito bem conceituada na área da Educação. Vejo o filósofo Hubert Dreyfus como um precursor de ideias da abordagem chamada de cognição enativa, que é a base da minha tese de doutorado. Aqui no blog já escrevi sobre ele – releia os posts:

Introdução à Fenomenologia com Hubert Dreyfus

What Computers Can’t Do (Hubert Dreyfus)

Dreyfus fez críticas muito pertinentes à inteligência artificial quando a área estava ainda nascendo. Eu amo o trabalho dele. Por conta disso, quis fazer um artigo que fosse também uma espécie de homenagem. Por isso esse título, que ficou bem “jornalístico” – sou de fato jornalista, e afinal a identidade da gente se transforma, mas a essência permanece 😉 “What Computers Can’t Do” é o título de um livro de Dreyfus lançado em 1972, mas que mobiliza até hoje a atenção dos interessados em cognição e IA. Quando me dei conta do “aniversário” de 50 anos do livro (e eu ainda fiz 40 anos em 2022, nasci em 82 haha coincidências), fiz questão de que fosse publicado ainda este ano e corri para enviar para a revista. E eis que o artigo saiu faltando um dia para o ano acabar!

As ameaças à nossa autonomia quando lidamos com sistemas de machine learning

Neste post, faço uma espécie de leitura comentada do ensaio acadêmico que publiquei na Revista Perspectiva Filosófica e está neste link para quem quiser acessar. É um trabalho sobre os impactos à nossa autonomia quando lidamos com sistemas de aprendizagem de máquina – uma vertente da inteligência artificial.

As tecnologias digitais, de tão entranhadas que estão em nosso cotidiano, vêm sendo apontadas como extensões da mente, sendo consideradas capazes de potencializar a cognição humana. A chegada das tecnologias baseadas em algoritmos, por outro lado, traz uma série de elementos novos para essa equação. Elas são impulsionadas pelos próprios dados dos usuários dessas tecnologias, já que, no caso da aprendizagem de máquina por exemplo, operam fazendo previsões a partir de dados obtidos e assim sucessivamente.

Neste trabalho, eu argumento que, justamente porque essas tecnologias se baseiam em dados do usuário para gerar novos conteúdos, elas acabam criando uma circularidade em torno dele que, em vez de expandir, pode limitar sua experiência de aprendizagem. No centro desse impacto está a autonomia, que, em vez de ser ampliada, acaba sendo ameaçada de redução.

É importante explicar que o conceito de autonomia que utilizo é o conceito que deriva da chamada teoria da cognição enativa. Existem várias formas de conceituar autonomia, portanto no caso de um trabalho acadêmico de pesquisa é fundamental esclarecer isso. Trata-se de um conceito de autonomia que deriva da ideia de que a célula, unidade primordial da vida, somente é capaz de ser e se manter autônoma porque está inserida em um contexto que permite isso – um ambiente com o qual mantém trocas constantes que a alimentam energética e materialmente. Ou seja, a célula é autônoma, não capaz de se manter sozinha. Pelo contrário, sua autonomia se origina justamente das suas interações com o meio, o que torna essas interações essenciais para a manutenção da autonomia celular.

Eu “estiquei|”esse conceito até o ambiente algorítmico que se constitui em torno de nós, humanos. Fiz esta pergunta: o que acontece com a nossa autonomia quando o meio é aquela que chamei de algoritmosfera, essa rede entrelaçada por algoritmos e dados que nós alimentamos e que, ao mesmo tempo, também nos alimenta? Nós conseguimos nos manter autônomos diante desse contexto, embebidos nessa rede de interações que têm essa natureza?

O meu objetivo geral, com isso, é compreender os limites e as potencialidades das nossas relações com sistemas de aprendizagem de máquina para entender se eles podem nos ajudar nas nossas experiências de aprendizagem sobre o mundo ou se esses sistemas acabam por retrair essas experiências. Ao me debruçar sobre esse trabalho, explorei as diferenças por vezes aparentemente sutis, mas sempre muito potentes, entre lidar com outro ser humano ou com um sistema de aprendizagem de máquina. Quando lidamos com outra pessoa, aprendemos com ela, percebemos o mundo com ela, e isso altera as nossas percepções. Existe algo que surge das interações entre seres humanos que é único e típico dessas relações, e não poderia surgir fora delas. É algo novo, imprevisível. É o produto da interação.

Quando lidamos com máquinas, por mais que elas nos façam sentir como se estivéssemos lidando com outra pessoa às vezes, de tão avançados que estão esses sistemas, nós não estamos. O que acontece é que nesses casos nós acabamos “levando” toda a “relação” sozinhos; não há uma real interação social, como há entre dois seres humanos. As relações de troca humanas são como uma dança, em que o par se movimenta junto, enquanto as interações com sistemas artificiais se parecem com um monólogo ou uma dança desequilibrada em que apenas um se movimenta e o outro faz um papel parecido com o de um fantoche.

Com isso, não se pode dizer que não aprendemos nada ao lidar com sistemas de aprendizagem de máquina, mas sim que não é uma experiência comparável à que temos quando lidamos com outro ser humano. Isso, para quem procura compreender a aprendizagem e como ela é impactada pelas tecnologias, é essencial. O enativismo, ou cognição enativa, não diz que aprendemos mais ou melhor com outros seres humanos, mas que somente aprendemos de fato com outros seres humanos. Somos moldados, impactados, alterados, percebemos o mundo e raciocinamos sobre ele justamente a partir das interações com outras pessoas; precisamos delas para ter experiências de aprendizagem. Máquinas ou sistemas artificiais não aprendem de fato e não conseguem, sozinho/as, proporcionar experiências de aprendizagem.

A nossa autonomia é ameaçada, sob o ponto de vista de autonomia no enativismo, porque as trocas que mantemos com o meio “algorítmico” constituem um desequilíbrio para as nossas interações. É como se a contribuição de um e de outro lado fosse tão irregular que tornasse a relação “capenga”. Eu entro com meus dados, minhas percepções, minha imaginação; a máquina não percebe e não cria nada, e assim, tudo que parece novo ao surgir dali é mais limitado do que seria se eu estivesse lidando com outra pessoa. Porque outra pessoa é capaz de ciar, imaginar, porque tem experiência e aprende, e então dessa interação social se origina algo que só pode existir porque se trata, justamente, desse tipo de interação. É algo então que, por definição (enativista), potencializa a minha capacidade de experimentar o mundo de um modo especial porque é impossível de ser previsto na totalidade. Não há estatística que possa prever que conversa exatamente teremos com um amigo ao encontrá-lo, por exemplo; ou como o ser amado vai reagir a uma contestação que manifestarmos; ou se acabaremos falando de cinema quando nos encontrarmos com alguém para falar de matemática.

Essa é uma ideia interessante para defender por que não é viável pensar que uma aula 100% a distância, assíncrona, ou seja, sem o professor em contato com alunos em tempo real, poderia resultar no mesmo nível de experiência de uma aula presencial – ou, pelo menos, em que o professor e os alunos estejam no mesmo momento, se olhando, ainda que mediados por suas câmeras. Há algo nessa conexão entre as pessoas, alimentada pelas trocas daquele momento, que é único, e faz parte da série de novidades que emergem da interação. Há experimentos com bebês mostrando que eles choram quando diante de um vídeo gravado da mãe, depois de demonstrarem calma quando veem um vídeo da mãe que é uma transmissão em tempo real. O problema não é ser uma imagem, mas a mãe não estar olhando para ele, interagindo com ele na medida da própria interação. Não é fascinante?

Num mundo em que as relações são postas em xeque, por inúmeros motivos, e em que contamos tanto com sistemas artificiais para fazer um sem-número de atividades, é fundamental não esquecer que há algo intrínseco às trocas humanas. Algo que gera algo que só existe a partir dessas relações. Se só “falarmos” com máquinas, estaremos como que batendo num muro, um bate e volta; sentiremos algo, poderemos até aprender algo ou muitas coisas, mas não continuaremos a expandir os nossos horizontes, o alcance das nossas experiências, como faríamos se estivéssemos em interações sociais. Só elas ampliam os círculos de experiências mais e mais. Por isso chamei o ensaio de “Another brick in the wall” e digo que precisamos fazer um esforço para olhar entre os tijolos do muro. São as frestas que nos mantêm abertos a uma série de experiências inesperadas, essenciais justamente porque são inesperadas; nós não vivemos sem surpresas, sem o incerto, mesmo quando queremos o “certo”. Aprendemos na inconstância e na flexibilidade, não na dureza dos muros. 

Another brick in the wall

Foi publicado num dossiê temático da Revista Perspectiva Filosófica um ensaio meu intitulado “Another brick in the wall – Threats to Our Autonomy as Sense-Makers When Dealing With Machine Learning Systems”. A tradução em português (que acabou saindo um pouquinho diferente na revista) seria algo “Mais um tijolo na parede – Ameaças à Nossa Autonomia como Sense-Makers quando lidamos com sistemas de aprendizagem de máquina”.

Ter esse ensaio publicado significa muito. Não somente porque uma publicação acadêmica é sempre algo de muito valor para nós que batalhamos para tocar as nossas pesquisas para a frente, mas porque nele eu elaboro uma parte importante do argumento que está presente na minha tese. Ela foi já entregue à banca e a defesa será em janeiro de 2023. Também é uma publicação importante porque está numa edição especial da revista que é dedicada à Fenomenologia, à Cognição e à Afetividade – justamente os temas tratados na minha tese. E, como se não bastassem todos esses motivos de alegria, meu trabalho está publicado ao lado de outros assinados por grandes pesquisadores nessas áreas.

Para quem não conhece bem os trâmites, publicar um artigo numa revista cientifica exige escrever e submeter o trabalho à avaliação anônima de pareceristas que podem ou não aprová-lo para ser publicado. Podem também aprovar, porém sob a condição de que o autor faça certas modificações. Eu recebi sugestões ótimas para o meu, e procurei acatar todas as que achei pertinentes, num processo que foi muito rico para mim.

Optei por escrever o ensaio em inglês porque quis abri-lo a pesquisadores consagrados que não falam português. Porque quis me inserir num debate que está ainda mais forte fora do Brasil. Mas explico as ideias ali presentes na tese, até com mais detalhes, e em breve quero fazer uma tradução dele para postar aqui no blog.

Agradeço a todos que me apoiaram para que essa publicação acontecesse e à Revista Perspectiva Filosófica pela oportunidade e privilégio de estar nesse dossiê. Para ler a revista e o artigo:

REVISTA COMPLETA CLIQUE AQUI

LER DIRETO O ENSAIO CLIQUE AQUI

Mentes INTERCONECTADAS

Seria possível compreender a mente humana analisando cada indivíduo em separado? Ou será que a mente humana surge justamente da coletividade?

Ainda que cada sujeito tenha a sua contribuição a dar, um trabalho envolvendo muitas pessoas dá origem a ideias que não existiriam se fosse desenvolvido somente por um indivíduo. Já parou para pensar nisso?

Os pesquisadores proponentes da abordagem enativa para a cognição humana indicam que não é possível investigar o funcionamento da mente humana sem focar nas interseções entre mentes.

Também os pesquisadores da inteligência artificial aplicada têm focado na inteligência coletiva. A edição de 2021 do relatório AI 100, produzido pela Universidade de Stanford, aponta a inteligência coletiva como uma tendência importante na pesquisa sobre a inteligência humana.

Falei sobre esse assunto na conferência de 2020 da MEA – Media Ecology Association, que este ano aconteceu na PUC-Rio. Estive presente remotamente, pois ainda estou em Portugal pelo doutorado. Deixo aqui algumas referências que usei em minha apresentação, para quem desejar saber mais.

(imagem do post: David Clode @ Unsplash)

CLARK, Andy. Natural-Born Cyborgs. Minds, Technologies and the Future of Human Intelligence. New York: Oxford University Press, 2003.

CLARK, Andy. Supersizing the Mind – Embodiment, action, and cognitive extension Oxford: Oxford University Press, 2011.

DE JAEGHER, Hanne.; DI PAOLO, Ezequiel. Participatory Sense-making: An enactive approach to social cognition. Phenomenology and Cognitive the Sciences, 6, pp. 485-507, 2007.

DE JAEGHER, Hanne.; DI PAOLO, Ezequiel. Making Sense in Participation: An Enactive Approach to Social Cognition. In: Enacting Intersubjectivity: A Cognitive and Social Perspective on the Study of Interactions. F. Morganti, A. Carassa, G. Riva (Eds.) Amsterdam, IOS Press, pp. 33-47, 2008.

DI PAOLO, E. A Concepção Enativa da Vida. In: BANNELL, R. I.; MIZRAHI, M.; FERREIRA, G. (Orgs.) (Des)educando a educação: Mentes, Materialidades e Metáforas. Tradução de Camila De Paoli Leporace. Rio de Janeiro: PUC-Rio, 2021.

Robôs com sentimentos?

Esta semana, a internet chacoalhou com a notícia de que, segundo um funcionário da Google, o chatbot LaMDA, produzido pela empresa, seria senciente. O funcionário acabou afastado depois de suas declarações. O interessante é que uma discussão que está tão presente na filosofia veio à tona por conta disso tudo. Então, o que é que está por trás de desse debate?

A ciência cognitiva é uma área que vem crescendo desde os anos de 1950, e eclodiu bem perto da explosão também da inteligência artificial enquanto área de pesquisa. No início, a IA tinha como foco reproduzir as capacidades humanas. E não era tão difícil crer na viabilidade disso, porque se acreditava que o cérebro poderia ser feito de qualquer material que poderia, de todo jeito, gerar uma mente. Então, teoricamente, um “cérebro” de silício também seria capaz de dar origem a pensamentos, sentimentos, enfim, tudo que compõe a mente.

Com o passar do tempo, as experiências em IA e robótica mostraram que a coisa não era bem assim. Um pesquisador que ajudou a mostrar que a distância entre humanos e máquinas era grande, e que ainda haveria um longo caminho pela frente até que se pudesse instanciar a inteligência humana em sistemas artificiais, foi Hubert Dreyfus. Ele trabalhou no MIT bem próximo a cientistas da computação engajados nessas pesquisas. E era ele quem colocava questões que certamente irritavam os programadores, mas que eram certeiras!

Por exemplo: como um computador poderia prever as milhares de coisas que poderiam acontecer em dada situação da vida cotidiana? Nós conseguimos rapidamente mudar a nossa maneira de agir dependendo do contexto em que nos encontramos: se algo cai no chão, pegamos de volta, colocamos em cima da mesa; se algo se parte, colamos; se alguém se machuca ou chora de repente, vamos acudir. Já sistemas artificiais precisam de mudanças extensas e detalhadas em todo o seu código quando algo muda. Eles não compreendem contextos. Também não compreendem certos atributos simples da vida cotidiana, que fazem parte do senso comum. Tipo: quando atendemos ao telefone, dizemos alô – ou “tô”, se for em Portugal; a pessoa do outro lado responde; combina-se de sair para um bar em alguma rua perto da casa dessas pessoas. O computador precisa de mais do que um simples “Então, vamos lá hoje?”­ para “entender” o que se passa.

É que na verdade a máquina não “entende”nada, de fato! Todas as informações que as pessoas envolvidas na conversa vão conhecendo ao longo da vida e vão incorporando em seu repertório – o que significa alô, o que é um bar, onde ele fica, de que bar estão falando, o que significa vamos lá etc. etc. ­– o computador precisa receber como inputs (até mesmo a informação de que duas pessoas são pessoas, conversam ao telefone, o que é telefone, o que é conversar etc. etc., já pensou?!). Isso precisa estar na programação do sistema. E, mesmo assim, o computador efetivamente não saberá nada: ele vai manipular aquelas informações, mas elas não vão significar nada para ele.

E a filosofia no meio de tudo isso?

A filosofia é uma área que investiga a inteligência humana, a cognição, a mente, a consciência. Para isso procura, antes de tudo, entender como se pode compreender ou conceituar cada uma delas. A maneira como se conceitua algo, afinal, faz muita diferença para os debates. Para pensar se uma IA pode ser consciente ou não, se é senciente ou não, cabe perguntar: o que é ter consciência? O que é senciência?

Há pesquisadores, por exemplo, que buscam na biologia as raízes para se compreender a mente humana. Para eles, a mente é como uma extensão da vida; onde há vida há atividade mental. Consequentemente, onde não há vida não há mente.  Também, se não há mente, não há sentimentos ou experiência. Por essa lógica, se robôs não são seres com vida biológica, não poderiam ter consciência ou senciência, nem sentir ou experimentar nada.

Esses pesquisadores acreditam, ainda, que a mente humana inclui muito mais do que o cérebro: o corpo como um todo constitui a mente. E é com a nossa atividade corporal, em acoplamento direto com o mundo natural, que vamos descobrindo e entendendo o que há no ambiente que nos cerca: assim é que fazemos sentido daquilo que está a nossa volta. Esses pesquisadores a que me refiro são estudiosos da cognição enativa. Alguns dos nomes mais importantes da área são Ezequiel Di Paolo, Hanne De Jaegher e Evan Thompson. Na minha tese de doutorado, eu abordo machine learning e enativismo. Se quiser saber mais, clica aqui.

Veja também o post especial no Instagram: @algoritmosfera

A mulher como a mente estendida do homem: desequilíbrio e sobrecarga*

A Tese da Mente Estendida, desenvolvida pelo cientista cognitivo Andy Clark, sugere que a mente se estende para além do cérebro. O ambiente, as tecnologias, as instituições, as linguagens que criamos são todas formas de estendermos as nossas mentes. O próprio corpo é considerado extensão da mente também, sendo concebido, nessa perspectiva, como a primeira tecnologia cognitiva a que temos acesso durante as nossas vidas.

Mais do que apenas potencializar a cognição, esses recursos, externos ao cérebro e ao organismo humano como um todo, são vistos como constitutivos da mente; ela não existiria sem eles. A Tese preconiza, ainda, que a função de todos esses elementos é permitir um offload ou uma redução da carga da atividade cerebral; isto é, a partir da distribuição da operação cognitiva entre todos esses componentes, o cérebro não precisa ficar encarregado da atividade mental sozinho; em suma, não precisa ficar sobrecarregado. O exemplo mais clássico é o do celular que, ao guardar os números de telefone e tantas outras informações para nós, nos alivia de ter que memorizar tudo isso.

Críticos da Tese da Mente Estendida colocaram uma questão que, nomeada como cognitive bloat, se resume no seguinte: se a mente humana se estende por esses domínios externos ao organismo, e esses domínios incluem as outras pessoas, seriam então as mentes de outras pessoas consideradas também parte da mente de um determinado indivíduo?

Desde 2017, venho estudando essa Tese e as críticas a ela, além de outras perspectivas que guardam semelhança com a ideia da mente estendida. E acredito cada vez mais que sim, as mentes de outras pessoas podem ser extensões da mente de um determinado indivíduo. Isso não é necessariamente ruim. Afinal de contas, construímos juntos, criamos juntos, a inteligência é compartilhada. Muitas coisas que existem – projetos, ideias, famílias, conversas – somente existem porque são construções coletivas. E isso é ótimo.

Mas, para pensarmos assim, é preciso que todas as mentes envolvidas se beneficiem dessa espécie de expansão mental proporcionada por tais compartilhamentos. E nem sempre é esse o caso. Talvez, pelo olhar de uma mulher, eu possa contribuir com uma outra perspectiva hoje, neste 8 de março, dia em que se celebra o Dia da Mulher. E o olhar que quero trazer é o seguinte: seríamos nós, mulheres, extensões das mentes dos homens, tornando para eles tantas tarefas mais leves (ou reduzindo a quantidade de tarefas), enquanto nós seguimos sobrecarregadas – e sem ter para onde estender as nossas mentes?

Cena da minissérie MAID (Netflix), que recomendo muito que você,
que está lendo este post, assista!

Não faltam dados que mostram que essa hipótese é verdadeira. Historicamente, nós mulheres temos progredido em nossos direitos, alcançado lugares a que antes jamais poderíamos chegar e assumido posições também outrora impensáveis para o “segundo sexo” (obrigada, Beauvoir). Mas ainda temos um longo caminho pela frente, até porque, na não linearidade típica do fluxo da vida, retrocedemos (principalmente graças ao fascismo, diga-se de passagem) bastante nos últimos tempos.

Esse longo caminho ainda por vir anseia pelo fim definitivo da ideia de que mulheres são responsáveis pela casa e homens “ajudam”. Substitua a casa na frase por: os filhos, o cuidado com pessoas idosas e/ou doentes, as decisões sobre compras de mercado, sobre as prioridades domésticas etc. Muitas vezes, homens contribuem com a casa e os filhos, mas precisam que a mulher diga tudo o que precisa ser feito, caso contrário não tomam iniciativa alguma. Isso significa que por vezes as tarefas até são divididas, mas recai sobre a mulher o gerenciamento das coisas em casa.

Você já viu uma gerente ganhar menos do que a equipe a ela subordinada? Não. Tomar decisões é uma tarefa pesada e deveria ser reconhecida e valorizada; quase nunca é, no caso da mulher sobrecarregada (recomendo estes quadrinhos aqui para que quer um resumo perfeito disso).

Nós, mulheres, por mais que tenhamos a tecnologia para nos ajudar em nossas tarefas cognitivas (muitas delas são tecnologias que reproduzem os estereótipos e preconceitos, e que precisam de nós para ficar menos enviesadas), ainda tendemos a ser o “HD externo” de muitos homens, como bem colocou a Karla Fontoura no Planeta Ella no Instagram há alguns dias (@planetallea).

Acabamos tendo que contar com outras mulheres, que compreendam a nossa sobrecarga, para serem as nossas “mentes estendidas”. Formamos as nossas redes de apoio. Pedimos as nossas ajudas a quem acaba nos entendendo mais facilmente. Enquanto isso, boa parte dos homens segue recorrendo às mulheres para fazerem offload cognitivo; isto é, liberar-se de tarefas chatas e cansativas para que possam cuidar do que realmente interessa ou o que é divertido (seja o seu trabalho, sua pesquisa acadêmica, suas amizades, o futebol e por aí vai).

Em relações em desequilíbrio, sempre sobra para alguém; quando sobra para alguém, esse alguém deixa seus sonhos em standby, suspende os planos, deixa de seguir em frente para dar conta de algo que não deveria ser só seu. Para toda mulher que trabalha como mente estendida de um homem – no sentido que aqui expliquei como negativo – existe um homem acomodado que não se preocupa em sair dessa posição.

É muito válido e muito bonito dizermos que “fulana é meu braço direito”. Mas a reciprocidade é fundamental e temos que persegui-la sem cansar.

*Dedico este texto a todas as mulheres, especialmente às minhas amigas, e aos homens bacanas com quem trabalho e convivo diariamente e que sei que olham para essas questões. Tive a sorte de ter sido criada por um homem que me respeita, me incentiva e me estimula a ser quem eu quiser ser. Acredito, por causa do meu pai e desses homens bacanas, que podemos seguir sendo mentes estendidas uns dos outros no sentido coletivo, no sentido das trocas constantes, e não da sobrecarga feminina.

What Computers Can’t Do (Hubert Dreyfus)

EN

Hubert Dreyfus’ “What computers Can’t Do” will be 50 years old in 2022. Despite having been released half a century ago, it is still pertaining when it comes to the gap between human cognition and artificial intelligence. I like Dreyfus’ critique to artificial reason mostly because he was actually concerned with human intelligence, not so much machines’ intelligence. The book (which got a second edition, amplified, in 1992) is compelling for those interested in comprehending some of the most important challenges faced by AI – and that have not yet been overcome.

Inspired by phenomenologists like Heidegger and Merleau-Ponty, Dreyfus (who unfortunately died in 2017 at 87) advocated that human intelligence is far beyond computation and representation. He suggested that we are “skillful copers”, i.e., highly skilled embodied agents capable of dealing with the world’s uncertainties and unsteadiness in a remarkably fine-grained way, anchored in the body and in the emotions. Because it is coupled to the environment, this being-in-the-world is more direct and less dependent on mediators (representations).

I also encourage readers to watch some of Dreyfus’ great interviews, lectures and talks available online.

PT

Hubert Dreyfus’ “What computers Can’t Do” fará 50 anos em 2022. Apesar de ter sido lançado há meio século, ele ainda é pertinente quando se trata do gap entre a cognição humana e a inteligência artificial. Eu gosto da crítica de Dreyfus à razão artificial principalmente porque ele estava realmente preocupado com a inteligência humana, não tanto com a inteligência das máquinas. O livro (que teve uma segunda edição, ampliada, em 1992) é muito pertinente para aqueles interessados em compreender alguns dos desafios mais importantes enfrentados pela IA – e que ainda não foram superados.

Inspirado por fenomenólogos como Heidegger e Merleau-Ponty, Dreyfus (que infelizmente morreu em 2017 aos 87 anos) defendeu que a inteligência humana está muito além da computação e da representação. Ele sugeriu que somos “skillful copers”, isto é, agentes corporificados altamente habilidosos capazes de lidar com as incertezas e instabilidades do mundo de uma forma altamente refinada, ancorada no corpo e nas emoções. Por estar acoplado ao meio ambiente, este being-in-the-world é mais direto e menos dependente de mediadores (representações).

Eu também encorajo os leitores a assistir algumas das grandes entrevistas e palestras da Dreyfus disponíveis on-line.

Hubert Dreyfus on Embodiment (II-II)
Conversations with History: Hubert Dreyfus
Hubert Dreyfus Interview – AI, Heidegger, Meaning in the Modern World