Lidar com a informação faz parte do meu trabalho de jornalista e de pesquisadora, bem como lidar com a desinformação. Desde 2004 eu trabalho com comunicação digital, o que me proporcionou a experiência de viver a internet antes e depois das redes sociais. Na verdade, antes e depois dos algoritmos. A virada das plataformas digitais para plataformas algorítmicas, alimentadas por big data (os dados dos usuários), acontece de maneira casada com a popularização dos smartphones. Os dispositivos móveis, afinal, facilitam o compartilhamento de dados em tempo real, incrementando as redes neurais artificiais e garantindo que elas operem, já que precisam dos dados dos usuários para fazer previsões e oferecer conteúdos relacionados, “personalizados”.
Isso parecia um bom recurso, numa época em que se preconizava que a internet poderia ser uma alternativa à mídia de massa, tratando nichos de público de maneiras diferentes e garantindo que os mais diversos perfis de pessoas acessassem conteúdos que lhes fosse interessantes (o livro “A Cauda Longa” fala sobre isso). Mas, na verdade, a busca incessante por personalização na Web culminou na criação de “bolhas” de desinformação. Cada um vivendo no “seu mundo”, habitando mundos pequenos e circulares – reduzidos a grupos de WhatsApp, por exemplo – em que a ciência e a informação de qualidade dão lugar às notícias falsas e nada embasadas. Hoje, para tornar isso ainda mais grave ou desafiador, as plataformas baseadas em aprendizagem de máquina são construídas de modo a fazer com que os usuários naveguem de determinadas maneiras pré-determinadas, gerando dados já dentro do que os sistemas são programados para gerar.
Estamos presos em uma circularidade. Quando ela é cercada por muros que não deixam as pessoas acessarem notícias reais, embasadas, e terem acesso à ciência, elas ficam isoladas em círculos de desinformação. Isso foi levado à máxima potência com a eleição da extrema-direita no Brasil, completamente impulsionada por notícias falsas disseminadas dessa maneira. O problema é que as big techs, ou seja, as empresas que mobilizam as plataformas digitais e manipulam os nossos dados, são as mesmas plataformas onde a informação – e a desinformação – circulam. Por isso venho trabalhando, como pesquisadora, educadora e jornalista, para que o público “acorde” e perceba que está sendo levado à desinformação.
É preciso alertar para a construção desses muros invisíveis que isolam as pessoas em círculos de desinformação, e consequentemente de desolação. Simplesmente não é possível dissociar disso tudo os grandes e complexos problemas que temos para enfrentar hoje como humanidade. Muitas vezes, “narrativas da sutileza” contribuem para que alguns vejam os problemas de maneira minimizada – a urgência climática, que alguns preferem ler como “acasos”, “ciclos naturais do planeta” e daí por diante; as guerras que viraram genocídios; as brigas que são, na verdade, crimes; a xenofobia disfarçada de acordo internacional e por aí vai. (Des)informação é uma questão educacional, científica, comunicacional, social, cultural e política.
É comum memórias serem “apagadas” do cérebro humano com o decorrer do tempo. Isso acontece por vários motivos, como o fato de informações corriqueiras não estarem armazenadas na nossa memória de longo prazo (temos classificados dois tipos, de curto prazo ou “memória de trabalho” e a memória de longo prazo). Também a memória de longo prazo oferece informações mais difusas, enquanto a memória de trabalho nos ajuda a lembrar de detalhes mais vívidos daquilo com que estamos em contato no presente.
Mas, e quando queremos lembrar de algo e a informação não “vem” de jeito nenhum? Existem vários estudos que investigam as razões pelas quais esquecemos coisas que preferíamos não esquecer. De todo modo, não é possível “pinçar” memórias dos nossos cérebros e simplesmente removê-las. Nossa mente não é um software rodando num hardware! Apesar disso, existem pesquisas sobre como poderíamos selecionar determinadas memórias para serem esquecidas de propósito, ajudando por exemplo as pessoas a se recuperarem de traumas. Enquanto isso, no mundo da IA, começou-se a falar em “machine unlearning”, ou desaprendizagem de máquina, em referência à aprendizagem de máquina. O que é isso?
A ideia é retirar dos modelos de IA – na forma de machine learning – certas informações dos conjuntos de dados usados para treiná-los. Ou fazer os modelos “reaprenderem” parte dessas informações. Essa iniciativa não vem do nada. Ela tem a ver com o “direito ao esquecimento” (“Right to be Forgotten” ou “Right to Erasure”) previsto na legislação da União Europeia para a regulação da IA, a European Union’s General Data Protection Regulation (GDPR).
Um dos desdobramentos mais legais dessa iniciativa de machine unlearning seria fazer as máquinas “esquecerem” informações enviesadas e que aumentam o preconceito e a desinformação. Mas, mesmo quando se trata de sistemas artificiais, esse também não é um desafio fácil. Afinal, as redes neurais artificiais se ramificam em muitas conexões paralelas, e então uma mesma informação faz parte de diversos desses grupos, não está apenas concentrada em um único lugar.
Para entender isso, basta pensar em como o preconceito se alastra e se infiltra em todas as dimensões do pensamento e da construção social e cultural. Como é que se poderia remover o preconceito da sociedade, como se fosse um vírus? Seria bom, usaríamos máscaras e desenvolveríamos vacinas para ele até que fosse superado (gatilho feelings!), mas não é assim. Também não adianta só remover textos nocivos da internet, porque as ideias ainda estarão lá, e os pensadores que as propagam, também.
Mas dá um alívio pensar que certos conjuntos de informações poderão ser removidos das bases de dados de IA se estiverem causando danos a pessoas. Não é justo que os dados se perpetuem de forma tal que nunca aquilo seja esquecido, ainda que a pessoa se arrependa, mude de opinião, queira que aquilo suma, enfim, esse sempre foi um desafio na Web. Mas fica mais difícil com a IA.
Também é importante podermos nos proteger, e especialmente preservar as nossas crianças e adolescentes das falhas nos sistemas de informação com os quais estamos enredados. Algumas delas podem causar grandes traumas e danos emocionais, principalmente nos mais novos.
No entanto, a verdade é que, se os sistemas erraram, processando dados prejudiciais a indivíduos e à sociedade, trabalhar para remover os dados das bases pode ser já de grande ajuda. Mas, quem tem que desaprender preconceitos, e (re)aprender a viver coletivamente e de maneira mais saudável e amorosa, somos nós enquanto sociedade. A IA, por sua vez, vai seguir refletindo os nossos problemas enquanto eles existirem. E querer retirá-los das bases de dados vai ser como enxugar gelo. Big data, big (complex) problems.
PS. Isso sem mencionar o fato de que criar regulamentos para a IA não resolve o assunto em definitivo, até porque não basta querer apagar dados sensíveis que a empresa dona dos dados assim o fará. Vale consultar este link aqui sobre isso.
Comercial da Volkswagen levanta questões filosóficas (quer queira, quer não…)
A primeira coisa que pensei quando vi o comercial da Volkswagen com a Elis e a Maria Rita foi: bom, a Maria Rita aprovou isso ; se ela aprovou, será que gostou do resultado? Fui procurar saber e sim, ela gostou, acha até que “realizou um sonho”.
O fato de ela ter gostado é, para mim, um dos sinais importantes a serem observados quando se trata de analisar a IA nas nossas vidas. A Elis foi sua mãe. A Maria Rita não poderia se sentir lesada ou triste de novo, já perdeu a mãe, ainda que há mais de 40 anos, então esse comercial tinha que ser algo bom para ELA, principalmente.
Respeitar as emoções que a IA origina é, eu defendo, um dos fatores mais relevantes quando se trata de ética na inteligência artificial. Não à toa se estuda até mesmo se as IAs podem “demonstrar” ou ” interpretar” emoções. Elas são importantes nos comerciais, também. E, claro, para os espectadores.
Um caso em que ambas as pessoas há tivessem morrido, e aí fizessem um comercial com elas usando IA, seria mais complicado. Quem poderia dizer se essas pessoas gostaram disso ou o que sentiram?
Aliás, vocês já viram o primeiro episódio da última temporada de Black Mirror na Netflix? Vale assistir. Vários questionamentos que estão lá já batem à nossa porta aqui, na “vida real”. E têm a ver com esse vídeo da Elis e da Rita.
No anúncio acima, a “Moça com brinco de pérola” de Vermeer abre uma garrafa de Coca-Cola depois de ela passar por diversas obras de arte que fazem de tudo para não deixar a peteca, ou melhor, a garrafa cair. O anúncio foi feito com inteligência artificial e também com filmagens reais e efeitos digitais diversos.
O interessante é que, em meio às questões que pairam sobre as artes e a IA, se a criatividade será estendida ou ofuscada pela IA, se o que a IA faz é arte ou não etc, esse anúncio chega lembrando que uma pode viver com a outra e gerar algo fabuloso. Isto é, arte e IA podem ser uma mistura interessante. Mas é isso: o anúncio é uma obra-prima em si, mas envolveu intenso trabalho e empenho. O esforço criativo não apenas dos artistas cujas obras de arte aparecem no vídeo, mas daqueles que fizeram o vídeo, claro, continua tendo altíssimo valor. Isso diz algo sobre a discussão quanto à IA “dominar” ou “substituir”, ou eventualmente expandir e enriquecer possibilidades.
Alguns dos livros e artigos que usei como base são estes:
DI PAOLO, E. A., BURHMANN, T. E BARANDIARAN, X, E. Sensorimo-tor Life. An Enactive Proposal. Oxford: Oxford University Press, 2017.
DI PAOLO, E. The Enactive Conception of Life. In: NEWEN, A., DEBRUIN, L. & GALLAGHER, S. The Oxford Handbook of 4E Cognition.Oxford: Oxford University Press, 2018
DI PAOLO, E. A.; CUFFARI, E. C. & DE JAEGHER, H. Linguistic Bodies.The Continuity between Life and Language. Cambridge: MIT Press, 2018.
DI PAOLO, E., ROHDE, M. & DE JAEGHER. Horizons for the EnactiveMind: Values, Social Interaction, and Play. In: Stewart, J., Gapenne, O. e DiPaolo, E. Enaction – Toward a New Paradigm for Cognitive Science. Cam-bridge: MIT Press, 2010.
DREYFUS, H. What Computers Still Can’t Do. MIT Press: New York, NY,USA: 1992.
DREYFUS, H. Skillful Coping – Essays on the phenomenology of everydayperception and action. Oxford: Oxford University Press, 2016
Quadro colaborativo feito durante a apresentação:
Para quem quer saber mais sobre Hubert Dreyfus, recomendo a leitura deste meu post:
Ser humano é verbo, é ser, mas não é permanecer; é tornar-se, mudar, se transformar, crescer. Sabe? Ser humano é ser criativo, pensar fora da caixinha, e a gente GOSTA disso. Se o ser humano não gostasse disso tudo, como poderia ser complexo, viajar em busca de experiências, querer conhecer coisas e lugares novos e tudo o mais?
Bom, e o que isso tem a ver com Chat GPT??
A tecnologia por trás do Chat GPT possibilita que esse sistema busque, em bases de dados extensíssimas, todo tipo de “informação” e, com isso, monte os conteúdos que a nós retornam. Onde está o poder do Chat GPT? Está, justamente, na sua capacidade astronômica de buscar, nessas bases, de maneira ultra rápida, os dados, e montar os conteúdos. Ok, isso é impressionante e pode trazer consequências, como já está trazendo. Mas é importante separar as coisas. Todas as bases nas quais a ferramenta busca foram construídas por seres humanos. A novidade fica por nossa conta. Somos nós que vivemos as experiências que vão gerar aqueles textos. As PESSOAS são o que importa, em TODO o percurso.
Não me interessa ler textos sobre dicas de viagem sem saber quem escreveu. Não me interessam descobertas científicas sem saber das fontes. Não me interessa uma opinião sem referência – quem disse e quando. Gente, o Chat GPT não dá fontes, nem teria como (talvez desse uma fonte a cada palavra?). Ele não “sabe” realmente de onde tirou cada retalho de informação. Na mistura que o sistema faz, as fontes de perdem. E isso pasteuriza tudo! O conteúdo que a gente acessa se torna rico justamente pelo estilo como as pessoas escrevem, as experiências que viveram e que resultaram naquele texto ou conteúdo multimídia, as pesquisas que fizeram. Cada texto é único e especial em si mesmo, e o Chat GPT pega e junta um monte de dados e gera um texto uniforme, técnico, que nao sei quem escreveu e que propósito havia naquela escrita. Não me seduz, não adianta!
Os conteúdos que vemos no Chat GPT são uma massa disforme. Tudo o que interessa, nessa maré sem fim de conteúdo que nos inunda todos os dias, são as fontes, as origens dos conteúdos, isto é, NÓS, seres humanos! E o Chat GPT simplesmente ignora as fontes. Não “sabe” informar de onde veio aquela massaroca de texto. Imagina páginas e páginas arrancadas de livros, sem capas, index, sumário, nada, e jogadas numa caixa, misturadas. Imagina parágrafos recortados de livros, montados com parágrafos de outros livros; imagina palavrinhas recortadas de páginas de livros e coladas nas páginas de outros livros. Uma sopinha um tanto indigesta, não?
Eu acredito que o medo de que o Chat GPT nos torne obsoletos vem da falta de valorização da capacidade humana de criar, ter empatia, sonhar, se conectar com os outros; porque, se nada disso for importante, mas apenas conteúdos técnicos, pode ser que essa tecnologia seja suficiente! Mas tudo isso É ESSENCIAL, no sentido mesmo da NOSSA ESSÊNCIA. O que somos? O que significa ser humano? Sem um pouco dessa filosofia, fica fácil ter medo do Chat GPT. Mas, se nos conectarmos novamente ao que significa ser humano, a IA vai ter que se esforçar mais, gente. Nada disso me seduz, apesar de me preocupar. Por isso sigo pesquisando!
Leia este post aqui da Giselle Ferreira sobre o assunto, que “conversa” muito com o meu!
Um dos grandes desafios para a indústria da robótica é a sofisticação dos movimentos humanos.
O nível de refinamento dos movimentos que os nossos corpos são capazes de fazer é altíssimo, e parece algo que já vem “embarcado” em nós.
É ainda muito pequenos que começamos a engatinhar, segurar objetos e desenvolver, assim, essa interação corporificada com o mundo a nossa volta, que só evolui mais e mais.
Movimentos simples para humanos podem ser complexos de ser reproduzidos em robôs. Essa questão difícil é conhecida como PARADOXO DE MORAVEC, em referência ao roboticista Hans Moravec.
Também é difícil exigir de robôs que “compreendam” o contexto das interações. Por isso o senso comum é um desafio para a indústria robótica. Isso transparece até quando testamos o Chat GPT. Senso comum não é o forte.
Basicamente, Verhulst indica como o Chat GPT nos instiga a pensar nas perguntas que temos feito. Para obter dados, precisamos fazer perguntas e procurar respostas para elas, afinal, dados não significam nada sem interpretação.
Como espécie e como sociedade, o autor diz, nós tendemos a procurar por respostas para guiar nossas ações e decisões relativas a políticas, por exemplo. Mas nos esquecemos de que é a maneira como perguntamos que afeta o tipo de resposta gerado.
Será que as perguntas que estamos fazendo estão mesmo levando `às respostas que pretendemos?
– O autor nos instiga a pensar
O processo de pesquisa científica é todo guiado por perguntas. Os relatórios finais trazem respostas, mas elas são a ponta do iceberg.
Perguntas também qualificam dados: elas transformam dados crus em informações ricas, úteis e aplicáveis. Isso que o autor indica serve até mesmo para os dados de acesso a um site, por exemplo. Pensei aqui em algo: se uma companhia deseja saber se o tempo que os usuários passam em seu site é um tempo “bom” ou não, ela precisa saber o que deseja que eles façam em seu site. Se é um site para resolver um problema imediato, como encontrar um contato ou submeter um formulário, provavelmente será ideal que time on site seja curto. Pode significar (não necessariamente, mas é uma das métricas) que rapidamente os usuários têm resolvido seu problema quando entram no site.
Por outro lado, um tempo mais longo passado num site pode ser desejável para uma plataforma de e-commerce, por exemplo. Nesse caso, poderia significar que os usuários estão navegando bastante pelos produtos ou serviços. Claro que, além da métrica do tempo, outras como as métricas que indicam conversão são também essenciais. Se muitas pessoas acessam uma página mas poucas efetivamente compram, isso pode representar um problema para quem deseja vender online, por exemplo.
Voltando ao texto do Verhulst: ele sinaliza que a inteligência artificial torna ainda mais evidente a importância de fazermos boas perguntas.
Quando os engenheiros da IA desenvolvem um modelo de aprendizagem de máquina que aprende com os dados, o que ele aprende – ou seja, o próprio modelo – depende da pergunta que procura responder a partir dos dados.
O artigo que escrevi e submeti para a Revista Portuguesa de Educação, intitulado “O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus”, foi publicado neste link.
É uma grande satisfação ter um artigo publicado nessa revista, que é muito bem conceituada na área da Educação. Vejo o filósofo Hubert Dreyfus como um precursor de ideias da abordagem chamada de cognição enativa, que é a base da minha tese de doutorado. Aqui no blog já escrevi sobre ele – releia os posts:
Dreyfus fez críticas muito pertinentes à inteligência artificial quando a área estava ainda nascendo. Eu amo o trabalho dele. Por conta disso, quis fazer um artigo que fosse também uma espécie de homenagem. Por isso esse título, que ficou bem “jornalístico” – sou de fato jornalista, e afinal a identidade da gente se transforma, mas a essência permanece 😉 “What Computers Can’t Do” é o título de um livro de Dreyfus lançado em 1972, mas que mobiliza até hoje a atenção dos interessados em cognição e IA. Quando me dei conta do “aniversário” de 50 anos do livro (e eu ainda fiz 40 anos em 2022, nasci em 82 haha coincidências), fiz questão de que fosse publicado ainda este ano e corri para enviar para a revista. E eis que o artigo saiu faltando um dia para o ano acabar!
Neste post, faço uma espécie de leitura comentada do ensaio acadêmico que publiquei na Revista Perspectiva Filosófica e está neste link para quem quiser acessar. É um trabalho sobre os impactos à nossa autonomia quando lidamos com sistemas de aprendizagem de máquina – uma vertente da inteligência artificial.
As tecnologias digitais, de tão entranhadas que estão em nosso cotidiano, vêm sendo apontadas como extensões da mente, sendo consideradas capazes de potencializar a cognição humana. A chegada das tecnologias baseadas em algoritmos, por outro lado, traz uma série de elementos novos para essa equação. Elas são impulsionadas pelos próprios dados dos usuários dessas tecnologias, já que, no caso da aprendizagem de máquina por exemplo, operam fazendo previsões a partir de dados obtidos e assim sucessivamente.
Neste trabalho, eu argumento que, justamente porque essas tecnologias se baseiam em dados do usuário para gerar novos conteúdos, elas acabam criando uma circularidade em torno dele que, em vez de expandir, pode limitar sua experiência de aprendizagem. No centro desse impacto está a autonomia, que, em vez de ser ampliada, acaba sendo ameaçada de redução.
É importante explicar que o conceito de autonomia que utilizo é o conceito que deriva da chamada teoria da cognição enativa. Existem várias formas de conceituar autonomia, portanto no caso de um trabalho acadêmico de pesquisa é fundamental esclarecer isso. Trata-se de um conceito de autonomia que deriva da ideia de que a célula, unidade primordial da vida, somente é capaz de ser e se manter autônoma porque está inserida em um contexto que permite isso – um ambiente com o qual mantém trocas constantes que a alimentam energética e materialmente. Ou seja, a célula é autônoma, não capaz de se manter sozinha. Pelo contrário, sua autonomia se origina justamente das suas interações com o meio, o que torna essas interações essenciais para a manutenção da autonomia celular.
Eu “estiquei|”esse conceito até o ambiente algorítmico que se constitui em torno de nós, humanos. Fiz esta pergunta: o que acontece com a nossa autonomia quando o meio é aquela que chamei de algoritmosfera, essa rede entrelaçada por algoritmos e dados que nós alimentamos e que, ao mesmo tempo, também nos alimenta? Nós conseguimos nos manter autônomos diante desse contexto, embebidos nessa rede de interações que têm essa natureza?
O meu objetivo geral, com isso, é compreender os limites e as potencialidades das nossas relações com sistemas de aprendizagem de máquina para entender se eles podem nos ajudar nas nossas experiências de aprendizagem sobre o mundo ou se esses sistemas acabam por retrair essas experiências. Ao me debruçar sobre esse trabalho, explorei as diferenças por vezes aparentemente sutis, mas sempre muito potentes, entre lidar com outro ser humano ou com um sistema de aprendizagem de máquina. Quando lidamos com outra pessoa, aprendemos com ela, percebemos o mundo com ela, e isso altera as nossas percepções. Existe algo que surge das interações entre seres humanos que é único e típico dessas relações, e não poderia surgir fora delas. É algo novo, imprevisível. É o produto da interação.
Quando lidamos com máquinas, por mais que elas nos façam sentir como se estivéssemos lidando com outra pessoa às vezes, de tão avançados que estão esses sistemas, nós não estamos. O que acontece é que nesses casos nós acabamos “levando” toda a “relação” sozinhos; não há uma real interação social, como há entre dois seres humanos. As relações de troca humanas são como uma dança, em que o par se movimenta junto, enquanto as interações com sistemas artificiais se parecem com um monólogo ou uma dança desequilibrada em que apenas um se movimenta e o outro faz um papel parecido com o de um fantoche.
Com isso, não se pode dizer que não aprendemos nada ao lidar com sistemas de aprendizagem de máquina, mas sim que não é uma experiência comparável à que temos quando lidamos com outro ser humano. Isso, para quem procura compreender a aprendizagem e como ela é impactada pelas tecnologias, é essencial. O enativismo, ou cognição enativa, não diz que aprendemos mais ou melhor com outros seres humanos, mas que somente aprendemos de fato com outros seres humanos. Somos moldados, impactados, alterados, percebemos o mundo e raciocinamos sobre ele justamente a partir das interações com outras pessoas; precisamos delas para ter experiências de aprendizagem. Máquinas ou sistemas artificiais não aprendem de fato e não conseguem, sozinho/as, proporcionar experiências de aprendizagem.
A nossa autonomia é ameaçada, sob o ponto de vista de autonomia no enativismo, porque as trocas que mantemos com o meio “algorítmico” constituem um desequilíbrio para as nossas interações. É como se a contribuição de um e de outro lado fosse tão irregular que tornasse a relação “capenga”. Eu entro com meus dados, minhas percepções, minha imaginação; a máquina não percebe e não cria nada, e assim, tudo que parece novo ao surgir dali é mais limitado do que seria se eu estivesse lidando com outra pessoa. Porque outra pessoa é capaz de ciar, imaginar, porque tem experiência e aprende, e então dessa interação social se origina algo que só pode existir porque se trata, justamente, desse tipo de interação. É algo então que, por definição (enativista), potencializa a minha capacidade de experimentar o mundo de um modo especial porque é impossível de ser previsto na totalidade. Não há estatística que possa prever que conversa exatamente teremos com um amigo ao encontrá-lo, por exemplo; ou como o ser amado vai reagir a uma contestação que manifestarmos; ou se acabaremos falando de cinema quando nos encontrarmos com alguém para falar de matemática.
Essa é uma ideia interessante para defender por que não é viável pensar que uma aula 100% a distância, assíncrona, ou seja, sem o professor em contato com alunos em tempo real, poderia resultar no mesmo nível de experiência de uma aula presencial – ou, pelo menos, em que o professor e os alunos estejam no mesmo momento, se olhando, ainda que mediados por suas câmeras. Há algo nessa conexão entre as pessoas, alimentada pelas trocas daquele momento, que é único, e faz parte da série de novidades que emergem da interação. Há experimentos com bebês mostrando que eles choram quando diante de um vídeo gravado da mãe, depois de demonstrarem calma quando veem um vídeo da mãe que é uma transmissão em tempo real. O problema não é ser uma imagem, mas a mãe não estar olhando para ele, interagindo com ele na medida da própria interação. Não é fascinante?
Num mundo em que as relações são postas em xeque, por inúmeros motivos, e em que contamos tanto com sistemas artificiais para fazer um sem-número de atividades, é fundamental não esquecer que há algo intrínseco às trocas humanas. Algo que gera algo que só existe a partir dessas relações. Se só “falarmos” com máquinas, estaremos como que batendo num muro, um bate e volta; sentiremos algo, poderemos até aprender algo ou muitas coisas, mas não continuaremos a expandir os nossos horizontes, o alcance das nossas experiências, como faríamos se estivéssemos em interações sociais. Só elas ampliam os círculos de experiências mais e mais. Por isso chamei o ensaio de “Another brick in the wall” e digo que precisamos fazer um esforço para olhar entre os tijolos do muro. São as frestas que nos mantêm abertos a uma série de experiências inesperadas, essenciais justamente porque são inesperadas; nós não vivemos sem surpresas, sem o incerto, mesmo quando queremos o “certo”. Aprendemos na inconstância e na flexibilidade, não na dureza dos muros.