A robótica & os movimentos humanos: um paradoxo

Um dos grandes desafios para a indústria da robótica é a sofisticação dos movimentos humanos.

O nível de refinamento dos movimentos que os nossos corpos são capazes de fazer é altíssimo, e parece algo que já vem “embarcado” em nós.

É ainda muito pequenos que começamos a engatinhar, segurar objetos e desenvolver, assim, essa interação corporificada com o mundo a nossa volta, que só evolui mais e mais.

Movimentos simples para humanos podem ser complexos de ser reproduzidos em robôs. Essa questão difícil é conhecida como PARADOXO DE MORAVEC, em referência ao roboticista Hans Moravec.

Também é difícil exigir de robôs que “compreendam” o contexto das interações. Por isso o senso comum é um desafio para a indústria robótica. Isso transparece até quando testamos o Chat GPT. Senso comum não é o forte.

O que os computadores continuam não conseguindo fazer, 50 anos depois

O artigo que escrevi e submeti para a Revista Portuguesa de Educação, intitulado “O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus”, foi publicado neste link.

É uma grande satisfação ter um artigo publicado nessa revista, que é muito bem conceituada na área da Educação. Vejo o filósofo Hubert Dreyfus como um precursor de ideias da abordagem chamada de cognição enativa, que é a base da minha tese de doutorado. Aqui no blog já escrevi sobre ele – releia os posts:

Introdução à Fenomenologia com Hubert Dreyfus

What Computers Can’t Do (Hubert Dreyfus)

Dreyfus fez críticas muito pertinentes à inteligência artificial quando a área estava ainda nascendo. Eu amo o trabalho dele. Por conta disso, quis fazer um artigo que fosse também uma espécie de homenagem. Por isso esse título, que ficou bem “jornalístico” – sou de fato jornalista, e afinal a identidade da gente se transforma, mas a essência permanece 😉 “What Computers Can’t Do” é o título de um livro de Dreyfus lançado em 1972, mas que mobiliza até hoje a atenção dos interessados em cognição e IA. Quando me dei conta do “aniversário” de 50 anos do livro (e eu ainda fiz 40 anos em 2022, nasci em 82 haha coincidências), fiz questão de que fosse publicado ainda este ano e corri para enviar para a revista. E eis que o artigo saiu faltando um dia para o ano acabar!

Três tipos de machine learning

Conheça os três tipos mais comuns de machine learning ou aprendizagem de máquina:

  1. Aprendizagem Supervisionada: neste caso, o sistema recebe não apenas dados para operar, mas dados já classificados de uma determinada maneira. O sistema recebe também esses rótulos e precisa, então, encaixar os dados neles. É se fosse um quebra-cabeças. Quando a gente tenta acessar um site e ele, por segurança, pede para marcarmos todas as imagens em que aparecem montanhas, por exemplo, estamos diante de um sistema assim. Também é o caso da classificação de e-mails como #spam: cria-se um conjunto de e-mails que são spams e treina-se o sistema para identificar quais são as características mais comuns nele; ele poderá então classificar e-mails nunca vistos como spam a partir desses elementos identificados em outros e-mails.
  2. Aprendizagem Não Supervisionada: neste tipo, o sistema não tem as classes previamente definidas. Ele precisa criar os rótulos para os dados. Para isso, o próprio sistema deve identificar padrões no big data. Por exemplo, utiliza-se esse tipo de machine learning para inferir padrões de consumo nas pessoas e depois lhes oferecer produtos e serviços de acordo com o comportamento e as preferências demonstrados.
  3. Aprendizagem por Reforço: o sistema tentará usar os dados que recebe para gerar modelos, na base da tentativa e do erro. Depois, será punido ou recompensado de acordo com aquilo que conseguir “fazer”. Este tipo é muito comum na robótica e nos games. É o tipo usado no AlphaGo.

Leia também: O que é machine learning

O que é machine learning?

Machine learning ou aprendizagem de máquina é um tipo de inteligência artificial.  É uma tecnologia que está por trás das redes sociais, dos sites em que navegamos, dos aplicativos, dos sistemas digitais de bancos, sistemas de saúde, sites de compras etc. Os sistemas de machine learning são desenvolvidos para desempenhar determinadas atividades e funções. Os algoritmos funcionam, então, como “receitas” que esses sistemas seguem para conseguirem desempenhar essas atividades.

Mas, então, por que a palavra “aprendizagem”? Bem, assume-se que esses sistemas aprendem porque eles se baseiam em dados que coletaram para fazer previsões. Trata-se de uma concepção de aprendizagem que tem como base a estatística. Os nossos dados, usados por esses sistemas para fazerem essas previsões, são chamados de “big data” porque constituem enormes massas de dados. Quanto mais dados e mais diversificados eles forem, mais combinações diferentes esses sistemas podem fazer.

Um sistema de machine learning pode, por exemplo, identificar pessoas a partir de fotos dela. Pode classificar um determinado tipo de e-mail como SPAM por conta de características de outros e-mails que foram classificados pelos usuários como SPAM anteriormente. Pode identificar padrões em dados sobre a saúde de uma pessoa e apontar alguma tendência nesse sentido.

Conheça os três tipos mais comuns de machine learning

Robôs com sentimentos?

Esta semana, a internet chacoalhou com a notícia de que, segundo um funcionário da Google, o chatbot LaMDA, produzido pela empresa, seria senciente. O funcionário acabou afastado depois de suas declarações. O interessante é que uma discussão que está tão presente na filosofia veio à tona por conta disso tudo. Então, o que é que está por trás de desse debate?

A ciência cognitiva é uma área que vem crescendo desde os anos de 1950, e eclodiu bem perto da explosão também da inteligência artificial enquanto área de pesquisa. No início, a IA tinha como foco reproduzir as capacidades humanas. E não era tão difícil crer na viabilidade disso, porque se acreditava que o cérebro poderia ser feito de qualquer material que poderia, de todo jeito, gerar uma mente. Então, teoricamente, um “cérebro” de silício também seria capaz de dar origem a pensamentos, sentimentos, enfim, tudo que compõe a mente.

Com o passar do tempo, as experiências em IA e robótica mostraram que a coisa não era bem assim. Um pesquisador que ajudou a mostrar que a distância entre humanos e máquinas era grande, e que ainda haveria um longo caminho pela frente até que se pudesse instanciar a inteligência humana em sistemas artificiais, foi Hubert Dreyfus. Ele trabalhou no MIT bem próximo a cientistas da computação engajados nessas pesquisas. E era ele quem colocava questões que certamente irritavam os programadores, mas que eram certeiras!

Por exemplo: como um computador poderia prever as milhares de coisas que poderiam acontecer em dada situação da vida cotidiana? Nós conseguimos rapidamente mudar a nossa maneira de agir dependendo do contexto em que nos encontramos: se algo cai no chão, pegamos de volta, colocamos em cima da mesa; se algo se parte, colamos; se alguém se machuca ou chora de repente, vamos acudir. Já sistemas artificiais precisam de mudanças extensas e detalhadas em todo o seu código quando algo muda. Eles não compreendem contextos. Também não compreendem certos atributos simples da vida cotidiana, que fazem parte do senso comum. Tipo: quando atendemos ao telefone, dizemos alô – ou “tô”, se for em Portugal; a pessoa do outro lado responde; combina-se de sair para um bar em alguma rua perto da casa dessas pessoas. O computador precisa de mais do que um simples “Então, vamos lá hoje?”­ para “entender” o que se passa.

É que na verdade a máquina não “entende”nada, de fato! Todas as informações que as pessoas envolvidas na conversa vão conhecendo ao longo da vida e vão incorporando em seu repertório – o que significa alô, o que é um bar, onde ele fica, de que bar estão falando, o que significa vamos lá etc. etc. ­– o computador precisa receber como inputs (até mesmo a informação de que duas pessoas são pessoas, conversam ao telefone, o que é telefone, o que é conversar etc. etc., já pensou?!). Isso precisa estar na programação do sistema. E, mesmo assim, o computador efetivamente não saberá nada: ele vai manipular aquelas informações, mas elas não vão significar nada para ele.

E a filosofia no meio de tudo isso?

A filosofia é uma área que investiga a inteligência humana, a cognição, a mente, a consciência. Para isso procura, antes de tudo, entender como se pode compreender ou conceituar cada uma delas. A maneira como se conceitua algo, afinal, faz muita diferença para os debates. Para pensar se uma IA pode ser consciente ou não, se é senciente ou não, cabe perguntar: o que é ter consciência? O que é senciência?

Há pesquisadores, por exemplo, que buscam na biologia as raízes para se compreender a mente humana. Para eles, a mente é como uma extensão da vida; onde há vida há atividade mental. Consequentemente, onde não há vida não há mente.  Também, se não há mente, não há sentimentos ou experiência. Por essa lógica, se robôs não são seres com vida biológica, não poderiam ter consciência ou senciência, nem sentir ou experimentar nada.

Esses pesquisadores acreditam, ainda, que a mente humana inclui muito mais do que o cérebro: o corpo como um todo constitui a mente. E é com a nossa atividade corporal, em acoplamento direto com o mundo natural, que vamos descobrindo e entendendo o que há no ambiente que nos cerca: assim é que fazemos sentido daquilo que está a nossa volta. Esses pesquisadores a que me refiro são estudiosos da cognição enativa. Alguns dos nomes mais importantes da área são Ezequiel Di Paolo, Hanne De Jaegher e Evan Thompson. Na minha tese de doutorado, eu abordo machine learning e enativismo. Se quiser saber mais, clica aqui.

Veja também o post especial no Instagram: @algoritmosfera

Transparência na IA

A inteligência artificial cada vez mais permeia e influencia nossas vidas. Afeta decisões das mais relevantes: quem pode conseguir um empréstimo ou financiamento, quem deve conseguir um emprego ou ser demitido, quem deve ser preso. Conecta indivíduos em apps de relacionamentos, podendo influenciar nos rumos sentimentais das vidas das pessoas, também.  

Diante da presença crescente da IA em nossas vidas, cresce também a importância de compreender o que significa vivermos entrelaçados a sistemas que se alimentam dos nossos dados. 
Por isso, crescem as preocupações com os riscos a que potencialmente somos expostos.

Há uma mobilização enorme para que se analise esses riscos e para que sejam mitigados. 

Nesse contexto, são preocupantes os mecanismos opacos de tomada de decisão embutida em sistemas algorítmicos.

Transparência é importante quando se trata de sistemas de #IA
A questão da transparência aparece nos documentos do AI HLEG – the European Commission’s High-Level Expert Group on Artificial Intelligence, de 2018.

“Os modelos de negócios baseados em dados, sistemas e AI devem ser transparentes: mecanismos de rastreabilidade podem ajudar nisso. Além disso, os sistemas de IA e suas decisões devem ser explicados de uma maneira adaptada às partes interessadas. Os seres humanos precisam estar cientes de que estão interagindo com um sistema de IA, e devem ser informados acerca das capacidades e limitações desse sistema”, diz documento do AI HLEG de 2019. 

Vou mais além e defendo, com base em teorias da cognição em que venho me aprofundando no doutorado, que “interação” é humano-humano; quando lidamos com sistemas de IA temos uma troca, mas não é exatamente uma “interação” como seria uma interação social. Há algo que só humanos têm, ainda bem 😉 

No artigo acadêmico disponível neste link, o qual inspirou este meu post, há uma discussão interessante sobre “variedades de transparência” em sistemas de IA. Foi escrito por Gloria Andrada, Robert Clowes e Paul Smart.

Um robô para apoiar crianças autistas

O autismo afeta a forma como uma pessoa se comunica, compreende e se relaciona com outras. Pessoas com autismo frequentemente têm dificuldade de usar e entender linguagem não verbal. Com isso em mente, surgiu o projeto DE-ENIGMA, que foca em desenvolver as capacidades de reconhecer e de expressar emoções em crianças com autismo.

(Mais em http://de-enigma.eu/)

O neurocientista António Damásio defende que sentimentos e emoções são diferentes; segundo o pesquisador, as emoções são externas, são aquilo que se lê nas outras pessoas, enquanto os sentimentos são internos. Não há, portanto, consciência sem sentimentos, nem sentimentos sem consciência. E um robô, então, poderia simular emoções, mas nunca teria sentimentos.

O professor é substituível pelas tecnologias digitais?

A pesquisa Nossa Escola em (Re)Construção, promovida pelo Porvir entre os anos de 2017 e 2018, coletou dados entre quase 20 mil jovens de 11 a 21 anos e constatou que “o melhor da escola é o professor“. Texto do Porvir sobre o assunto diz que:

“Na plataforma, os participantes foram convidados a dizer como é a sua escola atual ou a última em que estudaram e como eles gostariam que ela fosse. Ao avaliar 11 aspectos da instituição de ensino, em uma escala de 1 (Tá tenso) a 5 (Tá tranquilo, tá favorável), as maiores notas foram para o professores (3.9), seguidos pelas aulas e matérias (3.8). Entre os últimos itens, aparece o uso de tecnologia (2.7) e as atividades extraclasse (2.9)”.

Que o professor faz toda diferença na vida do aluno não é exatamente novidade. No Brasil, com toda a precariedade do ensino público, ameaçado ainda mais no governo atual, temos professores premiados (veja também este link) e sabemos que, em muita escola onde falta luz, água, merenda e tudo o que se pode imaginar, não raro sobra dedicação de boa parte dos docentes para que os alunos continuem aprendendo.

Mas a questão de a tecnologia aparecer como um dos últimos itens na pesquisa do Porvir, somada a outra notícia recente, é o que impulsiona esta minha reflexão aqui. Apesar de a cada dia ficar mais claro que a presença do professor é insubstituível e que não há tecnologia que dê conta de atuar no lugar dele (muito pelo contrário), existe uma certa tendência a enaltecer as possibilidades de que essa substituição aconteça.

O empreendedor Elon Musk recentemente premiou com U$ 10 milhões duas startups de tecnologias educacionais (as chamadas edtechs) capazes de “substituir” professores por meio do uso da tecnologia. Uma delas foi a onebillion e a outra foi a KitKitSchool. O site Business Insider diz que “launched in 2014, the competition was set up to empower children to take control of their learning. It challenged innovators around the world to create technology that would enable children to teach themselves basic reading, writing, and arithmetic within 15 months”. A competição como um todo me parece equivocada por promover “substituição” em vez de soma, mas este trecho me pareceu ser uma coleção de equívocos ainda maior. “Empoderar” crianças quanto ao “controle de seu aprendizado”? Leitura, escrita e aritmética básicas em 15 meses? Estimular gente inovadora a pensar em tecnologias que, de algum modo, promovem o descarte do professor?

A questão é: o que ganhamos com isso?

Afinal, é para isso mesmo que devemos trabalhar nossas tecnologias? Para substituir o professor, ou para fazer as pessoas pensarem que essa substituição é possível? E o que seria esse “professor”, tão facilmente substituível nessa concepção? Seria um mero transmissor de conteúdos “básicos”?

E mais: crianças “empoderadas” são crianças que têm “poder” e “controle” sua própria aprendizagem?

Não quero tirar o mérito de tecnologias que possam ajudar mais pessoas a aprender a ler e a escrever, de forma alguma. Também não sei ainda como em áreas remotas, pobres e com deficiências de tudo, crianças poderão ter acesso a aplicativos com tais recursos, a não ser aquelas selecionadas para a pesquisa empírica; porém, se tiverem, jamais serei contra; trata-se da importante questão da democratização da tecnologia digital. O ponto em que sempre insisto é o da substituição: é nela que devemos focar, quando falamos de tecnologias educacionais?

A responsabilidade da mídia

Talvez nós, jornalistas, sejamos grandes responsáveis por contribuir para a construção de conceitos equivocados nesse sentido. Afinal, a manchete “Elon Musk awards $10 million prize to 2 startups replacing teachers with tech” ficou a cargo do Business Insider; no site do XPrize, promovido pelo Musk, não se vende a coisa como substituição, ao menos nao num primeiro momento. O site diz “Empowering children to take control of their own learning”. Isso, sem a questão da substituição do professor, pode tomar ares bem diferentes.

Sem dúvida, há muitos fatores envolvidos nessa reflexão, e de indubitável há o fato de que sim, a educação e a tecnologia devem ser para todos. Mas parece estar havendo uma confusão bastante significativa quanto a esse ponto da substituição do professor pelas tecnologias, ainda mais com a popularização da inteligência artificial. Mesmo já tendo muito com o que nos preocupar no Brasil em termos de educação, precisamos ficar atentos a mais esse aspecto, que na realidade relaciona-se com a questão mais profunda e anterior da relação humana com as tecnologias digitais: para onde estamos caminhando? Quais os impactos dessa relação? O que esperamos dela? No que ela nos transforma?

Vale a reflexão.

É preciso reduzir a distância da educação a distância

A educação a distância é capaz de gerar muitas oportunidades e abrir um sem-número de possibilidades. É uma modalidade que tem muito a crescer. No entanto, considero essencial que tenhamos um posicionamento crítico e reflexivo em relação ao uso das tecnologias digitais na educação, de um modo geral, incluindo-se aí a EaD.

A ideia da “distância” na EaD me incomoda, em um certo sentido; penso que devemos reduzir a distância da educação a distância, digamos assim. É importante nos preocuparmos para que, no espaço virtual da educação a distância baseada em tecnologias, não desapareçam as subjetividades, as particularidades de cada aluno e de cada professor. Cada um que participa do processo de ensino-aprendizagem carrega um olhar, uma série de experiências, muitas expectativas, ansiedades, filosofias. E isso tem um valor enorme para que aconteça uma educação humanizada, inclusiva e rica em vários sentidos.

Quando o ensino é presencial, essas subjetividades naturalmente aparecem, pois alunos e professores levam os seus corpos, a sua presença física para o ambiente de aprendizagem. Já a experiência restrita ao online, na modalidade a distância, envolve o risco de separar o sujeito de seu corpo – o qual é parte essencial do conjunto cognitivo de um indivíduo, apesar de às vezes isso ser esquecido (vide as reportagens sobre como O CÉREBRO aprende, O CÉREBRO se emociona, mas… o cérebro não está sozinho nessa…! É o corpo todo que vai junto com ele!).

Se há apenas o ambiente online para a aprendizagem, essas especificidades ficam escondidas, prejudicadas pela pasteurização que tantas vezes emerge da redução de indivíduos a logins. Especialmente quando se trata de um processo voltado para uma educação para a vida, ou seja, para a formação dos estudantes de um modo amplo, creio que isso pode ser bastante prejudicial. Talvez seja menos danoso no caso do ensino de uma habilidade mais focada na técnica, na aplicação imediata.

Soma, e não substituição

Diante disso, o caminho que me parece mais interessante para somarmos as potencialidades das tecnologias com a manutenção dessas importantes trocas de experiências é o da união de experiências online com experiências offline, sejam aulas, palestras, encontros, treinamentos, enfim.

Para diminuir a distância da educação a distância, também creio ser preciso oferecer apoio e incentivo ao aluno, de forma permanente. Estudar a distância, afinal, sempre exige uma dose maior de disciplina, organização, concentração e capacidade de priorização por parte do estudante. Ajudá-lo a evoluir com relação a essa organização e planejamento pode, então, contribuir para manter esse aluno interessado, confiante e motivado.

A motivação pode ser ainda maior quando o estudante encontra um ambiente virtual de aprendizagem intuitivo, que funcione bem, e ao mesmo tempo seja acolhedor; quando, nessa experiência virtual, ele encontra ferramentas bacanas e um conteúdo ao mesmo tempo envolvente, bem apresentado, claro e objetivo. E esse esforço de colaborar com a experiência do aluno e de apoiá-lo em sua aprendizagem a distância tem como pilar fundamental justamente o conhecimento que se tem desses alunos, que vem da convivência presencial com eles. Então, o online e offline retroalimentam-se. Um não deve substituir o outro.

O potencial das tecnologias digitais na educação a distância não é de substituição das capacidades humanas, mas de ampliação dessas capacidades. 

As iniciativas já existentes no sentido da união entre educação e tecnologias – cursos online, e-books e outros materiais digitais, ambientes virtuais de aprendizagem, o uso do machine learning em plataformas adaptativas, a gamificação de plataformas etc – têm sido essenciais para consolidar essa parceria entre educação e tecnologias digitais.

No entanto, educação e tecnologias podem ser aliadas mais fortes ainda se, por exemplo, conseguirmos minimizar dificuldades relacionadas à democratização do acesso à educação, utilizando as tecnologias digitais para isso. Não devemos perder de vista que essas tecnologias podem, ao mesmo tempo, contribuir para essa democratização ou causar mais problemas nesse sentido, uma vez que, se elas ampliam as possibilidades de aprendizagem e acesso à informação, isso precisa idealmente ser para todos, não apenas para alguns – caso contrário, a defasagem entre quem tem o acesso e quem não tem será ainda maior.

Acredito que a principal forma de aumentar e tornar mais eficaz ainda essa relação entre a educação e as tecnologias, de modo geral, é conhecendo as implicações das tecnologias digitais a nossa sociedade, analisando os seus impactos, de forma profunda. Por exemplo, precisamos pensar na nossa relação com a inteligência artificial.

Há um enorme medo de que os robôs nos substituam, mas será que é por aí?

Em alguns casos, máquinas trabalharem por nós não parece ser um problema, pelo contrário, já que robôs e sistemas podem desempenhar certas tarefas de um modo até mais eficiente que humanos, sim – podem fazer inúmeros cálculos em pouco tempo, apenas para citar uma das situações. Mas, há outros casos, aqueles que envolvem as experiências nas quais não podemos prescindir da nossa relação direta com o mundo, com as outras pessoas, que representam algo único, algo que nos ajuda a crescer; esses casos não podem ser protagonizados ou pautados por algoritmos e robôs.

Algoritmos não podem resumir ou restringir as nossas experiências, e robôs não podem ter experiências como nós temos, e que são imprescindíveis para o nosso crescimento. Erramos, acertamos, sofremos, comemoramos, tentamos de novo: isso é humano. Criamos, testamos, compartilhamos com os outros o que pensamos: isso é humano.

Muito do medo das tecnologias, acredito, vem do receio da perda de espaço, vem do medo de que as máquinas nos tornem obsoletos. Na verdade, devemos pensar em ampliação, parceria, novas possibilidades para quem aprende e para quem ensina.

Vida, ciência, tecnologia: seleção de reportagens e artigos

Vejo tanto conteúdo bacana sobre inteligência artificial, tecnologia & seus impactos, vida digital & sociedade, robótica e afins, que vou tentar manter aqui no blog um espaço para seleções (ainda não sei se semanais, mensais ou de acordo com minha disponibilidade…) de artigos e matérias voltados para o tema; assim, eu não perco os links que tanto me interessaram e ao mesmo tempo os compartilho com os amigos leitores também conectados com esse universo. Importante destacar que não necessariamente concordo com tudo (provavelmente não!), mas pretendo trazer opiniões e pontos de vista diversos, para justamente formarmos um debate. É nisso que acredito, afinal.

O reconhecimento facial abre caminho para o pesadelo de George Orwell

Tudo tem, pelo menos, dois lados. Esse artigo da seção de Inteligência Artificial do El País, na verdade uma subseção da editoria de Tecnologia do veículo, mostra como podem ser os desdobramentos advindos da tecnologia de reconhecimento facial, uma vertente da I.A. bastante promissora e que não se limita à ficção faz tempo.

CEOs should do these three things to help their workforce fully embrace AI

Este é um conteúdo patrocinado pela Accenture, publicado no site Quartz; recomendo, portanto, que seja lido criticamente, uma vez que se uma empresa bancou um conteúdo sobre o tema… ao menos devemos ser analíticos ao ver os pontos destacados, certo? Considero alguns deles bem interessantes, como o fato de que o impacto maior das máquinas no mercado de trabalho não ser provavelmente tanto na quantidade de empregos, mas no conteúdo das funções realizadas.

O que é futurismo?

Você sabe o que ;é? O termo me chamou a atenção quando trabalhei no Museu do Amanhã, onde volta e meia ouvia alguém mencioná-lo. Esse artigo do Draft, de agosto do ano passado, ajuda a entender.

A.I. Is Doing Legal Work. But It Won’t Replace Lawyers, Yet 

O artigo não é novo, foi publicado há quase um ano, mas eu só o descobri esta semana graças a um post de uma amiga no LinkedIn. Trata de como a I.A. (ao menos ainda) não vai substituir o trabalho dos advogados, mas por enquanto poderá fornecer recursos para que suas rotinas se tornam mais rápidas e eles possam focar em trabalhos mais profundos, e necessários. A reportagem menciona este artigo: Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law, de Dana Remus e Frank Levy.

O impacto do ensino da arte (ou da falta dele) na percepção do mundo

Neste artigo, também não recente – publicado no site Fronteiras em 2015 – Camille Paglia fala sobre como faz falta o ensino da arte, que segundo ela seria um importante contraponto para a sociedade essencialmente digital em que vivemos.

Imagem do post Clem Onojeghuo @ Unsplash