A atitude filosófica, o jornalismo e o querer-saber

Como fica claro na área do Perfil do meu site, a minha graduação foi em jornalismo. Logo cedo na carreira, depois de dois anos de formada, me interessei pela educação enquanto área de pesquisa. Fiquei uns oito anos trabalhando em comunicação digital, educação a distância e tecnologias educacionais – projetos que me deram bastante experiência mas também me despertaram muitas questões – e em 2016 decidi que queria ir fundo nos estudos da educação.

Como sempre quis construir uma carreira acadêmica, decidi que o flerte (que durava desde quando me formei no bacharelado) deveria virar namoro; fiz a seleção do mestrado, passei e comecei a estudar as tecnologias digitais sob a perspectiva da Filosofia da Educação. Aí casei com a pesquisa: no doutorado, sigo na Filosofia da Educação fazendo uma pesquisa que tem como objetivo investigar a aprendizagem a partir de um paralelismo com machine learning. No meu trabalho, me utilizo de uma literatura e de uma série de conceitos situados em áreas variadas: ciência cognitiva, neurociência, filosofia, inteligência artificial, biologia, psicologia e outras.

A minha pesquisa é multidisciplinar como eu 😉 Coisa de gente curiosa mesmo.

Bem, mas este post se chama atitude filosófica e é sobre isso que quero falar aqui.

A atitude filosófica talvez seja um dos pontos mais importantes de conexão entre as duas esferas profissionais que tenho na vida: o jornalismo e a filosofia. Pois desde quando quis fazer jornalismo tomei essa decisão porque gostava de escrever e de ler, mas também porque me considerava questionadora, crítica – e por gostar de pesquisar. Sempre acho que todo assunto pode ser investigado e olhado sob outros ângulo; acredito que tudo é um recorte de algo mais vasto; gosto de pensar sobre os porquês das coisas; gosto de ouvir as histórias das pessoas (e de contar as minhas, mas aqui isso não vem tanto ao caso, hehe).

Percebo, inclusive, que muitos jornalistas não têm (ou perderam) essa curiosidade, vontade de ir atrás das coisas, esse encantamento pela apuração. Admiro os jornalistas curiosos que se munem dessa vontade de saber para ir atrás das histórias, tentando contá-las da forma mais consciente possível.

Consciente acho que é uma boa palavra, porque a verdade sempre tem muitos elementos, aspectos e pontos de vista, e o jornalismo precisa dar espaço para eles, mas também deve respeitar a ciência e trabalhar para que as verdades científicas ganhem espaço. Também deve ter o bom senso de evitar dar espaço para aquilo que não ajuda uma sociedade a crescer e se desenvolver. Jornalismo, afinal, também é construção de uma sociedade melhor, mais aberta, democrática e plural; e eu defendo que isso não é negociável! Mas, enfim, o ponto aqui é: a atividade jornalística exige curiosidade, querer investigar, querer saber. Estar aberto ao que pode vir a encontrar.

A filosofia, por sua vez, também tem melhor aderência aos seres curiosos. A chamada “cabeça fechada” e a filosofia não se encaixam. Com a filosofia, a gente sempre pode questionar, sempre pode discutir as premissas. Não é um questionamento no vazio, sem eira nem beira; mas uma investigação que caminha lado a lado com a empiria, com a pesquisa prática. A filosofia e a ciência também caminham juntas, portanto. Ou, ao menos, a filosofia que tem me interessado é essa.

Debates epistemológicos vazios não me atraem, porque a minha pesquisa é filosófica mas também é fazer-ciência (assim com hífen que acho que encaixa bem com o que quero dizer). O que os pesquisadores que estou estudando fazem acaba levando a olharmos um pouco por baixo do tapete às vezes, e dizer: mas você viu que este tapete está sedimentado sobre estes tacos aqui, e estes tacos estão ruindo? Será que não é melhor trocar os tacos antes de continuar a caminhar? Se não trocar, a poeira vai se acumular entre o tapete e o chão… o chão vai ruir… e só vai restar o tapete lá em cima, que depois de um tempo não vai aguentar também.

Com isso, quero dizer que a gente precisa olhar para os pilares que sustentam as pesquisas empíricas, porque, veja: se determinamos que certas premissas são verdadeiras e seguimos fazendo pesquisas a partir delas, o que temos? Pesquisas que não conseguem se desvencilhar dessas premissas, que são os seus sustentáculos.

Quase nunca precisamos jogar tudo fora e recomeçar, mas quase sempre podemos rever parte de nossas convicções, e essa atitude de abertura, essa postura do querer-saber, é filosófica – e pode ser também jornalística, pode vir de um educador, de um psicólogo, um economista, um matemático, um biólogo, enfim, todos podem adotar essa atitude filosófica.

Portanto, não há nada assim de tão estranho em querer filosofar, não se trata de “viajar”, nem de complicar as coisas (bom, às vezes pode complicar, ou ao menos complexificar)… trata-se de levantar o tapete, e isso pode às vezes fazer a gente espirrar ou tossir, mas vale a pena. Afinal, em alguns casos a outra opção é a estrutura ruir!

Então, para começar a filosofar, é preciso ter interesse, curiosidade e ter olhar crítico; observar; topar uma aventura em que muitas variáveis irão se apresentar. Topar o diálogo, topar assumir que quanto mais sabemos, menos parece que sabemos.

Mas não há apenas uma porta de entrada para a filosofia. Começar pelos gregos pode ser bom quando se quer aprender história da filosofia, mas para aprender a ter uma atitude filosófica o exercício é o de saber ler e interpretar, flexibilizar, saber ouvir, se interessar por mais coisas do que cabem no seu “quadrado”. Aliás, aproveitar para “deixar de ser quadrado” também pode ser bom – quando a gente começa a se abrir mais, ouvir mais, a gente acaba fazendo isso naturalmente…

Para quem está se perguntando por que usei a imagem do filme “O lado bom da vida”, ou “Silver Linings Playbook”, no original…

… Bem, este post teve como inspiração uma aula de Filosofia da Educação ministrada pelo Professor Dr. Carlos Reis, da Universidade de Coimbra. Com muitos alunos da Psicologia (na UC Psicologia e Ciências da Educação estão sob o mesmo departamento), o professor levou a turma a pensar sobre atitude filosófica a partir do filme. Se não viu, veja com esse olhar. Vale a pena!

World WILD Web: é disso que precisamos

Precisamos de uma WWW democrática. Uma rede de conexões reais no espaço virtual.

Esta semana, recebi de diversas pessoas o vídeo que alardeia aquilo que na prática todos temos notado: a nossa navegação na Web é completamente rastreada pelo Facebook. Se você acessou um site e viu algo de que gostou mas não se lembra direito qual foi, esqueceu o nome etc, pode usar o histórico do seu navegador para reencontrá-lo ou… pode usar o histórico do Facebook. Vá em Configurações > Sua atividade no Facebook > Atividade fora do Facebook e verá que está tudo lá.

O Facebook está se tornando a própria World Wide Web, que não é mais tão vasta, ampla ou grande no melhor sentido da coisa e, diga-se de passagem, está cada vez mais chata, comercial e robotizada – no sentido literal. O que temos é um território mapeado, em que um chip com nossos logins (na forma de app do Facebook) funciona como uma espécie de arco íris que leva ao tesouro: nossos dados.

O problema nao está só no Facebook. Até porque ele está acompanhado da Amazon, Google, Apple. E alguns podem dar de ombros e dizer que esse rastreamento das lojas e sites que visitamos, em particular, pode nem ser tão preocupante, apenas irritante.

Mas é fato que, pela nossa sanidade, pela longa vida às artes, à filosofia, à política, ao cinema, às reais trocas de ideias, precisamos de uma internet democrática. Uma World Wild Web, isto é, uma Web “selvagem” no bom sentido, ampla de fato, democrática, capaz de se abrir à vastidão da natureza humana, dos nossos desejos e sonhos, ajudando-nos a criar e a fortalecer nossas reais conexões. Para usar esse termo busco como referência o pesquisador Edwin Hutchins, autor de Cognition in the Wild, este livro aqui. A ideia é a de analisar a cognição humana em seu habitat natural, a natureza, a cultura, as relações sociais, em vez de fazer isso apenas em laboratórios/ambientes controlados – o que poderia levar a uma dimensão bem mais fiel dos nossos processos cognitivos.

Penso enquanto escrevo numa Web que reflita as múltiplas realidades que vivemos, que se conecte melhor com o mundo que habitamos e que construimos todos os dias, em vez de apenas tentar construir esse mundo para nós – fazendo-o puramente devotado à venda, um palco em que se discute basicamente o que vale mais e quanto se quer pagar. Um mercado das pulgas em que as pulgas somos nós (isso é pior ainda do que ser as os cacarecos à venda – ou não…). Sim, eu sei que o mundo “real” também o coloca o capital acima de tudo, mas é exatamente por isso que precisamos mudar a Web (e o mundo) antes que o mundo que a Web tenha para refletir seja exatamente esse mundo chato e vazio como ela!

Um exemplo: para um músico “independente” – uma classificação que considero um tanto falha (por vários motivos) mas que apenas quer dizer no senso comum um artista que faz seu próprio percurso sem esperar as grandes gravadoras/o mainstream etc (o que acho louvável) – usar o YouTube para divulgar seu trabalho tornou-se praticamente impossível. Se tem dúvidas, converse com um deles e confira a odisseia que é ter um canal e conseguir alguns míseros seguidores., mesmo que você tenha uma carreira consolidada, muitos fãs, muitos shows no currículo e muitos álbuns lançados. As redes sociais que usamos são mainstream. Elas criam o seu próprio mainstream. O problema é que elas definem as prioridades e descartam o que não é prioridade para elas. Os “grandes” seguem “grandes”, com muitas aspas, e os “pequenos”… os pequenos que lutem.

Esse é só um exemplo. Se você nunca estranhou o alcance ínfimo de uma determinada publicação sua no FB quando esperava muitos likes, é porque provavelmente só posta gatinhos. O FB adora gatinhos. Aliás, aposto que Zucker fez algo de bom, pelo menos, que foi popularizar os gatos e fazer mais pessoas adotá-los, porque agora parece que todos têm gatos. O FB adora gatos porque as pessoas passam HORAS vendo vídeos de gatos.

Photo by Kim Davies on Unsplash

Voltando à Web democrática: ela era a ideia original de Tim Berners Lee, mas simplesmente não aconteceu. Mas ele não desistiu: Tim tem uma startup chamada Inrupt e está trabalhando por uma nova estrutura de rede, chamada SOLID. A ideia é repensar a maneira como aplicativos armazenam e compartilham dados pessoais. Para isso, em vez de armazenar dados em servidores de uma empresa que se interessa apenas em lucrar a partir deles, os usuários teriam um pequeno servidor exclusivo, localizado no Solid, um servidor grande. O problema dessa história é que ela parece levar ao problema do regresso infinito, isto é, Berners-Lee acabaria por ter os dados de todos armazenados em seu mega servidor com vários mini servidorezinhos; mas ele diz que não, que os dados estariam somente no servidor de cada um. De todo modo, as motivações de Tim me parecem sem dúvida melhores do que as de Zucker e sua turma, que não sabem mais onde colocar seu dinheiro. E continuam querendo faturar mais e mais às custas não apenas da nossa privacidade como do esvaziamento total da graça que a internet um dia teve, quando prometia ser a terra da criatividade que representava uma real alternativa ao caminho até então monótono do broadcasting.

Berners-Lee e o CEO (odeio estas siglas) da empresa dele – que não é ele, mas sim um cara chamado John Bruce – não esperam que o modelo descentralizado que estão tentando materializar desmorone as tech giants num passe de mágica, como bem lembra este artigo aqui da Wired. Até porque Zucker e os amigos não querem largar o osso carnudo dos nossos dados. O que a dupla Berners-Bruce quer é lançar uma alternativa, que possa se popularizar ao menos entre quem está preocupado com tudo isso que estou expondo neste texto e anseie por uma rede mais bacana, mais leve, aberta e criativa. Não sei exatamente como isso vai funcionar, se vai funcionar, mas esse caminho me parece bastante interessante e pretendo acompanhar. Sugiro que façam o mesmo. Até porque o problema não é apenas você gostar de hambúrguer com cheddar, e ficar toda hora aparecendo hambúrguer com cheddar para você nos anúncios na “sua internet”. O problema é que assim você vai viver num mar de hambúrgueres de cheddar com pequenas variações (com ou sem cebola…) em vez de conhecer um mundo que também tem hotdogs, pipocas doces, salsichas alemãs, saladas, pizzas ou seja o que for.

É bom pensar nisso antes que sua pressão arterial saia do controle.

(Imagem principal do post: amirali mirhashemian @ Unsplash)

Big Data na Educação: é preciso abrir essa caixa preta

Navegando pela rede, você certamente já se viu diante de anúncios de algo que andou procurando, como se o seu navegador tivesse “adivinhado” o que você queria. Ou já recebeu uma sugestão de filme ou série que a Netflix achou que seria “a sua cara”…

(Bem, nem sempre funciona tão bem…)

… pois os nossos dados têm sido utilizados em sistemas de machine learning para fazer previsões e identificar tendências.

Muito se tem falado sobre as potencialidades do big data para a educação. Para quem não está familiarizado com o termo, trata-se dessas “coleções maciças de dados” (segundo os autores do artigo Tecnologias digitais na educação: a máquina, o humano e os espaços de resistência; clique para ler) que são geradas na medida em que navegamos por sistemas digitais e deixamos os nossos rastros nessas plataformas.

O que isso pode significar quando se trata de educação? A pergunta ainda é uma caixa preta, mas é preciso um esforço para abri-la.

Apesar do oceano de implicações positivas que vêm sendo apontadas para o uso de machine learning e de big data na educação, é preciso ir devagar com esse andor porque o santo é de barro. O que (vem sendo propagado que) o big data promete?

Quando se trata do uso de plataformas de aprendizagem baseadas em machine learning, basicamente o que se destaca é que, tendo mais informação sobre o desempenho e o ritmo individual de cada aluno, se poderá oferecer conteúdos mais apropriados à sua aprendizagem, no tempo e na sequência mais adequados para cada um. Com isso, se alcançaria “melhores” resultados, aproveitando ao máximo as potencialidades de cada aluno, resolvendo problemas e dificuldades que eles eventualmente tenham etc. Parece perfeito – e alinhado ao discurso da tecnologia como panaceia para tudo aquilo que se tem tentado solucionar na educação há tantos anos. Bem, esse, em si, já é um indício de que é preciso olhar para o tema com mais atenção.

Um exemplo, tirado deste livro aqui, intitulado Learning with Big Data – The Future of Education, é o rastreamento do comportamento de alunos em relação a vídeos de palestras numa plataforma online de atividades: é possível saber quando eles assistem aos vídeos, quando pausam, se aceleram para ver mais rápido, se os abandonam antes de terminar de assistir. Com base na identificação desses padrões, professores poderiam ajustar lições, decidir reforçar conceitos que aparentemente os alunos não entenderam bem ou mudar a maneira de explicar determinado assunto, por exemplo.

Mas, isso quer dizer que esteja ocorrendo um processo de aprendizagem melhor, realmente? Antes, aliás, isso significa que está ocorrendo, de fato, aprendizagem? O discurso costuma ser de que sim, mas… essa é uma conclusão que não se deve apressar.

Um artigo do New York Times – ‘The Machines Are Learning, and So Are the Students (“As Maquinas estão aprendendo, e também os alunos”), de Craig Smith, publicado em dezembro do ano passado – já no título traz um pressuposto enviesado para o uso de inteligência artificial na forma de machine learning: a ideia de que as máquinas aprendem. Mais audaciosamente, indica que os alunos estão aprendendo, também, graças a essas máquinas e sua suposta sagacidade. Smith diz:

Slowly, algorithms are making their way into classrooms, taking over repetitive tasks like grading, optimizing coursework to fit individual student needs and revolutionizing the preparation for College Board exams like the SAT. A plethora of online courses and tutorials also have freed teachers from lecturing and allowed them to spend class time working on problem solving with students instead.

Aqui, já vemos uma outra face do discurso: para além de individualizar o ensino, o uso de sistemas baseados em algoritmos poderia poupar os professores de tarefas como avaliar seus alunos e até de dar aulas expositivas (hum… alguém perguntou aos professores se eles querem parar de dar suas aulas?), podendo usar o tempo para trabalhar com seu alunos em “resolução de problemas”. Perceba que o discurso é sempre de usar melhor o tempo, aprender melhor, mas, não se sabe o que esse “melhor” de fato significa. Com frequência, a ideia adjacente é a de que o professor pode ser substituído, ao menos em certas atividades (tão diferentes quanto dar aulas expositivas e corrigir avaliações…).

Em outro trecho, que reproduzo a seguir, o jornalista aponta pesquisas (sem especificar quais) que teriam mostrado a superioridade de tutores na forma de inteligência artificial em relação a tutores humanos. Isso se daria porque “o computador é mais paciente” que o professor, além de mais insightful – o que poderia significar ter ideias melhores ou ser mais criativo (?)

Studies show that these systems can raise student performance well beyond the level of conventional classes and even beyond the level achieved by students who receive instruction from human tutors. A.I. tutors perform better, in part, because a computer is more patient and often more insightful.

Será?

Num cenário em que predomina o discurso sobre os efeitos positivos da inteligência artificial na educação, esse artigo é apenas um exemplo. São muitos os que trazem algo nessa mesma linha.

Somente com estas breves referências que apontei até aqui, já abrimos uma infinidade de questões a serem postas em xeque tanto sobre o uso efetivo da IA na educação na forma de [machine learning + big data] quanto sobre o discurso. Predomina uma argumentação acrítica e pasteurizada, que costuma assinalar os ganhos sem pesar as possíveis consequências advindas do uso massivo de dados.

Não se procura saber, nem mesmo, o que são esses dados. Isto é, o que quer dizer, efetivamente, o tempo que um estudante levou para fazer uma lição? Quando esse tempo é fornecido a partir do rastreamento da atividade desse aluno, ele não parece dizer muita coisa. O que realmente aconteceu com o aluno durante o tempo em que ele estava logado? Não somos meros logins, somos pessoas, num determinado espaço, em determinado momento. Talvez não possamos ser representados somente por números.

De volta para o futuro

Mesmo que se pudesse prever todas as adversidades envolvidas em dada situação cujo objetivo é o ensino e a aprendizagem, aí já está um x da questão: a previsão. Especialistas com um olhar crítico à IA na educação vêm indicando que isso pode gerar um passado cristalizado e prender os alunos a um futuro rígido, imutável.

This image has an empty alt attribute; its file name is antonino-visalli-Fu-K5VwabM8-unsplash-683x1024.jpg

Uma vez que o machine learning trabalha a partir de tais previsões, já que se utiliza de dados gerados pelos estudantes para que, com esses dados, possa identificar tendências, há o risco de os estudantes se tornarem eternamente atados ao seu passado – carregando uma espécie de mochila pesada de históricos escolares detalhados a seu respeito que nunca são esquecidos e podem permanecer acessíveis por mais tempo do que seria desejável.

Seu futuro lhes faria vítimas das previsões justamente baseadas em dados estáticos, os quais podem não corresponder mais à sua realidade. Somos, afinal, seres em constante transformação e evolução. Envolvidas nisso há diversas implicações, especialmente, para a privacidade dos alunos – já que os dados podem ficar acessíveis para fins questionáveis, o que pode prejudicar sua vida profissional e pessoal.

Neutralidade tecnológica?

De onde vêm os dados gerados a partir da atividade dos alunos em uma plataforma baseada em machine learning? Dados não surgem por acaso, não são espontâneos e nem existem por si só. Eles surgem nas interações entre alunos e máquinas, e essas interações são limitadas pela maneira como o sistema é construído, pelo que se espera dele, pelo que é injetado em seus algoritmos. Isto é, dados emergem a partir de decisões tomadas no desenvolvimento dos algoritmos para os sistemas de IA utilizados nas plataformas.

Nesse desenvolvimento, priorizam-se determinados aspectos em detrimento de outros.

Fatalmente, também por sua vez, os resultados obtidos trarão consigo a priorização de certo aspectos e não de outros. Um problema relevante, por trás disso, é que frequentemente somos avaliados por fórmulas secretas que não compreendemos, como ressalta a matemática Cathy O’Neil. Se o que se avalia não fica claro, é certo que, como O’Neil explica: “Para construir um algoritmo, são necessárias duas coisas: dados – o que aconteceu no passado – e uma definição de sucesso, aquilo que estamos procurando e pelo que estamos geralmente esperando”.

A definição de sucesso adotada estará instilada nos algoritmos. A suposta neutralidade tecnológica não existe...

Vieses

Pode-se facilmente compreender como pode haver (e há, muitos) vieses em algoritmos quando se trata do preconceito racial em alguns sistemas de reconhecimento facial, por exemplo. Esses são casos contundentes e que têm adquirido notoriedade, tornando-se o centro de preocupações éticas concernentes ao campo.

A IBM afirmou que abandonaria pesquisa em reconhecimento facial por conta das implicações éticas e da falta de regulamentação – Leia

Na educação, mencionei questões sobre a privacidade dos dados dos estudantes e ao fato de os sistemas não serem claros quanto às variáveis relacionadas ao que é avaliado. Mas, ainda não falei dos professores. Há também iniciativas que procuram avaliá-los a partir de big data, com consequências que merecem (muita!) atenção.

Em sua palestra no TED, O’Neil cita a diretora de um colégio no Brooklyn que, em 2011, disse a ela que sua escola estava avaliando os professores a partir de um algoritmo complexo – e secreto. A diretora relata que tentou conseguir a fórmula para entender os critérios envolvidos naquela avaliação, mas o que ouviu da secretaria de educação foi que não adiantava lhe explicar porque ela não entenderia, já que se tratava de matemática.

Conclusão (conheça a história no TED): professores daquela escola foram demitidos por causa da tal fórmula secreta, uma caixa preta que a diretora tentou abrir, sem sucesso.

Como O’Neil destaca, o poder de destruição de um algoritmo projetado de maneira equivocada é imenso, e essa destruição pode se arrastar por bastante tempo. Mas, quando o assunto é uma modelagem envolvendo algoritmos, o pior de tudo é a falta de transparência. Por isso ela cunhou o termo “armas de destruição matemática”.

Não somos somente pontinhos em um grande mapa de dados…
(Imagem: Maria Bobrova @ Unsplash)

O big data na educação é uma caixa preta devido à dificuldade, em geral, de entendimento do que a inteligência artificial, na forma do machine learning, significa ou pode significar para processos educacionais. E se torna ainda mais obscura quando, sem que se conheça os critérios utilizados, alunos e educadores sejam submetidos a avaliações e análises frequentemente injustas; e o pior, sem poder contestá-las.

O’Neil dá vários exemplos de como o uso indevido de dados tem prejudicado pessoas em variadas situações. Para entender isso melhor, é preciso olhar para a noção de modelo; o que é um modelo e por que ele pode se tornar uma arma de destruição matemática? Explicarei isso em outro post.

Agradeço à Giselle Ferreira, professora da PUC-Rio que está ministrando uma disciplina sobre big data e educação este semestre, pelos ricos debates que tanto colaboraram com insights para que este(s) post(s) fossem escritos. Leia o blog dela, no qual é possível obter uma perspectiva crítica sobre as tecnologias educacionais: https://visoesperifericas.blog/

Imagem principal do post: Franki Chamaki @ Unsplash

Eis o Dilemma

Documentário “The Social Dilemma“, da Netflix, está dando o que falar. Ficou pessimista depois de assistir? Leia este post.

The Social Dilemma (O Dilema das Redes, em português), que aborda a manipulação de nossos dados pelas redes sociais online, traz depoimentos de pessoas que desistiram de trabalhar nas gigantes de tecnologia – Google, Instagram, Facebook, Pinterest e afins. Os entrevistados perceberam, pode-se dizer, que os valores das empresas em que eles vinham trabalhando não estavam mais de acordo com aquilo que eles acreditam, e resolveram tomar outros rumos na vida.

Mas, então, onde é que essas pessoas estão hoje? O que elas estão fazendo de suas vidas? E os outros entrevistados que aparecem no doc, quem são e qual tem sido o seu papel no universo da tecnologia? Muitos deles estão fazendo coisas bem legais, algumas bastante inspiradoras, que podem ajudar a mudar significativamente a nossa relação com a tecnologia, tanto individual como coletivamente. Outros escreveram livros com temáticas excelentes.

Essas pessoas têm em comum a desconfiança quanto a esse status quo do universo tecnológico, e são movidas por suas experiências e pela vontade de levar mais gente a se preocupar com a maneira como fazemos e consumimos tecnologias.

Então, antes de ficar pessimista, ou de achar que não dá para fazer nada “porque o mundo agora é assim mesmo”, talvez valha conhecer algumas das iniciativas que têm surgido a partir dessa vontade de mudança. Escrevi sobre algumas delas, aqui – e pretendo escrever sobre as demais (pessoas do doc e iniciativas) num outro post. Vale pensar em se envolver em algum(ns) projetos capitaneados por essa galera ou, ao menos, ler alguns livros e/ou assistir a outros documentários. Quem sabe começar desativando suas notificações? Aproveita e ainda evita que a bateria do seu celular gaste à toa 😉 Se estamos preocupados, precisamos nos envolver, conhecer mais sobre o assunto e assumir uma postura diferente. Evitar o tema não é uma opção.

Tristan Harris

Ele passou anos no Google como Google Design Ethicist. No documentário, conta um pouco dessa sua experiência, que demonstra a falta de preocupação da empresa com questões éticas e de privacidade. Harris é fundador e presidente da ONG Center for Humane Technology A página que apresenta a iniciativa diz:

We envision a world where technology is realigned with humanity’s best interests. Our work expands beyond tech addiction to the broader societal threats that the attention economy poses to our well-being, relationships, democracy, and shared information environment. We must address these threats to conquer our biggest global challenges like pandemics, inequality, and climate change.

A ONG convida quem quiser ajudar a remodelar a maneira como construímos e consumimos tecnologias: https://www.humanetech.com/get-involved – e ressalta que não precisa ser empreendedor, programador ou o que quer que seja para se envolver; se você for da área de tecnologia é bem-vindo, mas basta ser “cidadão, educador ou pai/mãe”. Para saber o que exatamente dá para fazer junto a eles, é preciso fazer um cadastro inicial.

Shoshana Zuboff

Shoshana Zuboff é professora em Harvard e autora do livro “The Age of Surveillance Capitalism”, sobre o qual você pode ler neste link – https://shoshanazuboff.com/book/about/. Este documentário que postei aqui explica muito bem a ideia do capitalismo de vigilância de que ela fala.

Justin Rosenstein

Com mais de 170 mil seguidores no LinkedIn (o que não quer dizer nada por si só e nem sei por que citei aqui, mas ok), Justin, que estudou em Stanford (isso também não quer dizer lá muita coisa, por si só), foi da Google e do Facebook, e depois seguiu fazendo seus projetos pessoais: o Asana, um software independente que tem a função de melhorar a produtividade das pessoas, e o One Project, voltado para o design de governança e sistemas econômicos mais “equitativos, ecológicos e efetivos”, segundo ele informa no LinkedIn. O site dele é este: https://justinrosenstein.com/ e no vídeo ele fala sobre a Asana.

Roger McNamee

McNamee é um investidor no Vale do Silício. Ele injetou dinheiro no Facebook e ajudou Zuckerberg a crescer, mas, hoje, como o documentário da Netflix mostra, é um ferrenho crítico ao modo como a empresa orienta suas atividades. Ele afirma que o Facebook é uma ameaça à democracia, e acusa a rede de espalhar as chamadas fake news.

McNamee escreveu um livro chamado Zucked: Waking up to the Facebook Catastrophe. Vale dizer que, no vídeo que postei aqui, ele diz que a Apple, de maneira bem diferente do Facebook, é responsável com os usuários em relação a questões de privacidade – o que mostra que as opiniões de todas estas pessoas podem ser diferentes em relação às companhias de tecnologia envolvidas em todas essas temáticas. Serve para construirmos o nosso próprio pensamento crítico.

Tim Kendall

Kendall foi presidente do Pinterest e Diretor de Monetização do Facebook. Ele criou um app chamado Moment, desenvolvido para ajudar as pessoas a fazerem “detox” de seus smartphones. O aplicativo está disponível para ser baixado de graça na App Store e aqui há mais informações –  https://inthemoment.io

Rashida Richardson

Ela trabalhou no Facebook e em vários outros lugares, e hoje é a diretora de Policy Research no AI NOW – um instituto de pesquisa em inteligência artificial que examina as implicações da IA para a sociedade ligado à New York University; o site é este aqui: https://ainowinstitute.org/ e a página do site que fala sobre a Richardson é esta: https://ainowinstitute.org/people/rashida-richardson.html .

O instituto dedica-se a pesquisas que contribuam para que sejam criados mecanismos, políticas, leis etc. para que haja responsabilidade/responsabilização pelo uso e a produção de tecnologias envolvendo inteligência artificial. Atualmente, as quatro principais frentes de pesquisa do núcleo são: direitos e liberdade; trabalho e automação; preconceito e inclusão; segurança e infraestrutura crítica.

Jaron Lanier

Lanier, que é cientista da computação e filósofo, trabalhou na Microsoft até 2009. Depois, ele escreveu vários livros além do citado “Ten arguments for deleting your social media accounts right now”; escreveu um chamado “Who own the future?” e ainda “You are not your gadget”, entre outros, apresentados em seu site: http://www.jaronlanier.com/ . Aliás, no site ele reforça que não tem (mesmo!) contas em redes sociais.

Cathy O’Neil

Cathy é uma matemática americana, autora do site/blog mathbabe: https://mathbabe.org/ e do livro “Weapons of Math Destruction”, sobre o impacto dos modelos matemáticos e dos algoritmos de IA em diversas áreas da sociedade (destaque especial para a educação e para o mercado financeiro). O mais legal desse livro é que ela usa uma linguagem super corriqueira, inteligível, para nos explicar os modelos matemáticos e suas implicações (como jornalista e doutoranda, já estava desacostumando de livros que explicam as coisas de uma maneira mais, digamos, objetiva…). A obra ainda não está disponível em português, porém. De todo modo, a palestra dela no TED dá uma boa introdução à perspectiva de O’Neil.

Uma última curiosidade: Jeff Orlowski, o cineasta norte-americano realizador do doc, já tinha feito dois outros documentários, “Chasing Ice” (de 2012) e “Chasing Coral” (de 2017), que são ligados a temáticas de responsabilização, por assim dizer, mostrando impactos que a humanidade exerce sobre a natureza.

Para assistir ao doc na Netflix: https://www.netflix.com/title/81254224

Imagem do post: Markus Spiske @ Unsplash

Participei da live da PUC-Rio sobre inteligência artificial

Participei de uma das entrevistas ao vivo da série que a TV PUC-Rio criou no intuito de desenvolver temas que se relacionem de alguma maneira com a COVID. Esta teve a ver com inteligência artificial e internet das coisas. Ao lado de dois professores da PUC-Rio, comentei sobre a minha pesquisa em educação e IA sob o viés da filosofia e da educação. O debate pode ser assistido no link a seguir.

Como a distância impacta a educação? E o que podemos fazer?

Quais as diferenças entre aprender/ensinar a distância e presencialmente? Do que sentimos falta quando estamos distantes, fisicamente, uns dos outros? A internet pode ser utilizada de maneiras diferentes, de modo a unir mais as pessoas envolvidas em processos de ensino-aprendizagem por elearning? Como reduzimos a frieza das máquinas e aproximamos mais as pessoas nesse cenário, aumentando a afetividade, o compartilhamento?

Essas questões serão debatidas em uma apresentação que farei online com o professor Eduardo Santos no dia 18, às 10h (Brasil), na Here and Now, uma conferência organizada pela Social Pedagogy Associaton.

As inscrições gratuitas podem ser feitas online pelo link https://lnkd.in/eJ9B-cX

Pontos de Interrogação em IA, machine learning e cognição humana – Parte 2

No primeiro post sobre as investigações que marcam os campos da IA, machine learning e cognição, comentei sobre o vídeo do Pedro Domingos sobre machine learning. Aqui, discuto um pouco do que ele falou, contrapondo com questões dos 4Es da cognição que venho pesquisando e também comentando aqui no blog:

“We’re actually now for the first time in history at the point where you could say you can have a supercomputer that is about as powerful as the human brain

Vamos olhar para este trecho: Domingos diz que atingimos, pela primeira vez, um ponto na história em que se pode dizer que poderemos ter um super computador quase tão poderoso quanto o cérebro humano.

Mas o que isso significa? O que significa ser tão poderoso quanto o cérebro humano? Se o cérebro humano é poderoso por fazer parte de um sistema dinâmico do qual participam nosso corpo com suas especificidades, o ambiente em que estamos inseridos, as tecnologias com as quais nos relacionamos e a sociedade de que fazemos parte, essa colocação dá muito o que pensar. Afinal, não é o cérebro sozinho que é “poderoso”, mas o sistema humano em interação com a natureza…

Vejamos agora este trecho:

“So the thing that is really holding us back is that we don’t understand well enough how, for example, learning works.

Neste trecho, Domingos diz que o que está impedindo a IA de ir mais longe é a falta de entendimento acerca de como o processo de aprendizagem acontece. Esse é o ponto (ou um dos) que leva a haver tanta pesquisa em cognição humana: ainda não se sabe como aprendemos e há muito o que se investigar sobre isso. Então, pode-se dizer que há algo em comum entre as investigações em machine learning e em educação: entender como o ser humano aprende. Se depender disso para que a aprendizagem de máquina avance, parece que isso ainda demora… 😉

If we were able to devise a learning algorithm that is truly as good as the one in the human brain, this would be one of the greatest revolutions in history. And it could happen any day at this point. At this point this is a problem that if we could solve it we solve all other problems. If I come up with a better machine learning algorithm, that algorithm will be applied in business, in finance, in biology, in medicine across the board”.

No trecho acima, o destaque vai para o desenvolvimento de um algoritmo que seria capaz de se sair tão bem na atividade de aprender quanto o cérebro humano. Mas será que a aprendizagem é mesmo algo que se deve a um algoritmo no cérebro humano? Como já reforcei acima, não parece ser o cérebro humano que aprende, sozinho. Se o nosso processo de estar no mundo, com um corpo, vivendo, experimentando, nos leva a aprender, como propõem as teses ligadas aos 4Es, como é que um algoritmo no cérebro daria conta disso tudo? Será que é mesmo assim que a cognição funciona?

Toda essa conversa levanta também questões como o que seria a inteligência humana, o que é aprendizado e o que a engenharia de software quer dizer quando afirma que um sistema aprende a partir de algoritmos – assuntos que pretendo explorar.

Are robots the teachers of the future?

Are robots the teachers of the future? Are we going to lose (all) our jobs to artificial intelligence machines? Is the Digital Singularity human’s inescapable future?
 
These questions are on the cutting edge when it comes to the relationship between human cognition and digital technologies. Hence, they also affect the way we glimpse the future of education. These subjects are closely related to questions about the human cognitive system: how do we perceive the world? How do we learn? What makes us cognizers, in the deepest sense of the term? How do we experience the world we inhabit?
 
Our close relationship with technologies transmutes us into cyborgs, according to the philosopher Andy Clark, author of Natural born Cyborgs (2003) and one of the developers of the Extended Mind Thesis. Clark’s thesis advocates that humans extend their cognitive systems through technologies, not only digital but of all kinds. And this ability to integrate these artifacts into our cognitive circuitry, linked to our capacity to transform the environment and be altered by it, would be some of the main elements to distinguish us from other animals. As natural beings, we are in a continuous circular movement with nature, its creatures, plants, all living beings. This connection between experience and nature is part of the philosophy of John Dewey and some ideas that resemble his are also present in the theses of philosophers like Maurice Merleau-Ponty and Hubert Dreyfus. They hold that we are much more than computer-like processing machines, defending that there is much more to human cognition than information processing. Or, as the philosopher Alva Noë and the psychologist James Gibson would say, perception and action cannot be segregated, because we act in order to perceive: without action, there would be no perception at all. This perspective is connected to the enactive cognition approach, one of the contemporary research lines linked to cognition and the human mind.
 
The extended and the enactive cognitive approaches show we are far from being replaceable by robots. Unless artificial intelligence machines become more than input-output information crunchers, they will not be able to simulate some of the most important features of human cognition, and it will be hard for them to substitute us in a range of activities in which our experience is irreplaceable. In what concerns teaching and learning, emotions are a fundamental part of the process – according to philosophers like Dreyfus and the neuroscientist António Damásio, author of Descartes’ Error and The Strange Order of Things. Robots don’t have feelings. Therefore, machines are not able to actually learn anything. So, we could ask: are “creatures” not able to learn skilled to teach? Unless they become sentient, conscious creatures, these systems will probably not be able to become teachers, and will remain, at best, auxiliaries to teaching. So, as these features remain far from reality concerning A.I., we can give a shot at the question in the first paragraph of this text: robots may be the teachers of a distant future, but they are certainly not able to replace our teachers in the present.
 
Some references for those who want to read more:

Um robô para apoiar crianças autistas

O autismo afeta a forma como uma pessoa se comunica, compreende e se relaciona com outras. Pessoas com autismo frequentemente têm dificuldade de usar e entender linguagem não verbal. Com isso em mente, surgiu o projeto DE-ENIGMA, que foca em desenvolver as capacidades de reconhecer e de expressar emoções em crianças com autismo.

(Mais em http://de-enigma.eu/)

O neurocientista António Damásio defende que sentimentos e emoções são diferentes; segundo o pesquisador, as emoções são externas, são aquilo que se lê nas outras pessoas, enquanto os sentimentos são internos. Não há, portanto, consciência sem sentimentos, nem sentimentos sem consciência. E um robô, então, poderia simular emoções, mas nunca teria sentimentos:

 

 

O professor é substituível pelas tecnologias digitais?

A pesquisa Nossa Escola em (Re)Construção, promovida pelo Porvir entre os anos de 2017 e 2018, coletou dados entre quase 20 mil jovens de 11 a 21 anos e constatou que “o melhor da escola é o professor“. Texto do Porvir sobre o assunto diz que:

“Na plataforma, os participantes foram convidados a dizer como é a sua escola atual ou a última em que estudaram e como eles gostariam que ela fosse. Ao avaliar 11 aspectos da instituição de ensino, em uma escala de 1 (Tá tenso) a 5 (Tá tranquilo, tá favorável), as maiores notas foram para o professores (3.9), seguidos pelas aulas e matérias (3.8). Entre os últimos itens, aparece o uso de tecnologia (2.7) e as atividades extraclasse (2.9)”.

Que o professor faz toda diferença na vida do aluno não é exatamente novidade. No Brasil, com toda a precariedade do ensino público, ameaçado ainda mais no governo atual, temos professores premiados (veja também este link) e sabemos que, em muita escola onde falta luz, água, merenda e tudo o que se pode imaginar, não raro sobra dedicação de boa parte dos docentes para que os alunos continuem aprendendo.

Mas a questão de a tecnologia aparecer como um dos últimos itens na pesquisa do Porvir, somada a outra notícia recente, é o que impulsiona esta minha reflexão aqui. Apesar de a cada dia ficar mais claro que a presença do professor é insubstituível e que não há tecnologia que dê conta de atuar no lugar dele (muito pelo contrário), existe uma certa tendência a enaltecer as possibilidades de que essa substituição aconteça.

O empreendedor Elon Musk recentemente premiou com U$ 10 milhões duas startups de tecnologias educacionais (as chamadas edtechs) capazes de “substituir” professores por meio do uso da tecnologia. Uma delas foi a onebillion e a outra foi a KitKitSchool. O site Business Insider diz que “launched in 2014, the competition was set up to empower children to take control of their learning. It challenged innovators around the world to create technology that would enable children to teach themselves basic reading, writing, and arithmetic within 15 months”. A competição como um todo me parece equivocada por promover “substituição” em vez de soma, mas este trecho me pareceu ser uma coleção de equívocos ainda maior. “Empoderar” crianças quanto ao “controle de seu aprendizado”? Leitura, escrita e aritmética básicas em 15 meses? Estimular gente inovadora a pensar em tecnologias que, de algum modo, promovem o descarte do professor?

A questão é: o que ganhamos com isso?

Afinal, é para isso mesmo que devemos trabalhar nossas tecnologias? Para substituir o professor, ou para fazer as pessoas pensarem que essa substituição é possível? E o que seria esse “professor”, tão facilmente substituível nessa concepção? Seria um mero transmissor de conteúdos “básicos”?

E mais: crianças “empoderadas” são crianças que têm “poder” e “controle” sua própria aprendizagem?

Não quero tirar o mérito de tecnologias que possam ajudar mais pessoas a aprender a ler e a escrever, de forma alguma. Também não sei ainda como em áreas remotas, pobres e com deficiências de tudo, crianças poderão ter acesso a aplicativos com tais recursos, a não ser aquelas selecionadas para a pesquisa empírica; porém, se tiverem, jamais serei contra; trata-se da importante questão da democratização da tecnologia digital. O ponto em que sempre insisto é o da substituição: é nela que devemos focar, quando falamos de tecnologias educacionais?

A responsabilidade da mídia

Talvez nós, jornalistas, sejamos grandes responsáveis por contribuir para a construção de conceitos equivocados nesse sentido. Afinal, a manchete “Elon Musk awards $10 million prize to 2 startups replacing teachers with tech” ficou a cargo do Business Insider; no site do XPrize, promovido pelo Musk, não se vende a coisa como substituição, ao menos nao num primeiro momento. O site diz “Empowering children to take control of their own learning”. Isso, sem a questão da substituição do professor, pode tomar ares bem diferentes.

Sem dúvida, há muitos fatores envolvidos nessa reflexão, e de indubitável há o fato de que sim, a educação e a tecnologia devem ser para todos. Mas parece estar havendo uma confusão bastante significativa quanto a esse ponto da substituição do professor pelas tecnologias, ainda mais com a popularização da inteligência artificial. Mesmo já tendo muito com o que nos preocupar no Brasil em termos de educação, precisamos ficar atentos a mais esse aspecto, que na realidade relaciona-se com a questão mais profunda e anterior da relação humana com as tecnologias digitais: para onde estamos caminhando? Quais os impactos dessa relação? O que esperamos dela? No que ela nos transforma?

Vale a reflexão.