Onde estão as mulheres na tecnologia?

Dia 11 de fevereiro é o Dia Internacional das Mulheres e Meninas na Ciência

Neste Dia Internacional das Mulheres e Meninas na Ciência, data criada pela Organização das Nações Unidas (ONU) para ressaltar a participação feminina na comunidade científica, trago esta pergunta: onde estão as mulheres na tecnologia?

Imagem: https://unsplash.com/pt-br/@cdc

Em sua conferência TED, Zoe Philpott lança luz à primeira programadora de computadores do mundo, Ada Lovelace. Ela escreveu seu primeiro programa complexo em 1843. E sabem o que aconteceu com ela? Foi cancelada. Isso mesmo! Em vez de consagrada, Lovelace foi cancelada, basicamente porque sua mãe se separou do pai, que era o controverso poeta Lord Byron. Pois é.

Ao nome de Ada Lovelace na história da programação se soma o de Grace Hopper, responsável por introduzir as palavras no mundo da programação. A importância disso? Não era mais necessário ser matemático para trabalhar com programação. Isso mudou tudo.

Aproveito para deixar um incentivo especialmente às mulheres que queiram ser programadoras: a plataforma Potência Tech, do iFood, está oferecendo cursos rápidos e bolsas para cursos completos em programação. Eu produzi alguns dos cursos que estão na plataforma, incluindo esse que conta um pouco da história do universo da programação – passando, é claro, por Ada Lovelace.

Para acessar esse curso e o conteúdo completo da plataforma, basta clicar neste link e fazer um cadastro super rápido e gratuito, se ainda não tiver feito. Aproveitem para indicar a amigos e amigas. 

https://lnkd.in/dFsZhmPF

O que os computadores continuam não conseguindo fazer, 50 anos depois

O artigo que escrevi e submeti para a Revista Portuguesa de Educação, intitulado “O que os computadores continuam não conseguindo fazer, 50 anos depois: A aprendizagem sob a perspectiva da fenomenologia do cotidiano de Hubert Dreyfus”, foi publicado neste link.

É uma grande satisfação ter um artigo publicado nessa revista, que é muito bem conceituada na área da Educação. Vejo o filósofo Hubert Dreyfus como um precursor de ideias da abordagem chamada de cognição enativa, que é a base da minha tese de doutorado. Aqui no blog já escrevi sobre ele – releia os posts:

Introdução à Fenomenologia com Hubert Dreyfus

What Computers Can’t Do (Hubert Dreyfus)

Dreyfus fez críticas muito pertinentes à inteligência artificial quando a área estava ainda nascendo. Eu amo o trabalho dele. Por conta disso, quis fazer um artigo que fosse também uma espécie de homenagem. Por isso esse título, que ficou bem “jornalístico” – sou de fato jornalista, e afinal a identidade da gente se transforma, mas a essência permanece 😉 “What Computers Can’t Do” é o título de um livro de Dreyfus lançado em 1972, mas que mobiliza até hoje a atenção dos interessados em cognição e IA. Quando me dei conta do “aniversário” de 50 anos do livro (e eu ainda fiz 40 anos em 2022, nasci em 82 haha coincidências), fiz questão de que fosse publicado ainda este ano e corri para enviar para a revista. E eis que o artigo saiu faltando um dia para o ano acabar!

As ameaças à nossa autonomia quando lidamos com sistemas de machine learning

Neste post, faço uma espécie de leitura comentada do ensaio acadêmico que publiquei na Revista Perspectiva Filosófica e está neste link para quem quiser acessar. É um trabalho sobre os impactos à nossa autonomia quando lidamos com sistemas de aprendizagem de máquina – uma vertente da inteligência artificial.

As tecnologias digitais, de tão entranhadas que estão em nosso cotidiano, vêm sendo apontadas como extensões da mente, sendo consideradas capazes de potencializar a cognição humana. A chegada das tecnologias baseadas em algoritmos, por outro lado, traz uma série de elementos novos para essa equação. Elas são impulsionadas pelos próprios dados dos usuários dessas tecnologias, já que, no caso da aprendizagem de máquina por exemplo, operam fazendo previsões a partir de dados obtidos e assim sucessivamente.

Neste trabalho, eu argumento que, justamente porque essas tecnologias se baseiam em dados do usuário para gerar novos conteúdos, elas acabam criando uma circularidade em torno dele que, em vez de expandir, pode limitar sua experiência de aprendizagem. No centro desse impacto está a autonomia, que, em vez de ser ampliada, acaba sendo ameaçada de redução.

É importante explicar que o conceito de autonomia que utilizo é o conceito que deriva da chamada teoria da cognição enativa. Existem várias formas de conceituar autonomia, portanto no caso de um trabalho acadêmico de pesquisa é fundamental esclarecer isso. Trata-se de um conceito de autonomia que deriva da ideia de que a célula, unidade primordial da vida, somente é capaz de ser e se manter autônoma porque está inserida em um contexto que permite isso – um ambiente com o qual mantém trocas constantes que a alimentam energética e materialmente. Ou seja, a célula é autônoma, não capaz de se manter sozinha. Pelo contrário, sua autonomia se origina justamente das suas interações com o meio, o que torna essas interações essenciais para a manutenção da autonomia celular.

Eu “estiquei|”esse conceito até o ambiente algorítmico que se constitui em torno de nós, humanos. Fiz esta pergunta: o que acontece com a nossa autonomia quando o meio é aquela que chamei de algoritmosfera, essa rede entrelaçada por algoritmos e dados que nós alimentamos e que, ao mesmo tempo, também nos alimenta? Nós conseguimos nos manter autônomos diante desse contexto, embebidos nessa rede de interações que têm essa natureza?

O meu objetivo geral, com isso, é compreender os limites e as potencialidades das nossas relações com sistemas de aprendizagem de máquina para entender se eles podem nos ajudar nas nossas experiências de aprendizagem sobre o mundo ou se esses sistemas acabam por retrair essas experiências. Ao me debruçar sobre esse trabalho, explorei as diferenças por vezes aparentemente sutis, mas sempre muito potentes, entre lidar com outro ser humano ou com um sistema de aprendizagem de máquina. Quando lidamos com outra pessoa, aprendemos com ela, percebemos o mundo com ela, e isso altera as nossas percepções. Existe algo que surge das interações entre seres humanos que é único e típico dessas relações, e não poderia surgir fora delas. É algo novo, imprevisível. É o produto da interação.

Quando lidamos com máquinas, por mais que elas nos façam sentir como se estivéssemos lidando com outra pessoa às vezes, de tão avançados que estão esses sistemas, nós não estamos. O que acontece é que nesses casos nós acabamos “levando” toda a “relação” sozinhos; não há uma real interação social, como há entre dois seres humanos. As relações de troca humanas são como uma dança, em que o par se movimenta junto, enquanto as interações com sistemas artificiais se parecem com um monólogo ou uma dança desequilibrada em que apenas um se movimenta e o outro faz um papel parecido com o de um fantoche.

Com isso, não se pode dizer que não aprendemos nada ao lidar com sistemas de aprendizagem de máquina, mas sim que não é uma experiência comparável à que temos quando lidamos com outro ser humano. Isso, para quem procura compreender a aprendizagem e como ela é impactada pelas tecnologias, é essencial. O enativismo, ou cognição enativa, não diz que aprendemos mais ou melhor com outros seres humanos, mas que somente aprendemos de fato com outros seres humanos. Somos moldados, impactados, alterados, percebemos o mundo e raciocinamos sobre ele justamente a partir das interações com outras pessoas; precisamos delas para ter experiências de aprendizagem. Máquinas ou sistemas artificiais não aprendem de fato e não conseguem, sozinho/as, proporcionar experiências de aprendizagem.

A nossa autonomia é ameaçada, sob o ponto de vista de autonomia no enativismo, porque as trocas que mantemos com o meio “algorítmico” constituem um desequilíbrio para as nossas interações. É como se a contribuição de um e de outro lado fosse tão irregular que tornasse a relação “capenga”. Eu entro com meus dados, minhas percepções, minha imaginação; a máquina não percebe e não cria nada, e assim, tudo que parece novo ao surgir dali é mais limitado do que seria se eu estivesse lidando com outra pessoa. Porque outra pessoa é capaz de ciar, imaginar, porque tem experiência e aprende, e então dessa interação social se origina algo que só pode existir porque se trata, justamente, desse tipo de interação. É algo então que, por definição (enativista), potencializa a minha capacidade de experimentar o mundo de um modo especial porque é impossível de ser previsto na totalidade. Não há estatística que possa prever que conversa exatamente teremos com um amigo ao encontrá-lo, por exemplo; ou como o ser amado vai reagir a uma contestação que manifestarmos; ou se acabaremos falando de cinema quando nos encontrarmos com alguém para falar de matemática.

Essa é uma ideia interessante para defender por que não é viável pensar que uma aula 100% a distância, assíncrona, ou seja, sem o professor em contato com alunos em tempo real, poderia resultar no mesmo nível de experiência de uma aula presencial – ou, pelo menos, em que o professor e os alunos estejam no mesmo momento, se olhando, ainda que mediados por suas câmeras. Há algo nessa conexão entre as pessoas, alimentada pelas trocas daquele momento, que é único, e faz parte da série de novidades que emergem da interação. Há experimentos com bebês mostrando que eles choram quando diante de um vídeo gravado da mãe, depois de demonstrarem calma quando veem um vídeo da mãe que é uma transmissão em tempo real. O problema não é ser uma imagem, mas a mãe não estar olhando para ele, interagindo com ele na medida da própria interação. Não é fascinante?

Num mundo em que as relações são postas em xeque, por inúmeros motivos, e em que contamos tanto com sistemas artificiais para fazer um sem-número de atividades, é fundamental não esquecer que há algo intrínseco às trocas humanas. Algo que gera algo que só existe a partir dessas relações. Se só “falarmos” com máquinas, estaremos como que batendo num muro, um bate e volta; sentiremos algo, poderemos até aprender algo ou muitas coisas, mas não continuaremos a expandir os nossos horizontes, o alcance das nossas experiências, como faríamos se estivéssemos em interações sociais. Só elas ampliam os círculos de experiências mais e mais. Por isso chamei o ensaio de “Another brick in the wall” e digo que precisamos fazer um esforço para olhar entre os tijolos do muro. São as frestas que nos mantêm abertos a uma série de experiências inesperadas, essenciais justamente porque são inesperadas; nós não vivemos sem surpresas, sem o incerto, mesmo quando queremos o “certo”. Aprendemos na inconstância e na flexibilidade, não na dureza dos muros. 

Another brick in the wall

Foi publicado num dossiê temático da Revista Perspectiva Filosófica um ensaio meu intitulado “Another brick in the wall – Threats to Our Autonomy as Sense-Makers When Dealing With Machine Learning Systems”. A tradução em português (que acabou saindo um pouquinho diferente na revista) seria algo “Mais um tijolo na parede – Ameaças à Nossa Autonomia como Sense-Makers quando lidamos com sistemas de aprendizagem de máquina”.

Ter esse ensaio publicado significa muito. Não somente porque uma publicação acadêmica é sempre algo de muito valor para nós que batalhamos para tocar as nossas pesquisas para a frente, mas porque nele eu elaboro uma parte importante do argumento que está presente na minha tese. Ela foi já entregue à banca e a defesa será em janeiro de 2023. Também é uma publicação importante porque está numa edição especial da revista que é dedicada à Fenomenologia, à Cognição e à Afetividade – justamente os temas tratados na minha tese. E, como se não bastassem todos esses motivos de alegria, meu trabalho está publicado ao lado de outros assinados por grandes pesquisadores nessas áreas.

Para quem não conhece bem os trâmites, publicar um artigo numa revista cientifica exige escrever e submeter o trabalho à avaliação anônima de pareceristas que podem ou não aprová-lo para ser publicado. Podem também aprovar, porém sob a condição de que o autor faça certas modificações. Eu recebi sugestões ótimas para o meu, e procurei acatar todas as que achei pertinentes, num processo que foi muito rico para mim.

Optei por escrever o ensaio em inglês porque quis abri-lo a pesquisadores consagrados que não falam português. Porque quis me inserir num debate que está ainda mais forte fora do Brasil. Mas explico as ideias ali presentes na tese, até com mais detalhes, e em breve quero fazer uma tradução dele para postar aqui no blog.

Agradeço a todos que me apoiaram para que essa publicação acontecesse e à Revista Perspectiva Filosófica pela oportunidade e privilégio de estar nesse dossiê. Para ler a revista e o artigo:

REVISTA COMPLETA CLIQUE AQUI

LER DIRETO O ENSAIO CLIQUE AQUI

O ataque ao ‘social graph’: como isso afeta você

Você está vendo um monte de publicações de pessoas que você nunca seguiu nas suas redes sociais? Está difícil aumentar seu número de seguidores ultimamente?

Muita gente percebeu que isso está acontecendo e não gostou nada disso. Tanto que existe um abaixo-assinado criado por uma fotógrafa nos EUA para que o Instaram volte a ser como era. A petição tem o apoio de Kylie Jenner (que, sozinha, tem nada menos que 360 milhões de seguidores no Instagram).

Contribuo com uma breve análise e reflexão a partir da coluna de Ronaldo Lemos deste 1 de agosto na Folha de S. Paulo e deste link aqui.


Social graph” ou gráfico social é aquele que representa as relações que você mantém com as pessoas via redes sociais. É amigo de fulano, que está ligado a ciclano, que conhece fulano e por aí vai.  Por conta de estarem assentadas sobre essas conexões é que as redes sociais se chamam assim, aliás.


O Facebook começou com o intuito de conectar pessoas, e o fez por bastante tempo. Ajudou a gente a reencontrar amigos, familiares, reaver um bichinho de estimação perdido, agir por uma causa coletivamente, protestar, organizar eventos. O Instagram também nasceu para isso, mas se propôs a criar conexões por meio de imagens.


Agora, as redes sociais como as conhecemos estão mudando de rumo, e pode ser que não tenha nem mais sentido chamá-las de redes sociais.
Se hoje a gente recebe aproximadamente 20% de conteúdo vindo de pessoas aleatórias, isto é, fora das nossas redes, esse percentual está para aumentar, e não se sabe bem para quanto (informações de Ronaldo Lemos, em sua coluna na Folha de S. Paulo de 1 de agosto de 2022).

De todo modo, a tendência – que já pode ser observada – é que passemos a ver muito conteúdo de desconhecidos nas redes, isto é, de pessoas e empresas que nunca seguimos – e pouco daquelas pessoas que nos interessam e com quem gostamos de estar conectados.

Prioriza-se o comercial em detrimento das genuínas conexões que temos feito há muitos anos pelas redes online.

Apesar disso, o Mark Zuckerberg jura que estão sendo pensadas estratégias para conectar as pessoas pelo Metaverso – um projeto que vem sendo acusado de ser um tanto alucinado e inflamado sem pistas de que realmente pode dar certo.

O que muda para quem produz conteúdo?

Vendo pelo lado de quem produz conteúdo, é o seguinte: o vídeo que você produz sobre aquele assunto que domina irá aparecer junto a outros, de especialistas parecidos (assim classificados pelos algoritm0s, o que é mais um problema!), mas vai aparecer para um público ditado pelos algoritmos. Muito pouco da sua produção irá aparecer para os seus próprios seguidores e as pessoas com quem você um dia achou que deveria se conectar.

Isso vai contra tantas ideias positivas de aproximação entre as pessoas e contra o necessário fortalecimento dos laços sociais para vivermos num mundo já tão difícil. Todas as batalhas do planeta são coletivas. 


Tudo que não precisamos é de redes sociais que priorizam o consumo, em vez de priorizar o que sempre fizeram: a manutenção do contato com as pessoas que formam as nossas redes.

Nem quero pensar nos desastres políticos que isso pode provocar.


As nossas conexões em rede vêm alimentando os pequenos negócios; permitindo que um consultor ou professor avance em sua carreira, conquistando mais adeptos gradualmente; permitindo que um músico apresente seu trabalho a mais gente a partir de amigos de pessoas conhecidas e afins; permitindo as divulgações de serviços locais como cursos, restaurantes etc. A nova política algorítmica pode destruir todo esse apoio, que é a única coisa (na minha opinião) realmente boa das redes sociais online, hoje.

O ser humano é social; as redes tendem a não ser mais

O ser humano é assim: social por natureza. Mas as redes que temos, infelizmente, não são. A boa notícia é que essas redes baseadas em algoritm0s não existem sem nós. 


Se nos convencermos de que existimos sem elas, e de que podemos criar ou demandar redes muito melhores, estaremos no caminho certo. Nós, afinal, sempre existimos a partir das redes sociais; porém, das redes sociais REAIS.

Imagem do post: Jonny Gios on Unsplash

Buscando emprego? Os algoritmos irão “decidir” se você fica com a vaga

E isso não deveria ser como estar num cassino

Sabe-se que a inteligência artificial tem um potencial enorme de facilitar processos, automatizando-os. Mas também estamos conhecendo os imensos desafios envolvidos quando se trata de aplicar a IA a esses processos de uma maneira justa, ética e transparente.

Quando falamos de recrutamento e seleção, redes neurais artificiais empregadas na aprendizagem de máquina são capazes de processar uma quantidade absurda de dados em pouco tempo e “entregar” uma seleção que um ser humano levaria muito mais tempo para fazer. As redes são também capazes de fazer previsões sobre candidatos a partir dos dados armazenados.

Mas acredito que ainda falta muito esclarecimento sobre como o mecanismo/algoritmo realmente funciona em cada plataforma. Afinal, trata-se de algo que afeta profundamente a vida e o futuro das pessoas e suas famílias.

Para que o cadastro feito por candidatos numa plataforma baseada em IA garanta que eles irão participar de forma justa da seleção, é preciso que fique clara a maneira como eles devem preencher seus dados na plataforma. Apenas dicas como “escreva de forma direta” não são suficientes. Afinal, o fator humano sai desse processo inicial, bem como os detalhes que antes poderiam fazer toda a diferença no currículo. Estamos, todos, aprendendo a viver nesta era de dados. É uma transição. Os processos devem ser justos para ambos os lados, recrutadores e candidatos.

O candidato fica perdido em dúvidas como: quais palavras devo usar para sobressair? Como devo descrever minhas experiências? O que será avaliado primeiro? Terei oportunidade de conversar com um humano no processo?

Se o currículo não vai ser lido, prevalecendo apenas os campos preenchidos no formulário, isso gera insegurança. Pelo que entendo de taxonomia e semântica, a partir do tanto de tempo que trabalho com Web, pode ser bem complicado. Há, por exemplo, risco de que candidatos potenciais sejam eliminados somente porque não escreveram palavras e expressões da maneira como a empresa recrutadora se refere a esses termosEliminações poderão levar a outras eliminações sucessivas quando candidatos “errarem” o preenchimento, sem terem culpa!

Em busca de vislumbrar soluções, talvez caixinhas como as do LinkedIn para que habilidades sejam selecionadas, por exemplo, funcionem. Mas o mais importante de tudo – e defendo isso como uma pessoa que pesquisa impactos de machine learning – é que seres humanos não saiam do processo. Há que se ter um enorme cuidado na hora de decidir o que será cobrado em tais formulários e na hora de coletar informações reunidas. Um olhar crítico para observar o que os algoritmos não veem. As entrelinhas. Os detalhes que um bom recrutador aprende a observar com o tempo. Nada disso uma plataforma, por mais eficiente que seja, é capaz de substituir.

Se você criou uma dessas plataformas ou conhece mais sobre elas e pode contribuir com o que coloquei aqui, peço que contribua! Quero aprender mais.

Imagem: Terry Vlisidis @ Unsplash

Mentes INTERCONECTADAS

Seria possível compreender a mente humana analisando cada indivíduo em separado? Ou será que a mente humana surge justamente da coletividade?

Ainda que cada sujeito tenha a sua contribuição a dar, um trabalho envolvendo muitas pessoas dá origem a ideias que não existiriam se fosse desenvolvido somente por um indivíduo. Já parou para pensar nisso?

Os pesquisadores proponentes da abordagem enativa para a cognição humana indicam que não é possível investigar o funcionamento da mente humana sem focar nas interseções entre mentes.

Também os pesquisadores da inteligência artificial aplicada têm focado na inteligência coletiva. A edição de 2021 do relatório AI 100, produzido pela Universidade de Stanford, aponta a inteligência coletiva como uma tendência importante na pesquisa sobre a inteligência humana.

Falei sobre esse assunto na conferência de 2020 da MEA – Media Ecology Association, que este ano aconteceu na PUC-Rio. Estive presente remotamente, pois ainda estou em Portugal pelo doutorado. Deixo aqui algumas referências que usei em minha apresentação, para quem desejar saber mais.

(imagem do post: David Clode @ Unsplash)

CLARK, Andy. Natural-Born Cyborgs. Minds, Technologies and the Future of Human Intelligence. New York: Oxford University Press, 2003.

CLARK, Andy. Supersizing the Mind – Embodiment, action, and cognitive extension Oxford: Oxford University Press, 2011.

DE JAEGHER, Hanne.; DI PAOLO, Ezequiel. Participatory Sense-making: An enactive approach to social cognition. Phenomenology and Cognitive the Sciences, 6, pp. 485-507, 2007.

DE JAEGHER, Hanne.; DI PAOLO, Ezequiel. Making Sense in Participation: An Enactive Approach to Social Cognition. In: Enacting Intersubjectivity: A Cognitive and Social Perspective on the Study of Interactions. F. Morganti, A. Carassa, G. Riva (Eds.) Amsterdam, IOS Press, pp. 33-47, 2008.

DI PAOLO, E. A Concepção Enativa da Vida. In: BANNELL, R. I.; MIZRAHI, M.; FERREIRA, G. (Orgs.) (Des)educando a educação: Mentes, Materialidades e Metáforas. Tradução de Camila De Paoli Leporace. Rio de Janeiro: PUC-Rio, 2021.

Três tipos de machine learning

Conheça os três tipos mais comuns de machine learning ou aprendizagem de máquina:

  1. Aprendizagem Supervisionada: neste caso, o sistema recebe não apenas dados para operar, mas dados já classificados de uma determinada maneira. O sistema recebe também esses rótulos e precisa, então, encaixar os dados neles. É se fosse um quebra-cabeças. Quando a gente tenta acessar um site e ele, por segurança, pede para marcarmos todas as imagens em que aparecem montanhas, por exemplo, estamos diante de um sistema assim. Também é o caso da classificação de e-mails como #spam: cria-se um conjunto de e-mails que são spams e treina-se o sistema para identificar quais são as características mais comuns nele; ele poderá então classificar e-mails nunca vistos como spam a partir desses elementos identificados em outros e-mails.
  2. Aprendizagem Não Supervisionada: neste tipo, o sistema não tem as classes previamente definidas. Ele precisa criar os rótulos para os dados. Para isso, o próprio sistema deve identificar padrões no big data. Por exemplo, utiliza-se esse tipo de machine learning para inferir padrões de consumo nas pessoas e depois lhes oferecer produtos e serviços de acordo com o comportamento e as preferências demonstrados.
  3. Aprendizagem por Reforço: o sistema tentará usar os dados que recebe para gerar modelos, na base da tentativa e do erro. Depois, será punido ou recompensado de acordo com aquilo que conseguir “fazer”. Este tipo é muito comum na robótica e nos games. É o tipo usado no AlphaGo.

Leia também: O que é machine learning

Robôs com sentimentos?

Esta semana, a internet chacoalhou com a notícia de que, segundo um funcionário da Google, o chatbot LaMDA, produzido pela empresa, seria senciente. O funcionário acabou afastado depois de suas declarações. O interessante é que uma discussão que está tão presente na filosofia veio à tona por conta disso tudo. Então, o que é que está por trás de desse debate?

A ciência cognitiva é uma área que vem crescendo desde os anos de 1950, e eclodiu bem perto da explosão também da inteligência artificial enquanto área de pesquisa. No início, a IA tinha como foco reproduzir as capacidades humanas. E não era tão difícil crer na viabilidade disso, porque se acreditava que o cérebro poderia ser feito de qualquer material que poderia, de todo jeito, gerar uma mente. Então, teoricamente, um “cérebro” de silício também seria capaz de dar origem a pensamentos, sentimentos, enfim, tudo que compõe a mente.

Com o passar do tempo, as experiências em IA e robótica mostraram que a coisa não era bem assim. Um pesquisador que ajudou a mostrar que a distância entre humanos e máquinas era grande, e que ainda haveria um longo caminho pela frente até que se pudesse instanciar a inteligência humana em sistemas artificiais, foi Hubert Dreyfus. Ele trabalhou no MIT bem próximo a cientistas da computação engajados nessas pesquisas. E era ele quem colocava questões que certamente irritavam os programadores, mas que eram certeiras!

Por exemplo: como um computador poderia prever as milhares de coisas que poderiam acontecer em dada situação da vida cotidiana? Nós conseguimos rapidamente mudar a nossa maneira de agir dependendo do contexto em que nos encontramos: se algo cai no chão, pegamos de volta, colocamos em cima da mesa; se algo se parte, colamos; se alguém se machuca ou chora de repente, vamos acudir. Já sistemas artificiais precisam de mudanças extensas e detalhadas em todo o seu código quando algo muda. Eles não compreendem contextos. Também não compreendem certos atributos simples da vida cotidiana, que fazem parte do senso comum. Tipo: quando atendemos ao telefone, dizemos alô – ou “tô”, se for em Portugal; a pessoa do outro lado responde; combina-se de sair para um bar em alguma rua perto da casa dessas pessoas. O computador precisa de mais do que um simples “Então, vamos lá hoje?”­ para “entender” o que se passa.

É que na verdade a máquina não “entende”nada, de fato! Todas as informações que as pessoas envolvidas na conversa vão conhecendo ao longo da vida e vão incorporando em seu repertório – o que significa alô, o que é um bar, onde ele fica, de que bar estão falando, o que significa vamos lá etc. etc. ­– o computador precisa receber como inputs (até mesmo a informação de que duas pessoas são pessoas, conversam ao telefone, o que é telefone, o que é conversar etc. etc., já pensou?!). Isso precisa estar na programação do sistema. E, mesmo assim, o computador efetivamente não saberá nada: ele vai manipular aquelas informações, mas elas não vão significar nada para ele.

E a filosofia no meio de tudo isso?

A filosofia é uma área que investiga a inteligência humana, a cognição, a mente, a consciência. Para isso procura, antes de tudo, entender como se pode compreender ou conceituar cada uma delas. A maneira como se conceitua algo, afinal, faz muita diferença para os debates. Para pensar se uma IA pode ser consciente ou não, se é senciente ou não, cabe perguntar: o que é ter consciência? O que é senciência?

Há pesquisadores, por exemplo, que buscam na biologia as raízes para se compreender a mente humana. Para eles, a mente é como uma extensão da vida; onde há vida há atividade mental. Consequentemente, onde não há vida não há mente.  Também, se não há mente, não há sentimentos ou experiência. Por essa lógica, se robôs não são seres com vida biológica, não poderiam ter consciência ou senciência, nem sentir ou experimentar nada.

Esses pesquisadores acreditam, ainda, que a mente humana inclui muito mais do que o cérebro: o corpo como um todo constitui a mente. E é com a nossa atividade corporal, em acoplamento direto com o mundo natural, que vamos descobrindo e entendendo o que há no ambiente que nos cerca: assim é que fazemos sentido daquilo que está a nossa volta. Esses pesquisadores a que me refiro são estudiosos da cognição enativa. Alguns dos nomes mais importantes da área são Ezequiel Di Paolo, Hanne De Jaegher e Evan Thompson. Na minha tese de doutorado, eu abordo machine learning e enativismo. Se quiser saber mais, clica aqui.

Veja também o post especial no Instagram: @algoritmosfera

Os novos cupidos: os apps e seus algoritmos

Você provavelmente conhece alguém que se casou com uma pessoa que conheceu pelo Tinder, OKCupid ou outro app de relacionamentos. Talvez esteja cansado ou cansada da sua vida de solteiro/a e esteja até pensando em dar uma chance para um desses aplicativos, ou já é usuário ativo e engajado. Quem sabe aparece alguém bacana? Pode ser. Mas você já parou para pensar em como funcionam esses apps?

Tudo o que você faz quando está logado/a num app como o Tinder serve para que esse app lhe traga possíveis matches. Até mesmo as suas mensagens “privadas” trocadas com os possíveis “candidatos” a dates entram na análise de dados dos algoritmos. E não é só o que você faz dentro do aplicativo que alimenta a base de dados desse software. Por exemplo, se você topa sincronizar as suas contas de redes sociais como o Instagram, elas passam a servir também como fonte para que o app “conheça” você melhor e dê as suas flechadas para ajudar na busca pelo grande amor. Tudo em que você clica nessas redes é detectado, rastreado e armazenado para ser devorado pelos sistemas de machine learning por trás desses apps.

Claro que, como esses aplicativos são parecidos com álbuns de figurinhas em que o usuário avalia o que lhe chama a atenção, são as características físicas aparentemente mais desejadas que vão criando filtros para que sejam mostrados perfis de acordo. Além disso, a opinião comum dos usuários, no sentido da percepção conjunta, também é levada em consideração. Isso significa que as preferências e similaridades entre usuários são usadas para fazer recomendações. E isso pode ser bem estranho.

Como funciona a “filtragem colaborativa”?

Vieses, preconceitos e a circularidade em que você acaba preso

“A maioria (dos aplicativos de relacionamentos) depende de uma combinação de preferências declaradas – o que você diz ao app que pretende num parceiro, seja explicitamente nas suas definições ou implicitamente através de engajamento – e de algo chamado filtragem colaborativa. Isto significa que uma aplicação procura padrões a partir das pessoas a quem os utilizadores disseram sim ou não, e depois tenta perceber como se assemelham a outros utilizadores para fazer previsões sobre quem vai acabar por gostar de quem. É semelhante à forma como o TikTok seleciona vídeos para você ver e a Amazon empurra você para as compras” (fonte: Wired)

Sabe os preconceitos e vieses que existem no discurso das atrações em geral, no mundo não virtual, mas físico mesmo? As características físicas que costumam ser enaltecidas nos filmes, no Instagram, no TikTok, enquanto outras são marginalizadas? Então. Essas tendências acabam ainda mais fortalecidas quando os algoritmos entram em jogo, especialmente a partir desse mecanismo que citei, da captura de percepções coletivas. Se você dá “like” em determinadas pessoas, com certas características, acabam aparecendo para você mais e mais pessoas com aquelas mesmas características, e menos com outras; mas isso é pior quando os algoritmos se baseiam não exatamente em você para fazer isso, mas em pessoas que eles consideram parecidas com você.

Isso gera uma circularidade que pode acabar lhe mantendo longe de pessoas que poderiam ser interessantes para o seu perfil.

Tem uma outra questão: todo mundo tem direito a mudar de ideia, e assim as nossas preferências podem simplesmente mudar no decorrer do tempo. Enquanto as pessoas podem mudar rápido, os algoritmos demoram um bom tempo para incorporar essas mudanças.

Para além da atração física

Na minha opinião, o problema maior de deixar os cupidos virtuais acertarem suas flechas por você é que nesses apps entram em jogo apenas a aparência física e aqueles gostos mais superficiais, que estão ao alcance dos algoritmos. Claro que muitos relacionamentos começam mesmo com uma troca de olhares baseada em aparência e atração física. Mas, e aqueles elementos que não conseguimos bem dizer de onde vêm, e às vezes são arrebatadores, decisivos para ficarmos com alguém? Quantas vezes acabamos na cama com um sujeito ou sujeita que nunca imaginávamos, ou nos vemos beijando uma boca absolutamente imprevisível – e gostando?! Amigos, pessoas com quem temos afinidades, trocas de ideias mágicas e com quem de repente nos vemos envolvidos.

Será que os algoritmos nos levariam a encontros assim, ou nós mesmos acabaríamos nos traindo, selecionando apolos e afrodites que são colírios para os olhos mas não dizem nada à alma?

Claro que há aí também uma boa dose do componente sorte. A roleta do amor gira em todos os lugares, e pode girar – e até acertar! – na algoritmosfera, também. Mas será que as nossas chances de nos dar bem não diminuem já que os algoritmos deixam de “ver” tanta coisa – e não são capazes de sentir nada? Ainda por cima, corremos o risco enorme de ter decepções como aquela de adorar uma casa online e, ao visitá-la pessoalmente, achar péssima…

Aliás, sobre os desapontamentos, uma notícia ruim: eles acontecem com muita frequência. O Tinder e o Grindr estão na lista dos apps que mais deixam as pessoas tristes!

Leia mais
Grindr, Tinder, Scruff: A Recipe for Loneliness
High Levels Of Unhappiness For Grindr Users Study Finds

Parece que as minhas intuições sobre por que os apps de dates falham tanto estão na direção certa. Eis algumas hipóteses sobre isso (com informações deste link):

  • Sistemas de machine learning operam estritamente a partir daquilo que lhes é fornecido. Alguns elementos são altamente previsíveis, enquanto outros não são. E ainda não se sabe exatamente de onde a atração vem, como destaca a pesquisadora Samantha Joel, da Western University, no Canadá, que investiga a maneira como as pessoas tomam decisões relacionadas ao amor.
  • Quando tentamos analisar os fatores que realmente pesam para nós, enquanto tentamos entender o que sentimos por alguém, podemos sentir vergonha dos fatores que nos são atraentes ou até mesmo ser completamente inconscientes a respeito de uma certa preferência que temos.
  • Se questionados sobre fatores que nos atraem, podemos, por exemplo, dizer que é o nível de escolaridade de alguém ou até declarar que altura é um fator inegociável; e aí, quando encontramos as pessoas na vida real, aparentemente mudamos tudo. Quem disse que nunca namoraria alguém que não fez faculdade se apaixona por um artista que aprendeu fazendo, e quem disse que nunca ficaria com alguém baixinho se apaixona pelo Charles Chaplin.

Enfim! Quando se trata de amor, nós mesmos não nos conhecemos direito, então… como os algoritmos haveriam de dar conta desse recado extremamente espinhoso?

Ainda assim, é preciso arriscar. Então, independentemente da loteria em que você vai jogar, desejo-lhe sorte. Ops, mas dizem que é sorte no jogo e azar no amor… então, melhor não jogar na Mega Sena. Vai que você ganha. Como ficará o amor? Você não vai querer alguém que só esteja interessado na sua conta bancária, né? Pois os algoritmos conhecem o estado da nossa saúde financeira também. Temos que ser cautelosos 😉