Os novos cupidos: os apps e seus algoritmos

Você provavelmente conhece alguém que se casou com uma pessoa que conheceu pelo Tinder, OKCupid ou outro app de relacionamentos. Talvez esteja cansado ou cansada da sua vida de solteiro/a e esteja até pensando em dar uma chance para um desses aplicativos, ou já é usuário ativo e engajado. Quem sabe aparece alguém bacana? Pode ser. Mas você já parou para pensar em como funcionam esses apps?

Tudo o que você faz quando está logado/a num app como o Tinder serve para que esse app lhe traga possíveis matches. Até mesmo as suas mensagens “privadas” trocadas com os possíveis “candidatos” a dates entram na análise de dados dos algoritmos. E não é só o que você faz dentro do aplicativo que alimenta a base de dados desse software. Por exemplo, se você topa sincronizar as suas contas de redes sociais como o Instagram, elas passam a servir também como fonte para que o app “conheça” você melhor e dê as suas flechadas para ajudar na busca pelo grande amor. Tudo em que você clica nessas redes é detectado, rastreado e armazenado para ser devorado pelos sistemas de machine learning por trás desses apps.

Claro que, como esses aplicativos são parecidos com álbuns de figurinhas em que o usuário avalia o que lhe chama a atenção, são as características físicas aparentemente mais desejadas que vão criando filtros para que sejam mostrados perfis de acordo. Além disso, a opinião comum dos usuários, no sentido da percepção conjunta, também é levada em consideração. Isso significa que as preferências e similaridades entre usuários são usadas para fazer recomendações. E isso pode ser bem estranho.

Como funciona a “filtragem colaborativa”?

Vieses, preconceitos e a circularidade em que você acaba preso

“A maioria (dos aplicativos de relacionamentos) depende de uma combinação de preferências declaradas – o que você diz ao app que pretende num parceiro, seja explicitamente nas suas definições ou implicitamente através de engajamento – e de algo chamado filtragem colaborativa. Isto significa que uma aplicação procura padrões a partir das pessoas a quem os utilizadores disseram sim ou não, e depois tenta perceber como se assemelham a outros utilizadores para fazer previsões sobre quem vai acabar por gostar de quem. É semelhante à forma como o TikTok seleciona vídeos para você ver e a Amazon empurra você para as compras” (fonte: Wired)

Sabe os preconceitos e vieses que existem no discurso das atrações em geral, no mundo não virtual, mas físico mesmo? As características físicas que costumam ser enaltecidas nos filmes, no Instagram, no TikTok, enquanto outras são marginalizadas? Então. Essas tendências acabam ainda mais fortalecidas quando os algoritmos entram em jogo, especialmente a partir desse mecanismo que citei, da captura de percepções coletivas. Se você dá “like” em determinadas pessoas, com certas características, acabam aparecendo para você mais e mais pessoas com aquelas mesmas características, e menos com outras; mas isso é pior quando os algoritmos se baseiam não exatamente em você para fazer isso, mas em pessoas que eles consideram parecidas com você.

Isso gera uma circularidade que pode acabar lhe mantendo longe de pessoas que poderiam ser interessantes para o seu perfil.

Tem uma outra questão: todo mundo tem direito a mudar de ideia, e assim as nossas preferências podem simplesmente mudar no decorrer do tempo. Enquanto as pessoas podem mudar rápido, os algoritmos demoram um bom tempo para incorporar essas mudanças.

Para além da atração física

Na minha opinião, o problema maior de deixar os cupidos virtuais acertarem suas flechas por você é que nesses apps entram em jogo apenas a aparência física e aqueles gostos mais superficiais, que estão ao alcance dos algoritmos. Claro que muitos relacionamentos começam mesmo com uma troca de olhares baseada em aparência e atração física. Mas, e aqueles elementos que não conseguimos bem dizer de onde vêm, e às vezes são arrebatadores, decisivos para ficarmos com alguém? Quantas vezes acabamos na cama com um sujeito ou sujeita que nunca imaginávamos, ou nos vemos beijando uma boca absolutamente imprevisível – e gostando?! Amigos, pessoas com quem temos afinidades, trocas de ideias mágicas e com quem de repente nos vemos envolvidos.

Será que os algoritmos nos levariam a encontros assim, ou nós mesmos acabaríamos nos traindo, selecionando apolos e afrodites que são colírios para os olhos mas não dizem nada à alma?

Claro que há aí também uma boa dose do componente sorte. A roleta do amor gira em todos os lugares, e pode girar – e até acertar! – na algoritmosfera, também. Mas será que as nossas chances de nos dar bem não diminuem já que os algoritmos deixam de “ver” tanta coisa – e não são capazes de sentir nada? Ainda por cima, corremos o risco enorme de ter decepções como aquela de adorar uma casa online e, ao visitá-la pessoalmente, achar péssima…

Aliás, sobre os desapontamentos, uma notícia ruim: eles acontecem com muita frequência. O Tinder e o Grindr estão na lista dos apps que mais deixam as pessoas tristes!

Leia mais
Grindr, Tinder, Scruff: A Recipe for Loneliness
High Levels Of Unhappiness For Grindr Users Study Finds

Parece que as minhas intuições sobre por que os apps de dates falham tanto estão na direção certa. Eis algumas hipóteses sobre isso (com informações deste link):

  • Sistemas de machine learning operam estritamente a partir daquilo que lhes é fornecido. Alguns elementos são altamente previsíveis, enquanto outros não são. E ainda não se sabe exatamente de onde a atração vem, como destaca a pesquisadora Samantha Joel, da Western University, no Canadá, que investiga a maneira como as pessoas tomam decisões relacionadas ao amor.
  • Quando tentamos analisar os fatores que realmente pesam para nós, enquanto tentamos entender o que sentimos por alguém, podemos sentir vergonha dos fatores que nos são atraentes ou até mesmo ser completamente inconscientes a respeito de uma certa preferência que temos.
  • Se questionados sobre fatores que nos atraem, podemos, por exemplo, dizer que é o nível de escolaridade de alguém ou até declarar que altura é um fator inegociável; e aí, quando encontramos as pessoas na vida real, aparentemente mudamos tudo. Quem disse que nunca namoraria alguém que não fez faculdade se apaixona por um artista que aprendeu fazendo, e quem disse que nunca ficaria com alguém baixinho se apaixona pelo Charles Chaplin.

Enfim! Quando se trata de amor, nós mesmos não nos conhecemos direito, então… como os algoritmos haveriam de dar conta desse recado extremamente espinhoso?

Ainda assim, é preciso arriscar. Então, independentemente da loteria em que você vai jogar, desejo-lhe sorte. Ops, mas dizem que é sorte no jogo e azar no amor… então, melhor não jogar na Mega Sena. Vai que você ganha. Como ficará o amor? Você não vai querer alguém que só esteja interessado na sua conta bancária, né? Pois os algoritmos conhecem o estado da nossa saúde financeira também. Temos que ser cautelosos 😉

Pós-Graduação em Marketing Digital fica “datada”?

Concluí uma pós-graduação lato sensu (tipo MBA) em Marketing Digital em 2008. À vezes me perguntam se a pós não ficou “datada”, uma vez que os processos relativos ao mundo digital mudam rapidamente. Não, a pós não ficou datada, porque eu aprendi sobre a lógica de muitos processos, e essa lógica está valendo.

Por exemplo, as boas práticas de arquitetura de informação: a gente aprende, observa, põe em prática – como fiz com projetos como o do Acervo O GLOBO (2010 a 2014), a intranet da Oi (2014 a 2016) e venho fazendo mais recentemente com trilhas de aprendizagem online, por exemplo. Os recursos mudam, as ferramentas e plataformas se diversificam, mas os pressupostos se mantêm.

Outro exemplo: a lógica dos links patrocinados/das mídias pagas versus o SEO orgânico; boa parte dessa lógica vem de quando ainda trabalhava com Yahoo!, antes de trabalhar com Google AdSense… e usava Statcounter e não Google Analytics!

O que se preconiza como bons resultados para a navegação de um site pode mudar, de acordo com os KPIs (Key Performance Indicators) estabelecidos para cada projeto/empresa – por exemplo, o tempo que um usuário passa, em média, navegando num site: pode ser desejável que passe horas e horas, se for um site de e-commerce, ou que passe ‘voando’ pelas páginas, se for um site com informações sobre atendimentos médicos urgentes. No segundo caso, o sucesso está em levar informação rápida ao usuário para salvar vidas, enquanto no primeiro a ideia é tornar a experiência agradável, sem pressa e mostrando o máximo de opções possíveis. Aplica-se então o que se sabe sobre as boas práticas a cada caso específico, e avalia-se as métricas para ver se o empenho resultou como desejado. E por aí vai.

A lógica vale para SEO, Arquitetura da Informação, acessibilidade, user experience, CRM, webwriting etc.

Acho importante, porém, o seguinte: a lógica geral da comunicação pode não ter mudado muito, porque os paradigmas sobre os quais a Web se apoia estão mantidos. Mas… agora temos a dimensão do machine learning e do big data. São muitas e profundas camadas de dados que temos que tratar e gerir. Claro, nem todos os sistemas, sites, apps estão neste momento alavancados por #machinelearning. Mas as redes sociais e os sites de busca estão, e isso mexe com os sites e apps que se encontram inseridos nesse contexto maior. Afeta os caminhos que são feitos para se chegar a eles; afinal, os algoritmos “decidem” (com muitas aspas) muita coisa por nós.

Transparência na IA

A inteligência artificial cada vez mais permeia e influencia nossas vidas. Afeta decisões das mais relevantes: quem pode conseguir um empréstimo ou financiamento, quem deve conseguir um emprego ou ser demitido, quem deve ser preso. Conecta indivíduos em apps de relacionamentos, podendo influenciar nos rumos sentimentais das vidas das pessoas, também.  

Diante da presença crescente da IA em nossas vidas, cresce também a importância de compreender o que significa vivermos entrelaçados a sistemas que se alimentam dos nossos dados. 
Por isso, crescem as preocupações com os riscos a que potencialmente somos expostos.

Há uma mobilização enorme para que se analise esses riscos e para que sejam mitigados. 

Nesse contexto, são preocupantes os mecanismos opacos de tomada de decisão embutida em sistemas algorítmicos.

Transparência é importante quando se trata de sistemas de #IA
A questão da transparência aparece nos documentos do AI HLEG – the European Commission’s High-Level Expert Group on Artificial Intelligence, de 2018.

“Os modelos de negócios baseados em dados, sistemas e AI devem ser transparentes: mecanismos de rastreabilidade podem ajudar nisso. Além disso, os sistemas de IA e suas decisões devem ser explicados de uma maneira adaptada às partes interessadas. Os seres humanos precisam estar cientes de que estão interagindo com um sistema de IA, e devem ser informados acerca das capacidades e limitações desse sistema”, diz documento do AI HLEG de 2019. 

Vou mais além e defendo, com base em teorias da cognição em que venho me aprofundando no doutorado, que “interação” é humano-humano; quando lidamos com sistemas de IA temos uma troca, mas não é exatamente uma “interação” como seria uma interação social. Há algo que só humanos têm, ainda bem 😉 

No artigo acadêmico disponível neste link, o qual inspirou este meu post, há uma discussão interessante sobre “variedades de transparência” em sistemas de IA. Foi escrito por Gloria Andrada, Robert Clowes e Paul Smart.

Audrey Watters: ‘não são as tecnologias os vetores das mudanças, mas as pessoas’

Tive o prazer de ouvir Audrey Watters falar hoje na conferência Digital Education Governance Beyond International Comparative Assessments – complex histories, contested presents, and contingent futures, promovida pelo Centre for Research in Digital Education, da Universidade de Edimburgo, no Reino Unido.

Audrey escreveu um livro sobre os antecedentes das “máquinas de ensinar” que existem atualmente: “Teaching Machines”, lançado em 2021 pela MIT Press. Ela escolheu falar sobre o passado para nos fazer refletir sobre o futuro.

Teaching Machines

Como Watters comentou, para compreender as tecnologias e a nossa relação com elas é preciso olhar para a história, para o passado, não apenas para o futuro. Ao motivar-se para escrever esse livro, ela estava interessada em saber como chegamos até aqui. Sentia-se incomodada com a falsa sensação de que “de repente a tecnologia educacional surgiu”, como se fosse “do nada”. Não podemos desconectar o passado do que o futuro é e de como o futuro será.

“I see behaviorism everywhere”, Watters disse se referindo ao filme “O Sexto Sentido”. B. F. Skinner é muito atual quando se trata de como concebemos a aprendizagem ainda hoje. A ideia de que se deve recompensar os estudantes imediatamente ela aprendizagem “bem sucedida” continua atualizada, e tem tudo a ver com o behaviorismo. Ainda somos fortemente orientados a esse processo de recompensa. Basta olhar ara o nosso comportamento online, evidente na dependência tecnológica que temos desenvolvido. Quando rolamos a tela do celular ávidos pela próxima informação ou aguardamos ansiosamente por novas mensagens, o que queremos, de certo modo, é ser recompensados.

“Não vejo a tecnologia como os vetores das mudanças, mas as pessoas”, disse Audrey. Concordo super com ela.

A Mente Estendida: Esboços do Mundo

Este post é um complemento à aula que dei no XI Curso de Verão do INCOg/PUC-Rio sobre a Tese da Mente Estendida. Coloquei aqui os links, imagens, vídeos e inspirações que usei na apresentação, para que ficassem disponíveis para quem deseja saber mais.

A aula está disponível no vídeo a seguir.

O que vemos quando olhamos para uma obra de arte, um quadro, uma pintura, é o resultado de muitas tentativas e erros, trabalhos e retrabalhos. Esboços. Rascunhos. E, mesmo depois dos rascunhos, a obra de arte em si é constituída a partir de muitas camadas.

A tese da mente estendida desenvolvida por Andy Clark nos convida a ter essa perspectiva da mente e da cognição humana, como se estivéssemos sempre fazendo um processo de tentativa e erro para entender o mundo e as coisas que acontecem com a gente e em torno de nós. A abordagem nos leva a entender a formação da mente humana em camadas, que vamos adicionando na medida em que experimentamos as mais diversas atividades de estar no mundo e de conhecer o meio.

Abaixo há uma série de referências e vídeos para quem deseja saber mais sobre a tese e descobrir como a atividade mental humana é mais ativa, fluida e imaginativa do que talvez pudéssemos conceber:

  1. No livro DESEDUCANDO A EDUCAÇÃO: MENTES, MATERIALIDADES E METÁFORAS, lançado por um grupo de professores do Departamento de Educação da PUC-Rio (prof. Ralph Bannell, Mylene Mizrahi e Giselle Ferreira) em 2021, há um capítulo que se chama Para além do cérebro nu. Trata-se da tradução do capítulo 8 do livro Mindware, de Andy Clark. Este capítulo é fundamental para compreender mais sobre as ideias que apresentei no Curso de Verão do INCOg (em breve posto o vídeo da apresentação aqui);
O livro pode ser baixado gratuitamente no site da
Editora PUC-Rio
http://www.editora.puc-rio.br/

2. A artista que aparece pintando, e cujas imagens usei para ilustrar a questão das camadas na pintura, é canadense e se chama Lori Mirabelli. Assista a este vídeo completo dela e ouça as explicações sobre as camadas; mesmo para quem nao é artista, é o maior barato acompanhá-la mostrando esse processo interessantíssimo:

3. O livro cuja capa aparece no quarto slide é o “Oxford Handbook of 4E Cognition”, editado por Albert Newen, Leon De Bruin e Shaun Gallagher; saiba mais sobre a publicação aqui.

The Oxford Handbook of 4E Cognition

4. O livro em que Andy Clark aprofunda a questão das previsões cerebrais e como elas se acomodam com sua teoria da mente estendida se chama Surfing Uncertainty – Prediction, Action and the Embodied Mind e você pode saber mais sobre ele aqui.

5. Abaixo está o vídeo completo sobre as previsões cerebrais, cujos trechos apresentei na minha aula. O vídeo é ótimo, o único inconveniente é que não tem legendas em português (e nem mesmo em inglês). Mas vale a pena assistir – e você pode usar o recurso de abrir a transcrição do vídeo e depois traduzi-la num tradutor online, se precisar. A aula do vídeo é dada por Anil Kumar Seth, professor britânico de Neurociência Cognitiva e Computacional na Universidade de Sussex.

6. O desenho de Otto e Inga, reproduzido abaixo, foi feito por Helen de Cruz, filósofa e artista, e faz parte de uma série de ilustrações que ela fez para tentar materializar visualmente experiências filosóficas. Esses desenhos incríveis podem ser vistos neste link aqui.

7. A imagem abaixo, que achei poderosa para ilustrar a ideia de andaimes introduzida por Clark para abordar as extensões da mente, está numa matéria da Scientific America apropriadamente intitulada How Room Designs Affect Your Work and Mood.

8. A imagem do post, lá em cima, e que abre a apresentação, eu achei aqui

9. A apresentação em Power Point está disponível aqui

10. Referências Bibliográficas da apresentação/aula:

CLARK, A.; CHALMERS, D. The extended mind. Analysis, 58 (1), p. 7-19, 1998.

CLARK, A. Para além do cérebro nu. In Bannell, R. I., Mizrahi, M., Martins dos Santos Ferreira, G. (Orgs.) (Des)educando a educação: Mentes, Materialidades e Metáforas. Tradução de Camila De Paoli Leporace. Rio de Janeiro: PUC-Rio, 2021.

CLARK, A. Being there: putting brain, body, and world together again. Cambridge, MA: MIT Press, 1998.

_________. Natural-Born Cyborgs. Minds, Technologies and the Future of Human Intelligence, New York: Oxford University Press, 2003.

_________. Supersizing the mind: embodiment, action, and cognitive extension. Oxford: Oxford University Press, 2011.

_________. A. Mindware. Cambridge: MIT Press, 2014.

DELLERMANN, D., EBELl, P., SÖLLNER, M., & LEIMEISTER, J. M. (2019). Hybrid Intelligence. Business and Information Systems Engineering, 61(5), 637–643. https://doi.org/10.1007/s12599-019-00595-2

GALLAHER, S. Philosophical Antecedents of Situated Cognition. In: ROBBINS, Philip, e AYDEDE, Murat. The Cambridge Handbook of Situated Cognition. Cambridge University Press, 2009.

NEWEN, A,; DE BRUIN, L.; GALLAGHER, S. The Oxford Handbook of 4Es Cognition. New York: Oxford University Press, 2018.

ROBBINS, P., e AYDEDE, M. The Cambridge Handbook of Situated Cognition. Cambridge University Press, 2009).

RUPERT, R. Cognitive Systems and the Extended Mind. New York: Oxford University Press, 2009.

SOEKADAR, S., CHANDLER, J., IENCA, M., & BUBLITZ, C. (2021). On The Verge of the Hybrid Mind. Morals & Machines, 1(1), 32–45. https://doi.org/10.5771/2747-5182-2021-1-32.

What Computers Can’t Do (Hubert Dreyfus)

EN

Hubert Dreyfus’ “What computers Can’t Do” will be 50 years old in 2022. Despite having been released half a century ago, it is still pertaining when it comes to the gap between human cognition and artificial intelligence. I like Dreyfus’ critique to artificial reason mostly because he was actually concerned with human intelligence, not so much machines’ intelligence. The book (which got a second edition, amplified, in 1992) is compelling for those interested in comprehending some of the most important challenges faced by AI – and that have not yet been overcome.

Inspired by phenomenologists like Heidegger and Merleau-Ponty, Dreyfus (who unfortunately died in 2017 at 87) advocated that human intelligence is far beyond computation and representation. He suggested that we are “skillful copers”, i.e., highly skilled embodied agents capable of dealing with the world’s uncertainties and unsteadiness in a remarkably fine-grained way, anchored in the body and in the emotions. Because it is coupled to the environment, this being-in-the-world is more direct and less dependent on mediators (representations).

I also encourage readers to watch some of Dreyfus’ great interviews, lectures and talks available online.

PT

Hubert Dreyfus’ “What computers Can’t Do” fará 50 anos em 2022. Apesar de ter sido lançado há meio século, ele ainda é pertinente quando se trata do gap entre a cognição humana e a inteligência artificial. Eu gosto da crítica de Dreyfus à razão artificial principalmente porque ele estava realmente preocupado com a inteligência humana, não tanto com a inteligência das máquinas. O livro (que teve uma segunda edição, ampliada, em 1992) é muito pertinente para aqueles interessados em compreender alguns dos desafios mais importantes enfrentados pela IA – e que ainda não foram superados.

Inspirado por fenomenólogos como Heidegger e Merleau-Ponty, Dreyfus (que infelizmente morreu em 2017 aos 87 anos) defendeu que a inteligência humana está muito além da computação e da representação. Ele sugeriu que somos “skillful copers”, isto é, agentes corporificados altamente habilidosos capazes de lidar com as incertezas e instabilidades do mundo de uma forma altamente refinada, ancorada no corpo e nas emoções. Por estar acoplado ao meio ambiente, este being-in-the-world é mais direto e menos dependente de mediadores (representações).

Eu também encorajo os leitores a assistir algumas das grandes entrevistas e palestras da Dreyfus disponíveis on-line.

Hubert Dreyfus on Embodiment (II-II)
Conversations with History: Hubert Dreyfus
Hubert Dreyfus Interview – AI, Heidegger, Meaning in the Modern World

Interesting Conferences & Seminars

Symposium on The Mind-Technology Problem

October 21 & 22 2021

Organizers: Klaus Gärtner, Robert W. Clowes

Speakers: Catarina Dutilh Novaes, J. Adam Carter, Manuel Curado, Ron Chrisley, Steven Fuller, Vincent Müller, Paul Smart among others

We are living through a new phase in human development where much of everyday life – at least in the most technologically developed parts of the world – has come to depend upon our interaction with “smart” artefacts. Alongside this increasing adoption and ever-deepening reliance on intelligent machines, important changes have been taking place, often in the background, as to how we think of ourselves and how we conceptualize our relationship with technology. As we design, create and learn to live with a new order of artefacts which exhibit behavior that, were it to be carried out by human beings would be seen as intelligent, the ways in which we conceptualize intelligence, minds, reasoning and related notions such as self and agency are undergoing profound shifts. Indeed, it is possible to argue that the basic background assumptions informing, and the underlying conceptual scheme structuring our reasoning about minds has recently been transformed. This shift has changed the nature and quality of both our folk understanding of mind, our scientific psychology, and the philosophical problems that the interaction of these realms produce.
These new conceptualizations – sometimes implicit, sometimes explicit – about the nature of mind and its relationships to the artefacts we build has given rise to a new constellation of basic philosophical problems about the very nature of mind. This constellation we call, The Mind-Technology Problem. The mind-technology problem should be understood as the successor to the mind-body problem, engaging with the mind in a digital era. Distinctive questions include: What properties of mind may be enabled, transformed or extended by technology? What properties of mind may be diminished, outsourced or curtailed? Is human agency being primarily constrained or enabled by our encounter with 21st Century technology and especially by our interaction with AI? How might the nature of human agency, memory, knowledge, responsibility, and consciousness be changed through this interaction? These can all be viewed as problems of where our minds stop, and our artefacts begin. Deciding the limits of mind seem to recast the nature of the other philosophical problems around it.

Programa

21 de Outubro, Quinta-feira

09:30 – 10:00 Registration
10:00 – 10:20 Robert Clowes – Intro: Why the Mind Technology Problem? Why Now?
10:20 – 11:30 Steven Fuller – Humans 2.0 and tMTP (Final Title TBC)
11:30 – 11:50 COFFEE BREAK
11:50 – 13:00 Catarina Dutilh Novaes [online] – Attention and Trust in Online Argumention.
13:00 – 14:30 ALMOÇO
14.30 – 15:40 Manuel Curado – The Mind-Technology Problem in the Context of Evolutionary Psychology: The Challenge of on demand Mind Designs
15:40 – 16:00 COFFEE BREAK
16:00 – 17:10 Ron Chrisley – “I contain multitudes”: Can minds nest?

22 de Outubro, Sexta-feira

09:30 – 11:00 Vincent Müller – Epistemology, AI and Human Minds (Final Title TBC)
11:00 – 11:30 COFFEE BREAK
11:30 – 13:00 J. Adam Carter [online] – “Digital knowledge and the norms of AI delegation (or: leave it all to the machines?)” 
13:00 – 14:30 ALMOÇO
14:30 – 15:30 Steven Gouveia – Minds, Persons and the Mind-Uploading Hypothesis
15:30 – 16:00 COFFEE BREAK
16:00 – 17:00 Paul Smart [online] – Minding Society: Social Machines, Predictive Processing, and the Cognitive Incorporation of Humanity
17:00 – 17:30 Robert W. Clowes (chairing) – Closing discussion: The Future(s) of the tMTP

Informações
O simpósio será realizado em formato híbrido: presencialmente, no Anfiteatro da FCiências.ID, e online, via Zoom. A participação é gratúita, mas carece de incrição.

Inscrição
https://forms.gle/GvaUvvvQ9WsLLX3t9

Morada do Anfiteatro da FCiências.ID
Faculdade de Ciências da Universidade de Lisboa
Edifício C1, Piso 3
Campo Grande, Lisboa

Contacto
robert.clowes@gmail.com e klga@gmx.de

After Disenchantment: Science, Education, and la Vita Activa

(Aula inaugural CES – Universidade de Coimbra / PRESENCIAL)

October 22 2021

Speaker: Sheila Jasanoff (Harvard University)


Since the early twentieth century, philosophers and sociologists of technology have bemoaned the power of science and technology to empty our world of meaning: through devices such as rationalization, standardization, massification, and routine. Humans are seen as subjugated to machineries of production, and deprived of voice and agency, so that innovation suffers and democracy itself is in deficit. I will argue to the contrary that the turn of the twentieth century brought enormous gains in our capacity to reflect on what it means to be citizens of scientific and technological societies. Drawing on concepts such as co-production, constitutionalism, and sociotechnical imaginaries, I will show how this rise in social reflexivity has equipped us to rethink the politics of science and technology. I will use illustrations from work in science and technology studies (STS) on environment, biotechnology, and AI to show how advances in theories of science and technology in society open up new vistas for social creativity and political action.

Sheila Jasanoff is Pforzheimer Professor of Science and Technology Studies at the John F. Kennedy School of Government at Harvard University. She is affiliated with the Department of the History of Science and Harvard Law School. Previously, she was Professor of Science Policy and Law at Cornell University and founding chair of Cornell’s Department of Science and Technology Studies. At Harvard, she founded and directs the Kennedy School’s Program on Science, Technology and Society (STS). In 2002, she founded the Science and Democracy Network, an international community of STS scholars dedicated to improving scholarly understanding of the relationships among science, technology, law, and political power.

Jasanoff has been a pioneer in building the field of Science and Technology studies (STS). Through her many administrative, pedagogical, and editorial roles, she has helped define the field for a generation of younger scholars in STS. Her works on law and science, risk management, the comparative politics of regulation, and science in environmental decisionmaking count as basic texts on those topics

Self-Consciousness and Social Interactions in Humans and Artificial Agents

October 26 2021

Speaker: Anna Ciaunica (CFCUL/GI2).

In this talk I will provide an overview of my previous work on the bodily roots of conscious experiences throughout the lifespan. I will then briefly look at alterations of self-awareness in depersonalisation, a condition that makes people feel detached from one’s self, body and the world. I will present some recent findings from our group regarding the relationship between depersonalisation and the bodily self. I will conclude by presenting my ongoing projects and experiments that will test these ideas empirically in humans and artificial agents.

Transmissão em direto via Zoom (password: 553547).

Cartaz do evento

4º CONGRESSO INTERNACIONAL DA SOCIEDADE PORTUGUESA DE FILOSOFIA

Nesta sexta dia 10 vou apresentar ideias relacionadas a minha pesquisa no 4º CONGRESSO INTERNACIONAL DA SOCIEDADE PORTUGUESA DE FILOSOFIA, promovido pela Universidade do Minho. O evento começa na 5a feira, dia 9. O programa completo está neste link.

Padrões Obscuros: quando a navegação é ‘malfeita’ de propósito

Você já se perguntou por que o design daquele site que deveria ser ótimo é tão ruim? Definitivamente, uma má experiência do usuário com um site nem sempre acontece porque a equipe de User Experience/Arquitetura de Informação precisa ser trocada. Veja como o Facebook e a Amazon irritam quando precisamos achar algo como desativar a nossa conta. É tão ruim ou pior do que cancelar a NET.

O que acontece é que a experiência está sendo boa para alguém que não é você, mas a empresa por trás daquele site. Estou falando dos chamados “Dark Patterns“, que são estratégias e maneiras de apresentar o conteúdo e de conduzir o usuário por um website que, em vez de ajudá-lo, o confundem. A experiência é desastrosa, mas o usuário faz o que a companhia quer, e então… bem, a meta está batida.

Quando fiz minha pós em Marketing Digital em 2008, uau, User Experience era realmente sobre deixar o usuário feliz. Era sobre tornar as coisas mas simples para o usuário, deixar a navegação intuitiva, levá-lo ao conteúdo que ele precisa acessar. As coisas mudaram muito na internet nos últimos anos. Quer dizer, não precisa ser assim. Há empresas e empresas. Dark Patterns me lembram as técnicas de “Black Hat SEO”, que eram códigos inseridos nos sites para que chegássemos até eles por meio das buscas; mas, quando chegávamos, os sites não tinham o que esperávamos. Uma frustração, porém isso ajudava a impulsionar os números de visitas e visitantes dos sites.

Hoje, técnicas aplicadas para que os usuários tomem decisões que beneficiam as companhias, em vez de beneficiarem aos usuários, têm uma ajudinha extra: a aprendizagem de máquina. Nossos dados ao infinito, processados por redes profundas com uma capacidade nunca vista antes de aproveitar esses dados para produzir mais dados ainda.

No entanto, a internet não é, ou não deveria ser, uma terra sem lei. A experiência que a gente tem navegando em sites, fazendo buscas etc deveria ser, efetivamente, boa. E, se todas as empresas na internet competem pela sua atenção, algumas deixam suas intenções mais claras, outras preferem te empurrar na direção que elas desejam. Saber o que está acontecendo a nossa volta nos ajuda a cobrar serviços melhores e isso inclui sites que funcionam pelo ponto de vista dos usuários, não somente das empresas. A quem trabalha com internet, bem, acho que vale se questionar: você deixou de ser consumidor para ser designer, arquiteto de informação, programador, empresário, empreendedor? Não. E você gostaria de encontrar Dark Patterns pela sua frente ao tentar fazer coisas que clientes fazem em sites de empresas?

Vale assistir ao vídeo a seguir:

Imagem do post: Carolina Pimenta @ Unsplash