(21) 2220-3300
New here? Register. ×

O Facebook manipula o nosso feed

seja o primeiro a comentar
04jul

Por Hugo Torres
Do Jornal Público PT

Há anos que a influência das redes sociais no comportamento humano, dentro e fora da Internet, tem sido estudada por todo o mundo. Os resultados têm mostrado, até agora, que existe uma relação entre as ações dos utilizadores dessas redes e o contexto a que nelas são expostos. Agora, a maior de todas elas, o Facebook, decidiu contribuir para o debate acadêmico. Mas não se limitou a observar: decidiu manipular os seus utilizadores. E à revelia.

O Facebook dividiu 689.003 utilizadores em dois grupos e filtrou o tipo de conteúdo que cada um deles recebeu no seu “feed de notícias” durante uma semana, em Janeiro de 2012: uns receberam menos conteúdo “positivo” do que o habitual; os outros, menos publicações “negativas”. O objetivo era perceber se a exposição a conteúdos ligeiramente diferentes afetava o comportamento dos sujeitos da experiência na mesma rede social. Alterou, ainda que de forma pouco significativa.

Os autores do estudo – Adam Kramer, do departamento de investigação do Facebook; Jamie Guillory, da Universidade da Califórnia; e Jeffrey Hancock, da Universidade de Cornell – argumentam que “os estados emocionais podem ser transferidos para outras pessoas através do contágio emocional”. E dizem que o estudo o prova. Contudo, o que a experiência mostra é apenas que o comportamento dos utilizadores foi alterado pelas modificações introduzidas.

O que se verificou foi um decréscimo de 0,1% no número de “palavras positivas”, no grupo dos utilizadores que viram reduzidas as publicações com o mesmo tipo de vocábulos no seu feed, e uma diminuição de 0,07% no total de “palavras negativas” entre os que foram menos expostos a esse tipo de conteúdos. Ao todo, foram analisadas mais de três milhões de publicações (posts), contendo mais de 122 milhões de palavras – 3,6% das quais negativas e 1,6% positivas.

O artigo foi publicado, de forma discreta, na revista Proceedings of the National Academy of Sciences (PNAS) de 17 de Junho. A imprensa norte-americana só lhe deu destaque neste fim-de-semana, mas assim que o fez irromperam as críticas severas. Internautas e acadêmicos mostraram-se estupefatos por o Facebook submeter pessoas a testes de manipulação psicológica sem o seu “consentimento informado”, como exige a lei nos EUA desde 1981.

O Facebook respondeu às acusações de falta de ética através de um porta-voz, que disse à Forbes: “Refletimos cuidadosamente sobre as pesquisas que fazemos e temos um forte processo de análise interna. Não há recolha desnecessária de informação das pessoas nestas iniciativas de investigação e toda a informação é conservada em segurança.” Os participantes foram selecionados aleatoriamente de entre os que então usavam a rede em inglês.

No entanto, o que está em causa não é a privacidade. É o fato de se terem manipulado seres humanos sem pelo menos os informar no final, como a lei norte-americana impõe que se faça quando estudos de evidente interesse público só são exequíveis sem o conhecimento dos sujeitos. A esse propósito, a empresa entende que todos os seus utilizadores deram o seu consentimento no momento em que aceitaram as condições de utilização para criar um perfil no site.

James Grimmelmann, professor de Direito da Universidade de Maryland, defende que esse “consentimento” é uma “ficção legal, concebida para facilitar as interações online”. A política de utilização de dados do Facebook – bem mais extensa do que o artigo publicado na PNAS – não inclui uma descrição com os procedimentos deste ou de outros estudos, nada diz sobre possíveis riscos e não permite que se opte por não participar.

“O Facebook escolheu caminhar num campo de minas legal e ético; devemos sentir pouca compaixão quando ocasionalmente explode”, acrescentou Grimmelmann, no seu blogue. O próprio Adam Kramer, co-autor do estudo, acabou por reconhecer que “os benefícios da investigação talvez não tenham justificado toda a ansiedade” gerada à volta do artigo.

O feed de notícias, onde lemos atualizações de amigos e páginas, é gerado individualmente a partir de um algoritmo. Não é a rede tal como a veríamos sem filtros. Se já existiam críticas ao afunilamento da realidade que provoca, agora os receios agravam-se. Não só por poderem vir a ser introduzidas variantes ao algoritmo que nos atirem para uma ficção distópica huxleyana, mas por a reação a este estudo poder inibir o Facebook de publicitar os testes que levar a cabo no futuro. Como é uma empresa privada, não necessita de aprovação de uma comissão de ética.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *