Translate

quinta-feira, 29 de março de 2018

Tudo o que sabemos sobre o experimento secreto de manipulação de humor do Facebook

Provavelmente foi legal. Mas foi ético?

O Feed de notícias do Facebook - a principal lista de atualizações de status, mensagens e fotos que você vê quando abre o Facebook em seu computador ou telefone - não é um espelho perfeito do mundo.

Mas poucos usuários esperam que o Facebook mude seu feed de notícias para manipular seu estado emocional.

Nós sabemos agora que é exatamente o que aconteceu há dois anos. Por uma semana, em janeiro de 2012, cientistas de dados distorceram o que quase 700.000 usuários do Facebook viram quando entraram em seu serviço. Algumas pessoas mostraram-se contentes com uma preponderância de palavras felizes e positivas; alguns mostraram conteúdo analisado como mais triste que a média. E quando a semana terminava, esses usuários manipulados tinham maior probabilidade de postar palavras especialmente positivas ou negativas.

Este conserto foi revelado apenas como parte de  um novo estudo , publicado na prestigiada  Proceedings of National Academy of Sciences . Muitos estudos anteriores usaram dados do Facebook para examinar o “contágio emocional”, como este fez. Este estudo é diferente porque, enquanto outros estudos observaram dados do usuário do Facebook, este se propôs a manipulá-lo. 

A experiência é quase certamente legal. Nos atuais termos de serviço da empresa, os usuários do Facebook renunciam ao uso de seus dados para “análise de dados, testes e [pesquisa]”. É ético, no entanto? Desde que surgiu a notícia do estudo, vi e ouvi os defensores da privacidade e os usuários casuais expressarem surpresa com a audácia do experimento. 

Na esteira das coisas de Snowden e do twitter de Cuba, o experimento de "transmissão da raiva" no Facebook é aterrorizante.

- Clay Johnson (@ cjoh) 28 de junho de 2014
Saia do Facebook. Tire sua família do Facebook. Se você trabalha lá, saia. Eles são fodidamente horríveis.

- Erin Kissane (@kissane) 28 de junho de 2014
Estamos acompanhando a resposta ética, legal e filosófica a essa experiência no Facebook aqui. Também pedimos aos autores do estudo para comentarem. Autor Jamie Guillory respondeu e encaminhou-nos a um porta-voz do Facebook. Domingo de manhã cedo, um porta-voz do Facebook enviou este comentário em um email: 

Esta pesquisa foi realizada para uma única semana em 2012 e nenhum dos dados utilizados foi associado à conta do Facebook de uma pessoa específica. Fazemos pesquisas para melhorar nossos serviços e para tornar o conteúdo que as pessoas vêem no Facebook mais relevante e envolvente possível. Uma grande parte disso é entender como as pessoas respondem a diferentes tipos de conteúdo, seja em tom positivo ou negativo, notícias de amigos ou informações de páginas que eles seguem. Consideramos cuidadosamente a pesquisa que fazemos e temos um forte processo de revisão interna. Não há coleta desnecessária de dados das pessoas em conexão com essas iniciativas de pesquisa e todos os dados são armazenados com segurança.

E no domingo à tarde, Adam DI Kramer, um dos autores do estudo e funcionário do Facebook, comentou o experimento em um post público no Facebook . "E no final do dia, o impacto real sobre as pessoas no experimento foi a quantidade mínima para detectá-lo estatisticamente", escreve ele. “Tendo escrito e planejado esse experimento, posso dizer a você que nosso objetivo nunca foi incomodar ninguém. […] Em retrospectiva, os benefícios de pesquisa do artigo podem não ter justificado toda essa ansiedade ”.


Kramer acrescenta que as práticas internas de revisão do Facebook “percorreram um longo caminho” desde 2012, quando o experimento foi executado.

O que o papel em si encontrou? 

O estudo descobriu que ao manipular os News Feeds exibidos para 689.003 usuários de usuários do Facebook, isso poderia afetar o conteúdo que esses usuários postavam no Facebook. Mais Feeds de Notícias negativos levaram a mais mensagens de status negativo, à medida que mais Feeds de Notícias positivos levaram a status positivos.

No que diz respeito ao estudo, isso significava que ele havia mostrado “que os estados emocionais podem ser transferidos para outros através do contágio emocional, levando as pessoas a experimentarem as mesmas emoções sem a consciência delas”. Ele afirma que esse contágio emocional pode ser alcançado sem “ interação direta entre as pessoas ”(porque os sujeitos inconscientes só viam os Feeds de Notícias uns dos outros).

Os pesquisadores acrescentam que nunca durante o experimento eles poderiam ler os posts de usuários individuais.

Duas coisas interessantes se destacaram para mim no estudo.

O primeiro? O efeito que o estudo documenta é muito pequeno, tão pouco quanto um décimo de um por cento de uma mudança observada. Isso não significa que não seja importante, no entanto, como os autores acrescentam:

Dada a escala maciça das redes sociais, como o Facebook, mesmo os efeitos pequenos podem ter grandes conseqüências agregadas. […] Afinal, um tamanho de efeito de d = 0,001 na escala do Facebook não é insignificante: no início de 2013, isso corresponderia a centenas de milhares de expressões de emoção em atualizações de status por dia .

O segundo foi esta linha:

Omitir o conteúdo emocional reduziu a quantidade de palavras que a pessoa subsequentemente produziu, tanto quando a positividade foi reduzida (z = −4,78, P <0 a="" foi="" font="" negatividade="" p="" quando="" quanto="" reduzida="" z="−7,219,">

Em outras palavras, quando os pesquisadores reduziram o aparecimento de ambos os  sentimentos positivos ou negativos em pessoas Notícias Feeds, quando os feeds ficou geralmente menos emocional-essas pessoas parou de escrever tantas palavras no Facebook.

Faça os feeds das pessoas ficarem mais suaves e eles parem de digitar coisas no Facebook.

O estudo foi bem desenhado? 

Talvez não, diz  John Grohol , fundador do site de psicologia Psych Central. Grohol acredita que os métodos do estudo são dificultados pelo uso indevido de ferramentas: o software mais adequado para analisar romances e ensaios, diz ele, está sendo aplicado a textos muito mais curtos em redes sociais.

Vejamos dois exemplos hipotéticos de por que isso é importante. Aqui estão dois tweets de amostra (ou atualizações de status) que não são incomuns:

"Não estou feliz.
"Eu não estou tendo um ótimo dia."
Um avaliador ou juiz independente classificaria esses dois tweets como negativos - eles estão claramente expressando uma emoção negativa. Isso seria +2 na escala negativa e 0 na escala positiva.

Mas a ferramenta do LIWC 2007 não a vê dessa maneira. Em vez disso, classificaria esses dois tweets como marcando +2 para positivo (por causa das palavras “ótimo” e “feliz”) e +2 para negativo (por causa da palavra “não” em ambos os textos).

“O que os pesquisadores do Facebook mostram claramente”, escreve Grohol , “é que eles confiam demais nas ferramentas que estão usando sem entender - e discutir - as limitações significativas das ferramentas”.

Um comitê de revisão institucional  (IRB) - um comitê de ética independente que examina pesquisas que envolvam seres humanos - aprova o experimento?

De acordo com um comunicado de imprensa da Universidade de Cornell, na segunda-feira, o experimento foi realizado antes de um IRB ser consultado. * O  professor da Cornell Jeffrey Hancock - um dos autores do estudo - começou a trabalhar nos resultados depois que o Facebook conduziu o experimento. Hancock só teve acesso aos resultados, diz o comunicado , então “o Institutional Review Board da Cornell University concluiu que ele não estava diretamente envolvido na pesquisa humana e que nenhuma revisão do Programa de Proteção à Pesquisa Humana da Cornell foi necessária”.


Em outras palavras, o experimento já havia sido executado, então seus seres humanos estavam além de proteger. Assumindo que os pesquisadores não viram os dados confidenciais dos usuários, os resultados do experimento poderiam ser examinados sem colocar em risco nenhum outro indivíduo.

Tanto a Cornell quanto o Facebook têm relutado em fornecer detalhes sobre o processo além de suas respectivas demonstrações preparadas. Um dos autores do estudo disse ao The Atlantic na segunda-feira que ele foi aconselhado pela universidade a não falar com repórteres.

No momento em que o estudo chegou a Susan Fiske, a professora de psicologia da Universidade de Princeton que editou o estudo para publicação, os membros do IRB de Cornell já haviam determinado isso fora de seu alcance.

Fiske havia comunicado anteriormente ao The Atlantic  que o experimento foi aprovado pelo IRB. 

"Eu estava preocupado", disse Fiske ao  The Atlantic  no sábado , " até que eu perguntei aos autores e eles disseram que o comitê local de aprovação institucional deles aprovou - e aparentemente com base no fato de que o Facebook aparentemente manipula o News Feeds o tempo todo."

No domingo, outros relatórios levantaram questões sobre como um IRB foi consultado. Em um post  no Facebook no domingo, o autor do estudo, Adam Kramer, referenciou apenas “práticas internas de revisão”. E um  relatório da Forbes  naquele dia, citando uma fonte não identificada, afirmou que o Facebook só usava uma revisão interna.

Quando a Atlantic  pediu a Fiske que esclarecesse o domingo, ela disse que a "carta de revisão dos pesquisadores disse que eles tinham a aprovação da Cornell IRB como um 'conjunto de dados pré-existente' presumivelmente da FB, que parece tê-lo analisado de alguma forma não especificada ... Sob os regulamentos do IRB, o conjunto de dados pré-existente teria sido aprovado anteriormente e alguém está apenas analisando dados já coletados, muitas vezes por outra pessoa. 

A menção de um "conjunto de dados preexistente" é importante porque, como Fiske explicou em um e-mail de acompanhamento, "presumivelmente os dados já existiam quando eles se inscreveram no IRB da Cornell" (ela também observou: "Eu não estou criticando" a decisão. ”) A declaração de segunda-feira de Cornell confirma essa presunção. 

No sábado, Fiske disse que não queria que a “originalidade da pesquisa” fosse perdida, mas chamou o experimento de “uma questão ética aberta”.

“É eticamente bem do ponto de vista dos regulamentos, mas a ética é uma espécie de decisão social. Não há uma resposta absoluta. E então o nível de indignação que parece estar acontecendo sugere que talvez não devesse ter sido feito ... Eu ainda estou pensando nisso e estou um pouco assustada também. ”

Para mais, consulte  a entrevista completa da editora da Atlantic  , Adrienne LaFrance, com o Prof. Fiske .

Pelo que sabemos agora, os sujeitos do experimento foram capazes de fornecer  consentimento informado?

Em seus princípios éticos e código de conduta , a American Psychological Association (APA) define o consentimento informado como este:

Quando os psicólogos conduzem pesquisas ou fornecem serviços de avaliação, terapia, aconselhamento ou consultoria pessoalmente, via transmissão eletrônica ou outras formas de comunicação, obtêm o consentimento informado do indivíduo ou dos indivíduos usando uma linguagem razoavelmente compreensível para essa pessoa ou pessoas, exceto quando A realização de tais atividades sem o consentimento é obrigatória por lei ou regulamento governamental ou conforme disposto de outra forma neste Código de Ética.

Como mencionado acima, a pesquisa parece ter sido realizada sob os extensos termos de serviço do Facebook. A atual política de uso de dados da empresa , que rege exatamente como ela pode usar os dados dos usuários, é executada em mais de 9.000 palavras e usa a palavra “pesquisa” duas vezes. Mas, como relatou a escritora da Forbes , Kashmir Hill, na noite de segunda-feira , a política de uso de dados em vigor quando o experimento foi realizado nunca mencionou “pesquisa” - a palavra não foi inserida até maio de 2012 . 


Não importa se a atual política de uso de dados constitui “linguagem que é razoavelmente compreensível”: sob os termos de serviço de janeiro de 2012, o Facebook conseguiu um consentimento até mesmo instável?

A APA tem diretrizes adicionais para a chamada “pesquisa enganosa” como essa, onde o propósito real da pesquisa não pode ser disponibilizado aos participantes durante a pesquisa. A última dessas diretrizes é:

Os psicólogos explicam qualquer engano que seja uma característica integral do projeto e da condução de um experimento para os participantes o mais cedo possível, de preferência na conclusão de sua participação, mas no final da coleta de dados, e permitir que os participantes se retirem. seus dados. 

No final do experimento, o Facebook disse aos usuários que seus feeds de notícias haviam sido alterados para fins de pesquisa? Se assim for, o estudo nunca menciona isso.

James Grimmelmann, professor de direito da Universidade de Maryland, acredita que o estudo não garantiu o consentimento informado. E ele acrescenta que o Facebook falha até mesmo os seus próprios padrões , que são inferiores aos da academia:

Uma razão mais forte é que, mesmo quando o Facebook manipula nossos Feeds de Notícias para nos vender coisas, supõe-se - legal e eticamente - que atendam a certos padrões mínimos. Qualquer coisa no Facebook que seja, na verdade, um anúncio é rotulada como tal (mesmo que nem sempre seja clara). Esse estudo fracassou até mesmo nesse teste e por uma meta de pesquisa particularmente desagradável:  Queríamos ver se podíamos fazer você se sentir mal sem perceber. Nós conseguimos .

O governo dos EUA patrocinou a pesquisa?

Cornell agora atualizou sua história de 10 de junho para dizer que a pesquisa não recebeu nenhum financiamento externo. Originalmente, Cornell havia identificado o Escritório de Pesquisas do Exército, uma agência do Exército dos EUA que financia pesquisas básicas de interesse militar, como um dos financiadores do experimento.

Esse tipo de ajuste do News Feed acontece em outros momentos? 

A qualquer momento, o Facebook disse no ano passado que havia, em média, 1.500 conteúdos  que poderiam aparecer no seu Feed de notícias. A empresa usa um algoritmo para determinar o que exibir e o que ocultar.

Ele fala sobre esse algoritmo muito raramente, mas sabemos que é muito poderoso. No ano passado, a empresa mudou o News Feed para apresentar mais notícias. Sites como o BuzzFeed e o Upworthy passaram a ver um número recorde  de visitantes.

Então sabemos que isso acontece. Considere a explicação de Fiske sobre a ética da pesquisa - o estudo foi aprovado “com base no fato de que o Facebook aparentemente manipula o News Feeds de pessoas o tempo todo.” E considere também que apenas com este estudo o  Facebook conhece pelo menos um botão para fazer os usuários postarem mais palavras no Facebook. 

* Este post originalmente afirmou que uma comissão de revisão institucional, ou IRB, foi consultada antes do experimento sobre certos aspectos da coleta de dados.

Adrienne LaFrance contribuiu escrevendo e reportando.

Autor: ROBINSON MEYER é um escritor da equipe do The Atlantic , onde ele cobre as mudanças climáticas e a tecnologia.