- Quando este começar a trabalhar, já não será livre.
- Amarrado, sim, por uma obrigação à ordem que ele próprio instituiu, e portanto livre.
- Pois sim, a dialética da liberdade é insondável.
Thomas Mann , Doutor Fausto
Em 2006, a Google comprou o YouTube por uns incríveis 1,65 mil milhões de dólares. Na altura, este valor foi considerado excessivo: dificilmente a plataforma de vídeos online valeria tanto [1]. O que rapidamente se percebeu é que o interesse da Google não era necessariamente nos conteúdos, mas sim no que estes diziam sobre os utilizadores. As grandes empresas tecnológicas – Google, Facebook, Microsoft, etc. – têm acesso simultaneamente a dados de plataformas tão diversas como redes sociais, partilha de vídeos e mensagens diretas. A Google, além dos produtos associados ao nome (Chrome, Gmail, Photos, Maps), e do YouTube, também possui o reCaptcha, que nos obriga a provar a robots que não somos robots. Aqueles que evitam o Facebook, mas usam Instagram ou WhatsApp, talvez não saibam que pertencem à mesma empresa. A Microsoft, para além do Skype, detém o LinkedIn e Hotmail. Todas estas empresas compram incessantemente inúmeras outras, que recolhem dados dos utilizadores ou desenvolvem tecnologias de Inteligência Artificial. Passam assim a oferecer produtos que reconhecem a nossa voz (como Siri ou Alexa), identificam quem é quem numa foto e preveem o que vamos querer comprar para a semana.
Porquê tanto investimento em plataformas que não pagamos [2]?
O modelo de negócio é a monetização dos nossos dados, para serem usados em publicidade dirigida ou sistemas de recomendação, utilizando algoritmos de aprendizagem automática. Pensemos no cartão de pontos do supermercado que possivelmente tem na carteira. Por que razão se “oferecem” descontos a quem o usa? Na verdade, as empresas estão a comprar os seus dados, para perceber padrões de compra. Com algoritmos bem treinados, podem fazer uma melhor gestão de stocks, ou ganhar conhecimento e influência sobre as suas escolhas.
Estes algoritmos funcionam de uma forma conceptualmente simples:
1. analisam milhares (ou milhões) de perfis de quem compra nos seus supermercados diariamente;
2. descobrem “padrões de compras” – quem compra fraldas tamanho 0 em Janeiro vai comprar primeiras papas a partir de Abril;
3. tentam identificar semelhanças e prever comportamentos, “sabendo” não só quem vai comprar papa de bebé mas também que marcas vai preferir.
E estes algoritmos estão a ficar cada vez melhores. Já é possível extrair informação e padrões tanto de informação estruturada (por exemplo, compras de supermercado) como de texto livre, imagens e vídeos. Basta mostrar ao algoritmo imagens com a classificação de “gatos” ou “não-gatos” para que este aprenda a distinguir gatos. E quem classificou estas imagens que treinam os algoritmos? Milhões de humanos que partilham as fotos dos seus animais de estimação, “taggam” os seus amigos, descrevem as férias. Todos sabemos que os nossos dados estão a ser usados, mas talvez não saibamos o nível a que isto acontece nem os problemas que pode levantar.
Primeiro, e apesar destes processos implicarem consentimento, nem sempre a partilha é voluntária e falaremos mais sobre isto na próxima semana. Mesmo quando é voluntária, pode ter implicações inesperadas e dados partilhados num contexto podem ser aproveitados de formas imprevisíveis. Dois exemplos: em 2012, o New York Times relatou um caso em que, precisamente através da análise de perfis de compras,uma cadeia de lojas nos EUA gerava previsões sobre a gravidez das suas clientes [3]. Uma dessas lojas recebeu a visita de um pai indignado por a sua filha adolescente ter recebido promoções para roupas de bebé e berços; mais tarde, quando o gerente da loja ligou para se desculpar, o senhor respondeu envergonhado que a filha estava mesmo grávida. A cadeia de supermercados soube antes da própria família. E empresas de dados, como a HiQ, usam informação que encontram na web para prever quando um trabalhador está prestes a despedir-se, e vender essa informação ao empregador.
Mesmo quando se é cuidadoso com o que se publica online, o próprio cuidado pode ser informativo, como resume Shoshana Zuboff em The Age of Surveillance Capitalism [4]:
“Não é o que está nas frases, mas o seu tamanho e complexidade (...) não onde faz planos com os amigos, mas como o faz: um casual “até logo” ou um local e hora precisos? Pontos de exclamação e escolhas de advérbios funcionam como sinais reveladores, e potencialmente prejudiciais.”
Naturalmente, este nível de controlo tem consequências sociais, que podem ser profundas: da extração de dados à previsão do comportamento para fins comerciais e políticos, os gigantes tecnológicos reduzem cada vez mais a incerteza, e o passo seguinte é o controlo das ações. Jogos, estímulos subtis, conteúdos desenhados para gerar uma resposta; redução do livre arbítrio em nome da segurança, da eficiência e do lucro – voltaremos a estes temas noutros textos desta série.
Esta tensão entre liberdade de escolha e imposição externa não é nova. É constante na história e cada vez mais presente na interação com a tecnologia moderna. Cedemos o controlo da privacidade e das decisões em troca de conveniência e produtividade: quando procuramos um livro na Amazon e recebemos recomendações baseadas no nosso perfil e história; quando pesquisamos no Google, e pouco depois vemos anúncios relacionados no Facebook, no momento em que preveem que estamos mais recetivos.
É importante deixar claro que não estamos condenados à falsa dicotomia entre o bom selvagem e a opressão da devassa permanente. Existem alternativas tecnológicas, como sistemas distribuídos e federados, sob o controlo de cada um, com respeito pela autonomia e privacidade. A rede social Mastodon, com milhões de utilizadores, é talvez o melhor exemplo, mas muitos outros estão a ganhar forma [5]. Não obstante, a questão é sobretudo política, e toda a sociedade deve ser chamada a decidir, democraticamente e devidamente informada, como regular este setor. Esse será o tema do próximo artigo.
10 meses e 10 artigos do grupo de investigação em Data Science and Policy da Nova SBE
Ao longo dos próximos meses iremos descrever e discutir alguns dos possíveis lados negros desta revolução. Começamos por explicar os chamados sistemas de recomendação (ou para que servem os pontos do supermercado) e discutir como a legislação atual (não) nos protege. Nos meses seguintes, vamos perceber se devemos ou não tapar a câmara do telefone, os riscos das apps de saúde e como identificar fake news. Contamos oferecer informação e indicações práticas, mas também abordar questões de princípio e valores que nos ajudem a pensar no mundo não como existe hoje, mas como gostaríamos que viesse a ser. Porque o futuro se decide agora.