Vivemos na Era do Algoritmo.
Assim sendo, eis aqui uma estória que não só sintetiza a era, mas alonga-se sobre como a obsessão do algoritmo pode dar horrorosamente errado.
Tudo começou quando Facebook censurou a foto icônica de Kim Phuch, a 'menina do napalm', que se tornou um símbolo da Guerra do Vietnã reconhecido em todo o planeta. A foto foi incluída num postado de Facebook pelo escritor norueguês Tom Egeland, que queria iniciar um debate sobre "sete fotos que mudaram a história da guerra".
Não só a foto foi apagada; Egeland também foi suspenso de Facebook.
Aftenposten, o principal jornal diário norueguês, propriedade do mídia-grupo Schibsted escandinavo, distribuiu a notícia, como se deveria esperar que fizesse, com a foto.
Facebook pediu que o jornal apagasse a foto – ou que a tornasse irreconhecível na ediçãoonline. E já antes de o jornal responder, Facebook censurou o artigo e a foto na página deAftenposten em Facebook.
A primeira-ministra da Noruega Erna Solberg protestou na página dela em Facebook. E foi também censurada.
Aftenposten subiu toda a matéria para a primeira página, ao lado de uma carta aberta dirigida ao fundador de Facebook, Mark Zuckerberg, assinada pelo diretor do jornal, Espen Egil Hansen, acusando Facebook de abuso de poder.
Passaram-se longas 24 horas, até que o colosso de Palo Alto voltasse atrás e 'desbloqueasse' a publicação.
Opinião embrulhada em código
Facebook viu-se obrigado a duro e vasto trabalho de controle de danos. O que não altera o fato de o imbroglio da "menina do napalm" ser drama clássico de algoritmo, tipo inteligência artificial aplicada à avaliação de conteúdo.
Facebook, como outros gigantes da Economia de Dados, deslocalizou a filtragem para um exército de moderadores que trabalham em empresas que vão do Oriente Médio ao Sul da Ásia, como Monika Bickert de Facebook confirmou.
Esses moderadores podem palpitar para estabelecer o que deve ser expurgado da rede social, conforme o que os consumidores sinalizem. Mas a informação é então comparada a um algoritmo – e daí sai a palavra final.
Não é preciso um PhD para perceber que esses moderadores não primam, exatamente, pela competência cultural, ou pelo talento para analisar conteúdo. Para nem falar dos algoritmos – incapazes de "compreender" o contexto cultural e com certeza não programados para interpretar ironia, sarcasmo ou metáforas culturais.
Algoritmos são literais. Em síntese, algoritmos são opinião embrulhada em código.
Pois já chegamos a um estágio no qual uma máquina decide o que é notícia. Facebook, por exemplo, confia hoje exclusivamente num algoritmo para estabelecer quais itens posiciona na sessão de Trending Topics.
Pode bem haver um indicador inverso do que esteja "bombando" – para que Facebook, Google e YouTube usem outros algoritmos para rapidamente bloquear vídeos do ISIS e propaganda jihadista assemelhada. Em breve entrará em operação o eGLYPH – sistema similar ao Content ID de YouTube que censura com "hashing" vídeos que violem direitos autorais; vídeos e áudios marcados como "extremistas" receberão todos uma mesma marca, o que permite remover automaticamente quaisquer novas versões e bloquear novosuploadings.
E assim seremos levados para território ainda mais sinistro: a própria definição de "extremismo"; e os efeitos sobre todos nós de sistemas de autocensura baseados em lógica algorítmica.
Como Armas de Destruição em Massa mandam em nossa vida
É sob esse espectro que um livro como Weapons of Math Destruction: how Big Data Increases Inequality and Threats Democracy, [Armas de Destruição em Massa: como osBig Data (port. Megadados) aumentam a desigualdade e ameaçam a democracia, set. 2016], de Cathy O’Neil (Crown Publishing) torna-se tão necessário quanto o ar que respiramos.
O’Neil é o que há: PhD em Matemática em Harvard, ex-professora no Barnard College, ex-analista quantitativa num hedge fund, antes de voltar à ciência dos Big Data [port. Megadados], e blogueira em mathbabe.org.
Modelos matemáticos são os motores de nossa economia digital; o que leva O’Neil a formular seus dois insights críticos – que talvez surpreendam as legiões que veem as máquinas como 'neutras'.[1]
1) "Aplicativos movidos a motores matemáticos que impulsionam a economia de dados [são] baseados em escolhas feitas por seres humanos falíveis."
2) "Esses modelos matemáticos [são] opacos, o trabalho deles é invisível para todos, exceto para os mais altos sacerdotes nesse domínio: matemáticos e cientistas da computação. O veredito deles, seja errado ou certo ou daninho está acima de qualquer discussão, julgamento ou recurso. E tendem a punir os pobres e oprimidos em nossa sociedade, ao mesmo tempo em que fazem os ricos mais ricos".
Daí o conceito de O’Neil, de Máquinas de Destruição (em massa) [pela] Matemática [aqui, a tradução perde o trocadilho entre mass (ing. "massa") e math (ing. "matemática") em "Weapons of Math Destruction", WMDs]; ou como modelos matemáticos destrutivos estão acelerando um terremoto social.
O’Neil detalha longamente o modo como modelos matemáticos destrutivos microadministram hoje fatias enormes da economia real, da publicidade à gestão do sistema carcerário, para nem falar da indústria da finança (como em todos os pós-efeitos da infindável crise de 2008).
Esses modelos matemáticos são essencialmente opacos; sem prestação possível de contas; e visam, sobretudo a "otimizar" o consumo das massas (consumidoras) [também interessam à Defesa dos EUA (NTs)].
Regra de ouro é – claro! – seguir o dinheiro ou, como diz O’Neil, para "o pessoal que comanda as armas matemáticas de destruição em massa", o "feedback é dinheiro"; "os sistemas são construídos para devorar mais e mais dados e afinar o modo de analisá-los, para que apareça cada vez mais dinheiro".[2]
Vítimas – como nos ataques dos drones do governo Obama – são mero "dano colateral".
Paralelos entre o cassino das finanças e os megadados são inevitáveis – com a vantagem a favor de O’Neil, de ela ter trabalhado nas duas indústrias (algo que já examinei noutro artigo sobre como o Vale do Silício segue o dinheiro.
Vê-se também no pool de talentos selecionados pelas universidades de elite nos EUA (MIT, Stanford, Princeton), a mesma obsessão com fazer o que for preciso para arrancar a maior quantidade de dinheiro da sociedade a favor de quem os emprega.
As Armas Matemáticas de Destruição em Massa favorecem a eficiência. "Igualdade" é conceito vazio. Computadores não compreendem conceitos. Programas não sabem codificar conceitos – como se viu na história da "menina do napalm". E tampouco sabem como ajustar algoritmos para calcular com igualdade.
Mas temos, sim, o conceito de "amizade" incansavelmente medido pelos "likes" no Facebook. O’Neil resume bem: "Se você pensa numa Arma Matemática de Destruição em Massa como uma fábrica, a desigualdade é a meleca preta que sai com as colunas de fumaça. É uma emissão. Uma emissão tóxica."
Passe p'rá cá a grana do caixa! É JÁ!
No fim, é o Deus Mercado que tudo rege – premia a eficiência, o crescimento, o infinito fluir do dinheiro (para um só lado).
Já antes do fiasco da "menina do napalm", O’Neil afirmava, crucialmente importante, que Facebook realmente determina, segundo seus próprios interesses, o que todos veem – e aprendem na rede social. Nada menos que 2/3 dos norte-americanos adultos têm perfil no Facebook. Quase metade, segundo pesquisa feita pelo Pew Research Center, confia no Facebook para pelo menos parte da sua informação de notícias.
Muitos norte-americanos – para não falar da maior parte dos 1,7 bilhão de usuários do Facebook em todo o mundo – ignora que Facebook faz uma 'gestão' dos escritos e imagens que distribui; a maioria crê que o sistema partilha instantaneamente tudo que é postado, com a comunidade de amigos de cada um.
O que nos traz outra vez à questão chave do front de notícias. Ao 'administrar' o seu próprio algoritmo para modelizar o noticiário que cada pessoa lê, Facebook tem agora tudo de que alguém precisaria para 'administrar' todo o sistema político. Como O’Neil observa, "Facebook, Google, Apple, Microsoft, Amazon têm informação vastíssima sobre grande parte da humanidade – o que significa que podem nos fazer andar para o lado e na direção que desejem ".
Esses algoritmos dessas empresas, claro, são estrategicamente invendáveis; são, de fato, segredos comerciais totais, absolutamente opacos, transparência zero: "A operação dos negócios daquelas empresas é totalmente opaca, transparência zero."
Em recente viagem, muito noticiada, de Mark Zuckerberg a Roma, ele disse que Facebook seria "empresa de alta tecnologia, não empresa de jornalismo e notícias". Não, não é assim. O aspecto mais intrigante do fiasco da "menina do napalm" parece ser queShibsted, o grupo escandinavo de mídia, planeja fazer investimento monstro para criar um novo fórum social para fazer concorrência a – claro! – Facebook. Preparem-se para guerra novinha em folha, no front das armas de destruição em massa.*****
[1] Sempre que se fale de máquinas (e megadados são máquinas) é indispensável ler, reler, treler "Fragmento sobre las máquinas", Karl Marx, Elementos fundamentales para la crítica de la economía política (Grundrisse) 1857-1858, vol. 2. México. Siglo XXI, 1972, pp. 216-230. Trad. al. esp. de Pedro Scaron. Há trad. ao port. edição impressa ou e-book, da Editora Boitempo, São Paulo) [NTs].
[2] Marx analisa mais profundamente, mais detalhadamente e chega a conclusões mais universais. É indispensável ler os parágrafos referidos (Nota 1), dentre vários motivos também porque a análise de Marx ajuda a aprofundar a análise da professora que Pepe Escobar acompanha nesse artigo, tanto quanto a análise da professora pode ajudar a 'atualizar', sem violentá-la, a análise de Marx [NTs].
Nenhum comentário:
Postar um comentário