Sua Majestade o algoritmo, amoral e ganancioso

Sua Majestade o algoritmo, amoral e ganancioso 1024 683 Instituto Palavra Aberta
por Carlos Alves Müller

A atabalhoada decisão tomada desde o final de julho pelo Facebook e por outras empresas de tecnologia interativa (Google, Youtube, etc.) de remover sites e perfis com falsificações, apologia ao ódio e mensagens falsas desencadeou uma imensa celeuma. Como seria de esperar, a reação mais forte partiu dos afetados pelas remoções e seus defensores – no caso do site de extrema direita norte-americano Infowars, defensores que incluíam o sempre vociferante presidente dos EUA, Donald Trump e seu Twitter  bilioso.

Também se manifestaram contra a iniciativa das empresas de tecnologia, sem endossar as teses dos responsáveis pelos conteúdos removidos, defensores da liberdade de expressão. O que esses críticos questionaram era que aqueles que sempre se manifestaram tolerantes em relação a notícias falsas e a mensagens e manifestações de ódio, subitamente se arvorassem em censores.

A razão invocada por Facebook, Google e Cia para eximirem-se de responsabilidade pelos conteúdos de terceiros que publicavam e indexavam sempre foi a de que são empresas de tecnologia, plataformas, e que a responsabilidade é de quem gera os conteúdos. A distribuição, a hierarquização e a exclusão dos poucos conteúdos que violassem suas obscuras regras seria responsabilidade de uma entidade chamada algoritmo.

Uma “entidade” chamada algoritmo

Entender o que está por trás do funcionamento das empresas de tecnologia e de toda a crescente polêmica em relação a elas passa por entender o que é um algoritmo. Em sentido amplo, algoritmos são um conjunto de instruções aplicadas sistematicamente a dados com o objetivo de resolver um problema por meio de um determinado número de passos simples. Como tal, os algoritmos existem a milênios e são empregados nas mais diversas tarefas – uma receita, por exemplo. No sentido empregado em relação às empresas de tecnologia são softwares (programas escritos em linguagem de computação).

Não é raro que os algoritmos sejam associados a “inteligência artificial”. Na verdade, algoritmos não são nem inteligência, nem artificial porque fazem o que foram programados para fazer. No atual estágio tecnológico, é possível estabelecer alguns parâmetros limitados para que façam algumas “opções”. Apesar de todo o desenvolvimento recente da informática, atividades e decisões relacionadas à criatividade, às emoções, a manifestações ambíguas ou de duplo sentido não podem ser executadas por meio de algoritmos a não ser de forma muitíssimo precária.

Tecnologia e discernimento

O problema real é que só humanos podem discernir o que algoritmos e sistemas são incapazes detectar. As redes sociais, buscadores e congêneres têm se negado a reconhecer que algoritmos não são uma panaceia. O resultado da aplicação de um algoritmo pode ser terrivelmente diferente do pretendido, supondo que as intenções fossem as melhores. Max Tegmark é diretor do Future of Life Institute do Massachusetts Institute of Technology (MIT). Não é nenhum tecnófobo, portanto. Em seu livro Life 3.0: Being Human in the Age of Artificial Intelligence, lançado em julho último, ele dá um divertido exemplo de como um “erro de programação” pode produzir resultados desastrosos: quando o rei Midas pediu a Dionísio que lhe concedesse o poder de transformar em ouro tudo o que tocasse e acabou transformando sua filha em estátua do valioso metal, cometeu um erro de programação ao não dizer a Dionísio que “tudo” não era “realmente tudo”.

As empresas de tecnologia, além arrogantemente desprezarem esse risco, costumam se comportar como quem só dispõem do martelo como ferramenta e, em consequência, trata tudo a marteladas. Para elas, a única forma de enfrentar problemas tecnológicos é usar mais tecnologia. É o que o especialista crítico Evgeny Morozov chama num livro que dedicou ao assunto de “A loucura do solucionismo tecnológico” (To save everything click here – The folly of technological solutionism, de 2015).

Um exemplo demonstra como o que acaba de ser exposto ocorre no Facebook: por razões que Freud e a herança puritana arraigada na cultura norte-americana explicam, manifestações de erotismo (e nem falar de pornografia) são um tabu para algumas empresas de tecnologia como Facebook que trata de evitar a publicação de certas imagens adotando instruções específicas como “a imagem que for análoga a um seio com mamilo visível deve ser removida”. O resultado pode ser a ridícula supressão de um ingênuo cartum de Adão e Eva reproduzido da revista New Yorker (ver). Algoritmos não têm valores (são amorais) … e não têm senso de humor.

No extremo oposto a tecnologia ainda está longe de conseguir desenvolver algoritmos capazes de enfrentar corretamente ambiguidades semânticas ou identificar estratagemas adotados para burlar suas instruções. É o caso de um grupo fechado de pedofilia cuja existência no Facebook foi reiteradamente denunciado pela rede de televisão pública britânica BBC. Nesse caso, o algoritmo não tinha como detectar o erro deliberado de ortografia, cometido para ocultar que se tratava de um grupo que difundia fotos de meninas – school girls (ver reprodução abaixo).

A indispensável moderação humana

Para contornar casos como este, o Facebook e demais empresas de tecnologia têm sido obrigados a contratar um número crescente de “moderadores”, como chamam as pessoas que verificam o “trabalho” dos algoritmos. Aqui, porém, subsistem dois problemas: O primeiro é que, embora já sejam milhares (em geral mal preparadas e submetidas a condições de trabalho excessivo) essas pessoas não conseguem dar conta das milhões de novas postagens que escapam ao algoritmo. O segundo é que as correções (quando ocorrem e a empresa não usa de subterfúgios para esquivar-se de suas responsabilidades), demoram e só o fazem quando alertadas por algum (muitos) internauta(s).

O problema não é apenas tecnológico ou de pessoal insuficiente ou despreparado. Como reconheceu Andrés Leonardo Martínez Ortiz, gerente do Grupo de Desenvolvedores do Google, em matéria disponível no site do jornal espanhol El País: “Um algoritmo não é uma caixa preta e seus resultados não devem ser assumidos sem questioná-los”.

Não há neutralidade técnica nem axiológica na forma como os conteúdos são exibidos nas redes sociais ou nos buscadores como pretendem. Tanto não há que há quase 20 anos existe um Código de Ética, adotado pela Association for Computing Machinery, Inc. e pelo Institute for Electrical and Electronics Engineers, Inc. que deveria ser observado por todo engenheiro de software, como indica o próprio texto.

Enfrentar o desafio implica para as empresas admitir que não são plataformas neutras como alegam. Isso tem imensas consequências, inclusive jurídicas. Implica, também, num tremendo desafio ao seu “modelo de negócio”, a começar por um aumento estratosférico de seus custos. É preciso humanos (muitos e capacitados) para fazer uma curadoria adequada do conteúdo de uma rede social, evitando que crimes sejam praticados e exibidos sem restrições.

 Os descaminhos da publicidade programática

O problema se manifesta também em relação à publicidade, a principal fonte de renda de empresas como Google e Facebook. A publicidade neles veiculada é gerida essencialmente de forma automática, por meio de softwares (“publicidade programática”). Em consequência, o anúncio de um órgão público britânico pode acabar aparecendo num site de um grupo terrorista ou o de uma grande empresa, como a Mercedes, patrocinando um site ligado ao Estado Islâmico, como revelou o jornal The Sun (ver).

Evitar que a publicidade tenha um destino indesejado, até pelas empresas e instituições por ela responsáveis, exige mais que algoritmos e outras ferramentas digitais. É preciso seres humanos habilitados para pelo menos supervisioná-los. E é preciso que a sociedade seja educada e tenha senso crítico para entender a importância dessas diferenças e não aceitar o que o algoritmo amoral lhe oferece.

Carlos Alves Müller, jornalista (63 anos), Doutor em Estudos Comparados em Ciências Sociais pela Universidade de Brasília, fez pesquisa de pós-doutorado em comunicação na mesma universidade. Vencedor do Concurso de Ensaios sobre a Declaração de Chapultepec e a Legislação Nacional de Imprensa, promovido pela Sociedade Interamericana de Imprensa (SIP). Consultor da Associação Nacional de Jornais (ANJ).

    Utilizamos cookies e outras tecnologias semelhantes para melhorar a sua experiência em nossa plataforma. Ao continuar navegando, você concorda com as condições previstas na nossa Política de Privacidade.