Inteligência artificial pode gerar ‘exército’ de avaliações falsas sobre produtos e serviços
POR Reportagem SA+ Conteúdo
EM 25/09/2018
Quando pesquisamos sobre algum produto que queremos comprar, ou qualquer serviço que precisamos, avaliações de outras pessoas que já o utilizaram se tornaram um direcionador importante, certo? Dificilmente vamos comprar um smartphone que todos estejam descrevendo como ruim, ou mesmo assistir a um filme mal cotado nas avaliações.
O problema é que, muitas vezes, essas avaliações são intencionalmente enviesadas. Há empresas que pagam pessoas para avaliar bem seus produtos, e outras que pagam para que o seu concorrente seja mal avaliado. A prática é chamada de crowdturfing (que une os termos crowdsourcing, de iniciativas viabilizadas por muitas pessoas, com astroturfing, que designa ideias falsamente sustentadas em apoio popular), e, com a inteligência artificial, tende a ficar ainda mais facilitada.
Isso porque não será mais necessário pagar pessoas para construir ou destruir reputações – um dos fatores que acabam limitando esse tipo de fraude. E também porque algoritmos inteligentes poderão criar textos fictícios muito mais rapidamente, e fazê-los parecerem genuinamente humanos.
Na Universidade de Chicago , estudos mostram que já é possível treinar uma rede de inteligência artificial para gerar avaliações positivas e postá-las em sites como o Tripadvisor. Se empresas interessadas em fraudar opiniões tiverem acesso a tecnologias como essa, chegaria um ponto em que não seria possível identificar o que é uma avaliação honesta e o que não é.
“Já vimos que é possível usar fake news como uma forma de influenciar a opinião pública e eleições. Se a inteligência artificial for usada para gerar avaliações em larga escala que parecem idênticas a conteúdos reais, se tornará bastante difícil distinguir a realidade”, diz o cientista Ben Zhao, um dos responsáveis por conduzir a pesquisa na instituição de ensino.