Facebook oferece 100 mil dólares para construir IA de moderação

Facebook oferece 100 mil dólares para construir IA de moderação

13/05/2020 0 Por Redacção

O Facebook anunciou hoje o lançamento de um desafio no valor de 100 mil dólares, que serão atribuídos a quem conseguir construir uma inteligência artificial (IA) que permita moderar automaticamente… memes. Sim, leu bem.

Com a tecnologia actual, inteligências artificiais não são eficazes a detectar memes ofensivos – mesmo quando treinadas para distinguir o que é ou não ofensivo a partir de discurso odioso ou discriminatório. Este tipo de software é “treinado” no sentido em que recebe dois conjuntos de dados: uma lista de textos considerados ofensivos, e uma lista de textos que não são considerados ofensivos, e, de forma simples, utiliza algoritmos para identificar padrões entre os ofensivos e entre os não-ofensivos – utilizando, depois, esses padrões como regras para distinguir textos que ainda não estão categorizados. O mesmo princípio aplica-se genericamente noutros programas que utilizam inteligência artificial para, por exemplo, detectar se uma pessoa está ou não a utilizar máscara.

Mas, então, se é assim tão simples, basta dar ao programa uns memes ofensivos, e uns memes não ofensivos, e ele descobre o que distingue uns dos outros, certo? A resposta é: não. O Facebook considera este problema de classificação de memes como um problema multimodal – há duas vertentes a ponderar quando queremos classificar um meme em ofensivo ou não-ofensivo: o texto e a imagem. É possível ter um meme ofensivo com texto que não é ofensivo, mas com uma imagem que o torna rude, e vice-versa.

Exemplos de memes ofensivos disponibilizados pelo Facebook
Exemplos de memes ofensivos disponibilizados pelo Facebook – todos com texto não-ofensivo

Conclui-se, portanto, que a solução será algo entre os modelos já existentes para classificação de texto, e modelos novos para classificação de imagens – algo que os combine para tentar depreender algum contexto.

Percebido o problema e havendo pistas para a solução, há outra questão: como se garante que esta inteligência artificial não é utilizada ou programada para o mal? Para já, o Facebook vai limitar o acesso ao dataset de memes – uma lista de memes classificados previamente como ofensivos ou não – a investigadores certificados. Presumivelmente para evitar situações como o que aconteceu com este bot da Microsoft – em menos de um dia a aprender a falar com toda a internet, sem limitações… tornou-se racista. Os trolls são fortes.

Note-se, no entanto, que o Facebook não espera que as respostas a este desafio sejam soluções prontas a usar, chave-na-mão – podem ser apenas algoritmos ou teorias que permitam uma aproximação a uma solução para este problema. E se este texto o tiver motivado a tentar… o desafio ficou disponível no DrivenData, portal de competições relacionadas com inteligência artificial e processamento de dados, aqui.

Se gostou deste artigo, pode acompanhar o TechFive no Google News aqui. Dúvidas ou sugestões? techfive@techfive.pt