Para quem quer conhecer lugares novos, as avaliações deixadas por usuários do Google são uma rica fonte de conhecimento e informações locais. Elas ajudam a encontrar estabelecimentos e empresas que se encaixam no gosto de cada um – seja uma padaria com o melhor bolo de laranja sem glúten da cidade ou um restaurante de bairro com deliciosa música ao vivo.
Diariamente, usuários do mundo inteiro publicam milhões de avaliações. O Google conta com suporte 24 horas por dia, 7 dias por semana, para que as informações fornecidas sejam relevantes e precisas. Boa parte do trabalho para evitar a disseminação de conteúdo inadequado ocorre nos bastidores. Por isso, queremos contar um pouco mais sobre o que acontece depois que você clica em “publicar” uma avaliação.
Como o Google cria políticas e garante que elas sejam cumpridas
Criamos
políticas rigorosas de conteúdo para garantir que as avaliações sejam baseadas em experiências reais, e para manter fora dos Perfis Comerciais do Google qualquer tipo de comentário relevante ou agressivo.
Nossas políticas e medidas de proteção avançam e evoluem com o mundo ao nosso redor. Isso ajuda a proteger lugares e estabelecimentos de conteúdo abusivo ou não-relacionado ao assunto, sempre que houver a possibilidade de que um perfil seja alvo de agressões. Um exemplo: quando alguns governos e empresas começaram a exigir comprovante de vacinação contra COVID-19 para que as pessoas entrassem em determinados locais, adotamos medidas adicionais para retirar avaliações que criticassem as políticas de saúde e segurança da companhia ou a decisão de respeitar a exigência do comprovante.
Sempre que uma política está explícita por escrito, ela se transforma em material de treinamento, tanto para nossos funcionários quanto para os algoritmos de aprendizado de máquina. Com isso, as equipes do Google identificam conteúdo que descumpra essas regras – e, em última análise, asseguram que as avaliações sejam úteis e verdadeiras.
Moderação de avaliações com apoio de aprendizado de máquina
Assim que um usuário publica uma avaliação, ela é enviada para nosso sistema de moderação. Esse processo garante que o texto não viole nenhuma de nossas políticas. Para fazer uma analogia, o sistema de moderação pode ser comparado a um segurança que impede pessoas não-autorizadas de entrar num edifício – mas, no caso do Google, o trabalho da nossa equipe é impedir a publicação de conteúdo nocivo.
Considerando o volume de avaliações publicadas regularmente, percebemos que precisamos tanto do olhar sensível dos seres humanos quando da escala que só as máquinas são capazes de oferecer, e usamos essas duas estratégias para moderar as contribuições de usuários. Ambas têm vantagens, e por isso seguimos investindo pesado nas duas frentes.
As máquinas são a nossa primeira linha de defesa: elas têm uma excelente capacidade de identificar padrões. Esses padrões costumam sinalizar de imediato para a máquina se o conteúdo é legítimo, e com isso a imensa maioria de conteúdo falso ou fraudulento é removida antes mesmo de chegar aos leitores.
As máquinas do Google analisam as avaliações de diversas formas, tais como:
- Conteúdo da avaliação: o texto tem algum tipo de comentário agressivo ou não-relacionado ao assunto?
- Conta que publicou a avaliação: aquela conta tem um histórico de comportamento suspeito?
- Local avaliado: houve algum tipo de atividade estranha naquele site, como um excesso de avaliações num período muito curto de tempo? O lugar foi alvo recente de atenção da imprensa ou das redes sociais, capaz de explicar uma grande movimentação para escrever avaliações falsas?
Ensinar à máquina a diferença entre conteúdo aceitável e textos que descumpram nossas políticas é um trabalho delicado. Como exemplo, às vezes a palavra “gay” pode ser usada de forma pejorativa, e este comportamento é inaceitável em avaliações no Google. Entretanto, se ensinarmos aos modelos de aprendizado de máquina que esse termo só é utilizado em discurso de ódio, corremos o risco de tirar do ar avaliações que elogiem um empreendedor gay ou um estabelecimento frequentado pela comunidade LGBTQ+. Diante disso, nossos operadores humanos realizam testes de qualidade constantes e passam por sessões adicionais de treinamento, para evitar qualquer viés nos modelos de aprendizado de máquina. Treinar os modelos de forma abrangente e profunda sobre palavras e frases que costumam ser usadas é uma forma de aumentar nossa capacidade de identificar conteúdo que descumpra políticas e de reduzir a possibilidade de bloquear, sem querer, avaliações legítimas.
Caso nosso sistema não identifique nenhum descumprimento de política, a avaliação será publicada em questão de segundos. Mas o trabalho continua, mesmo depois que a avaliação está no ar. Os sistemas seguem analisando as contribuições de usuários, atentos a padrões duvidosos. Tais padrões vão desde um grupo de pessoas publicando avaliações sobre o mesmo conjunto de Perfis Comerciais até uma empresa ou estabelecimento que recebe um número excessivo de avaliações de 1 ou 5 estrelas num curto intervalo de tempo.
Proteção a avaliações autênticas e confiáveis
À semelhança de qualquer plataforma que recebe contribuições de usuários, nós também estamos atentos para evitar que comentários falsos e agressivos apareçam no Google Maps. Parte desse trabalho inclui ajudar pessoas que desejem denunciar avaliações que descumpram políticas. Se você vir no Google algum conteúdo que viole nossas regras, pedimos que indique a situação para nossa equipe. Para denunciar avaliações em seus perfis, os estabelecimentos podem clicar
aqui, e consumidores podem usar
este link.
LEGENDA: Usuários e estabelecimentos do Google Maps podem denunciar avaliações que considerem inadequadas às políticas da plataforma.
Alt text: Telefone com uma lista de motivos pelos quais uma pessoa pode decidir denunciar uma avaliação publicada no Google.
Nossa equipe de operadores humanos trabalha de forma ininterrupta para analisar todos os conteúdos denunciados. Sempre que encontramos avaliações que violam nossas políticas, tiramos esse conteúdo do Google – e, dependendo do caso, suspendemos o usuário e até tomamos medidas judiciais.
Além de analisar conteúdo denunciado por usuários, nossa equipe faz um trabalho ativo de identificação de possíveis situações de abuso. Isso reduz bastante a possibilidade de que as tentativas de publicar textos agressivos sejam bem-sucedidas. Um exemplo: sempre que estamos às vésperas de um acontecimento que atrai muita atenção (como uma eleição), adotamos um grau ainda mais elevado de proteção em torno de lugares associados ao acontecimento, que poderão ser objeto de pesquisa no Maps. Monitoramos esses locais até que o risco de violação diminua, e assim também cumprimos nossa missão de publicar apenas avaliações autênticas e confiáveis. Nossos investimentos para analisar e compreender as diferentes formas de deturpar as contribuições de usuários são fundamentais para que estejamos sempre um passo à frente de pessoas mal-intencionadas.
Mais de um bilhão de usuários recorre ao Google Maps por mês para circular e conhecer novos lugares. Queremos garantir que as informações exibidas – sobretudo as avaliações – sejam confiáveis e úteis para todos. Esse trabalho não tem fim: estamos sempre aprimorando nosso sistema e seguimos atentos para varrer do mapa qualquer tipo de agressão e avaliação falsa.