As medidas do governo Lula para combater fake news nas redes sociais

Atualizado em 2 de abril de 2023 às 18:13

O governo do presidente Lula (PT) decidiu encaminhar, na quinta-feira (30), um documento com sugestões sobre o projeto de lei das Fake News, para o deputado federal Orlando Silva (PCdoB-SP), que é o relator do texto na Câmara dos Deputados.

A minuta elaborada pelo governo está dividida em 18 capítulos e propõe, principalmente, que as plataformas digitais e redes sociais criem uma entidade de autorregulação com poder para suspender contas de usuários. Veja na íntegra no final da página.

O projeto de lei das Fake News tramita no parlamento brasileiro desde julho de 2020. Leia abaixo os principais pontos das sugestões enviadas pelo governo, organizados pelo site Poder360.

O presidente Lula e o deputado Orlando Silva (PCdoB-SP), que foi ministro do Esporte nos primeiros governos petistas. Foto: Reprodução

Publicidade e conteúdo impulsionado

  • Proíbe publicidade de coisas e atos ilegais e incitação ao ódio;
  • Proíbe publicidade de peças que neguem fatos históricos “violentos bem documentados”, contra a ordem democrática, com indícios de crimes contra o Estado Democrático e com indícios de terrorismo;
  • Identificação clara e em tempo real do que é publicidade ou conteúdo impulsionado;
  • As empresas terão que pedir e manter em sigilo documento de identificação de quem quiser anunciar;
  • Proíbe toda forma de publicidade direcionada a crianças e adolescentes;
  • Proíbe a coleta de dados de crianças e adolescentes para fins publicitários e comerciais.

Publicidade política

  • Deverá haver um repositório público com todos os anúncios impulsionados com informações sobre o valor gasto pelo candidato, partido ou coligação;
  • Identificação dos anunciantes e do responsável na empresa que veiculou;
  • Tempo de veiculação;
  • Identificação se é propaganda eleitoral;
  • Características gerais da audiência contratada;
  • Endereço eletrônico dos anúncios eleitorais exibidos.

Proteção à liberdade de expressão

  • Quando houver sanção e moderação do conteúdo, as empresas devem notificar o usuário detalhadamente o que houve;
  • Dar acesso a um canal de “fácil acesso” para que o usuário possa recorrer da decisão;
  • Responder “de modo fundamentado e objetivo” aos pedidos de revisão de sanção;

Publicidade da sanção

  • As empresas de conteúdo de terceiros deverão informar publicamente a ação de moderação;
  • Manter pública a ação judicial que motivou a moderação ou sanção no conteúdo ou conta em questão;

Plataformas de grande porte (+ de 10 milhões de usuários)

  • Implementar mecanismos de transparência ativa como informar aos usuários o funcionamento da plataforma, publicar relatórios de transparência, explicar decisões automáticas e assegurar defesa em caso de moderação de conteúdo;
  • As plataformas terão “dever de cuidado” com o conteúdo publicado por seus usuários;
  • Devem atuar em “prazo hábil e suficiente” para mitigar publicações que configurem ou incitem uma lista de crimes que vai de violência de gênero a terrorismo;
  • As empresas podem ser responsabilizadas civilmente pelos possíveis danos causados pelos crimes que ela deveria cuidar para não serem praticados ou incitados;
  • A empresa pode fazer investigações internas para prevenir esses conteúdos desde que seja “de boa fé e de forma diligente, proporcional e não discriminatória”;

“Denúncia” de conteúdo

  • As plataformas deverão criar mecanismos que permitam aos usuários apontarem de serviços e conteúdos potencialmente ilegais;
  • Essas reclamações deverão ter uma “explicação fundamentada” e os dados de quem apresentou a queixa;
  • As plataformas deverão aviar ao reclamante qual foi a decisão a respeito da queixa;

Crianças e adolescentes

  • As plataformas deverão ter como parâmetro “o melhor interesse da criança” e adotar medidas “adequadas e proporcionais” para que se tenha “um nível elevado de privacidade, proteção de dados e segurança”;
  • As plataformas devem ter mecanismos ativos para impedir o acesso de menores de idade a conteúdo que “não estiverem adequados a atender às necessidades deste público”;

Políticos eleitos

  • As plataformas de grande porte só poderão bloquear ou excluir contas de autoridades e políticos eleitos por ordem judicial;
  • No máximo, poderão suspender a conta por 7 dias em casos recorrentes de descumprimentos da política de uso;
  • Contas profissionais de políticos eleitos, militares e integrantes do Ministério Público não poderão receber monetização de publicidade;

Relatório de transparência

  • As empresas terão que produzir relatórios semestrais e colocá-los em sites abertos em até 60 dias;
  • Nesses documentos haverá de constar informações como “mudanças significativas” nos algoritmos, descrição dos algoritmos e “descrição qualificada” do que tem sido feito para acabar com atividades criminosas na plataforma;
  • Informações sobre mudanças nos critérios de organização e priorização de conteúdos jornalisticos;
  • Terão de fornecer os dados consolidados de moderação e de audiência, por exemplo;
  • Relatório detalhado para usuários das publicidades que foram exibidas a ele nos últimos 6 meses pela plataforma.

Contas automatizadas

  • Plataformas deverão proibir as contas automáticas que não sejam identificadas;
  • Fornecer meios para que que o usuário identifique se usa uma conta automatizada;
  • Plataformas de vídeos devem ter mecanismos para identificar contas automatizadas usadas para falsear audiência e ranqueamento de conteúdos;

Recomendação de conteúdo

  • As plataformas precisarão ter públicos os parâmetros usados por seus algoritmos de recomendação de conteúdo;
  • Descrição geral dos algoritmos;
  • Deverão permitir que os usuários rejeitem participar de enquadramentos para microsegmentação de conteúdo;

Da análise de risco

  • As empresas precisarão identificar, analisar e avaliar os riscos da atuação destas no país anualmente;
  • Deverão adotar “medidas de atenuação razoáveis, proporcionais e eficazes” sobre os riscos identificados;
  • Deverão, periodicamente, ter auditoria externa para verificar se a empresa está cumprindo a nova lei;

Serviços de mensagem instantânea

  • Ordem judicial poderá determinar que essas empresas identifiquem a 1ª conta que disseminou o conteúdo ilegal;
  • Listas de transmissão só poderão ser encaminhadas ou recebidas por pessoas que estiverem nas listas de contatos do remetente e destinatário;
  • Criar mecanismo para consentimento prévio para a inclusão em grupos;

Órgão autônomo

Na proposta do governo, seria instituída uma entidade autônoma para fiscalizar, com regulamentação própria, se as plataformas estão cumprindo as diretrizes da lei. Caberia ainda à entidade abrir processo administrativos e, em caso de descumprimento das regras, aplicar sanções às empresas.

As plataformas poderão pagar uma taxa anual de fiscalização, que será proporcional o número médio mensal de usuários ativos e de receita da empresa. Os valores arrecadados serão destinados ao orçamento do órgão autônomo.

Penalidades

O texto do governo recomenda que, em caso de infrações às regras, as plataformas terão de ser responsabilizadas pela entidade autônoma de fiscalização. As sanções podem ser: Advertência, com indicação de prazo para adoção de medidas corretivas; multa diária; multa simples de até 10% do faturamento da empresa no Brasil no último exercício ou de R$ 10,00 a R$ 1.000 por usuário cadastrado, limitada ao valor de R$ 50 milhões por infração.

Participe de nosso grupo no WhatsApp, clicando neste link
Entre em nosso canal no Telegram, clique neste link