Em audiência pública em Brasília (DF), nesta quarta-feira (22), pesquisadores e membros de organizações da sociedade civil manifestaram contrariedade às novas políticas da empresa Meta, que alteraram as formas de moderação e que até permitem a publicação de conteúdos preconceituosos. Representantes das plataformas digitais foram convidados, mas não compareceram. A companhia controla as redes Facebook, Instagram e Whatsapp.  Na audiência pública, realizada pela Advocacia-Geral da União (AGU), os pesquisadores chamaram atenção para o fato que essas políticas aumentam as dificuldades de grupos já vulnerabilizados. A professora Rose Marie Santini, diretora do laboratório de estudos de internet da Universidade Federal do Rio de Janeiro (UFRJ), afirmou que as decisões da empresa de remodelar programas de checagem de fatos e relaxar os trabalhos de moderação sobre a formação de discursos de ódio representam ameaça à sociedade. Para ela, uma mudança muito significativa anunciada pelo presidente da Meta, Mark Zuckerberg, foi sobre as alterações dos algoritmos, ao decidir quais vozes serão divulgadas e silenciadas. “Esses algoritmos, programados pela curadoria e moderação de conteúdo, operam sem nenhuma transparência sobre a realidade e sobre seus critérios. Não sabemos quais conteúdos são efetivamente moderados”, ponderou.  A professora afirma que a divulgação dos critérios de moderação demonstrou “graves inconsistências”. “Essa opacidade mina a confiança pública na real preocupação da empresa com a liberdade de expressão. Afinal, a liberdade só é efetiva quando acompanhada de transparência”, argumentou.  Para a pesquisadora, esse tipo de moderação permite que se dê liberdade somente às pessoas escolhidas pela empresa. “O discurso das empresas induz a um entendimento de que a censura só poderia vir do Estado. Contudo, na realidade atual, as plataformas digitais se constituem como a principal estrutura de censura dos usuários na internet”. Ela entende que essas grandes plataformas detêm mais informações sobre seus usuários do que qualquer Estado tem de seus cidadãos. “(As empresas) Usam dados das pessoas, inclusive os sensíveis, para distribuir anúncios personalizados, independente se são legítimos ou não, se contêm crimes de qualquer ordem ou se colocam os usuários em risco”.  Audiência Pública AGU: Política de Moderação de Conteúdo - Plataformas Digitais - Renato Menezes/AscomAGU Conteúdos sexistas A professora de direito Beatriz Kira, da Universidade de Sussex, no Reino Unido, avaliou que a prioridade e o engajamento dos algoritmos das plataformas contribuem para a disseminação de conteúdos sexistas e misóginos que não conseguiriam o mesmo impacto não fosse pela internet. “Tecnologias emergentes com inteligência artificial generativa geraram esse cenário, facilitando novas formas de violência”.  Ela cita a divulgação de conteúdos íntimos, como deep nudes, que evidenciam o uso estratégico da necrologia para reforçar a violência de gênero no âmbito político. “Nesse contexto, mudanças recentes nas políticas de discurso de ódio e a reivindicação do sistema de automatização de organização de conteúdo são profundamente preocupantes. Essas mudanças evidenciam a necessidade urgente de um papel mais ativo do Estado na regulação das plataformas digitais”. Atenção às crianças O diretor de políticas e direitos das crianças do Instituto Alana, Pedro Hartung, ressaltou que a moderação de conteúdo por parte das plataformas para a proteção de crianças e prevenção de violências não é só uma necessidade, mas também um dever constitucional. “No caso das crianças, já temos a legislação para basear ações de responsabilização objetiva por conduta própria ou ação por omissão das plataformas”, defendeu.  Hartung contextualizou que 93% de crianças e adolescentes usam a internet no Brasil, 71%, o WhatsApp, além de uma expressiva participação no Instagram e TikTok. “Essa é uma internet que não é uma praça pública, mas sim um shopping, que busca por uma economia da atenção, a exploração comercial das crianças”, explicou. Ele exemplificou que, como parte desse conteúdo prejudicial, houve no Brasil os ataques nas escolas principalmente no ano de 2023. Ele cita que uma pesquisa da Universidade Estadual de Campinas (Unicamp) conseguiu avaliar a influência do mundo on-line na radicalização desses adolescentes. “É importantíssimo, para a gente, olhar para a moderação de conduta nas plataformas”. Outro tema que preocupa em relação à infância, segundo Hartung, é o impacto significativo das publicidades e também do crescimento do trabalho infantil artístico nas redes. “É importante ressaltar que a culpa não pode ser colocada exclusivamente em cima das famílias, mas em empresas”. Violência contra homossexuais O presidente da Associação Brasileira de Lésbicas, Gays, Bissexuais, Travestis, Transexuais e Intersexos, Victor De Wolf, também participou da audiência pública, manifestou que a política de monitoramento da Meta já era equivocada e intolerante. “A gente já vê graves crimes de ódio acontecendo, violações, calúnias e golpes. A nossa comunidade não é incomum”. No texto da Meta, que aponta uma nova política de moderação, há textualmente a informação que haveria permissão para relacionar doença mental a questões de gênero ou orientação sexual.  “Ainda somos um país que mais persegue a comunidade LGBT, e principalmente travestis e transexuais no mundo. Nós ainda somos o país com mais assassina em qualquer relação de direitos”, contextualizou. Para ele, é necessário que a justiça faça o papel de responsabilizar redes que violem os direitos dos cidadãos. “A anarquia digital proposta por esse grupo de empresários, na verdade, nada mais é do que uma ditadura”, disse. Relacionadas AGU afirma que o governo não vai se omitir após decisões da Meta