Em discurso preciso, o ministro do Supremo Tribunal Federal (STF), Alexandre de Moraes, que preside o Tribunal Superior Eleitoral (TSE), afirmou que o “modus operandi” de assassinos que atacam escolas é o mesmo usado por apoiadores e aliados de Jair Bolsonaro (PL) para atacar as urnas eletrônicas durante o processo eleitoral e para articular atentados terroristas no dia 8 de janeiro.
“O modus operandi dessas agressões incentivadas pelas redes sociais em relação às escolas é exatamente idêntico ao que foi utilizado contra as urnas eletrônicas, contra a Democracia, no 8 de janeiro. Não há nenhuma diferença. É exatamente idêntico”, disse Moraes na reunião no Palácio do Planalto para ações integradas de combate aos ataques nas escolas. Moraes ainda enfatizou a necessidade de se regulamentar as redes sociais – uma “terra sem lei”, segundo ele – e que para isso bastaria apenas um artigo na Constituição: “O que não pode ser feito no mundo real, não pode no mundo virtual”.
“As redes sociais ainda se sentem terra de ninguém, terra sem lei. Nós precisamos regulamentar isso. Se não houver uma autorregulação e uma regulamentação nós vamos ver a continuidade dessa instrumentalização pelas redes para incentivar ataques a escolas. Antes era na deepweb. Hoje é na rede social normal, no Twitter. Você entra no Google e ensina uma criança como se faz uma bomba, incentiva a criança a repetir o que ocorreu nos EUA, um grande atentado. E as plataformas se recusam a serem responsabilizadas”.
O ministro contou detalhes da reunião que teve com as chamadas “big Techs”, empresas transnacionais que controlam o engajamento nas redes, como Meta – responsável por Facebook, Instagram e WhatsApp -, Google e Twitter. “As big techs dizem que são meros depósitos de informação e que não podem ser responsabilizadas, segundo elas”, contou. Em seguida, Moraes traçou um paralelo entre os mundos virtual e real e o que, na opinião dele, deve ser feito para transferir a responsabilidade criminal às big techs.
“No mundo real, se você aluga um depósito, obviamente você não pode ser responsabilizado se a pessoa guarda droga, contrabando, coloca alguém que foi sequestrado, porque você não sabe. A partir do momento que você sabe e renova o contrato, você pode ser responsabilizado. A partir do momento que você sabe, renova o contrato e monetiza isso, ganha em cima disso, você tem a obrigação de ser responsabilizado. O que as redes sociais fazem é ganhar em cima do incentivo à violência, ao discurso de ódio. Isso precisa cessar imediatamente”.
Moraes ainda listou quatro medidas que, segundo ele, devem ser instauradas para regulamentar as big techs
1. Maior transparência nos algoritmos
“Ninguém sabe aqui se você coloca ‘criança atentado’ [em uma busca] ao invés de aparecer a notícia do atentado, aparece como fazer uma bomba para atentado. Porque uma notícia vai na frente da outra? Então, é necessário transparência nos algoritmos. Ninguém quer saber o segredo industrial das big techs, mas uma transparência é necessário”.
2. Extensão dos métodos de autorregulação que já existem sobre pedofilia, pornografia infantil e direitos autorais
“Eu perguntei para as big techs: vocês recebem muitos vídeos de pornografia infantil e pedofilia? Elas disseram: milhares por dia. 93% dos vídeos eles retiram sem que haja um like com base em inteligência artificial. Os outros 7% onde há dúvida, uma equipe analisa e retira o que for necessário, em pouquíssimas horas. Por que não estender essa obrigatoriedade de se utilizar inteligência artificial e recursos humanos também para nazistas, fascistas, homofóbicos, racistas e contra a democracia? São cinco tópicos objetivos”.
3. Corresponsabilidade das redes nos casos em que os algoritmos impulsionam, quando há monetização e impulsionamento de publicidade
4. Inversão do ônus
“Na dúvida, se a plataforma identifica que há notícias que estão incentivando ataques a escolas ou de mensagens incentivando o racismo, o nazismo na escola, ela retira. Mesmo que uma ou outra notícia fique na dúvida. E notifica quem colocou a notícia e inverte o ônus. Se a pessoa fala: não, essa notícia está explicando, ai ela [plataforma] repõe”. As informações são da Revista Fórum.