Portaria 351/2023: avanços, pontos de atenção e perspectivas
23 de abril de 2023, 8h00
A Portaria 351, de 12/4/23, visa regulamentar assuntos extremamente polêmicos e que guardam relação com disputas atinentes à prevenção e combate às fake news, à moderação de conteúdo nas redes, à responsabilidade das plataformas virtuais e à liberdade de expressão.
Insere-se, portanto, em um contexto maior, que tem como pano de fundo o Marco Legal da Internet, o PL 2.630/2020 e a regulamentação da ação e responsabilidade das grandes empresas de internet, das poderosas plataformas virtuais, que são também riquíssimos e poderosos conglomerados econômicos e com o ao maior poder dos dias que correm: os dados e informações das pessoas.
De se lembrar que o modus operandi dessas "big techs", marcado por aparente "gratuidade", em verdade trouxe uma nova lógica de relacionamento, em que a "remuneração", a contrapartida pelos serviços e conectividade disponibilizados se dá por meio do fornecimento — e autorização, consciente ou não, de utilização, análise e interpretação — dos dados pessoais e comportamentos.
Tais informações representam, de fato, o grande moderno: a partir deles, pode-se prever o resultado de campanhas (eleitorais ou não), criar vieses e tendências comportamentais, desencadeando consequências palpáveis, efetivas e reais no mundo off line.
Conforme assevera Maria Ressa:
(…) quanto mais tempo você a no Facebook, mais dados a empresa obtém sobre você, de modo a induzir você a ar ainda mais tempo na rede social. As emoções, desencadeadas por hormônios e neurotransmissores como a dopamina, se intensificam; (…) Esse é apenas um dos inúmeros efeitos colaterais dos algoritmos criados pelo big data: geralmente partem das opiniões e preconceitos dos programadores — em geral homens jovens, brancos – e nos dados que os alimentam. Isso teve efeitos negativos sobre a educação, as finanças, a reportagem sobre crimes, a democracia (…). O Facebook está mudando o nosso comportamento e usando seu banco de dados global de usuários como um laboratório em tempo real. Ele modifica os indivíduos e as sociedades (…). (2022, p. 180)
Esse o assunto correlato ao ato normativo que o presente ensaio se propõe a analisar — e cujos desdobramentos impactarão (benéfica ou nefastamente) no dia a dia das pessoas.
Contextualização normativa: debate e hesitação
Inviável abordar moderação de conteúdos nas redes sem tomar em conta as estratégias de controle das fake news, de manipulação de massa e influência pessoal com vistas à obtenção de resultado de interesse daqueles aparelhados a acompanhar — e, mais que isso, interferir no processo.
Nesse cenário, cumpre-nos trazer o PL 2.630, que trata da liberdade, responsabilidade e transparência na internet, ocupando-se da disciplina de questões como transparência, responsabilidade, proteção de dados, empoderamento de usuários e repressão às notícias mentirosas e discursos de ódio na rede.
O projeto, resultado de intensos debates, ficou conhecido como o "PL das fake news", e que se encontra pendente de análise pela Câmara, ou a ocupar lugar de destaque na pauta pública em razão dos atos de violência cometidos em escolas de Blumenau e São Paulo.
Essas trágicas circunstâncias, ao evidenciarem a urgência na disciplina do impulsionamento de conteúdo, controle de fake news, propagação de discurso de ódio e moderação de conteúdo, determinaram certa subversão da ordem normativa: o ato usualmente regulamentar, de menor envergadura e alcance precedeu aquele mais amplo e genérico.
Afora às discussões de técnica legislativa/normativa, portanto, vê-se a inversão da lógica corriqueiramente adotada para a disciplina de pontos de impacto geral, em razão da inviabilidade — ou inconveniência — de aguardar o amadurecimento do processo legislativo, com a aprovação do referido PL (o qual recebeu recentemente amplas sugestões alterações pelo Executivo[2]).
O Ministério da Justiça e Segurança Pública, premido pelo impacto e violência dos fatos, agiu, antecipando a atuação e contribuição do Legislativo, dando uma resposta pronta, rápida, efetiva às demandas sociais — ainda que tal estratégia redundasse no reconhecimento de limitações, lacunas e falhas — as quais serão abordadas ao longo dos presentes.
Regulação na rede: espaço público ou privado?
A circunstância de se apresentar a rede como um lócus expressão, como arena interativa em que a todos é dado se manifestar deve ser tida como premissa basilar a orientar as discussões atinentes aos limites, diretrizes e grau de ingerência estatal.
Há os que defendem que a natureza privada das plataformas implicaria na possibilidade de criarem as próprias regras, independentes e alheias a diretrizes estatais ou públicas.
Invocam o temor — não de todo descabido — de restrição à liberdade de expressão, da criação de mecanismos de censura, inclusive por governos com pretensões autocráticas ou interesses escusos.
Tal posicionamento, porém, sérios riscos: as plataformas são, ao fim e ao cabo, espaços públicos, arenas conceitualmente plurais, abertas e pretensamente democráticas em que aos mais diversos atores é dado se expressar, interagir, absorver informações e influenciar pessoas.
Sua performance determina os rumos da sociedade, avanços/retrocessos científicos, alterações e consolidações políticas, sedimentação e evolução de valores culturais, sociológicos e comportamentais.
Não pode, portanto, ficar ao alvedrio de grupos cujas razões de ser são a obtenção de lucro e defesa dos interesses próprios, por meio das mais diversas — e potencialmente perigosas — ferramentas de indução, estímulo, triagem de informação, tagueamento, perfilhamento e propaganda.
A compreensão das arenas digitais como espaços públicos afasta, pois, a autorregulação pura e exclusiva, abrindo espaço – e demanda, premente – pela sua disciplina pelo Estado, com a participação indispensável da sociedade.
Fala-se, assim, em autorregulação regulada — cuja lógica foi adotada, inclusive, pelo supra referido PL 2.630.
A Portaria 351/2023
A portaria parte do pressuposto, como expressam seus "considerandos", de que as plataformas não são simples exibidoras, mas mediadoras de conteúdo, com o poder de definir o que será exibido e impulsionado, o alcance das publicações, a recomendação de informações e contas, não podendo, portanto, ser qualificadas como agentes neutros quanto ao que divulgam — fonte fundamental dos lucros, e potenciais geradores de externalidades negativas e riscos sociais sistêmicos.
Trouxe, porém, visão reducionista, em que o alcance da rede como ágora da modernidade é limitada à sua compreensão como local destinado ao desenvolvimento de relações de consumo, em que as empresas seriam "meros" prestadores de serviço.
Evidência dessa opção é a incumbência, à Secretaria Nacional do Consumo (essencialmente destinada à proteção e aprimoramento das relações dessa natureza), da apuração e eventuais responsabilizações por postura inadequada das plataformas, no que tange justamente ao controle de conteúdo.
O órgão muito provavelmente não está — nem se espera que esteja —aparelhado a lidar com ameaças à democracia, à saúde pública e à segurança nacional, com ofensas a direitos autorais, manipulação eleitoral e discursos de ódio, assuntos não raro basilares na discussão a que se propõe tratar a portaria.
Reduzir a relação internauta-plataformas à sua dimensão consumerista não parece, data vênia, a melhor estratégia.
A um, porque parte de lógica incapaz de apreender todas as peculiaridades e desdobramentos das interações e fluxos de informação virtual, com a adoção de estratégias de manipulação de massa, exposição involuntária às mais diversas espécies de conteúdo e defesa/promoção não declarada de interesses e ideologias (ao menos não de forma clara), como estratégias de convencimento, classificação e diagnóstico.
A dois, porque a interatividade proporcionada pelas plataformas vai muito além de qualquer relação que se possa individualizar: espraia-se ilimitadamente, impregnando e viver, o pensar e o agir dos indivíduos, que am a transitar verdadeiramente em uma outra dimensão, paralela ao mundo off line, mas com efeitos concretos, diretos e perceptíveis sobre ele.
As palavras de Maria Ressa ilustram bem a implausibilidade de restrição das interações com e via as plataformas sociais à ideia de simples relação de consumo:
(…) o Facebook representa uma das ameaças mais graves para as democracias do mundo inteiro, e fico espantada ao ver que permitimos que nossas liberdades nos fossem tiradas pela tecnologia, com sua avidez de crescimento e de receitas. A tecnologia sugou as nossas experiências e os nossos dados pessoais, organizou-os com a inteligência artificial, utilizou tudo isso para nos manipular e criou comportamentos em uma escala tal que trouxeram à tona o pior da humanidade. (RESSA, 2022, p. 174)
Além disso, a portaria traz algumas fragilidades mais específicas:
– Defere às plataformas a avaliação e adoção de medidas mitigadoras dos riscos decorrentes da sua atuação — em um inconveniente aceno para a adoção da autorregulação, que não leva em consideração o fato de decisões serem determinantes dos rumos da sociedade, dos avanços/retrocessos científicos, alterações políticas, sedimentação e evolução de valores culturais, sociológicos e comportamentais.
Tais avaliações, portanto, não deveriam ficar ao exclusivo alvedrio de grupos econômicos cuja razão de ser é a obtenção de lucro e defesa dos interesses próprios, mediante o uso de ferramentas de indução, estímulo, triagem de informação, tagueamento, perfilhamento e propaganda.
Tais ponderações são cabíveis também quanto ao artigo 3º, III, que defere às plataformas, com exclusividade, o desenvolvimento de protocolos de crise, situações essas que implicam em maiores cuidados e consideração das externalidades e impactos sociais.
Solução mais efetiva — e compatível com a nossa estrutura constitucional democrática —, seria a promoção do engajamento dos diversos players (entes federados, organizações internacionais, instituições privadas, partidos políticos, empresas e sociedade civil), com a criação, eventualmente, de um colegiado voltado à avaliação de questões postas e elaboração de diretrizes seguras e gerais.
Importante que tal instância goze de autonomia funcional, financeira e istrativa, e garanta participação multissetorial, competente, inclusive, para impor sanções.
Combinar-se-iam, assim, a expertise, o dinamismo e conhecimento técnico das plataformas com a visão estatal dos interesses públicos e a indispensável perspectiva da sociedade civil.
Conciliar-se-ia, ainda, a necessidade de limitação do poder das big techs com os direitos fundamentais e interesses coletivos.
– O artigo 5º determina que a Secretaria Nacional de Segurança Pública orientará as plataformas de modo a impedir a criação de novos perfis a partir de IPs em que tenham sido detectadas atividades ilegais, danosas e perigosas referentes a conteúdos de extremismo violento (…).
Não traz, porém, especificação ou definição dessas atividades, o que redundará em indesejável insegurança jurídica, com o risco, inclusive, de tornar letra morta o dispositivo — para além de, uma vez mais, empoderar um agente privado, econômico, a tecer a sua definição (cada qual a sua própria, distante de qualquer lógica sistêmica ou de uniformidade/coerência) de quais sejam tais atos.
O artigo 6º, §2º, estabelece que a Senasp deverá orientar as plataformas a usar como parâmetro para a indisponibilidade/remoção de conteúdos a existência de outros, idênticos ou similares, que tenham sido previamente excluídos.
A dúvida, aí, é com relação quanto ao que pode ser considerado conteúdo similar.
Além disso, o dispositivo vai de certa forma de encontro à lógica do Marco Civil da Internet e grande parte das normas internacionais sobre o tema, que somente item a remoção de conteúdo, salvo as hipóteses previstas nos termos de uso da plataforma, por determinação judicial.
O deslocamento de uma competência tipicamente jurisdicional para o Executivo não nos parece a melhor solução, tendo em vista, inclusive, a potencial ameaça aos direitos fundamentais de expressão e de o à informação.
Considere-se, ainda, que o fim maior das plataformas é o avanço dos negócios e, em última análise, o lucro — o que torna ainda mais periclitante o deslocamento de tal análise, de forma exclusiva, para elas.
Daí a importância de medidas de ampla transparência, inclusive como forma de prevenção de restrições a direitos, discriminação algorítmica e quebra da isonomia, com a adoção de idênticos critérios, por exemplo, entre pessoas famosas e não (racionalidade essa que vinha sendo ignorada, por exemplo, pelo Facebook)[3].
De qualquer forma, não se pode negar a importância da portaria, em momento tão sensível, a qual veio a pautar discussões tão sérias e necessárias como a legitimidade e responsividade ao processo de moderação e sintonia fina do tratamento da liberdade de expressão, pensamento, preservação de dados e informações pessoais — a par da proteção contra notícias falsas e mecanismos de influência e manipulação de massa.
Digna de aplausos, nesse sentido, a exigência de indicação, pelas plataformas, de um interlocutor direto e específico a se relacionar com as autoridades, de modo que o fluxo de informação e providências seja ágil e eficiente —, assim como a criação de um repositório de ilícitos, com importante função didática e de organização de precedentes.
O que dizem — e o que fazem — as plataformas
A inconveniente — e perigosa — ausência de regulamentação das questões colocadas condena o país a uma indesejável vulnerabilidade.
A omissão legislativa que a Portaria buscou amenizar vem propiciando posturas díspares das plataformas.

O Twitter anunciou no último dia 17 de abril que os conteúdos em desacordo com as suas (próprias) políticas de combate ao discurso de ódio serão rotuladas e terão alcance , com a vedação, ainda, de inserção de anúncios.
A plataforma compreende como "conduta de ódio" ataques em razão de raça, etnia, nacionalidade, orientação sexual, gênero, religião, idade, deficiência ou doença grave.
A abrangência das providências será, porém, condicionada a uma "análise de contexto", a levar em conta o direcionamento da mensagem (individual ou coletivo), gravidade e se ataca o próprio Twitter.
O TikTok, não obstante adote um discurso em defesa da extirpação de imagens e conteúdos potencialmente estimulantes de posturas violentas, discriminatórias e antidemocráticas, não vem apresentando resultados efetivos nesse sentido: qualquer eio rápido pela plataforma evidencia resultados variados de postagens com esse perfil.
O Whatsapp alega não ter o ao conteúdo por seu intermédio compartilhado, criptografado de ponta a ponta, o que tornaria impossível a moderação, salvo hipóteses de denúncia.
A Meta, responsável pelo Facebook e Instagram, alega moderar ativamente conteúdos ou pessoas envolvidas em discursos violentos, de ódio, com perfil terrorista, tráfico humano ou qualquer outra atividade criminosa, incentivando denúncias.
Conclusões
A necessidade de regulamentação das plataformas, de modo a garantir transparência, liberdade de expressão, proteção de dados, combate às fake news e ao discurso de ódio e respeito aos direitos fundamentais é absolutamente premente.
A redes sociais, arenas públicas indispensáveis à troca de ideias e amadurecimento social não podem ser compreendidas simplesmente como fornecedores privados e comuns de serviços, já que tem o potencial explosivo de impactar na vida das pessoas, na qualidade da democracia e na própria dinâmica estatal.
A redução das interações na rede à mera relação de consumo não é compatível com os anseios decorrentes da sua extensão e impacto sobre a preservação da normalidade democrática e de direitos autorais, o combate ao discurso de ódio, à proteção da saúde pública, à higidez do processo eleitoral…
Sua regulação demanda envolvimento multifacetado das instâncias estatais, como única forma de aparelhamento razoável e adequado ao equacionamento dos plurais desdobramentos da interação virtual – para além do indispensável engajamento da sociedade, comunidade acadêmica e de dados e das próprias big techs.
A portaria objeto das presentes considerações, não obstante os pontos de atenção destacados, tem o mérito de atender aos urgentes reclamos da sociedade por limites à atuação das plataformas, com o controle da propagação dos discursos de ódio e incitação a crimes e comportamento socialmente ofensivos.
Ainda que não expresse regras perfeitas e definitivas, incorpora lógicas fundamentais ao equacionamento da moderação de conteúdos, inclusive quanto à não neutralidade e à condição de mediadoras de conteúdo das redes, tomadas como agentes interferentes no processo, e meros veículos de transmissão.
É um aceno bem-vindo — mas seguimos no aguardo da edição de uma Lei formal, legítima, efetiva e adequada aos anseios da sociedade brasileira.
[3] Conforme manifestação do seu Conselho Supervisor, criado pela plataforma com o intuito de auxiliar na moderação de conteúdo, e composto por representantes de diversos segmentos da sociedade, de vários países. O caso foi objeto de reportagem publicada pelo The Wall Street Journal em setembro de 2021, disponível em https://www.wsj.com/articles/facebook-oversight-board-launches-review-of-companys-xcheck-system-11632246934.
Encontrou um erro? Avise nossa equipe!