*Por Luís Otávio Barroso da Graça
Os Estados Unidos acabam de eleger o seu próximo presidente em meio a acaloradas discussões sobre os limites à liberdade de expressão. A questão, palpitante em qualquer contexto, ganha contornos dramáticos na era da inteligência artificial e da propagação instantânea de desinformação.
Em julho deste ano, um episódio desses novos tempos chamou a atenção. Divulgou-se um vídeo de quase dois minutos que apresentava a candidata Kamala Harris, do partido Democrata, afirmando coisas como estar ela a serviço do que, no Brasil, seria chamado de “sistema” (“deep state”, “estado profundo”, em tradução literal) [1].
A tecnologia usada faz crer serem as falas reais, apesar de resultarem de uma montagem. No X, Elon Musk, dono da rede social e apoiador do então candidato Donald Trump, compartilhou o vídeo, o qual acabou atingindo mais de 100 milhões de visualizações.
Para além do alcance, notável foi a ausência de notificação, na postagem de Musk, sobre o fato de a peça ser manipulada [2]. Alguns alegam estarem o vídeo e seu compartilhamento protegidos pelo direito à liberdade de expressão, insculpido na Primeira Emenda à Constituição estadunidense [3]. Cabe, então, um debate sobre o alcance desse direito.
Liberdade de expressão no ambiente virtual
A liberdade de expressão constitui-se em um dos elementos fundamentais de qualquer democracia moderna. Faz parte do rol de garantias constitucionais e consta, também, de documentos internacionais, como a Declaração Universal dos Direitos Humanos (artigo 19). Nos diversos estados nacionais, contudo, varia o grau de proteção a ela conferida.
Nos Estados Unidos, tal garantia goza de status quase absoluto [4], a ponto de se permitirem manifestações de ódio com conteúdo nazista [5]. Já na Alemanha, por motivos óbvios, discursos desse tipo não contam com a mesma tolerância [6]. No Brasil, como se sabe, semelhantemente à abordagem germânica, não há guarida jurídica para a veiculação, por exemplo, de ideias racistas [7]. A imposição de uma ou outra restrição, de fato, não é descabida.
Isso porque outros valores, como a integridade física de pessoas com certas características, podem estar em jogo. Não por outro motivo, o Pacto Internacional sobre Direitos Civis e Políticos, de 1966, sujeita a livre expressão a “deveres e responsabilidades especiais” (artigo 19) [8].
Em face das cada vez mais incríveis possibilidades tecnológicas, qual seria a abordagem adequada para o trato da liberdade de expressão no ambiente virtual? Aquela que deixa tal ambiente livre de interferência estatal? Ou a que propõe alguma forma de regulação pública?
O direito à livre manifestação não pode ser usado como desculpa para evitar algum tipo de controle no ambiente da web. Claro, o equilíbrio, nesse caso, não é fácil de ser alcançado. As iniciativas devem, obviamente, evitar soluções como a “filtragem de conteúdo (…) imposta por um governo” ou a censura baseada na “imposição arbitrária de estados de emergência” [9].
Por outro lado, uma zona totalmente livre pode fomentar a disseminação de desinformação. O perigo não está na desinformação em si, mas nas ameaças que ela representa para grupos sociais, a democracia ou o estado de direito. Decerto, tais ameaças não se constituem em algo exatamente novo. Jornais, redes de TV, revistas, todas essas mídias também podem espalhar informações falsas e causar distúrbios [10].
O que é novo, no entanto, é a velocidade com que as informações circulam pelas redes sociais e chegam a um número inimaginável de pessoas, em diferentes lugares ou países, sem nenhum tipo de filtro, como “checagem de fatos ou julgamento editorial” [11]. Além disso, a disseminação pode prescindir de intervenção humana, resultando da ação de programas de computador (robôs). Assim, as novas tecnologias de comunicação podem facilmente estimular “causas extremistas”, uma “cultura de ódio” ou a perturbação de uma eleição [12].
Para mitigar esses riscos, limites devem ser estabelecidos em prol da convivência cívica. O enquadramento é ainda mais justificado quando o poder econômico impulsiona a desinformação. Para ilustrar o ponto, recorra-se, de novo, a imbróglios eleitorais. No recente pleito estadunidense, em adição ao episódio acima descrito, notícia de 8/8/2024 dá conta de que, até essa data, postagens de Elon Musk “sobre as eleições dos EUA foram vistas quase 1,2 bilhão de vezes no X” [13].
O caso Citizens United v. Federal Election Commission
No que toca, particularmente, ao peso que iniciativas externas às próprias ações dos candidatos podem ter, vale observar a discussão que se travou em Citizens United v. Federal Election Commission [14]. Nesse litígio, de 2010, a Suprema Corte dos Estados Unidos, em decisão apertada (5 a 4), afirmou que a garantia da livre manifestação impede, naquele país, a imposição de restrições a contribuições independentes (as iniciativas externas a que se fez menção) provenientes de corporações (com ou sem fins lucrativos) e sindicatos.
Chama a atenção, contudo, a opinião divergente, a veicular observação segundo a qual grandes contribuições desse tipo “podem, às vezes, gerar muito mais influência do que contribuições diretas para campanhas” [15]. Pelo que a experiência recente demonstra, tal nota ganha ainda mais relevância em face das novas tecnologias de informação. Aponta, ademais, para a necessidade de regulação do tema na esfera eleitoral e fora dela.
Alfabetização midiática e digital
A prevenção de perturbações causadas pela disseminação rápida e generalizada de desinformação deve ser objeto de medidas legais e de políticas públicas. Idealmente, a prudência, por parte dos usuários da “internet” ou das redes sociais, e a autorregulação, por parte das empresas do setor, poderiam ser suficientes para lidar com os desafios atuais. No entanto, por um lado, os usuários podem apreciar a exposição a notícias que reforcem seus vieses, tendo “incentivos limitados” para verificar seus conteúdos [16].
Nesse caso, a adoção de políticas públicas para o aprimoramento da “alfabetização midiática e digital” pode apresentar resultados promissores [17]. Por outro lado, alternativas geridas apenas pelo mercado podem ser insuficientes quando, por exemplo, estejam em jogo questões além das financeiras [18]. A propósito, no episódio do vídeo compartilhado por Elon Musk, parecia haver “conflito com as políticas do ‘X’, as quais proíbem o compartilhamento de ‘mídia sintética, manipulada ou fora de contexto que possa enganar ou confundir as pessoas e causar danos’” [19]. Nessa hipótese, a adoção de marcos regulatórios, como o Regulamento dos Serviços Digitais da União Europeia, mostra-se inescapável.
Os fundamentos e as balizas para a atuação estatal já existem. Encontram-se, tipicamente, nas constituições de países democráticos e em dispositivos como o artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos. A liberdade de expressão deve continuar a figurar como uma das estrelas do rol de garantias civis e políticas. Só não pode estar envolta em tal nível de sacralidade que permita à desinformação, catalisada pelas novas tecnologias, comprometer o próprio arcabouço civilizatório que lhe serve de esteio.
[1] Sobre o episódio e o relato aqui feito, ver Ken Bensiger, “Elon Musk shares manipulated Harris Video, in seeming violation of X’s policies”, The New York Times (27/7/2024), <https://www.nytimes.com/2024/07/27/us/politics/elon-musk-kamala-harris-deepfake.html>, acesso em 6/11/2024; Kat Tenbarge, “Elon Musk made a Kamala Harris deepfake ad go viral, sparking a debate about parody and free speech”, NBC News (1/8/2024), <https://www.nbcnews.com/tech/misinformation/kamala-harris-deepfake-shared-musk-sparks-free-speech-debate-rcna164119>, acesso em 6/11/2024.
[2] “Musk’s post does not share any indication that the video is manipulated” (Tenbarge, nota 1). “The billionaire owner of the social media platform X reposted a video that mimics Vice President Kamala Harris’s voice, without disclosing that it had been altered” (Bensiger, nota 1).
[3] Ver Tenbarge, nota 1.
[4] Ver Claudia E. Haupt, “Regulating Speech Online: Free Speeh Values in Constitutional Frames”, Washington University Law Review (2021, v. 99, p. 751), p. 754.
[5] Ver David van Mill, “Freedom of Speech”, The Stanford Encyclopedia of Philosophy (Winter 2016 Edition), Edward N. Zalta (ed.), <https://plato.stanford.edu/archives/win2016/entries/freedom-speech/>, acesso em 13/11/2024 (procurar por “Nazi march through Skokie, Illinois”).
[6] Ver Haupt, nota 4, p. 761.
[7] Ver, p. ex., lei n. 7.716, de 1989, art. 20.
[8] No Brasil, o pacto é objeto do decreto n. 592, de 1992.
[9] The United Nations (UN) Special Rapporteur on Freedom of Opinion and Expression e outros, “Joint Declaration on Freedom of Expression and ‘Fake News’, Disinformation and Propaganda” (3/3/2017), <https://www.osce.org/fom/302796?download=true>, acesso em 25/9/2018 (minha tradução).
[10] Ver Hunt Allcott e Matthew Gentzkow, “Social Media and Fake News in the 2016 Election”, The Journal of Economic Perspectives (2017, v. 31, p. 211), p. 211.
[11] Idem (minha tradução).
[12] Lee Rainie e outros, “The Future of Free Speech, Trolls, Anonymity, and Fake News Online”, Pew Research Center (29/3/2017), <http://www.pewinternet.org/2017/03/29/the-future-of-free-speech-trolls-anonymity-and-fake-news-online/>, acesso em 14/11/2024 (a menção à “cultura de ódio” é atribuída à Time).
[13] Center for Countering Digital Hate, “Musk Misleading Election Claims Viewed 1.2 bn Times on X – with No Fact Checks” (8/8/2024), < https://counterhate.com/research/musk-misleading-election-claims-viewed-1-2bn-times-on-x-with-no-fact-checks/#about>, acesso em 14/11/2024 (minha tradução).
[14] 558 U.S. 310 (2010).
[15] Idem, § 255 (declaração atribuída a Wright Andrews, um “proeminente lobista”, transcrita na opinião divergente do Ministro John Stevens) (minha tradução).
[16] Mark Verstraete e outros, “Identifying and Countering Fake News” (2017), Arizona Legal Studies Discussion Paper 17-15, p. 32, <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3007971>, acesso em 1/8/2018 (minha tradução).
[17] The United Nations (UN) Special Rapporteur on Freedom of Opinion and Expression e outros, nota 9 (minha tradução).
[18] Ver Mark Verstraete e outros, nota 16, p. 18.
[19] Ken Bensiger, nota 1 (minha tradução).