Inteligência artificial nas eleições: o que nos espera

* Por Tathiana Costa e  

A revolução industrial, que teve início na Inglaterra em meados do século 18, marco da evolução tecnológica no mundo, levou cerca de 70 a 90 anos para se consolidar, gerando impactos em vários âmbitos da vida humana nos séculos que se seguiram.

No final do século 20 e início dos anos 2000, muitos de nós tivemos a oportunidade de experimentar um novo momento de revolução tecnológica, com o boom dos computadores e da internet. Nas últimas duas décadas, a magnitude e a velocidade do avanço tecnológico deixaram claro que este é um processo que não somente é irreversível, mas está longe de chegar ao seu fim.

Em paralelo, os crescentes e contínuos investimentos de grandes empresas e até mesmo dos governos em inovação, capacidade computacional e algoritmos sofisticados, aliado ao acesso a grandes bases de dados, impulsionaram o desenvolvimento da inteligência artificial, influenciando as mais diversas áreas profissionais e relações humanas.

No curto tempo em que escrevemos esse artigo, novas formas de usos da IA surgem em todos os cantos do mundo.

Há apenas sete anos, em 2017, os maiores enxadristas do mundo, como Gary Kasparov, ficaram boquiabertos com a AlphaZero, uma inteligência artificial que, alimentada por humanos, demonstrou ser capaz de aprender, treinar e criar as jogadas estratégicas mais eficazes do mundo do xadrez, com potencial para ganhar não somente de outras máquinas, mas também dos mesmos humanos que lhe deram vida.

E o burburinho foi tamanho que Eric Schmidt, ex-CEO do Google, chegou a escrever em seu livro “A Era da IA e nosso futuro como humanos” que a Alpha Zero teria dado início a “Era da IA” que vivemos hoje.

De lá para cá, inúmeras foram as notícias de feitos notáveis alcançados por meio de inteligência artificial, como a divulgação pelo Instituto de Tecnologia de Massachusetts (MIT) doa criação de um novo antibiótico capaz de matar cepas de bactérias até então resistentes a todos os antibióticos do mundo.

Sem o uso da IA, as despesas vultuosas inviabilizariam um resultado no curto espaço de tempo em que foi atingido. Há menos de dois anos, tivemos notícia do nascimento da inteligência artificial desenvolvida pela Open AI, um modelo de linguagem que funciona na arquitetura que ficou conhecida como GPT (“transformador pré-treinado generativo”), capaz de compreender e responder a uma ordem ou comando em texto humano, e já está em sua quarta versão com avanços espetaculares.

Nas fases iniciais de testes, ele respondeu a alguns questionamentos filosóficos sobre suas capacidades com termos sofisticadamente humanos, mas ao ser perguntado se ele tem “consciência ou algum senso de moralidade”, ele respondeu “não, não tenho”.

A resposta é honesta, mas traz uma série de preocupações, em especial porque a ferramenta é, assim como foi a internet, de baixo custo e acessível em sua linguagem, já que não necessita de código de programação pelo usuário e tem fácil usabilidade.

Desse modo, essa ferramenta, como vários outros tipos de inteligência artificial, apesar das incríveis expectativas de utilização em prol da sociedade, traz inúmeros riscos que devem ser avaliados e mensurados de forma muito cuidadosa, com impactos em diversas áreas, como nas relações de trabalho — com o mercado já fortemente afetado por demissões nas próprias big techs —, e na educação de crianças e jovens, na segurança pública, para mencionar alguns.

É importante fazermos aqui um recorte no que tange ao processo eleitoral democrático em meio a esse cenário altamente suscetível à manipulação por meio de novas tecnologias, uma vez que se avizinha o escrutínio das eleições municipais em todo o país.

No ano de 2020, três importantes episódios envolvendo a IA tornaram notória a preocupação com os possíveis usos da nova tecnologia no cenário eleitoral. Nas eleições presidenciais norte americanas, autoridades daquele país identificaram o uso de ferramentas que simulavam de forma realista a voz do então candidato Joe Biden, às vésperas das prévias eleitorais, no Estado de New Hempshire, fato que foi identificado e esclarecido a tempo, não trazendo maiores impactos ao resultado daquelas eleições.

Já na Europa, a utilização de deepfakes com o fim de difundir discurso de ódio com informações falsas sobre privilégios a imigrantes e refugiados contribuiu para aumentar o apoio da população à decisão de saída do Reino Unido do bloco Europeu (o Brexit).

Por último, e mais recente, não se pode esquecer o caos nas eleições argentinas de 2023 onde ambos os candidatos à Presidência — Milei e Massa — foram vítimas e algozes de falsas notícias ao longo do processo eleitoral.

Em razão de episódios como esses e do atual cenário de democratização das ferramentas de IA, a Justiça Eleitoral do Brasil vem se esforçando para proteger direitos fundamentais e democráticos contra esse tipo de investida.

Aqui um alerta: a preocupação com os usos da IA no cenário eleitoral não significa ser contra a utilização de novas tecnologias, negacionista da evolução tecnológica ou favorável à volta das já aposentadas cédulas de papel ao sistema eleitoral brasileiro. De forma alguma.

A evolução natural dos processos e o uso de novas tecnologia são sempre bem-vindos, desde que com parâmetros predeterminados, objetivos e com responsabilidade. Hoje, pela velocidade contínua com que essas tecnologias vêm surgindo e evoluindo, o seu uso se assemelha ao de um carro em movimento, em alta velocidade, mas que precisa de freios e sinalização que balize sua jornada.

O tema não é central somente por aqui. A União Europeia, em dezembro de 2023, após mais de dois anos de intensas negociações, chegou a um compromisso por regras harmonizadas sobre inteligência artificial, o já muito comentado AI Act.

Essas regras servirão como balizadores aos 27 estados do bloco para contenção, desenvolvimento, regulação e defesa de direitos fundamentais em matéria de desenvolvimento e administração de inteligência artificial.

Sobre esses atos, de fato, parece ser um modelo acertado esse de estabelecer regras principiológicas e parâmetros éticos, pois regular de forma estanque a matéria seria certamente uma forma equivocada na sua condução e com imensa chance de tornar-se uma legislação obsoleta em muito pouco tempo. Os europeus optaram por um modelo de governança que leva em consideração o nível de risco — quanto mais altos os riscos, mais rígidas as regras —, categorizando os sistemas de IA entre aqueles de riscos mínimos ou inexistentes, riscos limitados, riscos altos e riscos inaceitáveis.

No Brasil, tramita no Senado o PL 2338/23, que não é imune a críticas, mas que trata de um avanço em direção a alguma segurança jurídica, Como se pode deduzir, regular o uso de IA não deverá ser das tarefas mais fáceis, uma vez que o objeto de regulação não é algo estático, mas sim um tema que está em constante evolução.

Tentar regulamentar a matéria em pormenores e sem prévia discussão com a sociedade civil pode ser o caminho mais rápido para levar a ainda não nascida legislação ao ostracismo em momento prematuro. Vale mencionar que, se antecipando às discussões que estão por vir, o Tribunal Superior Eleitoral aprovou alterações à Resolução TSE nº 23.610/2019, que regulamenta a propaganda eleitoral (Instrução no 0600751-65.2019.6.00.00006), trazendo parâmetros muito semelhantes ao da proposta europeia, em especial no que tange aos standarts do que poderá e do que terminantemente não poderá ser praticado nas eleições de 2024, e deixando margem para que novas tecnologias que surjam até o sufrágio de outubro também sejam abrangidas pelas normas.

Alguns autores e pessoas ligadas ao desenvolvimento desse tipo de tecnologia pregam que seria necessário a contenção dessas tecnologias sob pena de essa tecnologia tão poderosa se virar contra nos mesmos. Mustafa Suleyman (fundador do DeepMind) e Michael Bhaskar tratam sobre isso na obra “A Próxima Onda: inteligência artificial, poder e o maior dilema do século XXI” (Record; 420 páginas).

Os autores entendem que a velocidade com a qual as evoluções tecnológicas estão acontecendo não permitem que haja uma regulamentação apropriada sobre esse novo ambiente sendo necessário por vezes a contenção dessas tecnologias.

Quanto à regulação do uso da inteligência artificial nos contextos eleitorais, merecem destaque a vedação absoluta ao uso de deepfakes, a restrição ao uso de chatbots e avatares para intermediar a comunicação da campanha e a exigência de rótulos de identificação de conteúdo sintético multimídia.

Agora, é contar com a colaboração de partidos políticos, empresas de tecnologias e agentes da sociedade civil para que, num exercício de consciência e responsabilidade, contribuam com o Estado para o pleno exercício da democracia lutando com paridade de armas que a lei oferece a todos.

* Tathiana Costa é desembargadora do TRE-RJ, advogada criminalista e mestre pela Universidade de Salamanca.

* Cecilia Choeri é sócia da Chediak Advogados e doutora pela Uerj.

Artigo originalmente escrito para o Consultor Jurídico. Se quiser ler o original, clique AQUI.

Print Friendly, PDF & Email