TSE se arma contra fraudes nas eleições

As discussões sobre regulamentação esquentam cada vez mais conforme se aproximam as eleições municipais no Brasil em 2024. O Tribunal Superior Eleitoral (TSE) está ciente dos riscos de manipulação de imagens, ou “deep fake”, e “fake news”. Além de fazer seus alertas, o TSE também toma providências.

O cenário em defesa da regulamentação do uso da inteligência artificial se estende ao Congresso, com lobbies de gigantes de tecnologia, as Big Techs. Na Europa, também há movimentos e alguns avanços.

Fraude nas eleições: o que você tem a ver com isso?

A preocupação dos ministros do TSE com as eleições de 2024 tem ligação direta com o uso da inteligência artificial para enganar os eleitores.

Os ministros, que já endureceram as regras no combate às “fake news“, consideram a IA um tema importante e desafiador, e estão se preparando para o combate. Eles alertam, inclusive, para a possibilidade de cancelamento de candidaturas. Como uma das iniciativas, o presidente do TSE, ministro Alexandre de Moraes, defendeu, nesta terça-feira (12), a aprovação de regulamentação para o uso da IA para dar segurança durante as eleições.

Grandes empresas de tecnologia, como Google, Amazon e Meta, monitoram de perto a tramitação do Projeto de Lei n° 2.338, de 2023, no Senado, para regulamentação do uso de inteligência artificial. Pelo site do Senado, o projeto está com a relatoria e sem movimentação desde 1º de novembro. Nesta terça-feira, foram incluídas duas emendas. Mas é nos bastidores que o trabalho está fervilhando. Em conversas diretas com parlamentares e em manifestos públicos de associações que representam o setor, as Big Techs mostram insatisfação com a proposta de regulação, que deve impor limites aos negócios dessas companhias. O principal argumento dos opositores é que uma regulação estrita demais pode travar o desenvolvimento de IA no país.

Enquanto isso, na Europa, negociadores tentam chegar a um acordo para regular a IA. O chefe do mercado interno da União Europeia, Thierry Breton, não queria uma longa pausa durante o fim de semana que desse aos lobistas mais tempo para opinar. Então, ele pisou no acelerador.

Finalmente, as partes chegaram a um acordo para controlar uma tecnologia que Elon Musk, Sam Altman, da OpenAI; Geoffrey Hinton, o pioneiro da IA, entre outros alertaram que poderia representar uma ameaça existencial se não fosse controlada. Entenda o acordo que tenta por rédeas em modelos avançados de IA, como o ChatGPT.

No Brasil, a preocupação se estende à promoção de disputas judiciais falsas – “advocacia predatória”. Isso tem se multiplicado em larga escala com o uso de redes sociais, softwares jurídicos, carros de som e até inteligência artificial. Os alvos preferenciais dessa prática são os setores bancário, aéreo, de telecomunicações e construção. Eles não estão parados, ao contrário, já agem para combater o fenômeno, que é responsável por prejuízos de R$ 10 bilhões ao ano ao Judiciário do país.

Com informações do Valor Econômico.

Print Friendly, PDF & Email