Uso indevido da IA nas eleições e como identificar
A poucos dias das eleições municipais no Brasil, 2024 se apresenta como um ano eleitoral marcante, com mais de 50 países indo às umas, representando quase metade da população mundial.
No Brasil, a tecnologia tem sido usada há muito tempo em processos eleitorais, como a votação eletrônica, e é uma ferramenta valiosa para tornar o processo eficiente e seguro. No entanto, avanços recentes em Inteligência Artificial (IA), particularmente a IA generativa, como ChatGPT (OpenAI) e Copilot (Microsoft), podem ter um impacto sem precedentes no processo eleitoral.
A preocupação com o uso dessa inovação tecnológica nas eleições municipais no Brasil resultou numa resolução aprovada pelo Tribunal Superior Eleitoral (TSE), em fevereiro deste ano, que define regras para a utilização da IA nas campanhas eletorais, como identificar o uso da tecnologia em materiais de divulgação e a proibição dos chamados deepfakes - técnica que permite trocar o rosto de pessoas em vídeos, por exemplo.
A tendência é que essa preocupação aumente ainda mais nessa reta final do pleito eleitoral por causa de notícias de casos ocorridos em outros países, demonstrando que o uso de inteligência artificial na política tem se alastrado pelo mundo e vai desde a criação de candidatos fictícios a falsas declarações de apoio. Tudo com o intuito de manipular a opinião do eleitor. Tais casos podem servir de exemplo para os brasileiros que vão às umas em 6 de outubro e sobre o que eles poderão se deparar nas publicidades eleitorais até lá.
Na África do Sul, por exemplo, o deepfake foi a tecnologia utlizada em vídeos que indicavam um falso apoio do ex-presidente norte-americano Donald Trump a candidatos no país. Já no Paquistão, novamente a imagem de Trump, como candidato nos Estados Unidos, também foi manipulada com ele mesmo dizendo que tiraria da prisão o ex- primeiro-ministro Imran Khan.
Com a aproximação das eleições municipais aqui no Brasil, o risco dessas manipulações aumenta à medida que se aproxima a eleição, mas diminui o tempo para desmentir o conteúdo. Em Bangladesh, um vídeo criado com a técnica de deepfake foi usado para simular a desistência de dois candidatos da disputa no dia da votação. Situação parecida aconteceu em Taiwan, mas para falsificar o apoio de um certo empresário.
Por outro lado, na Índia, candidatos usaram vozes e imagens de pessoas mortas, incluindo uma cantora popular. O mesmo ocorreu na Indonésia, com vídeos do ex-presidente Suharto, morto em 2008. A saber, todos os casos descritos acima poderiam ser enquadrados como crimes pelas regras do TSE, com a possibilidade de cassação da candidatura ou até do mandato dos responsáveis pela divulgação.
Assim sendo, se por um lado essas inovações digitais oferecem oportunidades para melhorar a eficiência eleitoral e o engajamento dos eleitores, também trazem preocupações sobre o potencial uso indevido, como mencionei anteriormente. À IA pode ser usada para aproveitar o big data para influenciar a tomada de decisão dos eleitores. Sua capacidade de lançar ataques cibeméticos, produzir deepfakes e espalhar desinformação pode desestabilizar processos democráticos, ameaçar a integridade do discurso político e correr a confiança pública.
“O advento da IA generativa pode ser um momento decisivo para a desinformação e o discurso de ódio — minando a verdade, os fatos e a segurança, adicionando uma nova dimensão à manipulação do comportamento humano e contribuindo para a polarização e a instabilidade em grande escala”, destacou em discurso o Secretário-Geral da ONU, António Guterres, ao falar da natureza duplas da IA ao Conselho Segurança.
Mas tanto nas eleições como em outros casos, a pergunta é o que pode ser feito para limitar os danos da desinformação gerada pela IA?
Primeiro é bom destacar que os desafios relacionados à disseminação de desinformação vão além da procedência desse tipo de conteúdo, mas, por enquanto, muitas das medidas propostas parecem focadas especificamente no componente “feito por IA'”.
Por exemplo, várias dessas medidas possíveis se enquadram na categoria de “rotulagem, incluindo sugerir o uso de metadados com informações sobre a data, hora e local em que o conteúdo foi criado, ou incorporar marcas dágua invisíveis no conteúdo, que identificam o modelo de IA usado para crá-lo ou revelam informações sobre quem solicitou a saída. As plataformas de mídia social X e Meta estão lançando rótulos visíveis para conteúdo gerado por IA, com o objetivo de “comunicar credibilidade de informações aos usuários”. Eles podem fornecer informações explícitas quanto a credibilidade do conteúdo ou podem ser rótulos contextuais que fomecem mais informações de um determinado conteúdo sem fazer nenhuma afirmação explícita sobre sua veracidade ou avaliar sua credibilidade.
No entanto, a rotulagem não está isenta de problemas. Quando as plataformas rotulam o que é “falso”, isso implica que o que não é rotulado deve, por extensão, ser verdadeiro e confiável, quando nem sempre é esse o caso. Isso come o risco de minar a legilimidade e, portanto, a confiança das pessoas nos sistemas de rotulagem propostos; uma situação que pode ser ainda mais agravada se deixada apenas nas mãos de algumas empresas privadas que dominam o mercado. Embora a rotulagem adicione um marcador ao conteúdo gerado por IA permitindo que ele seja "lido" como tal, outra abordagem mais preventiva é identificar esse conteúdo implantando ferramentas que detectam se algo é ou não gerado por IA. Esse é o pensamento por trás do desenvolvimento e uso de ferramentas de detecção de conteúdo de IA, que analisam características linguísticas e estilísticas para identificar padrões consistentes com saídas geradas por IA e que foram apresentadas como uma solução para evitar plágio acadêmico.
Mas tais ferramentas já demonstraram serem pouco confiáveis, frequentemente produzindo falsos positivos e sem a capacidade de entender nuances sutis e linguagem humana. E com a IA em constante evolução, tais ferramentas estarão sempre tentando se atualizar, tentando e falhando em ficar um passo à frente.
Para finalizar, ao que concordo, quero destacar aqui Oren Etzioni, professor emérito da Universidade de Washington e pesquisador na área de IA. Segundo ele, estamos numa corda de armas. “E chegamos num ponto em que é extremamente difícil fazer essa avaliação sem uso de modelos de IA reinados para isso”, ou seja, IA para identificar o problema é que o acesso a ferramentas de detecção de conteúdo sintético ou manipulado é ainda muito restrito.
Em geral, está nas mãos de quem é capaz de desenvolvê-las, ou de govenos. Apesar de tudo, temos que ser otimistas em relação à IA, embora tenhamos um problema enorme de reconhecimento, sobretudo no processo eleitoral reconhecidamente não temos como dimensionar o impacto do uso maléfico da IA nas eleições e é por isso que foi criada uma ferramenta de detecção sem fins lucrativos, a TrueMedia.org, que está sendo oferecida gratuitamente a jornalistas. Por meio dela, o conteúdo é analisado pelos modelos de IA da organização em minutos, e o usuário recebe uma estimativa da probabilidade de o conteúdo ser sintético ou manipulado.
Fica a dica. E que a imprensa faça bom uso dessa ferramenta, sempre a serviço da democracia.
Fonte: Jornal de Uberaba
Gostou do conteúdo? Acompanhe o meu portal e as minhas redes sociais!