top of page

Caso “Dona Maria” expõe as fragilidades no uso de IA

  • Foto do escritor: Giovanna Xavier
    Giovanna Xavier
  • há 2 dias
  • 2 min de leitura

Com início no próximo semestre, o período eleitoral já gera discussões sobre limites quanto às inteligências artificiais


O perfil da ‘Dona Maria’ atingiu milhões de interações nas redes sociais tecendo críticas ao governo Lula e ao STF. Foto: Reprodução/Redes Sociais
O perfil da ‘Dona Maria’ atingiu milhões de interações nas redes sociais tecendo críticas ao governo Lula e ao STF. Foto: Reprodução/Redes Sociais

No último dia 22, o perfil gerado por Inteligência Artificial (IA) “Dona Maria” foi alvo de uma ação no Tribunal Superior Eleitoral (TSE) protocolada pelo PT, PV e PCdoB, para pedir a suspensão da conta nas redes sociais. Acumulando mais de 750 mil seguidores só no Instagram (até o fechamento desta edição), Dona Maria é apresentada em seus vídeos com a aparência de uma mulher preta e idosa, descrevendo-se como a “voz do povo brasileiro de bem”.


Os partidos alegam a não identificação clara do uso de IA e a veiculação de notícias falsas. Diante disso, ministros do TSE consideram ser insuficientes as regras sobre o uso de ferramentas de inteligência artificial durante as eleições. Confira a resolução completa sobre as regras clicando aqui.


André Fernandes, advogado e diretor do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec), explica sobre a dificuldade de provar quando um conteúdo foi manipulado por IA. “Cada vez que uma pessoa identifica um modelo de linguagem típico de um texto gerado por IA, por exemplo, esse modelo é atualizado”, explica.


O TSE já realizou reuniões com representantes de empresas de IA, mas os magistrados afirmam terem sido firmados acordos ainda genéricos, sem muita certeza acerca de quais medidas serão feitas para evitar casos como o da Dona Maria.


Identidade visual da série Por Dentro das Eleições. Foto: Secom/TSE
Identidade visual da série Por Dentro das Eleições. Foto: Secom/TSE

No entanto, as plataformas de IA também podem ser aliadas na confirmação da veracidade de informações. "É importante que a plataforma seja treinada sobre um conteúdo que já possui padrões de desinformação, anteriormente checado por alguma fonte oficial”, esclarece Anthony Lins, professor da Universidade Católica de Pernambuco (Unicap) e pesquisador da área de inteligência computacional. “Hoje existem empresas e universidades que ensinam o que chamamos de letramento em inteligência artificial, para que elas possam avaliar corretamente o conteúdo que está sendo gerado”, completa.

Comentários


bottom of page