A ascensão da inteligência artificial (IA) apresenta novas situações e conflitos para o processo eleitoral. A capacidade de processar grandes volumes de dados, ampliar a comunicação e detectar fraudes abre caminhos inovadores para as campanhas eleitorais. No entanto, isso também suscita preocupações em relação à autenticidade das informações em circulação e a possíveis riscos de manipulação e desinformação de eleitores. Tecnologias de IA generativa, como deepfakes, que podem manipular ou criar conteúdo audiovisual, apresentam desafios únicos para a integridade eleitoral. Tais ferramentas podem ser utilizadas para criar conteúdos falsos ou enganosos, influenciando indevidamente o eleitorado.
No Brasil, não há ainda uma norma de caráter nacional voltada à regulação da IA e suas aplicações. Muito se debate qual seria o modelo regulatório mais adequado para o país. A princípio, um modelo baseado em riscos e direitos, com intensa carga principiológica e de caráter geral parece estar ganhando corpo. Iniciativas legislativas por meio de projetos de lei[1] vêm buscando endereçar os riscos e benefícios da IA, em áreas que envolvem, por exemplo, regulação, eleições, direito à imagem e deepfakes, proteção ao consumidor e questões criminais. Da mesma forma, a proteção de dados pessoais se torna especialmente relevante no contexto eleitoral, em que a personalização de mensagens baseada em análise de dados, inclusive sensíveis[2], pode resultar em discriminações e acentuar ainda mais polarizações e bolhas de conteúdos.
Desponta nessa discussão o PL 2.338/2023[3], o qual propõe definição para os sistemas de IA e estabelece noções de risco, responsabilidades e a necessidade de transparência em aplicações de IA. A proposta apresenta claro diálogo com o AI Act [4], aprovado em 13 de março de 2024 pelo Parlamento Europeu. O Regulamento para a Inteligência Artificial estabelece obrigações para a IA com base nos seus potenciais riscos e nível de impacto.
A temática da regulação da IA também surgiu no recente relatório da comissão de atualização do Código Civil[5], o qual estipula, entre outras referências, a necessidade de identificação nos serviços de utilização de inteligência artificial, elenca princípios para a sua utilização e dispõe acerca da criação de imagens de pessoas vivas e falecidas por meio de inteligência artificial.
Certamente, no contexto brasileiro, cabe ainda o desenvolvimento de análises de um número mais significativo de experiências regulatórias a nível global e de considerações que contemplem tanto aspectos técnicos quanto o inevitável desenvolvimento das ferramentas tecnológicas, sendo a IA generativa apenas uma de suas expressões.
Em linha com o debate atual e o momento político, o Tribunal Superior Eleitoral (TSE) editou recentemente resoluções (como a Resolução nº 23.732/24)[6] para disciplinar as próximas eleições, que em 2024 serão municipais no Brasil. Temas como propaganda eleitoral (regulado pela Resolução 23.610/19), responsabilidade de plataformas, notícias falsas e deepfake despontaram. Além do Brasil, mais de 70 países, como Estados Unidos, Índia, Indonésia, México e Reino Unido[7], têm pleitos neste ano, o que pode fazer de 2024 um ponto de virada no uso de IA nas campanhas. Coletivamente, estes países representam quase metade da população mundial.[8]
Antes de adentrar o conteúdo da referida Resolução, cabe tecer algumas considerações sobre este importante instrumento da Justiça Eleitoral. A Resolução do Tribunal Superior Eleitoral (TSE) pode ser compreendida como uma fonte formal secundária, cabendo a ela interpretar e regulamentar fontes primárias, como a Constituição e leis federais. Não pode a Resolução inovar na ordem jurídica nem restringir direitos ou estabelecer sanções distintas das previstas em Lei. Trata-se também de ato normativo de caráter geral e abstrato.[9]
No caso, há expressa autorização em lei para a regulamentação do tema via Resolução. Conforme o art. 57-J da Lei 9.504/97, o TSE regulamentará o disposto nos arts. 57-A a 57-I desta Lei (capítulo relativo à propaganda eleitoral na internet) de acordo com o cenário e as ferramentas tecnológicas existentes em cada momento eleitoral e promoverá, para os veículos, partidos e demais entidades interessadas, a formulação e a ampla divulgação de regras de boas práticas relativas a campanhas eleitorais na internet. Todavia, como salientado, mostra-se importante que o regulamento proposto dialogue diretamente com as normas em vigor no ordenamento jurídico.
Dispõe o artigo 9º-B da Resolução 23.610/19 (atualizada pela Resolução nº 23.732/2024) que, como regra, a utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de inteligência artificial para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons impõe ao responsável pela propaganda o dever de informar, de modo explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada. A preocupação com a exibição de tal informação vem aparecendo de forma significativa em projetos de lei e em discursos, especialmente diante de usos voltados aos ambientes eleitoral e comercial. Segundo a Resolução, os provedores de aplicação têm um papel crucial em monitorar e controlar o conteúdo gerado por IA em suas plataformas. Isso inclui, portanto, a obrigação de informar claramente quando o conteúdo for gerado ou manipulado por IA, especialmente em material de propaganda eleitoral.
Em seguida, coloca-se que o uso de chatbots, avatares e conteúdos sintéticos como artifício para intermediar a comunicação de campanha com pessoas naturais submete-se ao disposto no caput deste artigo, vedada qualquer simulação de interlocução com a pessoa candidata ou outra pessoa real. Isso nos remete à recente decisão da Comissão Federal de Comunicações (FCC – Federal Communications Commission), órgão regulador do setor de telecomunicações dos Estados Unidos, que afirmou que chamadas telefônicas que usam recursos de voz gerados por Inteligência Artificial são ilegais. Em comunicado, a FCC ressaltou que a tecnologia de clonagem de voz tem sido usada em golpes aplicados por chamadas automáticas para extorquir membros de famílias vulneráveis, imitar celebridades e desinformar eleitores.[10]
O artigo 9º-C da Resolução 23.610/19 (atualizada pela Resolução nº 23.732/2024) afirma que é vedada a utilização, na propaganda eleitoral, qualquer que seja sua forma ou modalidade, de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral. Restou também proibido o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deepfake). O uso dessa tecnologia levantou polêmica recentemente durante as campanhas eleitorais das eleições presidenciais argentinas[11] e norte-americanas. O descumprimento do previsto no caput e no § 1º deste artigo configurará, segundo a Resolução, abuso do poder político e uso indevido dos meios de comunicação social, acarretando a cassação do registro ou do mandato, e impõe a apuração das responsabilidades.
Em relação aos provedores de aplicações de internet, especialmente as plataformas digitais e as redes sociais, a Resolução instituiu uma série de deveres e responsabilidades no que tange ao compartilhamento, moderação e impulsionamento de conteúdos. As normas observaram atentamente os episódios de disseminação em massa de desinformação em ferramentas tecnológicas que se deram nos últimos anos e o ocorrido em 8 de janeiro de 2023, em Brasília, quando houve a invasão do Congresso Nacional, do Palácio do Planalto e do Supremo Tribunal Federal (STF). Algo bastante necessário e inevitável na elaboração da Resolução. Vale ressaltar que até mesmo o Oversight Board, da Meta, após tais episódios, recomendou que a empresa desenvolvesse uma estrutura para avaliar seus esforços de integridade eleitoral, com o objetivo de evitar que suas plataformas fossem usadas para promover a violência política.[12]
O artigo 9º-D da Resolução 23.610/19 (atualizada pela Resolução nº 23.732/2024) destaca que é dever do provedor de aplicação de internet, que permita a veiculação de conteúdo político-eleitoral, a adoção e a publicização de medidas para impedir ou diminuir a circulação de fatos notoriamente inverídicos ou gravemente descontextualizados que possam atingir a integridade do processo eleitoral, incluindo: I – a elaboração e a aplicação de termos de uso e de políticas de conteúdo compatíveis com esse objetivo; II – a implementação de instrumentos eficazes de notificação e de canais de denúncia, acessíveis às pessoas usuárias e a instituições e entidades públicas e privadas; III – o planejamento e a execução de ações corretivas e preventivas, incluindo o aprimoramento de seus sistemas de recomendação de conteúdo; IV – a transparência dos resultados alcançados pelas ações mencionadas no inciso III do caput deste artigo; V – a elaboração, em ano eleitoral, de avaliação de impacto de seus serviços sobre a integridade do processo eleitoral, a fim de implementar medidas eficazes e proporcionais para mitigar os riscos identificados, incluindo quanto à violência política de gênero, e a implementação das medidas previstas neste artigo. VI – o aprimoramento de suas capacidades tecnológicas e operacionais, com priorização de ferramentas e funcionalidades que contribuam para o alcance do objetivo previsto no caput deste artigo.[13]
Estipula, assim, medidas e boas práticas para a concretização deste dever conferido ao provedor, facilitando a análise objetiva de sua atuação. Atrai o TSE aos provedores de aplicações o princípio da função social e um dever de cuidado, os quais deverão orientar seus termos de uso e a prevenção para evitar ou minimizar o uso de seus serviços na prática de ilícitos eleitorais.
Ainda, restou expressamente vedado ao provedor de aplicações, que comercialize qualquer modalidade de impulsionamento de conteúdo, inclusive sob a forma de priorização de resultado de busca, disponibilizar esse serviço para veiculação de fato notoriamente inverídico ou gravemente descontextualizado que possa atingir a integridade do processo eleitoral.
Sem dúvida, os principais pontos de atenção nesta temática envolvem diretamente os novos deveres estabelecidos para as plataformas e o sistema de responsabilidade estabelecido aos provedores de aplicações de internet nos casos de comprometimento da integridade eleitoral e de disseminação de desinformação.
Dispôs a Resolução que o provedor de aplicação, que detectar conteúdo ilícito ou for notificado de sua circulação pelas pessoas usuárias, deverá adotar providências imediatas e eficazes para fazer cessar o impulsionamento, a monetização e o acesso ao conteúdo e promoverá a apuração interna do fato e de perfis e contas envolvidos para impedir nova circulação do conteúdo e inibir comportamentos ilícitos, inclusive pela indisponibilização de serviço de impulsionamento ou monetização.
Pergunta-se: como deverá ser implementada a moderação de conteúdos online pelas plataformas? Haveria, agora, a imposição de deveres de cuidado e de agir preventivamente para as plataformas? Como deverá ser implementada a referida notificação aos provedores? O dever de retirada nascerá a partir de uma mera notificação extrajudicial ou só após uma ordem judicial específica?[14] Qual será o prazo temporal considerado razoável para a tomada de providências imediatas?
Afirma o art. 9º-E da Resolução 23.610/19 (atualizada pela Resolução nº 23.732/2024) que os provedores de aplicação serão solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral, nos seguintes casos de risco: I – de condutas, informações e atos antidemocráticos caracterizadores de violação aos artigos 296, parágrafo único; 359-L, 359- M, 359-N, 359-P e 359-R do Código Penal; II – de divulgação ou compartilhamento de fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral, inclusive os processos de votação, apuração e totalização de votos; III – de grave ameaça, direta e imediata, de violência ou incitação à violência contra a integridade física de membros e servidores da Justiça eleitoral e Ministério Público eleitoral ou contra a infraestrutura física do Poder Judiciário para restringir ou impedir o exercício dos poderes constitucionais ou a abolição violenta do Estado Democrático de Direito; IV – de comportamento ou discurso de ódio, inclusive promoção de racismo, homofobia, ideologias nazistas, fascistas ou odiosas contra uma pessoa ou grupo por preconceito de origem, raça, sexo, cor, idade, religião e quaisquer outras formas de discriminação; V – de divulgação ou compartilhamento de conteúdo fabricado ou manipulado, parcial ou integralmente, por tecnologias digitais, incluindo inteligência artificial, em desacordo com as formas de rotulagem trazidas na presente Resolução.
A disposição em comento parece excepcionar a regra do Marco Civil da Internet (Lei 12.965/14) que, em seu artigo 19 dispõe que, visando a assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário. Diante disso, há sérias dúvidas se o instrumento adequado para tanto poderia ser uma Resolução do TSE, diante de sua natureza, e se ela não estaria inovando e ultrapassando as suas possibilidades.
Outro ponto de necessária observação envolve o fato de que a maioria dos conteúdos listados na Resolução não tem um conceito definido em lei. Quais situações devem ser legitimamente classificadas como “fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral”? Quais expressões podem ser compreendidas como “discurso de ódio”? Como já apontado[15], em determinados casos, a avaliação de conteúdos nas redes pode ser algo subjetivo e contextual. Sempre haverá o risco de imprecisões e de vieses nas análises desenvolvidas. Observar o contraditório, as garantias do processo judicial e o poderio dos agentes em alguns cenários mostra-se também de grande importância para a promoção da liberdade de expressão e da democracia na rede.
Não obstante o fato de o artigo 19 do Marco Civil da Internet estar sendo questionado, no que concerne a sua constitucionalidade, no Supremo Tribunal Federal no Recurso Extraordinário 1.037.396, a norma ainda se encontra em vigor e sendo expressivamente aplicada pelo Judiciário nacional. Seu julgamento havia sido marcado no STF para junho do ano passado (2023), mas o processo foi retirado de pauta em meio ao debate envolvendo o chamado PL das Fake News. A tramitação do PL resta, contudo, lenta, na Câmara, diante das oposições em face de seu texto.[16]
À medida que a IA continua a evoluir, o desafio para legisladores, juristas e a sociedade é garantir que sua aplicação, especialmente em contextos eleitorais, seja feita de maneira responsável, transparente e ética. Embora a IA ofereça possibilidades de otimização e aprimoramento dos processos eleitorais, desde a detecção de fraudes até a personalização da comunicação com os eleitores, ela também impõe desafios significativos à integridade das eleições e à veracidade das informações. A proliferação de conteúdos gerados por IA acarreta riscos de manipulação e desinformação, ameaçando o equilíbrio do pleito eleitoral e a confiança no processo democrático.
No Brasil, a ausência de uma regulação específica para a IA e os desdobramentos disso no contexto eleitoral evidenciam a necessidade de um marco regulatório que contemple tanto os benefícios quanto os riscos associados a essa tecnologia. A proposta de legislação inspirada no AI Act europeu e as recentes resoluções do TSE são passos importantes nessa direção, mas reforçam a importância de um debate amplo e inclusivo que envolva todos os stakeholders. Este debate deve visar à elaboração de normas claras, flexíveis e adaptáveis, que dialogando com o ecossistema normativo nacional sejam capazes de acompanhar a evolução tecnológica e de garantir tanto a segurança quanto a liberdade de expressão, assegurando assim a integridade dos processos eleitorais e a confiança do eleitorado na democracia digital.
_______________
[1] Disponível em: https://www.cnnbrasil.com.br/politica/congresso-tem-pelo-menos-46-projetos-de-lei-para-regulamentar-do-uso-de-inteligencia-artificial/ Acesso em: 12.03.24.
[2] TEFFÉ, Chiara Spadaccini de. Dados pessoais sensíveis: qualificação, tratamento e boas práticas. 1. ed. indaiatuba: Foco, 2022. v. 1. 280p .
[3] Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233 Acesso em: 12.03.24.
[4] “O regulamento ainda terá de ser sujeito a uma verificação final pelos juristas-linguistas, prevendo‑se que venha a ser definitivamente adotado antes do final da legislatura (através do chamado «processo de retificação»). A legislação também tem ainda de ser formalmente apoiada pelo Conselho. Entrará em vigor 20 dias depois da sua publicação no Jornal Oficial. Será plenamente aplicável 24 meses após entrar em vigor, exceto no que diz respeito: às práticas proibidas, cujas restrições serão aplicáveis seis meses após a data de entrada em vigor; aos códigos de conduta (nove meses após a entrada em vigor); às regras para a IA de uso geral, incluindo a governação (12 meses após a entrada em vigor); às obrigações para os sistemas de alto risco (36 meses).” Disponível em: https://www.europarl.europa.eu/news/pt/press-room/20240308IPR19015/regulamento-inteligencia-artificial-parlamento-aprova-legislacao-historica Acesso em: 13.03.24
[5] Faz-se referência aqui ao Art. 609-F e ao livro complementar sobre o Direito Civil Digital. Versão de fevereiro de 2024. Disponível em: https://www12.senado.leg.br/noticias/materias/2024/02/26/codigo-civil-comissao-de-juristas-vota-relatorio-final-na-1a-semana-de-abril Acesso em: 12.03.24.
[6] Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024 Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes Acesso em: 12.03.24.
[7] Disponível em: https://oglobo.globo.com/politica/noticia/2024/03/10/tse-larga-na-frente-mas-colocar-o-controle-de-inteligencia-artificial-em-pratica-nas-eleicoes-e-desafio-no-mundo.ghtml Acesso em: 12.03.24.
[8] Disponível em: https://www.ifes.org/publications/ifes-election-outlook-2023-2024 Acesso em: 12.03.24.
[9] Dispõe o art. 105 da Lei 9.504/97 que o Tribunal Superior Eleitoral, atendendo ao caráter regulamentar e sem restringir direitos ou estabelecer sanções distintas das previstas nesta Lei, poderá expedir todas as instruções necessárias para sua fiel execução. Ainda, o Código Eleitoral, Lei 4.737/65, em seu art. 23-A, afirma que a competência normativa regulamentar prevista no parágrafo único do art. 1º e no inciso IX do caput do art. 23 deste Código restringe-se a matérias especificamente autorizadas em lei, sendo vedado ao Tribunal Superior Eleitoral tratar de matéria relativa à organização dos partidos políticos.
[10] FCC Makes AI-Generated Voices in Robocalls Illegal. Disponível em: https://www.fcc.gov/document/fcc-makes-ai-generated-voices-robocalls-illegal Acesso em: 12.03.24.
[11] Segundo notícia, “grupos de direita da Argentina e integrantes do partido de Milei, La Libertad Avanza, compartilharam nas redes sociais um vídeo em que supostamente Sérgio Massa aparecia fazendo uso de cocaína. A campanha de Massa foi a público desmentir a peça. De acordo com o peronista, os apoiadores de seu adversário fizeram uso de inteligência artificial para criar deepfake (técnica de manipulação de vídeos e imagens). O vídeo em questão circula desde 2016 nas redes sociais e foi manipulado com a sobreposição do rosto de Massa ao da pessoa.” Por outro lado, “A campanha de Sérgio Massa também já compartilhou na internet peças produzidas com a tecnologia que colocam o peronista como herói nacional e rotulam o adversário como grande vilão da Argentina. Em um vídeo compartilhado na segunda-feira (13), o candidato da direita argentina aparece em uma narração vangloriando Margareth Thatcher. Thatcher era a primeira-ministra do Reino Unido durante os ataques da Guerra das Malvinas, responsável pela morte de 649 argentinos.” Disponível em: https://noticias.uol.com.br/internacional/ultimas-noticias/2023/11/18/novo-estagio-das-fake-news-deepfake-vira-arma-de-campanha-na-argentina.htm Acesso em: 12.03.24
[12] O Comitê de Supervisão recomendou que a Meta fizesse o seguinte: “Desenvolva uma estrutura para avaliar seus esforços de integridade eleitoral. Isso inclui a criação e o compartilhamento de métricas para esforços de integridade eleitoral bem-sucedidos, como aqueles relacionados à aplicação das políticas de conteúdo da Meta e a abordagem aos anúncios. Esclareça, em sua Central de Transparência, que, além do Protocolo de Política de Crise, a empresa trabalha com outros protocolos em sua tentativa de prevenir e enfrentar o risco potencial de danos que surgem em contextos eleitorais ou em outros eventos de alto risco.” Disponível em: https://www.oversightboard.com/news/6509720125757695-oversight-board-overturns-meta-s-original-decision-in-brazilian-general-s-speech-case/ Acesso em: 12.03.24
[13] Outro ponto a salientar envolve a criação pela Resolução de um repositório, disponibilizado para consulta pública, envolvendo as decisões do Tribunal Superior Eleitoral que determinem a remoção de conteúdos que veiculem fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral. As ordens de remoção serão dirigidas aos provedores de aplicação que, no prazo designado para cumprimento, deverão, por meio de acesso identificado no sistema, informar o cumprimento da ordem e, desde que determinado, alimentar o repositório com informações relativas ao conteúdo, quem realizou a sua postagem, quem realizou comentários sobre ele e a respeito do engajamento da publicação no momento de sua remoção. Sem dúvidas, em termos de pesquisa este acervo promoverá excelentes referências para análises a respeito de pedidos de remoção de conteúdo e uma organização racional dos precedentes sobre a matéria, promovendo a longo prazo critérios e maior objetividade em pedidos de indisponibilização de conteúdos.
[14] Sobre a discussão acerca dos benefícios e prejuízos de notificações extrajudiciais e judiciais para a indisponibilização de conteúdos, a autora tratou recentemente do tema em: TEFFÉ, Chiara Spadaccini de; SOUZA, Carlos Affonso. Moderação de conteúdo e responsabilidade civil em plataformas digitais: um olhar sobre as experiências brasileira, estadunidense e europeia. In: Joyceane Bezerra de Menezes, Fernanda Nunes Barbosa. (Org.). A prioridade da pessoa humana no Direito Civil-Constitucional: estudos em homenagem a Maria Celina Bodin de Moraes. Foco, 2024, p. 25-.
[15] TEFFÉ, Chiara Spadaccini de. Questões acerca do sistema de responsabilidade civil do Marco Civil da Internet: Análise do artigo 19. Migalhas de Responsabilidade Civil, 21 mar. 2023. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade-civil/383291/o-sistema-de-responsabilidade-civil-do-marco-civil-da-internet Acesso em: 13.03.24.
[16] Disponível em: https://www.camara.leg.br/propostas-legislativas/2256735 Acesso em: 13.03.24.
Texto publicado originalmente em coluna “Migalhas de responsabilidade civil”