Por Abraão Filipe Oliveira*

Falar em inteligência artificial (IA) é algo inevitável atualmente. Dos vídeos de gatinhos e memes até o uso contínuo de softwares como o Chat GPT, o Gemini e o Microsoft Copilot, são muitos os exemplos da IA presentes em nosso dia a dia. É aquilo que muitos autores da comunicação chamam de “midiatização” (Braga, 2007 apud Silva, 2012), “bios midiático” (Sodré, 2008 apud Silva, 2012) ou, mais recentemente, de “plataformização” (Poell; Nieborg; Dijck, 2020) – fenômenos interacionais complexos que apontam para a maneira como as mídias e plataformas digitais atravessam nosso viver cotidiano em sociedade.
Os pesquisadores Fernanda dos Santos Rodrigues Silva, Marco Antônio Sousa Alves e Mariana Alves Araújo Lopes (2025), especialistas no tema, apontam que, embora o debate sobre o uso da IA, em nosso país, seja recente, a discussão se relaciona com mobilizações de grande projeção que vêm sendo construídas há anos, desde o Marco Civil da Internet, de 2009.
Além disso, eles destacam a urgência de se adotar medidas jurídicas de regulamentação, tendo em vista que, nesse cenário, “graves violações de direitos fundamentais, discursos de ódio, exploração sexual infantojuvenil, racismo, desinformação, ações terroristas e ameaças à democracia são alguns dos problemas encontrados” (Silva; Alves; Lopes, 2025, p. 51).
Nessa disputa assimétrica entre as grandes empresas e as pessoas cidadãs – envolvendo um intenso lobby contrário aos marcos legais, liderado por associações empresariais que defendem o interesse das big techs (Silva, 2025) –, a regulação do espaço digital, segundo os especialistas, deve passar pelo debate qualificado, ampla consulta pública e garantia dos direitos da sociedade (Silva; Alves; Lopes, 2025).
No que tange à segurança pública, em texto anterior postado aqui neste blog propomos uma reflexão a partir dos apontamentos do pesquisador Tarcizio Silva (2023) e do capítulo “Big Data e o ciclo do preconceito: reflexões sobre cuidados éticos necessários na segurança pública cidadã” (que integra a obra Segurança pública e cidadania: desafios contemporâneos, do catálogo de 2025 da Editora UEMG). O diálogo entre as perspectivas apresentadas chama atenção para como o uso de iniciativas tecnológicas diversas nas políticas de segurança não deve menosprezar os vieses de raça, classe e território, correndo o risco de acarretar impactos avassaladores.
Seguindo nesse debate, é importante considerar também os efeitos nas dinâmicas e condições ambientais. Mariana Lopes (2025) discute que as IA generativas “são vistas como soluções, mas também [como] grandes consumidoras de energia e emissoras de carbono” (p. 45). Ela destaca que esses softwares trabalham com um banco de dados bastante extenso – o que, consequentemente, envolve “um significativo gasto energético no processo de coleta, processamento, classificação e armazenamento desses dados” (Lopes, 2025, p. 47). A pesquisadora resgata um dado que demonstra que em 2023 o Google emitiu 48% a mais de gases de efeito estufa, em comparação às emissões registradas em 2019, devido às demandas para a expansão do uso da IA (Jackson, 2024).
Além disso, Lopes (2025) afirma que os data centers construídos por essas grandes empresas de tecnologia são marcados por um alto consumo de água e dos recursos naturais. Com o esgotamento dos recursos do seu entorno em seus países de origem, há registros de movimentações deliberadas, por parte dessas organizações, em direção à Índia e a países da América Latina, principalmente o Brasil. Ela menciona que os locais mais visados estão nos territórios amazônicos e nas áreas urbanas “nas quais os grupos submetidos às mais diversas violências e situações de subalternidade em função de sua etnia/raça, identidade de gênero, sexo e condições econômicas geralmente são os mais impactados por desastres ambientais” (Lopes, 2025, p. 50).
Por fim, quando pensamos no âmbito da produção científica, não é diferente. Embora haja bons exemplos de incorporação da IA para criar imagens e construir associações que antes, humanamente, seriam muito mais difíceis (Sampaio; Perich, 2023), vêm se tornando comuns episódios de pesquisadores(as) citando textos que sequer foram publicados e que foram “inventados” pelos aplicativos de IA generativa (Referências falsas, 2025).
Todo esse panorama nos coloca num cenário bastante complexo. Se, por exemplo, formos pensar na realidade específica do uso de IA em trabalhos publicados pelos periódicos acadêmicos – uma das principais instâncias de compartilhamento do conhecimento produzido nas universidades –, surgem algumas questões: como os textos vêm sendo preparados? Como sinalizar às equipes dos periódicos e às pessoas leitoras que houve ou não uso de IA generativa no texto ou nas imagens daquele trabalho? Como isso pode interferir na qualidade de uma publicação? Como as pessoas que compõem o corpo de pareceristas de uma revista devem agir? Quais cuidados tomar? Como proceder, eticamente? Como essa responsabilidade será compartilhada pelos sujeitos envolvidos em todo o processo?
Enfim, os desafios não são poucos e são múltiplas as questões, ainda mais com essa sensação constante de tempo encurtado/acelerado, num contexto global de mudanças climáticas e em um país fortemente marcado por desigualdades estruturais.
Rafael Sampaio e Rafael Perich (2023, [n. p.]) afirmam que “periódicos de alto impacto, como Nature, Science, e The Lancet, já iniciaram a discussão” sobre quais serão os caminhos para incorporar a IA na rotina acadêmica de maneira responsável.
Sendo assim, deixamos aqui um convite especial: no dia 12 de dezembro, às 15 horas, na TV UEMG, canal da Universidade no YouTube, a Editora UEMG vai promover a live “Inteligência artificial e periódicos científicos: desafios, limites e responsabilidades”. O encontro vai contar com a participação dos professores e pesquisadores Carine Webber (UCS e Georgia Tech) e Robson Cruz (PUC Minas), doutores especialistas no tema, e a mediação ficará por conta da professora doutora Amanda Tolomelli (FaE/UEMG), integrante do Conselho Editorial da EdUEMG. Além disso, a abertura será feita pelo professor doutor Thiago Torres Costa Pereira (UEMG), vice-reitor da UEMG e editor-chefe da EdUEMG.
Com certeza, será um momento de novos aprendizados e ricos debates, além de uma oportunidade para tirar as dúvidas relacionadas ao tema e pensarmos, coletivamente, em alternativas para esse cenário. Afinal, todos os pontos discutidos ao longo deste texto não são de fácil resolução.
O link para a transmissão pode ser acessado em: bit.ly/live-ia-e-periodicos. Não dá para perder!
Referências
JACKSON, Fiona. Google’s Greenhouse Gas Emissions Increased by 48% Since 2019, Thanks to AI Pursuits. TechRepublic, [s. l.], 5 jul. 2024. Disponível aqui. Acesso em: 1 dez. 2025.
LOPES, Mariana. Crise ambiental: a inteligência artificial generativa irá nos salvar?. In: SILVA, Tarcizio (org.). Inteligência artificial generativa: discriminação e impactos sociais. Online: Desvelar, 2025. p. 45-56. Disponível aqui. Acesso em: 1 dez. 2025.
NOVAIS, Ricardo Mari de. Big Data e o ciclo do preconceito: reflexões sobre cuidados éticos necessários na segurança pública cidadã. In: GUERRA, Júnia Fátima do Carmo; ALMEIDA, Gustavo Tomaz de; COTTA, Francis Albert (org.). Segurança pública e cidadania: desafios contemporâneos. Belo Horizonte: Editora UEMG, 2025. p. 16-37.
POELL, Thomas; NIEBORG, David; DIJCK, José van. Plataformização. Fronteiras – estudos midiáticos, v. 22, n. 1, p. 2-10, 2020. Disponível aqui. Acesso em: 28 nov. 2025.
REFERÊNCIAS falsas. Revista Pesquisa Fapesp, São Paulo, 25 jun. 2025. Disponível aqui. Acesso em: 1 dez. 2025.
SAMPAIO, Rafael Cardoso; PERICH, Rafael. Cinco mudanças da inteligência artificial na pesquisa científica, Revista Piauí, online, 19 maio 2023. Disponível aqui. Acesso em: 1 dez. 2025.
SILVA, Fernanda dos Santos Rodrigues; ALVES, Marco Antônio Sousa; LOPES, Mariana Alves Araújo. A questão negra na regulação das plataformas digitais: uma análise da consulta realizada pelo CGI.br. POLITICS, online, v. 40, n. 1, p. 51-64, 2025. Disponível aqui. Acesso em: 28 nov. 2025.
SILVA, Gislene. Pode o conceito reformulado de bios midiático conciliar mediações e midiatização? In: MATTOS, Maria Ângela; JANOTI JUNIOR, Jeder; JACKS, Nilda. (orgs.). Mediação e Midiatização. Salvador: EDUFBA; Brasília: Compós, 2012. p. 107-122.
SILVA, Tarcizio. O racismo algorítmico é uma espécie de atualização do racismo estrutural. [Entrevista concedida a] Daiane Batista. Centro de Estudos Estratégicos da Fiocruz Antonio Ivo de Carvalho (CEE-Fiocruz), [s. l.], 30 mar. 2023. Disponível aqui. Acesso em: 23 jun. 2025.
SILVA, Tarcizio. Papagaios Estocásticos: a revanche da epistemologia da ignorância. In: SILVA, Tarcizio (org.). Inteligência artificial generativa: discriminação e impactos sociais. Online: Desvelar, 2025. Disponível aqui. Acesso em: 1 dez. 2025.
*Abraão Filipe Oliveira é bacharel em Comunicação Social/Jornalismo pela Universidade Federal de Viçosa (UFV) e mestre em Comunicação pela Universidade Federal de Minas Gerais (UFMG). Atualmente, é bolsista Fapemig, atuando como comunicólogo na equipe da Editora UEMG.


