Udicentro na CBSoft 2025

Campus Uberlândia Centro será representado com quatro trabalhos científicos no Congresso Brasileiro de Software (CBSoft) 2025

Duas estudantes do Ensino Médio e um egresso de graduação apresentaram suas pesquisas no auditório do Campus antes da viagem
Publicado em 19/09/2025 13:13 Atualizado em 26/09/2025 16:11
Compartilhe:
Compartilhe:
Julyanara, Felipe e Giovanna em apresentação no auditório do Campus
Julyanara, Felipe e Giovanna em apresentação no auditório do Campus
Crédito: Divulgação

O Campus Uberlândia Centro, do Instituto Federal do Triângulo Mineiro (IFTM), marca presença mais uma vez no Congresso Brasileiro de Software (CBSoft). Em 2025, duas estudantes do Ensino Médio Integrado, um egresso do curso de Sistemas para Internet, além de um professor tiveram seus trabalhos aceitos para apresentação no evento. Nesta quinta-feira (18), três desses trabalhos foram apresentados no auditório do Campus para outros alunos da unidade. A atividade serviu de preparação para a viagem para a CBSoft, que este ano acontece em Recife, entre os dias 22 e 26 de setembro.

Estudante do Ensino Médio Integrado, Julyanara Rodrigues Silva teve seu artigo “Do LLMs Suggest Consistent Identifiers?” aprovado com nota máxima no IV Brazilian Workshop on Intelligent Software Engineering (ISE’25). O estudo investiga se modelos de IA sugerem bons nomes para variáveis e funções em códigos de software.

Também estudante do Ensino Médio Integrado, Giovanna Fernandes apresentará o artigo “How Readable Is LLM-Generated Code Snippets?”, aprovado no 13th Workshop on Software Visualization, Evolution and Maintenance (VEM 2025). O trabalho compara a clareza de códigos gerados por ChatGPT, DeepSeek e Gemini, mostrando como a IA pode gerar trechos mais legíveis e fáceis de manter.

A graduação ficou representada por Felipe Reis, egresso do curso de Tecnologia em Sistemas para Internet, que classificou seu TCC “How Close Is ChatGPT to Developer Judgment?” para a segunda fase do Concurso de Trabalhos de Iniciação Científica do SBES. Ele analisou como o ChatGPT se compara ao julgamento humano em questões de Java do Stack Overflow.

Todos os projetos foram orientados pelo professor Carlos Eduardo Carvalho Dantas, que também teve um artigo aprovado no Journal First Track do SBES 2025, em parceria com docentes da UFU. O professor comemorou a aprovação dos trabalhos de seus orientandos e aproveitou para explicar um pouco sobre o trabalho que vai levar para a CBSoft este ano. “O estudo mostrou que a forma como as páginas aparecem no resultado de busca influencia diretamente o tempo que programadores levam para concluir suas tarefas. Quando o ranqueamento é de pior qualidade, eles acabam gastando mais tempo em páginas pouco úteis. A pesquisa também indica que destacar os conteúdos mais frequentes de cada página pode ajudar a encontrar respostas mais rapidamente e evitar desperdício de tempo”, explicou Carlos Eduardo.

Durante a reunião no auditório do Campus, no dia 18, Julyanara, Giovanna e Felipe tiveram a chance de compartilhar seus trabalhos com outros estudantes do IFTM Uberlândia Centro. Na semana seguinte, eles viajam, ao lado de Carlos Eduardo, para a CBSoft.

Um olhar sobre o Chat GPT

Estudante do 3º ano do curso técnico em Desenvolvimento de Sistemas Integrado ao Ensino Médio, Julyanara Rodrigues é uma das aprovadas para a CBSoft 2025. No ano passado, ela conquistou o prêmio de melhor artigo no 12º Workshop sobre Visualização, Manutenção e Evolução de Software (VEM 2024), evento que fez parte da programação do Congresso. Em 2025, Julyanara teve seu artigo aprovado para apresentação em outra atividade do evento, o IV Brazilian Workshop on Intelligent Software Engineering (ISE'25).

Intitulado “Do LLMs Suggest Consistent Identifiers? An Empirical Study on GitHub Pull Requests”, o artigo recebeu nota máxima dos três revisores e investiga se modelos de inteligência artificial, como o ChatGPT, são capazes de sugerir bons nomes para variáveis, métodos e funções em código de software. Como os nomes representam até 70% do conteúdo de programas e são fundamentais para a compreensão do código, o estudo analisou mais de 300 pull requests reais no GitHub, sendo 152 em Java e 168 em Python, nos quais os nomes originais foram melhorados.

Os resultados mostraram que o ChatGPT acertou exatamente o nome escolhido pelo desenvolvedor em 16% dos casos em Python e chegou próximo em mais de 65%. O desempenho foi melhor em Python do que em Java. Além disso, a pesquisa revelou que a configuração de “temperatura” (grau de criatividade da IA) influencia os resultados: valores mais altos funcionaram melhor para Java, enquanto valores intermediários foram mais eficazes em Python .

O estudo demonstra que tarefas subjetivas, como a escolha de nomes no código, podem ser beneficiadas por IA, desde que haja ajustes adequados nos parâmetros dos modelos. Isso amplia a compreensão dos limites e possibilidades da IA na escrita de software, indo além das tarefas tradicionais de correção e formatação.

Comparando modelos de IA

O artigo “How Readable Is LLM-Generated Code Snippets? A Comparison of ChatGPT, DeepSeek, and Gemini”, de Giovanna Fernandes, sob orientação do professor Carlos Eduardo Dantas, foi aprovado no 13th Workshop on Software Visualization, Evolution and Maintenance (VEM 2025), que ocorrerá durante o XVI Congresso Brasileiro de Software .

O estudo busca avaliar a clareza e legibilidade de trechos de código gerados por inteligência artificial, comparando três modelos: ChatGPT, DeepSeek e Gemini. Foram analisados 981 trechos de código (327 de cada modelo), utilizando o SonarLint, ferramenta popular entre desenvolvedores para detectar problemas de leitura e compreensão em códigos .

Os resultados mostram que o ChatGPT se destacou por gerar códigos com menos alertas de legibilidade. Além disso, todos os modelos foram capazes de refatorar mais de 60% dos trechos problemáticos, corrigindo alertas identificados. O trabalho também apresentou uma proposta preliminar que combina recomendações do SonarLint com os LLMs para automatizar a refatoração .

Por outro lado, o estudo identificou limitações: em alguns casos, os modelos não compreenderam totalmente o contexto das regras de legibilidade, aplicando mudanças inadequadas ou que alteravam a intenção original do código. Mesmo assim, a pesquisa aponta caminhos para integrar a rapidez e flexibilidade da IA com a precisão das ferramentas estáticas de análise, favorecendo a criação de softwares mais claros e sustentáveis.

ChatGPT vs. Humanos: Uma Análise Inovadora

A pesquisa de Felipe Reis investiga um tema atual e de grande impacto para a área de tecnologia: a capacidade da inteligência artificial de replicar o julgamento humano. O estudo comparou as respostas oferecidas pelo ChatGPT com as soluções escolhidas por desenvolvedores de software em uma plataforma consolidada, o Stack Overflow.

O Stack Overflow é um dos maiores sites de perguntas e respostas para programadores, onde a própria comunidade valida as melhores soluções para problemas técnicos. "Antes do ChatGPT existir, os desenvolvedores pesquisavam por ajuda no Google, e um dos sites que o Google mais recomendava era o Stack Overflow, que é, basicamente, uma plataforma de perguntas e respostas", explica o orientador.

O objetivo da pesquisa foi verificar se o ChatGPT conseguiria escolher a mesma resposta que a comunidade de desenvolvedores do Stack Overflow elegeu como a melhor para uma determinada pergunta. O estudo revelou ainda que, mesmo nos casos em que a ferramenta de IA não escolheu a resposta "campeã", suas escolhas eram igualmente de alta qualidade.

Compartilhe:

Notícias relacionadas