Qualidade e Manutenção de Software, com Carla Bezerra (UFC Quixadá)
No se pudo agregar al carrito
Add to Cart failed.
Error al Agregar a Lista de Deseos.
Error al eliminar de la lista de deseos.
Error al añadir a tu biblioteca
Error al seguir el podcast
Error al dejar de seguir el podcast
-
Narrado por:
-
De:
Neste episódio do Fronteiras da Engenharia de Software, Adolfo Neto e Maria Claudia Emer conversam com Carla Bezerra, professora da Universidade Federal do Ceará (UFC) – Campus Quixadá, sobre Qualidade e Manutenção de Software.
Na primeira parte, Carla fala sobre sua trajetória acadêmica e profissional, sua experiência em melhoria de processos e testes de software, e sua atuação no Programa de Pós-Graduação em Computação (PCOMP).
A conversa aborda os fundamentos de qualidade e manutenção de software, exemplos práticos de problemas de pesquisa, e destaca trabalhos recentes, como o artigo “On the Effectiveness of Trivial Refactorings in Predicting Non-trivial Refactorings” (JSERD 2024) e o estudo “Avaliação da qualidade dos testes Python gerados por grandes modelos de linguagem” (EASE 2025).
Também são discutidos os resultados do artigo sobre code smells em aplicações React com TypeScript, publicado na Information and Software Technology, e a continuidade dessa linha de pesquisa para outros frameworks.
Na parte final, Carla comenta sua co-coordenação da Trilha de Educação do SBES 2026, convida novos alunos e colaboradores, e compartilha sua visão sobre a próxima fronteira da engenharia de software.
🎧 Fronteiras da Engenharia de Software é um podcast para refletir sobre o presente e o futuro da nossa área, parte da Rede Emílias de Podcasts.
Pessoa entrevistada:
Carla Bezerra: https://www.quixada.ufc.br/docente/carla-ilane-moreira-bezerra/
Entrevistadores:
Adolfo Neto (PPGCA UTFPR): https://bit.ly/FES_AdolfoNeto
Maria Claudia Emer (PPGCA UTFPR): https://bit.ly/FES_MariaClaudia
Artigos:
On the Effectiveness of Trivial Refactorings in Predicting Non-trivial Refactorings
Sobre a eficácia das refatorações triviais na previsão de refatorações não triviais
https://doi.org/10.5753/jserd.2024.3324
Avaliação da qualidade dos testes Python gerados por grandes modelos de linguagem
Quality Assessment of Python Tests Generated by Large Language Models
https://arxiv.org/abs/2506.14297
Detecção de code smells em aplicações React com TypeScript
Detection of code smells in React with TypeScript applications
https://doi.org/10.1016/j.infsof.2025.107835
Contributing to open-source projects in refactoring code smells: A practical experience in teaching Software Maintenance
https://doi.org/10.5753/sbes.2024.3507
Detecting Test Smells in Python Test Code Generated by LLM: An Empirical Study with GitHub Copilot
https://doi.org/10.5753/sbes.2024.3561