Qualidade e Manutenção de Software, com Carla Bezerra (UFC Quixadá) Podcast Por  arte de portada

Qualidade e Manutenção de Software, com Carla Bezerra (UFC Quixadá)

Qualidade e Manutenção de Software, com Carla Bezerra (UFC Quixadá)

Escúchala gratis

Ver detalles del espectáculo
OFERTA POR TIEMPO LIMITADO. Obtén 3 meses por US$0.99 al mes. Obtén esta oferta.

Neste episódio do Fronteiras da Engenharia de Software, Adolfo Neto e Maria Claudia Emer conversam com Carla Bezerra, professora da Universidade Federal do Ceará (UFC) – Campus Quixadá, sobre Qualidade e Manutenção de Software.

Na primeira parte, Carla fala sobre sua trajetória acadêmica e profissional, sua experiência em melhoria de processos e testes de software, e sua atuação no Programa de Pós-Graduação em Computação (PCOMP).

A conversa aborda os fundamentos de qualidade e manutenção de software, exemplos práticos de problemas de pesquisa, e destaca trabalhos recentes, como o artigo “On the Effectiveness of Trivial Refactorings in Predicting Non-trivial Refactorings” (JSERD 2024) e o estudo “Avaliação da qualidade dos testes Python gerados por grandes modelos de linguagem” (EASE 2025).

Também são discutidos os resultados do artigo sobre code smells em aplicações React com TypeScript, publicado na Information and Software Technology, e a continuidade dessa linha de pesquisa para outros frameworks.

Na parte final, Carla comenta sua co-coordenação da Trilha de Educação do SBES 2026, convida novos alunos e colaboradores, e compartilha sua visão sobre a próxima fronteira da engenharia de software.


🎧 Fronteiras da Engenharia de Software é um podcast para refletir sobre o presente e o futuro da nossa área, parte da Rede Emílias de Podcasts.


Pessoa entrevistada:

Carla Bezerra: https://www.quixada.ufc.br/docente/carla-ilane-moreira-bezerra/


Entrevistadores:

Adolfo Neto (PPGCA UTFPR): https://bit.ly/FES_AdolfoNeto

Maria Claudia Emer (PPGCA UTFPR): https://bit.ly/FES_MariaClaudia


Artigos:


On the Effectiveness of Trivial Refactorings in Predicting Non-trivial Refactorings

Sobre a eficácia das refatorações triviais na previsão de refatorações não triviais

https://doi.org/10.5753/jserd.2024.3324


Avaliação da qualidade dos testes Python gerados por grandes modelos de linguagem

Quality Assessment of Python Tests Generated by Large Language Models

https://arxiv.org/abs/2506.14297


Detecção de code smells em aplicações React com TypeScript

Detection of code smells in React with TypeScript applications

https://doi.org/10.1016/j.infsof.2025.107835


Contributing to open-source projects in refactoring code smells: A practical experience in teaching Software Maintenance

https://doi.org/10.5753/sbes.2024.3507


Detecting Test Smells in Python Test Code Generated by LLM: An Empirical Study with GitHub Copilot


https://doi.org/10.5753/sbes.2024.3561

Todavía no hay opiniones