Red Teaming as a Supervisory Tool: Stress-Testing AI Systems
No se pudo agregar al carrito
Solo puedes tener X títulos en el carrito para realizar el pago.
Add to Cart failed.
Por favor prueba de nuevo más tarde
Error al Agregar a Lista de Deseos.
Por favor prueba de nuevo más tarde
Error al eliminar de la lista de deseos.
Por favor prueba de nuevo más tarde
Error al añadir a tu biblioteca
Por favor intenta de nuevo
Error al seguir el podcast
Intenta nuevamente
Error al dejar de seguir el podcast
Intenta nuevamente
-
Narrado por:
-
De:
Red teaming is rapidly becoming a critical component of AI oversight. In this episode, Rumman Chowdhury explains how structured adversarial testing can uncover system vulnerabilities, model failures, and misuse pathways.
The discussion focuses on practical red-teaming approaches that supervisory authorities can adopt, even with limited resources.
Speaker: Rumman Chowdhury (Human Intelligence)
Interviewer: Mirela Kmetic-Marceau, Project Consultant, Ethics of AI Unit, UNESCO
Hosted on Ausha. See ausha.co/privacy-policy for more information.
Todavía no hay opiniones