
Ingannare l’IA con gli adversarial attacks
No se pudo agregar al carrito
Add to Cart failed.
Error al Agregar a Lista de Deseos.
Error al eliminar de la lista de deseos.
Error al añadir a tu biblioteca
Error al seguir el podcast
Error al dejar de seguir el podcast
-
Narrado por:
-
De:
L'intelligenza artificiale sta cambiando il nostro mondo, ma con questa rivoluzione emergono nuovi rischi legati alla sicurezza dei sistemi IA. Gli adversarial attacks rappresentano una minaccia concreta e spesso sottovalutata: manipolazioni sottili dei dati di input che possono ingannare un'IA, facendole produrre risultati completamente errati. A differenza degli attacchi informatici tradizionali, per compromettere un sistema di intelligenza artificiale basta manipolare i dati su cui il sistema opera, spesso con modifiche impercettibili all'occhio umano. In questa puntata analizziamo come funzionano questi attacchi, quali sono i rischi per settori critici come la guida autonoma e la medicina e quali strategie di difesa possiamo adottare per proteggere i sistemi di intelligenza artificiale.
Nella sezione delle notizie parliamo di Threads che si apre maggiormente al fediverso, della nuova mappa stellare della Galassia dello Scultore ottenuta dal Very Large Telescope e infine di YouTube che sta intensificando la sua guerra contro gli ad-blocker.
--Indice--
00:00 - Introduzione
00:57 - Threads si apre al fediverso (TheVerge.com, Luca Martinelli)
02:21 - La nuova mappa stellare della Galassia dello Scultore (HDBlog.it, Matteo Gallo)
03:27 - YouTube rallenta i video agli utenti con ad-blocker (DDay.it, Davide Fasoli)
04:46 - Ingannare l’IA con gli adversarial attacks (Luca Martinelli)
15:26 - Conclusione
--Testo--
Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E25#testo
--Contatti--
• www.dentrolatecnologia.it
• Instagram (@dentrolatecnologia)
• Telegram (@dentrolatecnologia)
• YouTube (@dentrolatecnologia)
• redazione@dentrolatecnologia.it
--Brani--
• Ecstasy by Rabbit Theft
• Redemption by Max Brhon