Cos’è l’informazione? Dalla codifica analogica alla nozione di bit
No se pudo agregar al carrito
Add to Cart failed.
Error al Agregar a Lista de Deseos.
Error al eliminar de la lista de deseos.
Error al añadir a tu biblioteca
Error al seguir el podcast
Error al dejar de seguir el podcast
-
Narrado por:
-
De:
Che cos’è davvero l’informazione? E come possiamo misurarla?
In questo episodio entriamo nel cuore teorico dell’informatica partendo dal processo di comunicazione: sorgente, segnale, canale, ricezione e codifica. Scopriamo come un semplice segnale fisico – una vibrazione nell’aria, una macchia su un foglio, una luce rossa al semaforo – diventi informazione grazie a un codice che riduce l’ambiguità e permette la trasmissione nello spazio e nel tempo.
Attraverso esempi concreti e piccoli “giochi” di decodifica, esploriamo il legame tra informazione e incertezza, fino ad arrivare alla teoria di Shannon: l’informazione è ciò che riduce l’incertezza. Da qui nasce il concetto di bit, l’unità minima di informazione, e la formula che lega simboli, lunghezza dei messaggi e quantità di significati rappresentabili.
Infine, affrontiamo una distinzione fondamentale: codifica analogica vs codifica digitale. Perché il digitale è meno sensibile al rumore? Perché consente copie perfette, compressione, modularità e multicanalità? E quali sono i suoi limiti rispetto all’analogico?
Un episodio per comprendere le basi teoriche che rendono possibile tutto l’ecosistema digitale in cui viviamo — dai computer alle reti, fino all’intelligenza artificiale.
Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:
https://he.pearson.it/bundle/914