Università degli studi dell'Insubria

INFORMAZIONE, TRASMISSIONE E CODICI A PROTEZIONE D'ERRORE

A.A. di erogazione 2018/2019
Insegnamento obbligatorio

Laurea triennale in INFORMATICA
 (A.A. 2017/2018)

Docenti

BOFFA STEFANIA
Anno di corso: 
2
Tipologia di insegnamento: 
Caratterizzante
Settore disciplinare: 
INFORMATICA (INF/01)
Crediti: 
6
Ciclo: 
Secondo Semestre
Ore di attivita' frontale: 
52
Dettaglio ore: 
Lezione (40 ore), Esercitazione (12 ore)

1) Conoscenza e capacità di comprensione
Il corso permette agli studenti di acquisire una solida preparazione sugli aspetti fondamentali della teoria delle probabilità e sui modelli probabilistici discreti, inoltre fornisce i rudimenti della teoria dell'informazione classica di Shannon (entropia, informazione mutua, compressione dell'informazione, trasmissione senza perdita di informazione), e i suoi legami con la teoria dei codici a protezione d'errore. Alla fine del corso l’allievo dovrà essere in grado di esporre, collegare e confrontare i principali concetti e risultati presentati nel corso, di dimostrare i teoremi fondamentali del programma d’esame. Dovrà saper risolvere problemi coniugando le conoscenze teoriche con il riconoscimento, la selezione o la costruzione di modelli, seguendo l'esempio fornito dalle esercitazioni.

2) Capacità di applicare conoscenza e comprensione

Le esercitazioni del corso mirano a far acquisire la capacità di formulare semplici modelli e di affrontare problemi di media difficoltà in condizioni di incertezza. Gli studenti inoltre dovranno essere in grado di applicare le basi della teoria astratta dell’informazione di Shannon in svariate situazioni concrete.
3) Autonomia di giudizio
Una parte importante del corso mira a favorire lo sviluppo di abilità logiche, riconoscendo le ipotesi essenziali per le tesi da dimostrare. Molti problemi di tipo stocastico ammettono soluzioni differenziate, questo consentirà di svolgere esercitazioni mirate a far riconoscere dimostrazioni corrette e a distinguere ragionamenti errati o lacunosi. Argomenti quali l’indipendenza e l’indipendenza condizionale si prestano particolarmente bene per tale scopo. Il calcolo delle probabilità, accanto alla sua natura assiomatica, è ampiamente utilizzato per lo sviluppo di modelli matematici e tra gli esercizi proposti molti richiedono lo sviluppo di capacità di modellizzazione.
4) Abilità comunicative
Per potersi impadronire dei nuovi concetti proposti in questo corso, lo studente deve abituarsi a esprimersi in modo rigoroso, formalizzando correttamente intuizioni e riuscendo ad esprimerle in forma orale e scritta.
5) Capacità di apprendimento
Il corso introduce degli elementi di base che saranno utili per proseguire gli studi informatici. L’acquisizione del linguaggio di base del calcolo delle probabilità renderà inoltre possibili approfondimenti successivi, auto-organizzati dallo studente per affrontare esigenze di tipo lavorativo.

Prerequisiti: 

Contenuti di base di algebra, geometria e analisi matematica.

Introduzione alla probabilità e al calcolo combinatorio (26 ore): Spazi campionari, eventi, funzioni di probabilità, probabilità condizionate, indipendenza fra eventi. Esempi. Variabili aleatorie discrete, funzioni di densità discrete, variabili bernoulliane, binomiali, geometriche e ipergeometriche. Variabili multi-dimensionali, legge multinomiale. Valore atteso e varianza di una variabile aleatoria. Disuguaglianza di Chebychev. Distribuzioni congiunte, condizionate, marginali. Valori attesi e varianze di funzioni di variabili aleatorie. Legge dei grandi numeri (debole).
Introduzione alla teoria dell'informazione e alla teoria dei codici (8 ore):
Incertezza ed Informazione associata ad eventi, additività. Sorgenti di informazione discrete senza memoria, entropia e proprietà. Codifica di sorgente: codici univocamente decodificabili e non, istantanei e non. Disuguaglianze di Kraft e McMillan. Entropia e lunghezza media di un codice, codifica senza rumore, codifica compatta (Huffman). Codici ottimi e assolutamente ottimi. Primo teorema di Shannon. Decodifica e probabilità d'errore, minima distanza di Hamming. Codici a protezione d'errore: codifica, decodifica. Codici a blocchi. Codici a ripetizione. Codici a controllo di parità. Codici di Hamming. Esercirazioni sugli argomenti di teoria delle probabilità (18 ore)

Lezioni frontali ed esercitazioni che consistono nello svolgimento di esercizi che applicano i contenuti teorici sviluppati.

Modalita' di verifica dell'apprendimento: 

L’esame consiste in una prova scritta che sarà strutturata come segue:
- 3 o 4 esercizi sulla probabilità e
- 2 o 3 domande di teoria, tra cui 1 o 2 sulla Teoria delle Probabilità (sicuramente un teorema con dimostrazione) e una sulla Teoria dell'Informazione.
La prova scritta si supera ottenendo un punteggio maggiore o uguale a 18 su 30 ed è seguita da una prova orale facoltativa.

Libri di testo:
• Paolo Baldi, Calcolo delle probabilità, Mc Graw-Hill (capp. 1 e 2);
• Norman Abramson, Information theory and coding, Mc Graw-Hill (capp.1-6);
• E. Angeleri, Informazione: Significato e universalità, Utet 2000 (Sez. 6.3).
Saranno fornite delle dispense sul sito e-learning

Cerchi il programma? Potrebbe non essere ancora stato caricato o riferirsi ad insegnamenti che verranno erogati in futuro.
Seleziona l‘anno in cui ti sei immatricolato e troverai le informazioni relative all'insegnamento del tuo piano di studio.

A.A. 2016/2017

Anno di corso: 2
Curriculum: PERCORSO COMUNE

A.A. 2015/2016

Anno di corso: 2
Curriculum: PERCORSO COMUNE

A.A. 2014/2015

Anno di corso: 2
Curriculum: PERCORSO COMUNE

A.A. 2013/2014

Anno di corso: 2
Curriculum: PERCORSO COMUNE