Longo G., teoria dell'informazione, p. 428, 1980, € 30,90

1 UN'INTRODUZIONE

1.1 Introduzione
1.2 L'informazione
1.3 Informazione, probabilità e incerte3zza
1.4 Schema del sistema di comunicazione unidimensionale
1.5 Codificatore e decodificatore
1.6 Un semplice modello di sorgente
1.7 Un semplice modello di canale
1.8 Codifica di sorgente
1.9 Codifica di canale
1.10 Regole di decisione
1.11 Codifica con una misura di distorsione
1.12 Codici universali
1.13 Sommario e conclusioni
Esercizi

2 CODIFICA A LUNGHEZZA VARIABILE PER SORGENTI SENZA MEMORIA

2.1 Introduzione
2.2 Alberi radicati e codici univocamente decifrabili
2.3 Risultati asintotici. Significato dell'entropia
2.4 Il codice di Huffman
2.5 I codici LV-B. Il codice di Tunstall
2.6 Il codice di Elias
2.7 I codici binomiali
2.8 Sommario e conclusioni
Esercizi

3 CODICI A LUNGHEZZA COSTANTE PER SORGENTI SENZA MEMORIA

3.1 Introduzione
3.2 I codici a lunghezza costante
3.3 I teoremi di Shannon
3.4 Il teorema inverso forte e l'esponente di errore
3.5 Impostazione combinatoria
3.6 Sommario e conclusioni
Esercizi

4 SORGENTI CON MEMORIA

4.1 Introduzione
4.2 Sorgenti stazionarie
4.3 Sorgenti ergodiche
4.4 Le sorgenti di Markov
Esercizi

5 I CANALI FINITI SENZA MEMORIA

5.1 Introduzione
5.2 Capacità di un canale finito senza memoria e teorema di codifica
5.3 La funzione capacità-costo
5.4 Un teorema di codifica più generale
5.5 Calcolo della capacità
Esercizi

6 CODIFICA DI SORGENTE CON UNA MISURA DI DISTORSIONE

6.1 Introduzione
6.2 Misure di distorsione e criteri di fedeltà
6.3 La funzione tasso-distorsione
6.4 I teoremi di codifica
6.5 Codifica congiunta di sorgente e di canale
Esercizi

7 CODIFICA UNIVERSALE PER LE SORGENTI D'INFORMAZIONE

7.1 Introduzione
7.2 Codifica universale di sorgente in assenza di rumore: caso B-LV
7.3 Analisi dei diversi tipi di universalità
7.4 Il "teorema dei dizionari"
7.5 Codifica universale di sorgente in assenza di rumore: caso B-B
7.6 Codifica universale con una misura di distorsione: caso B-B
7.7 Sommario e conclusioni

APPENDICE A   PROPRIETÀ FORMALI DELL'ENTROPIA, DELL'INFORMAZIONE MUTUA E DELLA DIVERGENZA INFORMAZIONALE

A.1 Introduzione
A.2 Le grandezze fondamentali e le loro proprietà
A.3 Applicazioni alla trasmissione dell'informazione
Esercizi

APPENDICE B   MISURE D'INFORMAZIONE GENERALIZZATE

B.1 L'entropia di Shannon e le entropie di ordine α
B.2 Un'interpretazione tassonomica dell'entropia
B.3 L'informazione utile
B.4 Altre misure  d'informazione

APPENDICE C   ENTROPIA E COEFFICIENTI BINOMIALI

C.1 La formula di Stirling
C.2 Valutazioni dei coefficienti binomiali
C.3 Valutazione di una somma di coefficienti binomiali
C.4 La limitazione di
Černov

APPENDICE D   CENNI SULLA TEORIA DELLA RICERCA

D.1 Preliminari
D.2 Teoria della ricerca e codici
D.3 Alcuni risultati
D.4 Codici alfabetici
D.5 Alcuni problemi particolari
D.6 Ricerca aleatoria

APPENDICE E   FUNZIONI CONVESSE

APPENDICE F   TEORIA DELL'INFORMAZIONE E STATISTICA

F.1 Verifica di un'ipotesi alternativa semplice
F.2 Comportamento asintotico

APPENDICE G   LE LEGGI DEI GRANDI NUMERI

G.1 La legge debole dei grandi numeri
G.2 La legge forte dei grandi numeri

APPENDICE H   SEQUENZE TIPICHE IN COMPOSIZIONE

H.1 Tipi e classi n-uple
H.2 Sequenze tipiche in composizione
H.3 Sequenze condizionatamente tipiche

APPENDICE J   CENNI SULLA CODIFICA DELLE IMMAGINI

J.1 Introduzione
J.2 Passaggio dall'analogico al discreto
J.3 Riduzione della ridondanza
J.4 Riduzione del rumore di quantizzazione
J.5 Conclusioni

APPENDICE L   TAVOLE NUMERICHE

INDICE ANALITICO