Longo G., teoria dell'informazione, p. 428, 1980, € 30,90
1 UN'INTRODUZIONE
1.1 Introduzione
1.2 L'informazione
1.3 Informazione, probabilità e incerte3zza
1.4 Schema del sistema di comunicazione unidimensionale
1.5 Codificatore e decodificatore
1.6 Un semplice modello di sorgente
1.7 Un semplice modello di canale
1.8 Codifica di sorgente
1.9 Codifica di canale
1.10 Regole di decisione
1.11 Codifica con una misura di distorsione
1.12 Codici universali
1.13 Sommario e conclusioni
Esercizi
2 CODIFICA A LUNGHEZZA VARIABILE PER SORGENTI SENZA MEMORIA
2.1 Introduzione
2.2 Alberi radicati e codici univocamente decifrabili
2.3 Risultati asintotici. Significato dell'entropia
2.4 Il codice di Huffman
2.5 I codici LV-B. Il codice di Tunstall
2.6 Il codice di Elias
2.7 I codici binomiali
2.8 Sommario e conclusioni
Esercizi
3 CODICI A LUNGHEZZA COSTANTE PER SORGENTI SENZA MEMORIA
3.1 Introduzione
3.2 I codici a lunghezza costante
3.3 I teoremi di Shannon
3.4 Il teorema inverso forte e l'esponente di errore
3.5 Impostazione combinatoria
3.6 Sommario e conclusioni
Esercizi
4 SORGENTI CON MEMORIA
4.1 Introduzione
4.2 Sorgenti stazionarie
4.3 Sorgenti ergodiche
4.4 Le sorgenti di Markov
Esercizi
5 I CANALI FINITI SENZA MEMORIA
5.1 Introduzione
5.2 Capacità di un canale finito senza memoria e teorema di codifica
5.3 La funzione capacità-costo
5.4 Un teorema di codifica più generale
5.5 Calcolo della capacità
Esercizi
6 CODIFICA DI SORGENTE CON UNA MISURA DI DISTORSIONE
6.1 Introduzione
6.2 Misure di distorsione e criteri di fedeltà
6.3 La funzione tasso-distorsione
6.4 I teoremi di codifica
6.5 Codifica congiunta di sorgente e di canale
Esercizi
7 CODIFICA UNIVERSALE PER LE SORGENTI D'INFORMAZIONE
7.1 Introduzione
7.2 Codifica universale di sorgente in assenza di rumore: caso B-LV
7.3 Analisi dei diversi tipi di universalità
7.4 Il "teorema dei dizionari"
7.5 Codifica universale di sorgente in assenza di rumore: caso B-B
7.6 Codifica universale con una misura di distorsione: caso B-B
7.7 Sommario e conclusioni
APPENDICE A PROPRIETÀ FORMALI DELL'ENTROPIA, DELL'INFORMAZIONE MUTUA E DELLA DIVERGENZA INFORMAZIONALE
A.1 Introduzione
A.2 Le grandezze fondamentali e le loro proprietà
A.3 Applicazioni alla trasmissione dell'informazione
Esercizi
APPENDICE B MISURE D'INFORMAZIONE GENERALIZZATE
B.1 L'entropia di Shannon e le
entropie di ordine α
B.2 Un'interpretazione tassonomica dell'entropia
B.3 L'informazione utile
B.4 Altre misure d'informazione
APPENDICE C ENTROPIA E COEFFICIENTI BINOMIALI
C.1 La formula di Stirling
C.2 Valutazioni dei coefficienti binomiali
C.3 Valutazione di una somma di coefficienti binomiali
C.4 La limitazione di Černov
APPENDICE D CENNI SULLA TEORIA DELLA RICERCA
D.1 Preliminari
D.2 Teoria della ricerca e codici
D.3 Alcuni risultati
D.4 Codici alfabetici
D.5 Alcuni problemi particolari
D.6 Ricerca aleatoria
APPENDICE E FUNZIONI CONVESSE
APPENDICE F TEORIA DELL'INFORMAZIONE E STATISTICA
F.1 Verifica di un'ipotesi
alternativa semplice
F.2 Comportamento asintotico
APPENDICE G LE LEGGI DEI GRANDI NUMERI
G.1 La legge debole dei grandi
numeri
G.2 La legge forte dei grandi numeri
APPENDICE H SEQUENZE TIPICHE IN COMPOSIZIONE
H.1 Tipi e classi n-uple
H.2 Sequenze tipiche in composizione
H.3 Sequenze condizionatamente tipiche
APPENDICE J CENNI SULLA CODIFICA DELLE IMMAGINI
J.1 Introduzione
J.2 Passaggio dall'analogico al discreto
J.3 Riduzione della ridondanza
J.4 Riduzione del rumore di quantizzazione
J.5 Conclusioni
APPENDICE L TAVOLE NUMERICHE
INDICE ANALITICO