Item added to cart
1 Einleitung.- 2 Stochastische Grundlagen.- 2.1 Zufalls variable und ihre Verteilung.- 2.2 Markoff-Ketten.- 2.3 ?bungsaufgaben.- 3 Information und Entropie.- 3.1 Entropie und Transinformation.- 3.2 Axiomatische Charakterisierung der Entropie.- 3.3 ?bungsaufgaben.- 4 Kodierung diskreter Quellen.- 4.1 Kodes fester L?nge.- 4.2 Kodes variabler L?nge.- 4.3 Bin?re Suchb?ume.- 4.4 Station?re Quellen, Markoff-Quellen.- 4.5 ?bungsaufgaben.- 5 Diskrete ged?chtnislose Kan?le.- 5.1 Kanalkapazit?t.- 5.2 Kanaldekodierung.- 5.3 Der Shannonsche Fundamentalsatz.- 5.4 Kaskadenkan?le und Umkehrung des Fundamentalsatzes&.- 5.5 ?bungsaufgaben.- 6 Fehlerkorrigierende Kodes.- 6.1 Blockkodes und Hamming-Distanz.- 6.2 Lineare Kodes.- 6.3 Faltungskodes und der Viterbi-Algorithmus.- 6.4 ?bungsaufgaben.- 7 Anhang: endliche K?rper.Wenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch ?bertragen wird, wieviel fehlerkorrigierende Redundanz mu? man dann hinzuf?gen, um eine faktisch fehlerfreie Daten?bertragung zu gew?hrleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren ?bertragung in gest?rten Kan?len bereitstellt. Wegen der hierbei auftretenden Zufallseinfl?sse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsr?ume eine Einf?hrung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie ged?chtnislose, station?re und Markoff-Quellen. Der Anschlu? solcher Quellen an einen gest?rten Kanal f?hrt zum Begriff der Kanalkapazit?t, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschlu? bildet ein kurzes Klóå
Copyright © 2018 - 2024 ShopSpell