Informationstheorie: Unterschied zwischen den Versionen
David (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „==Buchübersicht== Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathem…“) |
|||
(29 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
− | + | Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß zu finden für die | |
− | Seit den ersten Anfängen der Nachrichtenübertragung als | + | *in einer $\rm Nachricht$ (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“) |
+ | *enthaltene $\rm Information$ (ganz allgemein: „die Kenntnis über irgend etwas“). | ||
− | + | Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden. | |
+ | [https://de.wikipedia.org/wiki/Claude_Shannon Claude Elwood Shannon] gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte $\text{Shannonsche Informationstheorie}$. | ||
+ | |||
+ | Der Lehrstoff entspricht einer $\text{Vorlesung mit zwei Semesterwochenstunden (SWS) und einer SWS Übungen}$. | ||
+ | |||
+ | Hier zunächst eine Inhaltsübersicht anhand der $\text{vier Hauptkapitel}$ mit insgesamt $\text{13 Einzelkapiteln}$. | ||
+ | |||
===Inhalt=== | ===Inhalt=== | ||
{{Collapsible-Kopf}} | {{Collapsible-Kopf}} | ||
− | {{Collapse1| header= | + | {{Collapse1| header=Entropie wertdiskreter Nachrichtenquellen |
| submenu= | | submenu= | ||
− | *[[/ | + | *[[/Gedächtnislose Nachrichtenquellen/]] |
− | *[[/ | + | *[[/Nachrichtenquellen mit Gedächtnis/]] |
− | *[[/ | + | *[[/Natürliche wertdiskrete Nachrichtenquellen/]] |
}} | }} | ||
− | {{Collapse2 | header= | + | {{Collapse2 | header=Quellencodierung - Datenkomprimierung |
|submenu= | |submenu= | ||
*[[/Allgemeine Beschreibung/]] | *[[/Allgemeine Beschreibung/]] | ||
− | *[[/ | + | *[[/Komprimierung nach Lempel, Ziv und Welch/]] |
− | + | *[[/Entropiecodierung nach Huffman/]] | |
− | + | *[[/Weitere Quellencodierverfahren/]] | |
− | |||
− | |||
− | |||
− | |||
− | *[[/ | ||
− | *[[/ | ||
− | |||
}} | }} | ||
− | {{ | + | {{Collapse3 | header=Information zwischen zwei wertdiskreten Zufallsgrößen |
|submenu= | |submenu= | ||
− | *[[/ | + | *[[/Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen/]] |
− | *[[/ | + | *[[/Verschiedene Entropien zweidimensionaler Zufallsgrößen/]] |
− | *[[/ | + | *[[/Anwendung auf die Digitalsignalübertragung/]] |
}} | }} | ||
− | {{ | + | {{Collapse4 | header=Wertkontinuierliche Informationstheorie |
|submenu= | |submenu= | ||
− | *[[/ | + | *[[/Differentielle Entropie/]] |
− | *[[/ | + | *[[/AWGN–Kanalkapazität bei wertkontinuierlichem Eingang/]] |
− | *[[/ | + | *[[/AWGN–Kanalkapazität bei wertdiskretem Eingang/]] |
− | |||
− | |||
}} | }} | ||
{{Collapsible-Fuß}} | {{Collapsible-Fuß}} | ||
+ | |||
+ | Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten: | ||
+ | *[https://www.lntwww.de/Kategorie:Aufgaben_zu_Informationstheorie $\text{Aufgaben}$] | ||
+ | *[[LNTwww:Lernvideos_zu_Informationstheorie|$\text{Lernvideos}$]] | ||
+ | *[[LNTwww:HTML5-Applets_zu_Informationstheorie|$\text{neu gestaltete Applets}$]], basierend auf HTML5, auch auf Smartphones lauffähig | ||
+ | *[[LNTwww:SWF-Applets_zu_Informationstheorie|$\text{frühere Applets}$]], basierend auf SWF, lauffähig nur unter WINDOWS mit ''Adobe Flash Player''. | ||
+ | |||
+ | <br><br> | ||
+ | $\text{Weitere Links:}$ | ||
+ | <br><br> | ||
+ | $(1)$ [[LNTwww:Literaturempfehlung_zu_Informationstheorie|$\text{Literaturempfehlungen zum Buch}$]] | ||
+ | |||
+ | $(2)$ [[LNTwww:Weitere_Hinweise_zum_Buch_Informationstheorie|$\text{Allgemeine Hinweise zum Buch}$]] (Autoren, Weitere Beteiligte, Materialien als Ausgangspunkt des Buches, Quellenverzeichnis) | ||
+ | <br><br> | ||
__NOTOC__ | __NOTOC__ | ||
__NOEDITSECTION__ | __NOEDITSECTION__ |
Version vom 12. Dezember 2019, 13:14 Uhr
Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß zu finden für die
- in einer $\rm Nachricht$ (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
- enthaltene $\rm Information$ (ganz allgemein: „die Kenntnis über irgend etwas“).
Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.
Claude Elwood Shannon gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte $\text{Shannonsche Informationstheorie}$.
Der Lehrstoff entspricht einer $\text{Vorlesung mit zwei Semesterwochenstunden (SWS) und einer SWS Übungen}$.
Hier zunächst eine Inhaltsübersicht anhand der $\text{vier Hauptkapitel}$ mit insgesamt $\text{13 Einzelkapiteln}$.
Inhalt
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:
- $\text{Aufgaben}$
- $\text{Lernvideos}$
- $\text{neu gestaltete Applets}$, basierend auf HTML5, auch auf Smartphones lauffähig
- $\text{frühere Applets}$, basierend auf SWF, lauffähig nur unter WINDOWS mit Adobe Flash Player.
$\text{Weitere Links:}$
$(1)$ $\text{Literaturempfehlungen zum Buch}$
$(2)$ $\text{Allgemeine Hinweise zum Buch}$ (Autoren, Weitere Beteiligte, Materialien als Ausgangspunkt des Buches, Quellenverzeichnis)