Informationstheorie: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 1: Zeile 1:
Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker,  ein quantitatives Maß zu finden für die  
+
 
 +
 
 +
{{BlaueBox|TEXT=Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker,  ein quantitatives Maß zu finden für die  
 
*in einer  Nachricht  (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
 
*in einer  Nachricht  (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
  
Zeile 5: Zeile 7:
  
  
Die  (abstrakte)  Information wird durch die  (konkrete)  Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.  
+
Die  $($abstrakte$)$  Information wird durch die  $($konkrete$)$  Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.  
 +
 
 +
[https://de.wikipedia.org/wiki/Claude_Shannon '''Claude Elwood Shannon''']  gelang es 1948,  eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen,  die zu ihrer Zeit revolutionär war und ein neues,  bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  »'''Shannonsche Informationstheorie«'''.»
 +
 
 +
Damit beschäftigt sich das vierte Buch der  LNTwww–Reihe,  insbesondere:
 +
# Entropie wertdiskreter gedächtnisloser,  gedächtnisbehafteter sowie natürlicher Nachrichtenquellen:  Definition,  Bedeutung und Berechnungsmöglichkeiten.
 +
# Quellencodierung und Datenkomprimierung,  insbesondere das Verfahren nach Lempel,  Ziv und Welch sowie die Entropiecodierung nach Huffman. 
 +
# Verschiedene Entropien zweidimensionaler wertdiskreter Zufallsgößen.  Transinformation und Kanalkapazität.  Anwendung auf die Digitalsignalübertragung.   
 +
# Wertdiskrete Informationstheorie.  Differentielle Entropie.  Zwei- und mehrdimensionale Zufallsgößen:  Autokorrelationsfunktion,  Leistungsdichtespektrum,  Korrelationskoeffizient,  Kreuzkorrelationsfunktion. 
 +
# Filterung stochastischer Signale   ⇒   Stochastische Systemtheorie.  Digitales Filter.  Eigenschaften von Matched–Filter und Wiener–Kolmogorow–Filter.
 +
 
 +
 
 +
Kenntnisse der beiden ersten  LNTwww–Bücher,  die die  [[Signaldarstellung|"Darstellung deterministischer Signale"]]  sowie die  [[Lineare_zeitinvariante_Systeme|"Beschreibung linearer zeitinvarianter Systeme"]]  zum Inhalt haben,  sind für das Verständnis des vorliegenden Buches hilfreich,  aber nicht erforderlich.
 +
 
 +
⇒   Hier zunächst eine  »'''Inhaltsübersicht'''«  anhand der  »'''fünf Hauptkapitel'''«  mit insgesamt  »'''28 Einzelkapiteln'''«  und  »'''166 Abschnitten'''«.}}
 +
 
  
:⇒   [https://de.wikipedia.org/wiki/Claude_Shannon '''Claude Elwood Shannon''']  gelang es 1948,  eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen,  die zu ihrer Zeit revolutionär war und ein neues,  bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  Shannonsche Informationstheorie.
 
  
  

Version vom 6. März 2023, 14:06 Uhr


Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker,  ein quantitatives Maß zu finden für die

  • in einer  Nachricht  (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
  • enthaltene  Information  (ganz allgemein: „die Kenntnis über irgend etwas“).


Die  (abstrakte)  Information wird durch die  (konkrete)  Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.

Claude Elwood Shannon  gelang es 1948,  eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen,  die zu ihrer Zeit revolutionär war und ein neues,  bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  »Shannonsche Informationstheorie«

Damit beschäftigt sich das vierte Buch der  LNTwww–Reihe,  insbesondere:

  1. Entropie wertdiskreter gedächtnisloser,  gedächtnisbehafteter sowie natürlicher Nachrichtenquellen:  Definition,  Bedeutung und Berechnungsmöglichkeiten.
  2. Quellencodierung und Datenkomprimierung,  insbesondere das Verfahren nach Lempel,  Ziv und Welch sowie die Entropiecodierung nach Huffman.
  3. Verschiedene Entropien zweidimensionaler wertdiskreter Zufallsgößen.  Transinformation und Kanalkapazität.  Anwendung auf die Digitalsignalübertragung.
  4. Wertdiskrete Informationstheorie.  Differentielle Entropie.  Zwei- und mehrdimensionale Zufallsgößen:  Autokorrelationsfunktion,  Leistungsdichtespektrum,  Korrelationskoeffizient,  Kreuzkorrelationsfunktion.
  5. Filterung stochastischer Signale   ⇒   Stochastische Systemtheorie.  Digitales Filter.  Eigenschaften von Matched–Filter und Wiener–Kolmogorow–Filter.


Kenntnisse der beiden ersten  LNTwww–Bücher,  die die  "Darstellung deterministischer Signale"  sowie die  "Beschreibung linearer zeitinvarianter Systeme"  zum Inhalt haben,  sind für das Verständnis des vorliegenden Buches hilfreich,  aber nicht erforderlich.

⇒   Hier zunächst eine  »Inhaltsübersicht«  anhand der  »fünf Hauptkapitel«  mit insgesamt  »28 Einzelkapiteln«  und  »166 Abschnitten«.



Hier zunächst eine  Inhaltsübersicht  anhand der  vier Hauptkapitel  mit insgesamt  13 Einzelkapiteln.

Inhalt

Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an,  die zur Verdeutlichung des Lehrstoffes beitragen könnten:



Weitere Links:

(1)    Literaturempfehlungen zum Buch

(2)    Allgemeine Hinweise zum Buch   (Autoren,  weitere Beteiligte,  Materialien als Ausgangspunkt des Buches,  Quellenverzeichnis)