Informationstheorie: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(15 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß zu finden für die
+
===Kurzer Überblick===
*in einer  $\rm Nachricht$  (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
 
*enthaltene  $\rm Information$  (ganz allgemein: „die Kenntnis über irgend etwas“).
 
  
 +
{{BlaueBox|TEXT=Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker,  ein quantitatives Maß zu finden für die
 +
*in einer  »'''Nachricht'''«  $($hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“$)$
  
Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.  
+
*enthaltene  »'''Information'''«  $($ganz allgemein: „die Kenntnis über irgend etwas“$)$.  
  
[https://de.wikipedia.org/wiki/Claude_Shannon Claude Elwood Shannon]  gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  $\text{Shannonsche Informationstheorie}$.
 
  
Der Lehrstoff entspricht einer  $\text{Vorlesung mit zwei Semesterwochenstunden (SWS) und einer SWS Übungen}$.
+
Die  $($abstrakte$)$  Information wird durch die  $($konkrete$)$  Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.  
  
Hier zunächst eine Inhaltsübersicht anhand der  $\text{vier Hauptkapitel}$  mit insgesamt  $\text{13 Einzelkapiteln}$.  
+
[https://de.wikipedia.org/wiki/Claude_Shannon '''Claude Elwood Shannon''']  gelang es 1948,  eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen,  die zu ihrer Zeit revolutionär war und ein neues,  bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  »'''Shannonsche Informationstheorie«'''.»
 +
 
 +
Damit beschäftigt sich das vierte Buch dieser  LNTwww–Reihe,  insbesondere:
 +
# Entropie wertdiskreter gedächtnisloser,  gedächtnisbehafteter sowie natürlicher Nachrichtenquellen:  Definition,  Bedeutung und Berechnungsmöglichkeiten.
 +
# Quellencodierung und Datenkomprimierung,  insbesondere das Verfahren nach Lempel,  Ziv und Welch sowie die Entropiecodierung nach Huffman. 
 +
# Verschiedene Entropien zweidimensionaler wertdiskreter Zufallsgößen.  Transinformation und Kanalkapazität.  Anwendung auf die Digitalsignalübertragung.   
 +
# Wertdiskrete Informationstheorie.  Differentielle Entropie.  AWGN–Kanalkapazität bei wertkontinuierlichem sowie wertdiskretem Eingang. 
 +
 
 +
 
 +
⇒   Hier zunächst eine  »'''Inhaltsübersicht'''«  anhand der  »'''vier Hauptkapitel'''«  mit insgesamt  »'''dreizehn Einzelkapiteln'''«  und  »'''106 Abschnitten'''«.}}   
 
   
 
   
  
Zeile 42: Zeile 50:
 
{{Collapsible-Fuß}}
 
{{Collapsible-Fuß}}
  
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:
+
===Aufgaben und Multimedia===
*[https://www.lntwww.de/Kategorie:Aufgaben_zu_Informationstheorie $\text{Aufgaben}$]
 
*[[LNTwww:Lernvideos_zu_Informationstheorie|$\text{Lernvideos}$]]
 
*[[LNTwww:HTML5-Applets_zu_Informationstheorie|$\text{neu gestaltete Applets}$]], basierend auf HTML5, auch auf Smartphones lauffähig
 
*[[LNTwww:SWF-Applets_zu_Informationstheorie|$\text{frühere Applets}$]], basierend auf SWF, lauffähig nur unter WINDOWS mit ''Adobe Flash Player''.
 
 
 
<br><br>
 
$\text{Weitere Links:}$
 
<br><br>
 
$(1)$&nbsp; &nbsp; [[LNTwww:Literaturempfehlung_zu_Informationstheorie|$\text{Literaturempfehlungen zum Buch}$]]
 
 
 
$(2)$&nbsp; &nbsp; [[LNTwww:Weitere_Hinweise_zum_Buch_Signaldarstellung|$\text{Allgemeine Hinweise zum Buch}$]] &nbsp; (Autoren,&nbsp; Weitere Beteiligte,&nbsp; Materialien als Ausgangspunkt des Buches,&nbsp; Quellenverzeichnis)
 
<br><br>
 
  
  
 +
{{BlaueBox|TEXT=
  
 +
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module zu diesem Thema an,&nbsp; die zur Verdeutlichung des Lehrstoffes beitragen könnten:
  
 +
$(1)$&nbsp; &nbsp; [https://www.lntwww.de/Kategorie:Aufgaben_zu_Informationstheorie $\text{Aufgaben}$]
  
 +
$(2)$&nbsp; &nbsp; [[LNTwww:Lernvideos_zu_Informationstheorie|$\text{Lernvideos}$]]
  
 +
$(3)$&nbsp; &nbsp; [[LNTwww:Applets_zur_Informationstheorie|$\text{Applets}$]]&nbsp;}}
 +
<br>
 +
===Weitere Links:===
  
  
 +
{{BlaueBox|TEXT=
 +
$(4)$&nbsp; &nbsp; [[LNTwww:Literaturempfehlung_zu_Stochastische_Signaltheorie|$\text{Literaturempfehlungen}$]]
  
 
+
$(5)$&nbsp; &nbsp; [[LNTwww:Impressum_zum_Buch_"Informationstheorie"|$\text{Impressum}$]] }}
[[LNTwww:Autoren#Informationstheorie|$\text{Hinweise zu den Autoren und den Materialien, von denen bei der Erstellung des Buches ausgegangen wurde.}$]]
+
<br><br>
  
  
 
__NOTOC__
 
__NOTOC__
 
__NOEDITSECTION__
 
__NOEDITSECTION__

Aktuelle Version vom 26. März 2023, 15:41 Uhr

Kurzer Überblick

Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker,  ein quantitatives Maß zu finden für die

  • in einer  »Nachricht«  $($hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“$)$
  • enthaltene  »Information«  $($ganz allgemein: „die Kenntnis über irgend etwas“$)$.


Die  $($abstrakte$)$  Information wird durch die  $($konkrete$)$  Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.

Claude Elwood Shannon  gelang es 1948,  eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen,  die zu ihrer Zeit revolutionär war und ein neues,  bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  »Shannonsche Informationstheorie«

Damit beschäftigt sich das vierte Buch dieser  LNTwww–Reihe,  insbesondere:

  1. Entropie wertdiskreter gedächtnisloser,  gedächtnisbehafteter sowie natürlicher Nachrichtenquellen:  Definition,  Bedeutung und Berechnungsmöglichkeiten.
  2. Quellencodierung und Datenkomprimierung,  insbesondere das Verfahren nach Lempel,  Ziv und Welch sowie die Entropiecodierung nach Huffman.
  3. Verschiedene Entropien zweidimensionaler wertdiskreter Zufallsgößen.  Transinformation und Kanalkapazität.  Anwendung auf die Digitalsignalübertragung.
  4. Wertdiskrete Informationstheorie.  Differentielle Entropie.  AWGN–Kanalkapazität bei wertkontinuierlichem sowie wertdiskretem Eingang.


⇒   Hier zunächst eine  »Inhaltsübersicht«  anhand der  »vier Hauptkapitel«  mit insgesamt  »dreizehn Einzelkapiteln«  und  »106 Abschnitten«.


Inhalt

Aufgaben und Multimedia

Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module zu diesem Thema an,  die zur Verdeutlichung des Lehrstoffes beitragen könnten:

$(1)$    $\text{Aufgaben}$

$(2)$    $\text{Lernvideos}$

$(3)$    $\text{Applets}$ 


Weitere Links: