Greife auf kostenlose Karteikarten, Zusammenfassungen, Übungsaufgaben und Altklausuren für deinen Informations und Kodierungstheorie Kurs an der TU Dresden zu.
Je größer die Auftrittswahscheinlichkeit eines Ereignisses, desto ... ist sein Informationsgehalt.
kleiner
Diskrete Quellen haben einen unendlichen Wertevorrat.
falsch
Kontinuierliche / Analoge Quellen haben einen unendlichen Wertevorrat.
Richtig
Unbestimmtheit (vor Auftreten eines Ereignisses)
=
Informationsgehalt (nach Auftreten eines Ereignisses)
richtig
In welchem Fall wird die Quellenentropie maximal?
Im Fall der Gleichverteilung der Auftrittswahscheinlichkeiten
Gegeben sind zwei diskrete Quellen, von denen jeweils nur die Anzahl der Zeichen bekannt ist: 100 Zeichen bzw. 600 Zeichen.
Welche Quelle hat die größere Entropie, und warum?
Die Quelle mit 600 Zeichen hat die größere Entropie, denn je mehr Auswahlmöglichkeiten (Anzahl von Zeichen) es gibt, desto größer ist die Unbestimmtheit (= Informationsmenge, Entropie), welches dieser möglichen Zeichen ausgewählt wird.
Mit welcher Wahrscheinlichkeit tritt die leere Menge auf?
0
(Axiome von Kolmogorow)
Welcher Aspekt der Information wird von der Informationstheorie nach SHANNON erfasst? Welche Aspekte werden nicht erfasst?
Es wird der statistische Aspekt erfasst (Zeichen der Quelle mit ihren Auftrittswahrscheinlichkeiten).
Nicht erfasst werden dagegen der semantische Aspekt (Bedeutung der Information) und der pragmatische Aspekt (Nutzen für den Informationsempfänger).
Welcher Aspekt der Information wird von der Informationstheorie nach SHANNON erfasst?
der statistische Aspekt (Zeichen der Quelle mit ihren Auftrittswahrscheinlichkeiten)
Was unterscheidet diskrete und analoge Quellen?
der Wertevorrat: eine diskrete Quelle besitzt ein Alphabet mit endlich vielen Werten, während eine analoge Quelle unendlich viele Werte liefern kann (z.B. Amplitudenwerte eines analogen Signals)
Wovon hängt bei einer MARKOW-Quelle die Auswahl eines Zeichens ab?
sowohl von der momentanen Verteilung der Zustandswahrscheinlichkeiten als auch von der Verteilung der Übergangswahrscheinlichkeiten
Was drückt die bedingte Wahrscheinlichkeit p(xj |xi) aus?
p(xj |xi) ist die Wahrscheinlichkeit dafür, dass der Zustand xj eintreten wird, wenn der Zustand xi vorliegt (Übergang vom Zustand xi in Zustand xj → p(xj |xi) wird auch als Übergangswahrscheinlichkeit bezeichnet)
Greife kostenlos auf tausende geteilte Karteikarten, Zusammenfassungen, Altklausuren und mehr zu.
Jetzt loslegen