URL: konspen.ameriv.de
E-Spirit | E-Quellen | E-Ebook | E-Dual | E-Kommunikation | E-Hyperspace | E-Coaching | E-Network |
Spirit
Dogmatische Kugelwelten | Dynamic der Idee | DimensionsChaos KaleidoskopFraming | Kraft der Phantasie
Impuls - HT-EselTec
History - HT-EselTec
EntopieDie Entropie(griech. tropè "Wendung;Umkehr") ist eine Grundgröße der Thermodynamik und mit der inneren Energie und Temperatur des Systems verknüpft durch die Beziehung. Claude Elwood S h a n n o n (1916-2001) definierte die Entropie H(X) einer diskreten gedächtnislosen Quelle (diskreten Zufallsvariable) X über einem Alphabet einer höchstens abzählbare Menge Z = {z1, z2,...} mit der Wahrscheinlichkeit P(X x Z) = 1 durch.
Entropie - Informationstheorie
Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems.
Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt.
Beide Begriffe haben Gemeinsamkeiten, deren Erkennen allerdings Kenntnisse in beiden Fachgebieten voraussetzt.
Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948.
In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication und prägte damit die moderne Informationstheorie.
Anfang oder Ende?
http://intuition.ameriv.de/emseg3/entropie/verteilung.gif
Navigation - Wiki | Ebenen - L e g e n d e - Menüs | Gewünschte Seiten - Letzte Änderungen - Seitenverwaltung - Spezialseiten - Statistik