Ameriv
Advertisement

Spirit

Dogmatische Kugelwelten | Dynamic der Idee | DimensionsChaos 
KaleidoskopFraming | Kraft der Phantasie

Impuls - HT-EselTec

Entropie
Ameriv
Die Entropie, die man als Maß für die Unordnung verstehen kann, aber dem berühmten 2. Hauptsatz der Thermodynamik vollkommen zu widersprechen scheint.
Sie gilt dabei für alle beobachtbaren Größen (Zustandsgrößen), die unabhängig vom eingeschlagenen Weg nach Durchlauf eines reversiblen Zyklus wieder den gleichen Wert besitzen.
Nach dem nun alle Vorgänge in der Natur von „selbst“, nur von Zuständen niedriger zu solchen höherer Wahrscheinlichkeit, ablaufen.
Wobei ohne externen Impuls dann die Ordnung dabei abnimmt.
Man könnte das auch als angstvolle Eingrenzung des Dogmas verstehen.
Gerade Lebewesen sind Paradebeispiele für offene Systeme - sie existieren nur mit einem ständigen Durchfluss von Materie und Energie.
Thermodynamisch gesehen, vermindern sie zwar ihre innere Entropie, erzeugen aber nach außen hin trotzdem Unordnung - nur im dynamischen Fluss von niedrigerem zu höherem Chaos - Clustern können wir Ordnung feststellen!

Entropie stellt in der Informationstheorie den mittleren Informationsgehalt pro Zeichen, einer Quelle, die ein System oder eine Informationsfolge besitzt, dar.
In der Informationstheorie spricht man deshalb auch bei Informationen, ebenso von einem Maß für "beseitigte Unsicherheit".
Je mehr Zeichen im Allgemeinen von einer Quelle empfangen werden, desto mehr Information erhält man und gleichzeitig sinkt die Unsicherheit über das, was gesendet hätte werden können.
Die Entropie wird dabei generell als ein Maß für den Informationsgehalt betrachtet.
Bei einer „kleinen“ Entropien enthält der Informationstext Redundanzen oder statistische Regelmäßigkeiten.


Beispiel:

Die Einheit 1 Shannon ist definiert als der Informationsgehalt, der in einer Zufallsentscheidung eines idealen Münzwurfes enthalten ist.
Ein idealer Münzwurf hat nur zwei (duale) Möglichkeiten – Kopf oder Zahl –, die beide mit der gleichen Wahrscheinlichkeit p = 0,5 auftreten.

History - HT-EselTec

Wikipedia
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
0 1 2 3 4 5 6 7 8 9
Entopie Wikipedia
Die Entropie(griech. tropè "Wendung;Umkehr") 
ist eine Grundgröße der Thermodynamik und mit der inneren Energie 
und Temperatur des Systems verknüpft durch die Beziehung.

Claude Elwood S h a n n o n (1916-2001) definierte die Entropie H(X) 
einer diskreten gedächtnislosen Quelle (diskreten Zufallsvariable)
 
X über einem Alphabet einer höchstens abzählbare Menge 
Z = {z1, z2,...} mit der Wahrscheinlichkeit P(X x Z) = 1 durch.

Entropie - Informationstheorie Wikipedia
Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems.
Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt.
Beide Begriffe haben Gemeinsamkeiten, deren Erkennen allerdings Kenntnisse in beiden Fachgebieten voraussetzt.

Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948.
In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication und prägte damit die moderne Informationstheorie.

Anfang oder Ende?

http://intuition.ameriv.de/emseg3/entropie/verteilung.gif

N a v i g a t i o n - Thema : EBOOK`s - Cluster - DogmaKugeln - Kategorien - Paideia - Portale - Themen
Advertisement