Direkt zum Inhalt

Lexikon der Biologie: Information

ESSAY

Michael Kary · Martin Mahner

Information

Der Informationsbegriff in der Alltagssprache

Das Wort Information stammt aus dem Lateinischen, wo informatio die Bedeutung von Unterricht, Unterweisung oder Belehrung hatte. Im mittelalterlichen Latein tritt die Bedeutung Untersuchung oder Erkundung hinzu sowie in der scholastischen Philosophie der Prozeß der Gestaltung der Materie durch die Form. In deutschen Wörterbüchern findet sich „Information“ erst ab dem frühen 19. Jahrhundert – und auch dann eher selten. Jedenfalls hatte es im Deutschen seinerzeit folgende 3 Grundbedeutungen: a) Unterweisung, b) Erkundung, Untersuchung und c) Auskunft, Bericht, Zeugnis (Pörksen 1988).
Ab der Mitte des 20. Jahrhunderts ist dann ein Bedeutungswandel bzw. eine Konzentration auf eine bestimmte Bedeutung zu verzeichnen: „Information“ bezeichnet heute in der Alltagssprache weniger einen Vorgang – das Informieren, das In-Kenntnis-setzen –, sondern eher das Objekt, das beim Informieren bzw. Informiertwerden übertragen bzw. erworben wird: eine Nachricht, die für den Empfänger eine neue Kenntnis darstellt. Eine Information ist demnach ein Stück Wissen, das auf irgendeine Weise gewonnen oder übermittelt wurde und das gegebenenfalls wieder kommuniziert werden kann.
Beschränken wir uns auf sprachlich faßbares Wissen, dann besteht Information aus Begriffen, die weiter zu Aussagen oder auch Anweisungen (Instruktionen) verbunden sind. Information hat damit eine Bedeutung im semantischen Sinne ( vgl. Infobox 1 ), und im Falle von Aussagewissen ist sie zudem wahr oder falsch, so daß hier Information von Fehlinformation unterschieden werden kann.
Begriffs- und Aussagewissen kann in Form von Symbolen (konventionelle Zeichen) repräsentiert werden, die bei menschlichen Sprachen zu Wörtern und Sätzen organisiert sind. Da Symbole und Symbolsequenzen keine Begriffe und Aussagen sind, sondern nur stellvertretend für jene stehen, sind sie auch nur indirekt Bedeutungsträger. Ihre Bedeutung muß erst vom (Gehirn des) Leser(s) oder Hörer(s), der die jeweiligen Regeln der Symbolisierung kennt, (re)konstruiert werden.
In der Alltagssprache werden aber auch Gegenstände als informativ bzw. als Informationsträger angesehen, die keine Symbole enthalten, sondern lediglich natürliche Zeichen (Anzeichen, Indikatoren, Indizien). So kann man sagen, ein Kuchen „enthalte“ Information über seine Backform; ein Fußabdruck Informationen über den Organismus, der ihn verursacht hat; ein Thermometer Information über die Umgebungstemperatur; und Blutspritzer an der Wand mögen für den Gerichtsmediziner Information über den Tathergang „enthalten“. Natürlich ist hier keine absichtsvolle Verschlüsselung von Wissen in Form von Symbolen im Spiel. Vielmehr können wir aufgrund von gesetzmäßigen Beziehungen bestimmter Eigenschaften der beteiligten Dinge, wie etwa deren Form, von beobachtbaren Eigenschaften Rückschlüsse auf andere, vor allem unbeobachtete oder unbeobachtbare Eigenschaften desselben oder eines anderen Objekts ziehen und so neues Wissen gewinnen. Information in diesem Sinne mag also dem Wissensgewinn dienen, stellt aber selbst kein Wissen dar – ein Fußabdruck enthält keine Begriffe, Aussagen oder Anweisungen! – und hat damit auch keine (semantische) Bedeutung. Vielmehr meint „Information“ hier soviel wie den Besitz einer spezifischen Struktur, die Eigenschaften anderer Objekte oder unbeobachtete (etwa vergangene) Eigenschaften desselben Objekts repräsentiert (Kary 1990). Eine solche Repräsentation kann jedoch sowohl durch kausale wie zufällige Faktoren gestört sein. So kann ein Fußabdruck durch verschiedene Prozesse (etwa Eintrocknung) deformiert sein. Derartige Störungen beeinträchtigen unsere Rückschlüsse auf den unbeobachteten Sachverhalt, weshalb in solchen Fällen Begriffe wie Irrtum, Abweichung oder Rauschen ins Spiel kommen.
Das Wort „Information“ hat also bereits in der Alltagssprache 2 Bedeutungen: Es bezieht sich einmal auf die Eigenschaft bestimmter Objekte, eine spezifische Form oder Struktur zu besitzen – informiert zu sein –, die uns erlaubt, Wissen zu gewinnen; ein andermal auf ein Stück Wissen, das wir besitzen und mit Hilfe eigens strukturierter Objekte oder Prozesse (Symbole, Signale) übertragen können.

Die klassische Informationstheorie nach Shannon und Weaver

Was hat die sog. Informationstheorie nach Shannon und Weaver (1949) mit Information im alltagssprachlichen Sinn zu tun? Ursprünglich als Kommunikationstheorie bezeichnet, sollte sie dazu beitragen, ein Problem der Nachrichtentechnik zu lösen, nämlich das, Signale durch geeignete Codierung möglichst effizient (durch die Übertragung von mehr Signalen pro Zeiteinheit) über bestimmte Medien (Kanäle), die stets zufällige Störungen aufweisen (Rauschen), von einem Sender zu einem Empfänger zu übertragen ( vgl. Infobox 2 und Abb .).
Gegenstand der Shannonschen Theorie sind dabei jedoch nicht etwa die zu übertragenden Nachrichten und damit Informationen im alltagssprachlichen Sinn mit Inhalt oder Bedeutung. Dies erkennt man, wenn man alle populären Interpretationen wegläßt und sich auf die Quintessenz der Shannonschen Theorie konzentriert, die sich wie folgt darstellt.
Wir wählen aus einer Menge mit N Elementen eine beliebige Folge von Elementen nach dem Zufallsprinzip aus, wobei jedes Element mit einer bestimmten Wahrscheinlichkeit ausgewählt werden kann bzw. nach erfolgter Auswahl mit einer bestimmten relativen Häufigkeit vorliegt. (Jedes Element dieser Menge kann dabei im Prinzip beliebig oft ausgewählt werden – oder auch gar nicht, so daß die Zahl der Elemente der so gebildeten Sequenz ≥ N oder ≤ N sein kann.) Die so gebildete Sequenz nehmen wir als Ausgangspunkt einer weiteren Operation, wobei wir mögliche Muster in dieser Sequenz unberücksichtigt lassen: Wie ersetzen jedes Element dieser Sequenz durch eine Folge von Elementen, die wir nun aus einer zweiten Menge mit einer Zahl von b Elementen auswählen. (Diese zweite Menge ist unabhängig von der ersten und kann mächtiger oder weniger mächtig als jene sein.) Dann erhöht sich die Länge der zweiten Sequenz im Durchschnitt mindestens um den Faktor



,

wobei b (die Zahl der Elemente der zweiten Menge) die Basis des zu berechnenden Logarithmus darstellt; N (die Zahl der Elemente der ersten Menge) die Zahl der Glieder in der Summe angibt; i einen Index, der jedes der aufeinanderfolgend gezogenen Elemente der Ausgangsmenge benennt, und pi die entsprechende Wahrscheinlichkeit oder aber relative Häufigkeit des Auftretens eines solchen Elements i. Da Wahrscheinlichkeiten stets reelle Zahlen zwischen 0 und 1 sind, deren Logarithmen negativ sind, macht das Minus vor dem Summenzeichen den Wert H positiv. H ist dimensionslos bzw. gibt das Verhältnis „Elemente der zweiten Menge pro Element der ersten Menge“ an. Ist dabei b = 2, spricht man von Bits pro Symbol (der Ausgangsmenge), wobei bit (Bit) eine Abk. des englischen „binary digit“ (binäre Ziffer) ist, weil sehr oft nur 2 Ziffern (0 und 1) als Elemente der zweiten Menge dienen.
Beispiel 1: Wir wollen den vorliegenden Text, für den wir einmal 31 Symbole (26 Buchstaben plus 5 andere Zeichen) ansetzen, in ein binäres Alphabet umschreiben, das nur aus den Zeichen 0 und 1 besteht. Nehmen wir der Einfachheit halber weiter an, die Häufigkeit jedes der 31 Zeichen des Ausgangsalphabets sei gleich (d.h. jedes pi = 1/31), und lassen wir wiederum irgendwelche Muster in der Anordnung der Zeichen unberücksichtigt, dann beträgt der Faktor H etwas über 4,95 (Buchstaben des Binäralphabets pro Buchstabe des Ausgangsalphabets). Der im Binäralphabet geschriebene Text muß also im Durchschnitt mindestens 4,95 mal länger sein als der Ausgangstext.
In diesem einfachen Fall, in dem die Wahrscheinlichkeiten bzw. relativen Häufigkeiten des Auftretens der einzelnen Symbole gleich sind, ist das Ergebnis sofort klar: Im Durchschnitt müssen dann die Längen aller Code-Symbole gleich sein, so daß sich deren durchschnittliche Länge x aus der Lösung der Gleichung 2x = 31 ergibt. In der Biologie sind wir mit einem ähnlichen Resultat vertraut: Um 20 Aminosäuren mit linearen Sequenzen aus 4 verschiedenen Nucleotiden in Übereinstimmung zu bringen (genetischer Code), so daß jede Nucleotidsequenz, die einer Aminosäure entspricht, von gleicher Länge ist, muß deren Länge eine ganze Zahl größer oder gleich x sein, wobei 4x = 20. Dann beträgt x = log420 etwa 2,16, woraus sich der sog. Triplettcode (Dreiercode) ergibt sowie dessen Redundanz von 43 –20 = 44 überzähligen Codonen. Um dieses Resultat zu gewinnen, bedarf es keiner höheren Mathematik. Die Genialität des Shannonschen Theorems tritt erst dann zutage, wenn es nicht mehr um die einfache Kombination bekannter Möglichkeiten geht, sondern wenn die Wahrscheinlichkeiten bzw. relativen Häufigkeiten der beteiligten Symbole ungleich sind. Dies ändert jedoch nichts am Kern der Theorie, wie wir im zweiten Beispiel sehen.
Beispiel 2: Nehmen wir wieder den vorliegenden Text, verwürfeln aber nun die Buchstaben zufällig, so daß wir völlig unverständliche Buchstabenfolgen erhalten. Dann ergibt sich ganz unabhängig von den Ausgangshäufigkeiten dieselbe Berechnung mit denselben Ergebnissen.
Wenn es aber zwischen dem Originaltext (mit Bedeutung) und der randomisierten Version (ohne Bedeutung) keinen Unterschied im Hinblick auf H gibt, d.h., wenn sie der Shannonschen Theorie zufolge beide gleich informativ sind (H ist in beiden Fällen mindestens 4,95), dann fragt man sich, warum diese Theorie überhaupt als eine Informationstheorie betrachtet wurde bzw. wird. Tatsächlich hat die Shannonsche Theorie nichts mit Information im alltagssprachlichen Sinn zu tun, sondern ist lediglich als eine Codierungstheorie anzusehen: H bestimmt die Codierungsdichte von Zeichensequenzen, nicht deren Informationsgehalt im Sinne von Wissen, das Bedeutung hat. Das ist auch tatsächlich alles, worauf es ankommt, denn weder die Nachrichtentechnik im allgemeinen noch die tatsächlichen Nachrichtenüberträger im besonderen, wie etwa Telefongesellschaften, sind am Inhalt der übertragenen Signale interessiert.
Ein weiterer Grund, weshalb die Shannonsche Theorie nichts mit Information im alltagssprachlichen Sinn zu tun hat, ist folgender. Im Falle „perfekten“ Rauschens tritt jedes Symbol mit der gleichen Wahrscheinlichkeit auf, und im allgemeinen erreicht H sein Maximum für jede Zahl N, wenn alle Wahrscheinlichkeiten gleich sind. Daher kann Rauschen nicht weiter komprimiert werden, indem man für häufiger auftretende Ausgangssymbole kürzere Code-Symbole verwendet, denn die Ausgangssymbole treten ja mit gleicher Wahrscheinlichkeit auf. Entsprechend kann man, wenn man eine Folge von Symbolen analysiert und nach Anwendung verschiedener Codierungen keine signifikante durchschnittliche Reduktion in der Länge der Sequenz erreicht, davon ausgehen, daß die Ausgangsfolge zufällig war. (Mit solchen Verfahren der Redundanzeliminierung [Redundanz] beschäftigt sich u.a. die Algorithmische Informationstheorie nach Kolmogoroff, Chaitin und Solomonoff.) Da H also für Rauschen am größten ist, hat der Shannonschen Theorie zufolge Rauschen den größten Informationsgehalt. Wäre also der Nachrichtentechniker tatsächlich für die effiziente Übertragung von Information im Shannonschen Sinne verantwortlich, die nach der obigen Formel ja vorwiegend im Rauschen zu finden ist, dann wäre es praktisch seine Aufgabe, das Rauschen zu erhalten und die Signale zu verwerfen. Daher erlaubt es die sog. Informationstheorie dem Nachrichteningenieur nicht, zwischen unerwünschtem und „erwünschtem“ Rauschen (d.h. effizient codierten Signalen) zu unterscheiden. Eine solche Unterscheidung muß also auf außerinformationstheoretischen Erwägungen beruhen.

Fehlinterpretationen der Shannonschen Theorie

Die Auffassung, die Shannonsche Theorie sei eine Informationstheorie, d.h. habe etwas mit Information im Sinne von Wissen zu tun, wird nur dadurch plausibel, daß man den darin vorkommenden Wahrscheinlichkeitsbegriff als subjektive Wahrscheinlichkeit im Sinne von Unsicherheit oder Erwartung interpretiert. Tatsächlich liegt ihr aber ein objektiver Wahrscheinlichkeitsbegriff zugrunde, der sich auf die Verwirklichungstendenz zufälliger Ereignisse bezieht – eine Tendenz oder Propensität (Neigung), auf die man aus der relativen Häufigkeit der Ereignisse nach deren Eintreten zurückschließen kann.
In der Tat modelliert der Nachrichteningenieur eine Nachrichtenquelle als einen stochastischen Prozeß, der Symbole mit einer bestimmten Wahrscheinlichkeit p hervorbringt (s.o.), die der relativen Häufigkeit der Symbole der Sprache entspricht, in der die Nachricht verfaßt ist. Bei jedem Schritt in diesem stochastischen Prozeß wissen wir nun nicht, welches Symbol als nächstes erscheinen wird. Unsere Unsicherheit bzw. Erwartung hinsichtlich des Auftretens jedes einzelnen Symbols wird so als subjektive Wahrscheinlichkeit aufgefaßt. Gründen wir unsere Erwartungen auf die Wahrscheinlichkeit des Symbols, als nächstes produziert zu werden, dann werden wir um so überraschter sein, wenn das Symbol auftaucht, je niedriger dessen Wahrscheinlichkeit ist. Je überraschter wir von einem Ereignis sind, desto informativer ist es für uns, denn wenn wir bereits wüßten, daß es eintritt, wäre sein tatsächliches Eintreten keine Neuigkeit mehr. Information als Quantität wäre somit eine einfache Funktion der (subjektiven) Wahrscheinlichkeit im Sinne von Unsicherheit – entsprechend der obigen Formel für H ( vgl. Infobox 3 ).
Wie überzeugend man diese Interpretation auch finden mag – Tatsache bleibt, daß Wahrscheinlichkeit keine subjektive Größe ist und so kein Maß für Erwartungen oder Unsicherheiten darstellt (Bunge 1981). Dies ist nicht nur eine Frage der Interpretation: Es ist vor allem experimentell belegt, daß sich die Stärken von Erwartungen, Unsicherheiten und Überzeugungen mathematisch nicht so verhalten, wie es der Wahrscheinlichkeitskalkül erfordert (Kahnemann & Tversky 1982). Doch wenn die Wahrscheinlichkeiten p in der Shannonschen Theorie objektive Eigenschaften messen, wie die Tendenz von Symbolen, in einem stochastischen Prozeß produziert zu werden, dann gibt es keinen Zusammenhang mehr zwischen der Shannonschen Theorie und dem Informationsbegriff der Alltagssprache. Nur durch beliebiges (und theoriewidriges) Hinundherwechseln zwischen subjektiver und objektiver Wahrscheinlichkeit läßt sich diese Konsequenz umgehen und die Shannonsche Theorie in eine Theorie umdeuten, die von Information im Sinne von Wissen handelt.

Information in der Biologie

Oft ist es heuristisch (Heuristik) fruchtbar, Begriffe aus einem Forschungsbereich auf andere Bereiche zu übertragen – teils, weil sie wirklich anwendbar sind, teils nur als Analogien. Auch sehr allgemeine Theorien, wie die Spieltheorie, die Automatentheorie oder die Systemtheorie, können auf verschiedene Gegenstandsbereiche angewendet werden, um neue Einsichten zu gewinnen oder gar neue Erklärungen zu liefern. Dabei sollte man jedoch immer wieder prüfen, was solche Übertragungen bzw. Anwendungen wirklich leisten. Entsprechend wurden auch der Terminus „Information“, das Shannonsche „Informations“maß H und die gesamte Shannonsche „Informations“theorie auf die Biologie angewandt. In der theoretischen Ökologie z.B. wird die Formel für H als Grundlage eines Maßes für Diversität verwendet (Pielou 1966), ohne daß ein wesentlicher Zusammenhang mit der Informationstheorie zu erkennen ist. Auch als Maß für Komplexität wird H betrachtet (Li und Vitanyi 1993), obwohl sich diese Auffassung zahlreichen Einwänden ausgesetzt sieht. Populärer und angemessener ist die Rede vom Nervensystem bzw. vom Gehirn als einem informationsverarbeitenden System (neuronale Netzwerke). In der Tat ist das Gehirn ein signalverarbeitendes System. Es enthält zudem sensomotorisches und Wahrnehmungswissen, und hochevolvierte Gehirne verarbeiten auch Information im Sinne von Begriffs- (Begriffsbildung) und Aussagewissen. – Problematischer wird es wieder, wenn von „biologischer Information“ allgemein und vor allem von „genetischer Information“ die Rede ist, denn hier ist weniger klar und offensichtlich, was mit „Information“ gemeint ist. Sehen wir uns exemplarisch die sog. genetische Information etwas genauer an.
Fragen wir zunächst, was die klassische Informationstheorie zur Erhellung der Idee von der genetischen Information beiträgt. Wie bereits oben angedeutet, kann sie als Codierungstheorie zur Erklärung des Triplettcodes beitragen. Allerdings benötigt man sie dazu aufgrund der einfachen Berechnung keineswegs. Man weiß also mit ihr nicht mehr über die Korrespondenz von Nucleotid- und Aminosäuresequenzen als ohne sie. Erinnern wir uns zudem, daß Information im Sinne der Shannon-Theorie nichts zu repräsentieren braucht, weshalb eine funktionslose DNA-Sequenz genauso informativ wäre wie eine funktionelle, wenn sie nur beide den gleichen H-Wert hätten. In der Tat läßt sich codierende DNA (codierende Sequenz) mittels des Shannonschen „Informations“maßes H nicht von nichtcodierender DNA unterscheiden (Chatzidimitriou-Dreismann et al. 1996). Es nimmt also nicht wunder, wenn die molekularbiologischen Vorgänge bei der Proteinsynthese (Proteine, Translation) genausogut ohne Zuhilfenahme dieses Informationsbegriffs beschrieben und erklärt werden können, so daß die Verwendung der Informationstheorie zwar didaktisch hilfreich sein mag (Analogie), aber letztlich nichts zur Erklärung im methodologischen Sinn beiträgt (Hariri et al. 1990; Sarkar 1996; Mahner & Bunge 2000).
Warum aber wirkt die Rede von der Information, die in der DNA (Desoxyribonucleinsäuren) „enthalten“, „gespeichert“ oder „verschlüsselt“ ist, so erhellend auf uns? Weil wir hier molekularbiologische Vorgänge mit den alltagssprachlichen Informationsbegriffen in Verbindung bringen, wodurch komplexe Vorgänge mittels eines vertrauten Vokabulars beschrieben werden. Doch auch dabei müssen wir uns immer fragen: Ist diese Beschreibung wirklich korrekt? Ist sie buchstäblich gemeint oder nur eine Analogie? Und vor allem: Trägt sie etwas Zusätzliches zur wissenschaftlichen Erklärung der entsprechenden Sachverhalte bei, das über die biochemische bzw. molekularbiologische Erklärung ohne Informationsterminologie hinausgeht?
Wir hatten oben gesehen, daß der Informationsbegriff in der Alltagssprache in 2 Bedeutungen vorkommt. Dem einen zufolge ist Information so etwas wie Wissen. Enthält die DNA also Wissen? Etwa Wissen darüber, wie man einen Organismus macht und am Leben erhält? Auf den ersten Blick mag dies so erscheinen. Doch die DNA enthält kein Begriffs- und Aussagewissen und damit hat sie auch keine semantische Bedeutung. Gewiß hat sie eine bestimmte Funktion im Organismus bzw. einen biologischen Wert für den Organismus. Aber die Begriffe der Funktion und des Wertes haben mit Bedeutung im semantischen Sinn nichts zu tun, obwohl die Alltagssprache auch hier (irreführenderweise) von Bedeutung spricht ( vgl. Infobox 1 ). Daher kann der DNA durch Verweis auf ihre Funktionalität oder Adaptivität keine Semantik zugeschrieben werden.
Wenden wir nun den zweiten Informationsbegriff der Alltagssprache an. So wie wir sagen, ein Fußabdruck enthalte Information über den Fuß des Organismus, der ihn hinterlassen hat, können wir sagen, die DNA enthalte Information über den Proteinbestand des zugehörigen Organismus. (Umgekehrt enthalten aber auch die Proteine Information über die DNA!) Ja – die Zelle nutzt die DNA gleichsam als Datenbank, die Vorlagen zur Herstellung von Aminosäuresequenzen und damit Proteinen bereitstellt. (Streng genommen codiert die DNA nur für mRNA-Sequenzen, denn durch RNA-Prozessierung bzw. RNA-Editing können aus ein- und derselben DNA-Vorlage ganz unterschiedliche Proteine gebildet werden.) Die DNA hat also eine hochspezifische Struktur, die gesetzmäßig mit der Struktur von Aminosäuresequenzen korrespondiert. Sie repräsentiert damit – wenn auch aufgrund von mRNA-Prozessierung und -Editing nur indirekt – diese Aminosäuresequenzen, ähnlich wie die Form des Fußabdrucks (direkt) einen Fuß repräsentiert. Doch eine Semantik ergibt sich hieraus genauso wenig wie im zuvor genannten Fall.
Unter Verwendung dieses Informationsbegriffs kann man übrigens auch von ganzen Organismen sagen, sie enthielten Information über ihre Umgebung, und man kann sogar die Evolution als informationsgewinnenden Prozeß betrachten (Lorenz 1977), denn dabei passen sich Organismen an ihre Umgebung an (Anpassung), so daß sie bestimmte Eigenschaften dieser Umgebung repräsentieren. Die Frage dabei ist nur, was die Verwendung des Informationsbegriffs hier zum Verständnis beiträgt. Erstens ist der Informationsbegriff in diesem Sinn sehr weit, so daß auch unbelebte Gegenstände Information besitzen. So enthält auch die Umwelt Information über die Organismen, die in ihr leben, z.B. in Form von Grab- oder Fraßspuren. Zweitens darf der Informationsgewinn, auf den hier Bezug genommen wird, nicht mit Erkenntnisgewinn gleichgesetzt werden, wie es oft geschieht. Eine Erkenntnis liegt nur dann vor, wenn eine bestimmte Eigenschaft der Umgebung von einem Nervensystem repräsentiert wird, d.h., wenn es sich um Wissen handelt. Und nur hochevolvierte Nervensysteme verfügen neben sensomotorischem und Wahrnehmungswissen über Erkenntnis im Sinne von Begriffs- und Aussagewissen. Damit ist ein Informationsbegriff hier zwar anwendbar, aber was genau und wieviel er zur Erklärung von Evolution beiträgt, bedarf noch sorgfältiger Erörterung.
Aufgrund der verschiedenen Informationsbegriffe, die wir hier kennengelernt haben, kann es also durchaus sinnvoll sein, von genetischer oder biologischer Information zu sprechen. Doch gerade aufgrund der verschiedenen Bedeutungen von „Information“ sollte man bei der Anwendung von Informationsbegriffen in der Biologie vorsichtig sein und klar definieren, was man unter „Information“ versteht – und dann diese Definition im jeweiligen Kontext auch konsequent einhalten. Denn allzu leicht passiert es, daß man, ohne es zu merken, nach Belieben zwischen verschiedenen Bedeutungen des Wortes „Information“ hin- und herspringt und so Widersprüche und Erklärungsdefizite bei sich und anderen übersieht. Das kann sogar dazu führen, daß man sich oder andere hinsichtlich der durch die Verwendung von Informationsterminologie gewonnenen Einsicht täuscht: „Wenn Du nicht weißt, was es ist, nenn es Information!“. Dies wird so lange so bleiben, wie es keine allgemein anerkannte Informationstheorie gibt, die den alltagssprachlichen Informationsbegriffen gerecht wird.

Lit.: Bunge, M.: Four Concepts of Probability. Applied Mathematical Modeling 5, 306–312, 1981. Chatzidimitriou-Dreismann, C.A., Streffer, R.M.F., Larhammar, D.: Lack of Biological Significance in the 'Linguistic' Features of Noncoding DNA – A Quantitative Analysis. Nucleic Acids Research 24, 1676–1681, 1996. Ebeling, W., Feistel, R.: Chaos und Kosmos. Heidelberg 1994. Hassenstein, B.: Was ist Information? Naturwissenschaft und Medizin 3(13), 38–52, 1966. Hariri, A., Weber, B., Olmsted, J.: On the Validity of Shannon-information Calculations for Molecular Biological Sequences. Journal of Theoretical Biology 147, 235–254, 1990. Kahnemann, D., Tversky, A.: Risiko nach Maß – Psychologie der Entscheidungsprozesse. Spektrum der Wissenschaft, 89–98, März 1982. Kary, M.: Information Theory and the Treatise: Towards a New Understanding. In: Weingarter, P., Dorn, G.J.W. (Hrsg.): Studies on Mario Bunge's Treatise. Amsterdam 1990. Küppers, B.O.: Der Ursprung biologischer Information. München 1986. Li, M., Vitanyi, P.: An Introduction to Kolmogorov Complexity and Its Applications. Berlin 1993. Lorenz, K.: Die Rückseite des Spiegels. München 1977. Mahner, M., Bunge, M.: Philosophische Grundlagen der Biologie. Berlin 2000. Pielou, E.C.: The Measurement of Diversity in Different Types of Biological Collections. Journal of Theoretical Biology 13, 131–144, 1966. Pörksen, U.: Plastikwörter. Stuttgart 1988. Sarkar, S.: Biological Information: A Skeptical Look at Some Central Dogmas of Molecular Biology. In: Sarkar, S. (ed): The Philosophy and History of Molecular Biology, 187–231. Dordrecht 1996. Shannon, C.E., Weaver, W.: The Mathematical Theory of Communication. Urbana 1949.



Information:

2 Der Aufbau eines Kommunikationssystems

Nach Shannon besteht ein Kommunikationssystem aus folgenden Bestandteilen: einer Nachrichtenquelle, die eine Folge von Nachrichtensymbolen produziert; einem Encoder und Sender, der diese Symbolfolge in Signale (etwa binäre elektrische Signale) umformt, um eine effiziente Übertragung zu gewährleisten, und dann absendet; einem Übertragungs-Kanal, der diese Signale an einen mehr oder weniger entfernten Ort weiterleitet und dabei zufälligen Störungen (Rauschen) ausgesetzt ist, welche die Signale stochastisch verändern können; und schließlich einem Empfänger und Decoder, der die Signale wieder in die ursprünglichen, von der Nachrichtenquelle generierten Symbole umformt, um sie dem endgültigen Empfänger (Hörer, Leser, Seher) zur Verfügung zu stellen.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
Redaktion

Rolf Sauermost (Projektleiter)
Doris Freudig (Redakteurin)

Erweiterte Redaktion

Dr. Michael Bonk (Assistenz)
Dr. Andreas Sendtko (Assistenz)
Dr. Helmut Genaust (Etymologische Bearbeitung)
Dr. Claudia Gack (Bildtafelredaktion)

Grafik:

Hermann Bausch
Dr. Michael Bonk (EDV)
Wolfgang Hanns
Laura C. Hartmann (EDV)
Professor Dr. Rüdiger Hartmann (EDV)
Klaus Hemmann
Manfred Himmler
Rudolf Kempf (EDV)
Martin Lay (EDV)
Rolf Sauermost (EDV)
Dr. Richard Schmid
Hanns Strub
Melanie Waigand-Brauner (EDV)

CD-ROM-Ausgabe:

Doris Freudig (Redaktion und Konzeption)
Richard Zinken (Beratung)

Berater

Prof. Dr. Arno Bogenrieder (Botanik)
Prof. Dr. Klaus-Günter Collatz (Zoologie)
Prof. Dr. Hans Kössel (†) (Biochemie, Molekularbiologie)
Prof. Dr. Uwe Maier (Biochemie, Molekularbiologie)
Prof. Dr. Günther Osche (Zoologie)
Prof. Dr. Georg Schön (Mikrobiologie)

Autoren

[abc] [def] [ghi] [jkl] [mno] [pqr] [stuv] [wxyz]

Anhäuser, Marcus (M.A.)
Arnheim, Dr. Katharina (K.A.)
Becker-Follmann, Dr. Johannes (J.B.-F.)
Bensel, Dr. Joachim (J.Be.)
Bergfeld (†), Dr. Rainer (R.B.)
Berthold, Prof. Dr. Peter (P.B.)
Bogenrieder, Prof. Dr. Arno (A.B.)
Bohrmann, PD Dr. Johannes (J.B.)
Bonk, Dr. Michael (M.B.)
Born, Prof. Dr. Jan (J.Bo.)
Braun, Andreas (A.Br.)
Bürger, Prof. Dr. Renate (R.Bü.)
Cassada, Dr. Randall (R.C.)
Collatz, Prof. Dr. Klaus-Günter (K.-G.C.)
Culmsee, Dr. Carsten (C.C.)
Drews, Dr. Martina (M.D.)
Drossé, Inke (I.D.)
Duell-Pfaff, Dr. Nixe (N.D.)
Duffner, Dr. Klaus (K.D.)
Eibl-Eibesfeldt, Prof. Dr. Irenäus (I.E.)
Eisenhaber, Dr. Frank (F.E.)
Emschermann, Dr. Peter (P.E.)
Engelbrecht, Beate (B.E.)
Engeser, PD Dr. Theo (T.E.)
Eurich, Dr. Christian (C.E.)
Ewig, Bettina (B.Ew.)
Fässler, Dr. Peter (P.F.)
Fehrenbach, Dr. Heinz (H.F.)
Fix, Dr. Michael (M.F.)
Flemming, Alexandra (A.F.)
Franzen, Dr. Jens Lorenz (J.F.)
Freudig, Doris (D.F.)
Gack, Dr. Claudia (C.G.)
Gallenmüller, Dr. Friederike (F.G.)
Ganter, Sabine (S.G.)
Gärtig, Susanne (S.Gä.)
Gärtner, PD Dr. Wolfgang (W.G.)
Gassen, Prof. Dr. Hans-Günter
Geinitz, Christian (Ch.G.)
Genth, Dr. Harald (H.G.)
Gläser, Dr. Birgitta (B.G.)
Götting, Prof. Dr. Klaus-Jürgen (K.-J.G.)
Grasser, Dr. habil. Klaus (K.G.)
Grieß, Dr. Eike (E.G.)
Grüttner, Dr. Astrid (A.G.)
Häbe, Martina (M.Hä.)
Haken, Prof. Dr. Hermann
Hanser, Dr. Hartwig (H.Ha.)
Harder, Deane Lee (D.Ha.)
Hartmann, Prof. Dr. Rüdiger (R.H.)
Hassenstein, Prof. Dr. Bernhard (B.H.)
Haug-Schnabel, PD Dr. Gabriele (G.H.-S.)
Hemminger, Dr. habil. Hansjörg (H.H.)
Herbstritt, Dr. Lydia (L.H.)
Hobom, Dr. Barbara (B.Ho.)
Hoffrichter, Dr. Odwin (O.H.)
Hohl, Dr. Michael (M.H.)
Hoos, Katrin (K.H.)
Horn, Dagmar (D.H.)
Horn, Prof. Dr. Eberhard (E.H.)
Huber, Christoph (Ch.H.)
Huber, Dr. Gerhard (G.H.)
Huber, Prof. Dr. Robert
Hug, Dr. Agnes M. (A.H.)
Illerhaus, Dr. Jürgen (J.I.)
Illes, Prof. Dr. Peter (P.I.)
Illing, Prof. Dr. Robert-Benjamin (R.B.I.)
Irmer, Juliette (J.Ir.)
Jaekel, Dr. Karsten
Jäger, Dr. Rudolf
Jahn, Dr. Ilse
Jahn, Prof. Dr. Theo (T.J.)
Jendritzky, Prof. Dr. Gerd (G.J.)
Jendrsczok, Dr. Christine (Ch.J.)
Jerecic, Renate (R.J.)
Jordan, Dr. Elke (E.J.)
Just, Dr. Lothar (L.J.)
Just, Margit (M.J.)
Kary, Michael (M.K.)
Kaspar, Dr. Robert
Kattmann, Prof. Dr. Ulrich (U.K.)
Kindt, Silvan (S.Ki.)
Kirchner, Prof. Dr. Wolfgang (W.K.)
Kirkilionis, Dr. Evelin (E.K.)
Kislinger, Claudia (C.K.)
Klein-Hollerbach, Dr. Richard (R.K.)
Klonk, Dr. Sabine (S.Kl.)
Kluge, Prof. Dr. Friedrich (F.K.)
König, Dr. Susanne (S.Kö.)
Körner, Dr. Helge (H.Kör.)
Kössel (†), Prof. Dr. Hans (H.K.)
Kühnle, Ralph (R.Kü.)
Kuss (†), Prof. Dr. Siegfried (S.K.)
Kyrieleis, Armin (A.K.)
Lahrtz, Stephanie (S.L.)
Lamparski, Prof. Dr. Franz (F.L.)
Landgraf, Dr. Uta (U.L.)
Lange, Prof. Dr. Herbert (H.L.)
Lange, Jörg
Langer, Dr. Bernd (B.La.)
Larbolette, Dr. Oliver (O.L.)
Laurien-Kehnen, Dr. Claudia (C.L.)
Lay, Dr. Martin (M.L.)
Lechner-Ssymank, Brigitte (B.Le.)
Leinberger, Annette (A.L.)
Leven, Prof. Franz-Josef (F.J.L.)
Liedvogel, Prof. Dr. Bodo (B.L.)
Littke, Dr. habil. Walter (W.L.)
Loher, Prof. Dr. Werner (W.Lo.)
Lützenkirchen, Dr. Günter (G.L.)
Mack, Dr. Frank (F.M.)
Mahner, Dr. Martin (M.Ma.)
Maier, PD Dr. Rainer (R.M.)
Maier, Prof. Dr. Uwe (U.M.)
Marksitzer, Dr. René (R.Ma.)
Markus, Prof. Dr. Mario (M.M.)
Martin, Dr. Stefan (S.Ma.)
Medicus, Dr. Gerhard (G.M.)
Mehler, Ludwig (L.M.)
Mehraein, Dr. Susan (S.Me.)
Meier, Kirstin (K.M.)
Meineke, Sigrid (S.M.)
Mohr, Prof. Dr. Hans (H.M.)
Mosbrugger, Prof. Dr. Volker (V.M.)
Mühlhäusler, Andrea (A.M.)
Müller, Dr. Ralph (R.Mü.)
Müller, Ulrich (U.Mü.)
Müller, Wolfgang Harry (W.H.M.)
Murmann-Kristen, Dr. Luise (L.Mu.)
Mutke, Jens (J.M.)
Narberhaus, Ingo (I.N.)
Neub, Dr. Martin (M.N.)
Neumann, Dr. Harald (H.Ne.)
Neumann, Prof. Dr. Herbert (H.N.)
Nick, PD Dr. Peter (P.N.)
Nörenberg, Prof. Dr. Wolfgang (W.N.)
Nübler-Jung, Prof. Dr. Katharina (K.N.)
Oehler, Prof. Dr. Jochen (J.Oe.)
Oelze, Prof. Dr. Jürgen (J.O.)
Olenik, Dr. Claudia (C.O.)
Osche, Prof. Dr. Günther (G.O.)
Panesar, Arne Raj
Panholzer, Bärbel (B.P.)
Paul, PD Dr. Andreas (A.P.)
Paulus, Prof. Dr. Hannes (H.P.)
Pfaff, Dr. Winfried (W.P.)
Pickenhain, Prof. Dr. Lothar (L.P.)
Probst, Dr. Oliver (O.P.)
Ramstetter, Dr. Elisabeth (E.R.)
Ravati, Alexander (A.R.)
Rehfeld, Dr. Klaus (K.Re.)
Reiner, Dr. Susann Annette (S.R.)
Riede, Dr. habil. Klaus (K.R.)
Riegraf, Dr. Wolfgang (W.R.)
Riemann, Prof. Dr. Dieter
Roth, Prof. Dr. Gerhard
Rübsamen-Waigmann, Prof. Dr. Helga
Sachße (†), Dr. Hanns (H.S.)
Sander, Prof. Dr. Klaus (K.S.)
Sauer, Prof. Dr. Peter (P.S.)
Sauermost, Elisabeth (E.Sa.)
Sauermost, Rolf (R.S.)
Schaller, Prof. Dr. Friedrich
Schaub, Prof. Dr. Günter A. (G.Sb.)
Schickinger, Dr. Jürgen (J.S.)
Schindler, Dr. Franz (F.S.)
Schindler, Dr. Thomas (T.S.)
Schley, Yvonne (Y.S.)
Schling-Brodersen, Dr. Uschi
Schmeller, Dr. Dirk (D.S.)
Schmitt, Prof. Dr. Michael (M.S.)
Schmuck, Dr. Thomas (T.Schm.)
Scholtyssek, Christine (Ch.S.)
Schön, Prof. Dr. Georg (G.S.)
Schönwiese, Prof. Dr. Christian-Dietrich (C.-D.S.)
Schwarz, PD Dr. Elisabeth (E.S.)
Seibt, Dr. Uta
Sendtko, Dr. Andreas (A.Se.)
Sitte, Prof. Dr. Peter
Spatz, Prof. Dr. Hanns-Christof (H.-C.S.)
Speck, Prof. Dr. Thomas (T.Sp.)
Ssymank, Dr. Axel (A.S.)
Starck, PD Dr. Matthias (M.St.)
Steffny, Herbert (H.St.)
Sternberg, Dr. Klaus (K.St.)
Stöckli, Dr. Esther (E.St.)
Streit, Prof. Dr. Bruno (B.St.)
Strittmatter, PD Dr. Günter (G.St.)
Stürzel, Dr. Frank (F.St.)
Sudhaus, Prof. Dr. Walter (W.S.)
Tewes, Prof. Dr. Uwe
Theopold, Dr. Ulrich (U.T.)
Uhl, Dr. Gabriele (G.U.)
Unsicker, Prof. Dr. Klaus (K.U.)
Vaas, Rüdiger (R.V.)
Vogt, Prof. Dr. Joachim (J.V.)
Vollmer, Prof. Dr. Dr. Gerhard (G.V.)
Wagner, Prof. Dr. Edgar (E.W.)
Wagner, Eva-Maria
Wagner, Thomas (T.W.)
Wandtner, Dr. Reinhard (R.Wa.)
Warnke-Grüttner, Dr. Raimund (R.W.)
Weber, Dr. Manfred (M.W.)
Wegener, Dr. Dorothee (D.W.)
Weth, Dr. Robert (R.We.)
Weyand, Anne (A.W.)
Weygoldt, Prof. Dr. Peter (P.W.)
Wicht, PD Dr. Helmut (H.Wi.)
Wickler, Prof. Dr. Wolfgang
Wild, Dr. Rupert (R.Wi.)
Wilker, Lars (L.W.)
Wilmanns, Prof. Dr. Otti
Wilps, Dr. Hans (H.W.)
Winkler-Oswatitsch, Dr. Ruthild (R.W.-O.)
Wirth, Dr. Ulrich (U.W.)
Wirth, Prof. Dr. Volkmar (V.W.)
Wolf, Dr. Matthias (M.Wo.)
Wuketits, Prof. Dr. Franz M. (F.W.)
Wülker, Prof. Dr. Wolfgang (W.W.)
Zähringer, Dr. Harald (H.Z.)
Zeltz, Dr. Patric (P.Z.)
Ziegler, Prof. Dr. Hubert
Ziegler, Dr. Reinhard (R.Z.)
Zimmermann, Prof. Dr. Manfred
Zissler, Dr. Dieter (D.Z.)
Zöller, Thomas (T.Z.)
Zompro, Dr. Oliver (O.Z.)

Partnervideos