{"title":"Kybernetik: Abbildung III","body":"<br>\n\n<img SRC='\/lexika\/images\/neuro\/fff555.jpg' WIDTH='221' HEIGHT='132'><br>\n<P><STRONG>Kybernetik<\/STRONG><\/P>\n<P><STRONG>Abb. 2:<\/STRONG> <I>Informations&#252;bertragung<\/I><\/P>\n<P>Ein Information &#252;bertragendes System besteht aus einer Informationsquelle, einer Codiereinrichtung, einem Kanal &#252;ber den die codierten Nachrichten &#252;bertragen werden, einem Decodierer und schlie&#223;lich dem Empf&#228;nger der Nachrichten. Es handelt sich dabei um einen Spezialfall eines allgemeinen Kommunikationssystems, in dem nicht \"irgendwelche\" Mitteilungen oder Signale &#252;bertragen werden, sondern Information als eine quantitativ bestimmbare Gr&#246;&#223;e; ebenso flie&#223;t in diese Modellierung keine Bedeutung der Nachrichten ein. Das System Kanal k&#246;nnte noch weiter in einen Kanalcodierer, Kanal mit m&#246;glichen St&#246;rungen und einen Kanaldecodierer untergliedert werden. Typischerweise wird vom Codierer die eingehende Information komprimiert, d.h. ein Code gefunden, welcher mit m&#246;glichst kleiner mittlerer Codewortl&#228;nge die Information repr&#228;sentiert. Der Kanalcodierer hat dann wiederum die Aufgabe, gezielt Redundanz hinzuzuf&#252;gen, so da&#223; die Codew&#246;rter auch nach &#220;bertragung im gest&#246;rten Kanal noch identifiziert werden k&#246;nnen. Als eigentlichen Kanal kann man sich z.B. eine Telephonleitung, eine Funkstrecke oder das <A href='\/abo\/lexikon\/neuro\/1191'>Axon<\/A> eines Neurons vorstellen, an denen entlang Impulse weitergeleitet werden. Ist <I>H<\/I>(<I>X<\/I>) die Entropie der Informationsquelle oder der Informationsgehalt, der in den Kanal gegeben wird, so sei der Informationsgehalt am Kanalausgang <I>H<\/I>(<I>Y<\/I>). Bei einem st&#246;rungsfreien Kanal gilt <I>H<\/I>(<I>X<\/I>)=<I>H<\/I>(<I>Y<\/I>). Bei einem Kanal mit St&#246;rungen, d.h. in allen praktischen F&#228;llen, gilt <I>H<\/I>(<I>X<\/I>\n<br>\n\n<img SRC='\/lexika\/images\/neuro\/fff556.jpg' WIDTH='17' HEIGHT='15'><br>\n\n<I>H<\/I>(<I>Y<\/I>). Als Ma&#223; f&#252;r die &#252;ber den gest&#246;rten Kanal verlorengegangene Information wird von Shannon die bedingte Entropie der Nachricht (gegeben das Signal am Kanalausgang) folgenderma&#223;en definiert:<BR><\/BR>\n<br>\n\n<img SRC='\/lexika\/images\/neuro\/fff557.jpg' WIDTH='584' HEIGHT='40'><br>\nDie Rate der tats&#228;chlichen Information &#252;ber den Kanal ist nun: <BR><\/BR>\n<br>\n\n<img SRC='\/lexika\/images\/neuro\/fff558.jpg' WIDTH='142' HEIGHT='22'><br>\n<I>R<\/I> wird auch Transinformation genannt. Die Kanalkapazit&#228;t ist dann der Maximalwert von <I>R<\/I>: <BR><\/BR>\n<br>\n\n<img SRC='\/lexika\/images\/neuro\/fff559.jpg' WIDTH='179' HEIGHT='23'><br>\nIst die Entropie der Quelle <I>H<\/I>(<I>X<\/I>) kleiner als die Kapazit&#228;t <I>C<\/I> des Kanals, so l&#228;&#223;t sich die Eingangsinformation am Ausgang des Kanals mit vernachl&#228;ssigbarem Fehler wiederherstellen.<\/P>"}