Direkt zum Inhalt

Wissenschaftliches Arbeiten: Der allgegenwärtige Binärcode

Megabyte, Gigabyte, Terabyte - das mögen für viele Forscher vertraute Begriffe sein, wenn es um die Speicherung ihrer experimentellen Daten geht. Doch was sind Petabytes, Quantencomputer, Motes und Nodes? Womöglich die elektronischen Bausteine, welche die Wissenschaft revolutionieren könnten.
Sie sind schon im Einsatz, die elektronischen Helfer, die laut Experten eine ähnliche Wende im wissenschaftlichen Weltbild einleiten werden wie die Entwicklung des wissenschaftlichen Experimentes selbst – in norwegischen Eisfeldern, amerikanischen Böden und bald auch auf dem Grund der Meere. Und das ist erst der Anfang. Bald schon, so raunen Computerfachleute, soll sie möglich sein: die allumfassende Messung der Welt, 24 Stunden am Tag, sieben Tage die Woche, jahrein, jahraus.

Realisiert werden soll dieser Traum mit Milliarden von kleinen Computern, die mittels Sensoren Daten speichern und diese über Verknüpfungen an ihre zahlreichen Helfershelfer weiterleiten – ein Netzwerk von Miniaturspionen, das erstmals in großem Umfang Daten in Echtzeit an die Labore der Welt senden könnte. Motes, Nodes oder Pods heißen die Winzlinge, auf denen die Hoffnungen vieler Wissenschaftler ruhen. Auch Ökologin Katalin Szlavecz von der Johns-Hopkins-Universität in Baltimore stützt sich inzwischen auf die intelligenten Sensoren. Szlavecz erforscht die Biodiversität und die Nährstoffkreisläufe im Erdreich – ein komplexes Unterfangen, das bislang insbesondere durch eine nur begrenzte Datenmenge erschwert wird: Untersucht werden kann nur, was an Proben in Handarbeit eingesammelt wurde.

"Funksensoren-Netzwerke könnten die Erforschung der Bodenökologie revolutionieren"
(Katalin Szlavecz)
Seit letztem September jedoch messen nun nicht mehr Studenten die benötigten Daten, sondern zehn elektronische Sensoren, die am Rande des Universitätscampus' im Erdreich angebracht wurden. Sie speichern minütlich Temperatur und Feuchtigkeit des sie umgebenden Bodens und senden die Daten regelmäßig in Szlavecz' Büro. Die Forscherin ist begeistert: "Funksensoren-Netzwerke könnten die Erforschung der Bodenökologie revolutionieren", sagt sie [1].

Momentan jedoch steckt die Entwicklung der Funksensoren noch in den Kinderschuhen. Um die Minicomputer effizient und großflächig anzuwenden, seien sie einfach noch zu teuer, erklärt Deborah Estrin, Direktorin des Center for Embedded Networked Sensing in Los Angeles.

Auch die Anwendbarkeit der Netzwerke lässt noch zu wünschen übrig: Um ihre Sensoren den jeweiligen Bedürfnissen anzupassen, brauchte Szlavencz ein ganzes Team von Computerfachleuten und Programmierern. Ein zentrales Manko, findet auch Kris Pister, Pionier der Netzwerk-Sensoren und Gründer der Firma Dust Networks. Dennoch ist er fest überzeugt, dass Netzwerksensoren die wissenschaftlichen Helfer der Zukunft sein könnten – schaffen sie doch die Grundlage für riesige Datenbanken, die dann von Wissenschaftlern aus der ganzen Welt abgefragt werden könnten.

Daten und Datenmassen

Die Sammlung solcher Datenmengen könnte auch das wissenschaftliche Arbeiten grundsätzlich verändern, ist Gaetano Borriello, Computerfachmann an der Universität von Washington in Seattle überzeugt [1]. Statt eigene Experimente durchzuführen, könnten Forscher in Zukunft einfach schon bestehende Datenbanken durchforsten. Hypothese und Beweis lägen nur Stunden voneinander entfernt.

Doch wie sollen all die Informationen gespeichert werden? Schon jetzt verdoppelt sich die verfügbare Datenmenge jährlich, so Alexander Szalay von der Johns-Hopkins-Universität in Baltimore und Jim Gray von Microsoft Research in San Fransisco, Kalifornien [2]. Bislang stellen schon Terabytes (ein Terabyte sind 1000 Gigabytes) an Informationen die Datenverarbeitung vor große Herausforderungen. Doch schon bald, so prognostizieren die beiden Wissenschaftler, werden Projekte wie das Large Synoptic Survey Telescope, das dreidimensionale Karten des Weltraums erstellen will, noch größere Datenmengen produzieren: womöglich mehrere Petabytes pro Jahr. Ein Petabyte entspricht dabei dem Text von etwa einer Milliarde Büchern.

Die große Herausforderung liegt hierbei nicht allein in der Schaffung großer Datenbanken; diese sind schon seit Jahren Bestandteil des wissenschaftlichen Arbeitens. Problematisch ist vielmehr die Nutzung der Datenmassen. Auf Grund der Virtualität der gespeicherten Daten wird es zunehmend schwieriger, Zusammenhänge zu erfassen und Strukturen zu erkennen. Dem Binärcode mangelt es an Visualität, und nicht nur der Computer-Experte Stephen Muggleton vom Centre for Integrative Systems Biology am Imperial College in London fürchtet, dass der stetige Zuwachs an Daten für zunehmende Verständnisschwierigkeiten sorgen könnte [3].

Datenbanken: Standard ohne Standards

Den aktuellen Datenbanken mangelt es jedoch nicht nur an haptischer und optischer Benutzerfreundlichkeit, auch formal gesehen stehen dem allumfassenden Datenzugriff und Datenaustausch noch einige Schwierigkeiten ins Haus. Denn obgleich immer mehr Experimente Computer als essentiellen Bestandteil integrieren und Forschergruppen für ihre Arbeit zunehmend auf die Daten anderer Experten zurückgreifen, fehlen dennoch Standards in der Nutzung von Datenbanken.

Hat man Glück, müssen nur bestimmte Formate in den fremden Datenmassen geändert werden, um sie mit den eigenen Materialien zu verbinden. Schwieriger wird es schon, wenn unterschiedliche Vokabeln das Vergleichen der Experimente erschweren oder bedeutsame Randbedingungen des Experimentes nicht oder nicht verständlich in der Datenbank aufgelistet werden. Szalay und Gray fordern darum feste Standards für die Bestückung von Datenbanken [2].

Doch auch dies schützt die Forschung nicht vor zwei der zentralen Probleme der Datenbanken-Nutzung: der schlechten Überprüfbarkeit eingepflegter Daten und der Alterung der Systeme. Szalay und Gray weisen darauf hin, dass es schon heute schwierig ist, alle Komponenten aufzulisten, die in einen Versuchsaufbau einfließen. Bei elektronischen Datenbanken kommt allerdings hinzu, dass sie sich stetig weiterentwickeln. Die Technik von morgen könnte so womöglich auf die Technik von heute nicht mehr zugreifen, entsprechend könnten auch heutige Experimente nicht mehr wiederholt werden, wenn niemand mehr in der Lage ist, die veralteten Geräte und Programme zu bedienen.

Programmierer als Wissenschaftler der Zukunft

Überwunden werden können solche Hindernisse Szalay und Gray zufolge nur mit einem strengen und formalen Datenmanagement und dem entsprechenden Training von Wissenschaftlern und Studenten. Schon heute, sagt Ian Foster, Direktor des Computation Institute an der Universität von Chicago, nehme der Computer in der Wissenschaft die Stellung ein, die früher die Mathematik inne hatte: die einer alles unterliegenden Grundlage [4]. Auch das Labor von morgen müsse dieser Tatsache Rechnung tragen: mit der Schaffung interdisziplinärer Institute und der festen Einbindung von Programmierern und Computerfachleuten in Experiment und Theorie.

Von den Grenzen der Sprache zur Grenze des Binärcodes

Die Formalsprache der Programmierer ist indes für manchen Forscher längst nicht mehr nur ein Mittel zum Zweck der Datenspeicherung; Roger Bent vom Molecular Sciences Institute in Berkeley und sein Kollege Jehoshua Bruck vom California Institute of Technology etwa sehen in der strengen Regelhaftigkeit der Programmiersprachen eine Möglichkeit, die Biologie zu revolutionieren [5].

Insbesondere seit der Entschlüsselung des Genoms und der Erforschung seiner Funktionsweise und seiner Reaktionen auf Umweltbedingungen, so erläutern sie, stehe die Biologie vor der Schwierigkeit, diese komplexen Zusammenhänge darzustellen. Die Formalsprache der Programmcodes könne hier Hilfestellung geben. Es sei an der Zeit, die Grenzen der beschreibenden Sprache zu verlassen und ähnlich wie die Physik in der Regelhaftigkeit des Binärcodes anzukommen: die Funktionsweise des Lebens, dargestellt in tags und if-Schleifen.

Während das Zusammenspiel von Nullen und Einsen für die Biologie noch etwas Neues darstellt, haben Teilbereiche der Physik schon neue Ufer erschlossen. Das Zauberwort lautet: Quantencomputer. Obwohl die Idee des Quantencomputers beinahe so alt ist wie die der heutigen Rechenmaschinen, kommt erst seit einigen Jahren Bewegung in die abstrakte Disziplin. Kein Wunder, zählen die Quantenmechanik und Quantentheorie doch zu den kompliziertesten Gebieten der heutigen Physik.

Anders als Binärrechner speichern Quantencomputer Informationen nicht nur analog ab, also in den klassischen Werten Null und Eins, sondern in so genannten Qbits. Diese sind quantenmechanische Zwei-Niveau-Systeme, die einerseits analog fungieren können, andererseits jedoch auch mit anderen Qubits in Reaktion treten können. Rechenschritte in einem Quantencomputer müssten darum nicht sukzessive durchgeführt werden, sondern könnten, den komplexen Regeln der Quantentheorie folgend, parallel und damit erheblich schneller ablaufen.

"Ein einsatzfähiger Quantencomputer im Jahr 2020 scheint mir realistisch"
(Andrew Steane)
Insbesondere bei sehr komplexen Rechenoperationen und großen Datenmengen wäre der Quantencomputer den heutigen Binärrechnern gegenüber im Vorteil; und auf Grund seines eigenen Aufbaus scheint er auch besser in der Lage, die Quantennatur von Molekülen und Materialien berechnen zu können. Aktuell jedoch sind Quantenrechner noch nicht einsatzfähig. Zu groß sind bislang die technischen Hürden. Dennoch sind sich die Quantenphysiker ihres Erfolges gewiss: "Ein einsatzfähiger Quantencomputer im Jahr 2020 scheint mir realistisch", erklärt etwa Andrew Steane, Mitglied der Quantencomputer-Gruppe der Universität von Oxford [6].

Der Quantencomputer – der Computer der Zukunft? Wohl kaum. Für eine allgemeine Anwendung sei er einfach zu speziell, erläutert Isaac Chuang vom Massachusetts Institute of Technology in Cambridge. Doch auch wenn der Quantencomputer im Jahre 2020 nur ein Nischenprodukt sein und der Binärcode weiterhin den Alltag wird – eines scheint heute schon sicher: Für den Forscher von morgen wird es nicht mehr ausreichen, allein Biologe oder Physiker zu sein; das Idealbild der Zukunft ist den Experten zufolge ein Forscher, der gleich drei Professionen in sich vereint – den Wissenschaftler, den Techniker und den Programmierer. Ein neues animale universalis, sozusagen.
25.03.2006

Dieser Artikel ist enthalten in Spektrum - Die Woche, 25.03.2006

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos