Direkt zum Inhalt

20 Jahre Humangenomprojekt: »Verstanden haben wir unser Erbgut noch lange nicht«

Vor 20 Jahren entschlüsselten Forscher das menschliche Erbgut. »Das hat die Basis für die Humanbiologie geliefert«, sagt Hans Lehrach, damals Sprecher des Deutschen Humangenomprojekts. Im Interview spricht er über Erwartungen, Erfolge und besonders unerwartete Erkenntnisse.
Ein blauer stilisierter DNA-Strang vor blauem Hintergrund

Das Humangenomprojekt war ein internationales Forschungsvorhaben, das 1990 mit dem Ziel startete, das Erbgut des Menschen vollständig zu entschlüsseln. Hunderte Wissenschaftler in dutzenden Ländern nahmen teil, 1995 stieß auch Deutschland hinzu. Ab 1998 bekamen sie Konkurrenz von der US-Firma Celera, die der amerikanische Genomforscher John Craig Venter mitgegründet hatte. Im Februar 2001 veröffentlichten beide Unternehmungen unabhängig voneinander einen ersten Entwurf der menschlichen Genomsequenz. Die Medien berichteten groß darüber. 2003 verkündeten die beteiligten Forscher den Abschluss der Arbeiten im Rahmen der angelegten Maßstäbe.

Spektrum.de: Was hat die Entschlüsselung des menschlichen Genoms gebracht? Haben wir unser Erbgut verstanden?

Hans Lehrach: Sie hat die Basis für die gesamte Humanbiologie geliefert. Der geschätzte kommerzielle Gewinn des Projekts liegt hunderte Male höher als seine Kosten. Wir können jetzt einzelne Personen so genau untersuchen, dass wir mehr über ihre individuelle Biologie wissen, als zuvor über die Biologie des Menschen insgesamt bekannt war. Patienten personalisiert zu behandeln, was ja unser Ziel sein sollte, liegt in greifbarer Nähe. Aber verstanden, so wie man etwa ein Computerprogramm begreift, haben wir unser Genom noch lange nicht. Wie aus Erbinformation ein Organismus hervorgeht, ist von der Evolution bestimmt und nicht von irgendwelchen logischen Regeln, nach denen wir Programme schreiben würden. Daher war klar, dass wir das menschliche Genom nicht gleich komplett verstehen würden. Es kann noch Jahrhunderte dauern, bis wir so weit sind.

Hans Lehrach | Hans Lehrach, geboren 1946 in Wien, ist studierter Chemiker. Nach Forschungsaufenthalten an der Harvard University, am Europäischen Laboratorium für Molekularbiologie und beim Imperial Cancer Research Fund in London kam er 1994 als Direktor ans Max-Planck-Institut für Molekulare Genetik in Berlin. 1997 bis 2001 arbeitete er als Sprecher des Deutschen Humangenomprojekts. Zahlreiche weitere Stationen folgten. Lehrach war Mitherausgeber mehrerer molekular/genetischer Fachzeitschriften.

Was waren die Erwartungen an das Humangenomprojekt, als es 1990 startete?

Wir wollten mehr über den Organismus und die Biologie an sich erfahren, und das ist gelungen. Wir wollten herausfinden, welche Gene es gibt und welche Funktionen sie ausüben. Und wir wollten Werkzeuge bekommen, um bestimmte Gene leichter zu finden – etwa Anlagen für Erbkrankheiten. Auch das ist eingetreten. Einige Leute hegen naive Vorstellungen davon, wie Biologie funktioniert. Die waren vielleicht enttäuscht davon, dass das Humangenomprojekt nicht das Buch des Lebens komplett offengelegt hat. Aber das ist nicht die Schuld des Projekts, sondern der falschen Erwartungen daran.

Die technischen Möglichkeiten, um DNA-Moleküle zu sequenzieren und die anfallenden Daten zu verarbeiten, sind heute besser als damals. Um wie viel?

Ungefähr eine Million Mal besser. Die Daten zu generieren, hat seinerzeit einige hundert Millionen Dollar gekostet und das ganze Humangenomprojekt schätzungsweise dreieinhalb Milliarden. Jetzt nähern wir uns Kosten von 100 Dollar, um ein menschliches Genom zu sequenzieren. Und die Preise fallen weiter. Streng genommen ist der Fortschritt sogar noch größer, weil bereits während des laufenden Projekts die Sequenzierkosten um etwa den Faktor zehn sanken.

»Hätten wir versucht, das menschliche Genom mit dem Standardansatz zu sequenzieren, hätten wir das 50-Fache ausgegeben und wären immer noch nicht fertig«

Am Humangenomprojekt nahmen Forscher in dutzenden Ländern teil. Deutschland kam erst 1995 dazu. Warum so spät?

Das ist ein Lehrbeispiel dafür, wieso die Ziele der Wissenschaft nicht nur von Wissenschaftlern vorgegeben werden sollten. Das Humangenomprojekt war bei einigen der führenden deutschen Forscher nicht sehr beliebt. Zum Glück hat das Bundesforschungsministerium gemeinsam mit den Wissenschaftsorganisationen die deutsche Teilnahme durchgesetzt. Selbst noch, als dies schon fast beschlossen war, haben manche Spitzenforscher ans Ministerium geschrieben, Genomsequenzierung sei im Grunde eine stupide Arbeit und man solle sich lieber auf andere Dinge konzentrieren. Und falls man aus politischen Gründen unbedingt teilnehmen wolle, könne man doch ein amerikanisches Sequenzierzentrum dafür bezahlen, die Arbeit zu machen. Es war erstaunlich.

Gab es diese Debatte nur in der Bundesrepublik?

Das Projekt war nicht nur in Deutschland umstritten, sondern auch international. Viele Wissenschaftler hatten natürlich Angst, die Budgets für ihre eigenen Arbeiten könnten schrumpfen, wenn so ein Großprojekt finanziert wird.

Das Humangenomprojekt setzte von Anfang an auf internationale Zusammenarbeit. Warum war das wichtig?

Die Sequenzdaten des menschlichen Genoms sind eine unglaublich ergiebige Ressource für Wissenschaftler weltweit. Und es sollten ganz bewusst möglichst viele Forscher davon profitieren, weshalb es bedeutsam war, die Daten unmittelbar für alle freizugeben. Das sollte auch den Widerstand reduzieren, den es in der Scientific Community gegen das Vorhaben gab. Die Leute konnten aus den Ergebnissen enorm viel für ihre eigene Forschung ziehen. Das wäre nicht möglich gewesen, wenn es einen Wettbewerb darum gegeben hätte und sie nicht frei zugänglich gemacht worden wären. Dann hätte alles viel länger gedauert.

Die Daten gemeinschaftlich offenzulegen und zu teilen, war ein Grundanliegen des Projekts. Hat das funktioniert?

Sehr gut sogar. Es gab natürlich einige Probleme, so bestand seitens des Forschungsministeriums die Überlegung, Daten zu patentieren, um die Unterstützung von Industrieunternehmen zu gewinnen. Das war am Ende wegen der gemeinschaftlichen Vereinbarungen nicht möglich. Die so genannten Bermuda-Prinzipien hatten 1996 festgeschrieben, dass alle Sequenzierzentren ihre Daten binnen 24 Stunden online frei zugänglich veröffentlichen müssen.

Hat dieser Ansatz Schule gemacht?

Es gibt heute jede Menge globale Forschungsvorhaben, die nach diesem Prinzip funktionieren. Das hat sich enorm bewährt. Das Standardvorgehen in der Wissenschaft – jeder betreibt hypothesengetriebene Forschung mit einem kleinen Mitarbeiterteam – ist vielen Herausforderungen, denen wir begegnen müssen, nicht angemessen. Die Wissenschaft bietet die besten Methoden, um drängende Gesellschafts- und Menschheitsprobleme zu lösen. Aber wir müssen dafür auch passende Strukturen schaffen und uns nicht einfach nach den Vorlieben der Scientific Community richten.

Wir sind bei vielen Vorhaben besser dran, wenn wir Daten systematisch, gemeinschaftlich und standardisiert gewinnen und anschließend über Datenbanken allen zugänglich machen. Hätten wir versucht, das menschliche Genom mit dem Standardansatz zu sequenzieren, also hypothesengetrieben, in kleinen Gruppen und Gen für Gen, hätten wir das 50-Fache ausgegeben und wären immer noch nicht fertig.

»Am meisten überraschte uns, dass der Mensch nicht mehr Gene besitzt als beispielsweise die Maus«

1998 gründete der US-Genomforscher John Craig Venter das Unternehmen Celera, um dem Humangenomprojekt Konkurrenz zu machen. Wieso?

Vermutlich spielte die Überlegung mit, dank des Wettbewerbs die Sequenziermaschinen besser zu verkaufen. Und das hat funktioniert, ob es nun geplant war oder nicht. Venter nutzte damals ein umstrittenes Verfahren, die Schrotschuss-Methode. Dabei wird die menschliche DNA automatisiert in kleine Stücke zerlegt und ausgelesen. Anschließend setzt man die vielen Einzelsequenzen mit immensem Rechenaufwand wieder zusammen. Ich kann bis heute nicht ganz ermessen, wie sehr Venter dabei vom Humangenomprojekt profitiert hat. Unser Projekt arbeitete regionen- und chromosomenspezifisch; wir kartierten erst das Genom und sequenzierten dann gezielt DNA-Abschnitte, die den kartierten Bereichen entsprachen. Das erleichterte es, Abschnitte mit vielen Sequenzwiederholungen der jeweils richtigen Region im Erbgut zuzuordnen. Ging man hingegen nur über die Schrotschuss-Methode, war diese Zuordnung ziemlich schwierig. Celera hatte – wie alle anderen auch – Zugang zu den Daten des Humangenomprojekts und damit auf die Kartierung, was ihnen wahrscheinlich sehr genutzt hat. Das öffentliche Projekt hatte aber keinen Zugang zu den Celera-Daten. Insofern war der Wettbewerb zwischen ihnen und uns kein echtes Rennen.

War Venters Schrotschuss-Methode damals neu?

Nein, sie war schon zuvor genutzt worden, nur auf kleineren Einheiten des Genoms, damit man Abschnitte mit vielen Sequenzwiederholungen regional zuordnen konnte. Neu bei Venter war, die Methode auf das Gesamtgenom anzuwenden. Zusammen mit den Daten aus dem öffentlichen Projekt konnte er seine ermittelten Sequenzen lokalisieren. Ohne die Daten hätte ihn das wahrscheinlich deutlich mehr Zeit gekostet.

Die ersten Entwürfe des Humangenoms wurden im Februar 2001 veröffentlicht. Das waren aber nicht die vollständigen Sequenzen?

Die komplette Sequenzierung hat viel länger gedauert. Heute liegen vollständige Sequenzen menschlicher Chromosomen vor, lückenlos von einem Ende zum anderen. Dafür sind jedoch Sequenziertechniken nötig, die es zur Zeit des Humangenomprojekts nicht gab. Man konnte damals die wichtigsten Regionen mit den meisten Genen entschlüsseln, aber zahlreiche Abschnitte mit Sequenzwiederholungen ließen sich nicht genau zuordnen. Andere ließen sich gar nicht sequenzieren.

Von wie vielen Menschen stammten die Daten dieser Entwürfe? Wie gut bildeten sie die genetische Vielfalt der Menschheit ab?

Sie stammten von nur wenigen Menschen. Aber es folgte relativ bald das internationale 1000-Genome-Projekt, das Erbgutdaten von 2500 Menschen lieferte und somit deutlich repräsentativer war. Derzeit laufen Genomprojekte in vielen Ländern und an vielen Populationen; in China beispielsweise sollen eine Million Genome sequenziert werden.

Welche Erkenntnisse aus dem Humangenomprojekt waren besonders unerwartet?

Am meisten überraschte uns, dass der Mensch nicht mehr Gene besitzt als Organismen, die deutlich weniger komplex sind, beispielsweise Mäuse. Vor dem Projekt hatte die Mehrheit vermutet, dass wir vielleicht 100 000 Gene in uns tragen. Dann gingen die Schätzungen langsam runter, und schließlich stellte sich heraus, dass es nur rund 20 000 sind.

Klar wurde auch: Die Genome zweier verschiedener Menschen unterscheiden sich um weniger als 0,1 Prozent. Hat Sie das ebenso erstaunt?

Nein. Wir wussten schon vorher, dass sogar der Unterschied zwischen Mensch und Schimpanse relativ klein ist; das hatten bereits weniger leistungsfähige Methoden gezeigt.

War die Vorstellung von menschlichen Rassen mit der Genomforschung erledigt?

Diese Vorstellung war von Anfang an idiotisch. Die Sequenzdaten zeigten dann, dass die genetischen Unterschiede innerhalb einer Population weit größer sind als die Unterschiede zwischen Populationen. Daher ist der Rasse-Begriff für den Menschen völlig sinnlos. Das Humangenomprojekt hat sicher dazu beigetragen, das endgültig klarzustellen.

»Wir denken zu sehr vom Standpunkt eines Ingenieurs, der funktionslose Komponenten vermeiden würde. Die Natur hat damit überhaupt keine Probleme«

Der größte Teil des menschlichen Erbguts sah zunächst nach Müll aus: Überreste von Viren, die sich eigennützig verhalten; funktionslos gewordene Gene; Introns; endlose Sequenzwiederholungen. Was weiß man heute über diese so genannte Junk-DNA?

Zweifellos besteht unsere DNA weitgehend aus Sequenzen, die auf den ersten Blick nutzlos sind und, wenn überhaupt, dann vor allem darin gut, sich selbst zu vermehren. Oft bekommen solche Abschnitte aber im Zuge der Evolution eine Aufgabe. So sind die Telomere, die Schutzkappen an den Enden unserer Chromosomen, ursprünglich wohl funktionslose Überbleibsel von Viren gewesen. In der Biologie wird alles verwertet, was vorhanden ist, solange das einen evolutionären Vorteil bringt. Wir sollten deshalb nicht vorschnell von Müll sprechen. Ich glaube, wir denken zu sehr vom Standpunkt eines Ingenieurs, der natürlich vermeiden würde, irgendwelche Komponenten in ein Auto zu stecken, die keine Funktion erfüllen. Die Natur hat damit überhaupt keine Probleme.

Es ist kein Nachteil für uns, ein Erbgut herumzuschleppen, das großteils funktionslos ist?

Fliegende Organismen haben ein relativ kleines Genom. Das der Vögel etwa ist nur ein Drittel so groß wie das von Säugetieren; Fledermäuse wiederum haben ein rund halb so großes wie andere Säuger. Jede Körperzelle enthält das gesamte Genom, und dessen Gewicht müssen die Tiere mit sich tragen. Ein kleineres Erbgut macht das Fliegen etwas leichter. Zwar ist der Vorteil minimal, doch das reicht offenbar schon, dass die Evolution größere Sequenzabschnitte entfernt hat. Auch in der Maus lässt sich ein erheblicher Teil des Genoms herausnehmen, ohne dass das Erscheinungsbild der Tiere erkennbar leidet. Jedenfalls gilt das in einer Laborumgebung; ob die Nager in freier Wildbahn schlechter überleben würden, können wir nur schwer prüfen. Wir Menschen erheben uns nicht in die Lüfte und profitieren anscheinend nicht von einem leichteren Genom.

Eine häufige Kritik lautet, Untersuchungen des menschlichen Erbguts würden überproportional oft an Menschen europäischer Abstammung erfolgen. Stimmt das?

Wie gesagt, in China sollen nun eine Million Genome sequenziert werden. Natürlich: Solange viele von den wohlhabenden Ländern, die sich Genomprojekte leisten können, hauptsächlich Bewohner europäischer Abstammung haben, entsteht hier eine Verzerrung. Schon allein dadurch, dass die genetische Diversität in afrikanischen Populationen deutlich größer ist als in europäischen. Aber es laufen jetzt ganz gezielt Projekte an, die auch bislang unterrepräsentierte Populationen erfassen.

Das Problem erledigt sich also von selbst?

Einerseits. Andererseits ist das ein ganz generelles Phänomen. In klinischen Studien erscheinen Weiße oft überrepräsentiert, da Pharmafirmen ihre Medikamente vor allem für Populationen entwickeln, die dafür bezahlen können. Folglich werden zahlreiche Arzneistoffe überwiegend an solchen Probanden getestet. Zudem schließen klinische Studien typischerweise viel mehr Männer ein als Frauen. Auch da entsteht eine Verzerrung.

Das Humangenomprojekt ist abgeschlossen. Wie geht es weiter?

Wir arbeiten zum Beispiel intensiv daran, bei Patienten sowohl das Genom als auch das Transkriptom zu analysieren, also die Summe aller Erbanlagen, die zu einem bestimmten Zeitpunkt von der DNA-Sequenz in eine RNA umgeschrieben worden sind. Damit wollen wir eine echte Personalisierung der Behandlung erreichen. Das ist besonders in der Krebsmedizin wichtig. Denn jeder Tumor ist anders, und sogar die Zellen innerhalb eines Tumors unterscheiden sich. Zudem unterscheiden sich die Patienten in ihrem Stoffwechsel, in ihrem Mikrobiom, in ihrem Immunsystem und in vielem mehr. Wir müssen eine Behandlung finden, die darauf Rücksicht nimmt und sich sowohl am Patienten als auch an dessen Tumor ausrichtet.

Wie wichtig sind dabei Computermodelle?

Je mehr wir über einzelne Patienten wissen, umso genauer können wir vorhersagen, welche Medikamente bei ihnen wirken werden, wie genau sie wirken, was für Nebenwirkungen auftreten werden und so weiter. Wenn ein angehender Pilot einen Flugsimulator zum Absturz bringt, ist das nicht so dramatisch, wie wenn ihm das später mit einer voll besetzten Verkehrsmaschine passiert. Deshalb trainieren Flugschüler an Simulatoren. Leider sind wir in der Medizin noch nicht so weit, dass wir Arzneistofftherapien an Computermodellen von individuellen Patienten testen, bevor wir sie in echt anwenden. Das führt mitunter zu dramatischen Problemen, so sterben jährlich schätzungsweise 200 000 Menschen in Europa an unerwarteten Medikamentenwirkungen. Hier wird sich hoffentlich viel verbessern – auch mit Hilfe von Genomdaten.

Individuelle Genomsequenzierung wird künftig also zur Routine, und es kommt die personalisierte Medizin?

Ich hoffe, die genaue Untersuchung des Genoms und Transkriptoms gehört schon bald zum Standard bei Tumorpatienten. Zusätzliche Informationen können neue Methoden wie die Einzelzell-Sequenzierung oder die ortsaufgelöste Analyse des Proteoms, der Gesamtheit aller Proteine, liefern. Das würde nicht zuletzt helfen, Geld zu sparen. Derzeit entsteht ein beträchtlicher Teil der Gesundheitskosten dadurch, dass wir für Medikamente zahlen, die bei ihren Empfängern nicht wirken, und dass wir unerwartete Nebenwirkungen behandeln müssen.

Das Interesse an Genomdaten ist groß, nicht nur bei Forschern, auch bei Krankenversicherern oder Arbeitgebern. Besteht das Risiko einer genomischen Überwachung?

Ich sehe Genomdaten vor allem als Mittel, um schwere Krankheiten besser behandeln zu können. Meiner Meinung nach wäre es nicht besonders klug, Menschen informationell intakt zu begraben, jedoch zuvor nicht in der Lage gewesen zu sein, sie optimal zu behandeln. Es gibt natürlich Datenschutzrisiken, aber die lassen sich durch Gesetzgebung regeln. Das US-Bundesgesetz Obamacare hat den Krankenversicherern verboten, Patienten wegen Vorerkrankungen abzulehnen. Genauso gut kann man Versicherern untersagen, genetische Daten für Prämienberechnungen heranzuziehen. Ein Staat, der Ladenschlusszeiten gesetzlich regelt, hat ohne Weiteres die Mittel, solche Probleme legal zu lösen. Wir müssen nicht darauf verzichten, Patienten individuell und somit besser zu behandeln, nur damit Versicherer nicht etwas tun, wovon der Gesetzgeber sie ohnehin abhalten kann.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.