Direkt zum Inhalt

Trends in der Musiktechnik II: Elektronenmusik

Synthetische Klänge, von analogen oder digitalen Schaltungen erzeugt und vielfach verändert, prägen die Spielarten zeitgenössischer E- und U-Musik. Diese neuartigen Hörerlebnisse werden allerdings erst aufgrund einer langen Tradition experimenteller elektroakustischer Verfahren möglich.

Das schwerste Instrument, das Elektrizität zur Tonerzeugung nutzte, war wohl das Dynamophone des amerikanischen Ingenieurs Thaddeus Cahill (1867 bis 1934): Das erstmals 1900 – pünktlich zu Beginn unseres dann mehr und mehr von Elektronenmusik geprägten Säkulums – in Washington öffentlich gespielte Instrument wog nicht weniger als 200 Tonnen. Dampfgetrieben rotierten Tongeneratoren und erzeugten Sinusschwingungen, also reine Töne. Cahill mischte daraus komplexere Wellenformen und übertrug seine Konzerte in die städtischen Telephonnetze, doch verursachte das auch ziemliche Störungen, und der Erfinder verlor bald seine Finanzgrundlage.

Nur wenig erfolgreicher war der Ingenieur Lew Sergejewitsch Termen (1897 bis 1993). Er stellte 1921 auf dem 8. Allrussischen Elektrotechnischen Kongreß in Moskau das Ätherophon – später Thereminvox genannt – vor, das durch sanftes Bewegen der Hände in einem schwachen elektromagnetischen Feld zu bedienen ist. Der Mensch fungiert dabei als Dielektrikum, verändert die Kapazität des Systems und verstimmt damit zwei hochfrequente Oszillatoren gegeneinander, so daß sich beim Überlagern ihrer Schwingungen eine hörbare Schwebung ergibt. Die Frequenz erhöht sich beim Annähern der Hand an eine Antenne, der Schwingkreis einer zweiten steuert die Laustärke (Bild 1).

Der Klang ist – wie Besucher des Deutschen Museums in München selbst erfahren können – arm an Partialtönen, geheimnisvoll und häufig Frauenstimmen gleich (die Klangfarbe eines Tones entsteht durch die früher Obertöne genannten Vielfachen der Grundfrequenz). Der englische Regisseur Alfred Hitchcock (1899 bis 1980) verdeutlichte damit die geistige Verwirrung seiner Hauptperson in dem Film "Ich kämpfe um Dich"; Popgruppen wie die Beach Boys oder Led Zeppelin machten sich dann den eigenartigen, selten zu hörenden Klang zunutze, und zeitgenössische Komponisten schrieben gelegentlich Orchesterstücke für das Instrument.

Sozusagen im Schatten des Thereminvox baute der deutsche Volksschullehrer und Organist Jörg Mager sein Sphärophon mit vergleichbarer Tonerzeugung, allerdings mit einer Kurbel statt der Spielantenne. Premiere hatte das Instrument 1926 auf dem Donaueschinger Musikfest, einer von den Komponisten Richard Strauss (1864 bis 1949), Paul Hindemith (1895 bis 1963) und Ferruccio Busoni (1866 bis 1924) fünf Jahre zuvor eingerichteten jährlichen Konzertveranstaltung zur Pflege zeitgenössischer Tonkunst. Das Sphärophon sollte vor allem Mikrotonalität ermöglichen, also eine feinere Einteilung des Tonraums als in die zwölf Halbtöne der chromatischen Skala. Mit der im Halbkreis bewegten Kurbel glitt man nach Bedarf durch den Tonraum mehrerer Oktaven oder eines Ganztons. Das Instrument konnte sich aber nicht gegen das Instrument Termens behaupten.

Der wurde von der Kommunistischen Partei zunächst auf Konzertreise um die Welt geschickt – wohl zur Präsentation überlegener sozialistischer Technik – und ließ sich 1928 in New York nieder; hier nannte er sich selbst Theremin. Die Weltwirtschaftskrise und die anspruchsvolle Spielweise – es fehlt ein räumlicher Bezugspunkt beim Spielen, wie etwa ein Griffbrett ihn bietet – verhinderten einen kommerziellen Erfolg, so daß sich Termen mit anderen Erfindungen wie dem Farbfernsehen beschäftigte. Doch 1938 verschwand er aus der Wahlheimat: Ob freiwillig oder unter Druck – er war in die Sowjetunion zurückgekehrt. Aufgrund von Differenzen mit dem Diktator Jossif Wissarionowitsch Stalin (1879 bis 1953) verbrachte er einige Jahre in einem Arbeitslager, wo er allerdings einer militärischen Forschungsabteilung überstellt war und unter anderem eine Abhörwanze erfand. Erst 1990, unter der Regierung von Michail Gorbatschow, trat Termen auf einem Festival für elektronische Musik wieder an die Öffentlichkeit. Sein Instrument geriet dank den Virtuo-sinnen Clara Rockmore und Lydia Kavina aber nie gänzlich in Vergessenheit und wird derzeit von Musikern verschiedener Sparten neu entdeckt.

Sehr populär wurde hingegen die 1934 von dem amerikanischen Erfinder Laurens Hammond (1895 bis 1973) patentierte Orgel, in der Metallzahnräder mit sinusförmigem Profil – getrieben von einem Elektromotor – Wechselspannungen in Spulen induzierten. Beim Drücken einer Taste der Klaviatur wurde der entsprechende Spulenstrom verstärkt, Obertöne konnten zugemischt werden.

Auch für das am 20. April 1928 in der Pariser Oper erstmals vorgestellte Ondes Martenot des Musiklehrers Maurice Martenot (1898 bis 1980) begeisterten sich zumindest im französischen Raum viele Hörer. Tonhöhen wurden durch Verschieben eines Ringes an einem gespannten Seil verstellt, eine Klaviatur diente zunächst nur der Orientierung darüber, wo die Töne lagen; später machte der Erfinder sie spielbar, und die Öse diente nun für Glissando-Effekte. Einer der ersten, der das Instrument nutzte, war der schweizerisch-französische Komponist Arthur Honegger (1892 bis 1955). Vorstellungen von über- und unterirdischen Geschehnissen etwa in seinem Oratorium "Jeanne d'Arc" evozierte er beispielsweise mit elektronisch erzeugten himmlischen Chören beziehungsweise höllisch klingendem Heulen. Noch bis in die fünfziger Jahre wurde das Ondes Martenot von der Firma des Erfinders gebaut und bis Anfang der siebziger Jahre von Komponisten vorgesehen.

Wechselvoll war das Schicksal des Trautoniums, benannt nach seinem Erfinder, dem deutschen Ingenieur Friedrich Trautwein (1888 bis 1956). Er baute es in der Rundfunkversuchsstelle der Staatlichen Akademischen Hochschule für Musik Berlin-Charlottenburg für Hindemith. Der brachte eigens dafür geschriebene Kompositionen mit seinem Schüler Oskar Sala und dem Pianisten und Hochschullehrer Rudolph Schmidt 1930 zu Gehör (Bild 2).

Im Unterschied zu den vorher genannten Instrumenten erzeugte Trautweins Elektronik keine Sinus-, sondern obertonreiche Sägezahnschwingungen. Dazu wurde ein Kondensator zyklisch aufgeladen und bei einer Maximalspannung schlagartig entladen, zunächst über eine Glimmlampe, später über eine Elektronenröhre. Die Dauer eines Zyklus und damit die Tonhöhe wurden mit einer Steuerspannung vorgegeben.

Die Spieltechnik war – und ist – anspruchsvoll und von derjenigen heutiger Synthesizer deutlich verschieden: Niederdrücken einer gespannten, widerstandsdrahtumwickelten Darmsaite auf eine Metallschiene schließt einen elektrischen Kontakt und gibt die Steuerspannung vor, doch erst weiteres Drücken der auf Federn gelagerten Schiene läßt einen Ton erklingen – druckempfindliche Flüssigkeitswiderstände verhindern nämlich ein abruptes Einsetzen und ermöglichen Lautstärkevariationen. Jeder Ort auf der Saite steht zur Verfügung, beim Glissando hält der Spieler sie gedrückt. Um bestimmte Töne sicher zu treffen, etwa die Oktaven oder Quinten der gestimmten Saite, gibt es zudem Hilfstasten in Form lederüberzogener Metallzungen. Mit einem Drehpedal läßt sich bei vor- beziehungsweise rückwärtiger Bewegung die Lautstärke, bei seitlicher die Oktavlage ändern.

Das ursprünglich einstimmige Trautonium erweiterte der Ingenieur durch eine spezielle Schaltung, welche die ersten Töne einer Untertonreihe erzeugte. Im Unterschied zur natürlich gegebenen Oberton- beziehungsweise Partialtonreihe baut sich diese elektronisch geformte nicht aus ganzzahligen Vielfachen der niedrigsten, sondern ganzzahligen Teilern der höchsten Frequenz auf, beispielsweise aus ihrer Hälfte, dem Drittel und so fort.

Das Vorhaben der Firma Telefunken, ein Instrument für den Hausgebrauch in Serie zu bauen, wurde 1934 nach Produktion einiger weniger Exemplare aufgegeben. Übrig blieb Salas erste große Konstruktion, das Rundfunk-Trautonium. Der Komponist Harald Genzmer schrieb dafür ein Orchesterkonzert, das 1939 uraufgeführt und vielfach wiederholt wurde.


Studioelektronik und die Neue Musik

Musikalisch nutzbare Technik ermöglicht neue stilistische Mittel, die gerade dem nach neuen Ausdrucksweisen suchenden Künstler gelegen kommen. So erweiterte Claude Debussy (1862 bis 1918) die klassische Harmonik im Sinne der Dur-Moll-Tonalität beispielsweise um die von indonesischer Gamelanmusik inspirierte Ganztonskala und das Auskomponieren der Klangfarbe. Igor Fjodorowitsch Strawinsky (1882 bis 1971) schockierte sein Publikum, indem er das Orchester als orgiastisch agierendes Rhythmusinstrument einsetzte.

Die Dissonanz – nach heutigem Verständnis und vereinfacht ausgedrückt Intervalle, die keinen Dur- oder Mollakkord bilden und eine nach Auflösung drängende Spannung enthalten – durfte sich mehr und mehr etablieren, der Tonvorrat der temperierten Stimmung von zwölf Halbtönen wurde zu neuen Tonleitern geordnet und sogar noch feiner in Mikrointervalle unterteilt. Ab 1920 zitierte und verfremdete man die Stilmittel der gesamten abendländischen Musikgeschichte seit dem Mittelalter sowie die der außereuropäischen Musik. So griff Hindemith auf Werke Johann Sebastian Bachs (1685 bis 1750) zurück, Carl Orff (1895 bis 1982) nutzte für sein "Schulwerk" Schlag- und Klanginstrumente aus aller Welt, und der amerikanische Komponist George Gershwin (1898 bis 1937) verarbeitete unter anderem Elemente von Ragtime, Blues, Dixieland und Swing zu symphonischem Jazz.

Der Österreicher Arnold Schönberg (1874 bis 1951) löste sich hingegen mehr und mehr von der Tonalität, also dem in der klassischen Harmonielehre geltenden Prinzip, die Entwicklung eines Stücks auf Grundtöne zu beziehen und in Hierarchien von Konsonanzen und Dissonanzen ablaufen zu lassen. Um 1920 erfand er zusammen mit Joseph Matthias Hauer (1883 bis 1959) die Zwölftontechnik als alternatives Ordnungsprinzip: Einer Komposition legte Schönberg eine "Reihe" genannte abstrakte Folge aus zwölf Tönen zugrunde und stellte Regeln auf, die vermeiden halfen, daß bei der Bearbeitung der Reihe einer etwa durch häufiges Vorkommen ein tonales Zentrum bilden konnte.

Nach 1950, wieder in einer Zeit des Umbruchs, gingen die Vertreter der Neuen Musik noch einen Schritt weiter und forderten, auch andere Parameter wie Klangfarbe, Tondauer oder Dynamik in Reihentechnik zu komponieren – der Serialismus entstand. Der französische Komponist Pierre Boulez etwa erstellte eine Reihe von zwölf Tondauern, die auf dem Zweiunddreißigstel einer Note aufbaute.

Solche Musik war aber immer schwieriger klanglich zu realisieren. Zudem suchten einige Komponisten sich noch mehr von den alten Ausdrucksmöglichkeiten der Musik zu lösen; sie wandten sich unter anderem elektronischen Mitteln zu, insbesondere dem Magnet-tonband und den Tongeneratoren. Allerdings war die erforderliche Ausrüstung zu dieser Zeit nur rudimentär vorhanden oder allenfalls mit erheblichen Investitionen zu beschaffen. Rundfunkanstalten förderten jedoch diese Experimente und Neuerungen als zukunftsträchtig und dem Medium Funk adäquat. Das erste Zentrum für elektronische Musik wurde 1951 vom Westdeutschen Rundfunk in Köln eingerichtet; ab 1963 leitete es Karlheinz Stockhausen; weltweit entstanden in den folgenden Jahrzehnten weitere Gründungen (Bild 3).

Ein Komponist mußte nun lernen, sich innovativer Technik zu bedienen. Sinustöne wurden analog erzeugt, bearbeitet und auf Band aufgenommen. Man konnte sie übereinanderschichten, mit gefiltertem Rauschen und impulsartigen Lauten mischen und vieles mehr. Aufgenommenes Material ließ sich kopieren, dabei beispielsweise durch Änderung der Bandgeschwindigkeit verzerren oder schneiden und mit anderem montieren. Stockhausen kombinierte diese Technik zudem mit der von dem französischen Toningenieur und Komponisten Pierre Schaeffer (1910 bis 1995) begründeten musique concrète – der Aufnahme und Bearbeitung alltäglicher Geräusche und Laute sowie ihrer Wiedergabe über Lautsprecher. (Schaeffer prägte den Begriff 1948, um sich von der bis dahin existierenden Musik abzugrenzen, die sich seines Erachtens nur in abstrakter Form auf Notenpapier abspielte. Sein Ballett "Orpheus 53" provozierte am 10. Oktober 1953 selbst bei den Donaueschinger Musiktagen Tumult; Kritiker sprachen schlichtweg von Lärm.)

Großen Einfluß auf die gegenwärtige Komponistengeneration hatte und hat der Ungar György Ligeti, der von 1957 bis 1959 im Kölner Studio arbeitete. Er verwandte Klangfarben als die primären formbildenden Elemente und entwickelte die Mikropolyphonie, also eine musikalische Binnenstruktur von sehr eng geführten Stimmen, des weiteren die Clusterbildung (Bild 4). (Sein Interesse galt später zunehmend auch den Naturwissenschaften, insbesondere nichtlinearen Phänomenen, wie etwa die Chaos-Theorie sie beschreibt.)

In den Vereinigten Staaten standen Komponisten nach dem Zweiten Weltkrieg gleichfalls vielfältige neue technische Möglichkeiten zur Verfügung. Auch dort diente das Tonbandgerät als Solo-instrument, das beispielsweise John Cage (1912 bis 1992) intensiv genutzt hat. Seine Intention, die Musik von den Bindungen westlicher Traditionen und der Subjektivität des Künstlers zu befreien, hat Generationen von Komponisten geprägt. Er unterschied die Kategorien Klang beziehungsweise Geräusch und Stille und gestaltete sie mit Zufallsoperationen wie dem Würfeln oder dem chinesischen I-Ging-Orakel. Sein erstes Tonbandstück, "Imaginery Landscape No. 5", enthielt zum Beispiel auf solche Weise arrangierte Ausschnitte von 42 Schallplatten. (Cages Ideen beeinflußten auch die seit den siebziger Jahren als Performance bezeichnete Kunstform, in der sich Kreativität nicht in einem dauerhaften Werk manifestiert, sondern Aktion hervorbringt und somit der Künstler Teil seines Werkes wird.)

Längst hat sich das Zuspielband in der zeitgenössischen Musik etabliert und begleitet herkömmliche Instrumente und auch Gesang. Die italienischen Komponisten Alessandro Cipriani, Luigi Ceccarelli und Emanuele Pappalardo suchen beispielsweise gemeinsam mit dem Ensemble Kantores '96 eine Form, gregorianischen Gesang und Elektroakustik zu vereinen, die sich deutlich von der derzeitigen Vermarktung dieser mittelalterlichen Musik unterscheidet. Dazu bearbeiten sie Aufnahmen für die Wiedergabe vom Tonband allein oder in Kombination mit Sängern. In Konzerten wechseln moderne und traditionelle Darbietungen. Komponisten und Musiker bemühen sich, Eigenheiten der Gregorianik mit elektronischen Mitteln herauszuarbeiten, etwa die mit dem Hall in Kirchen einhergehende und nach Meinung der Künstler damals vielleicht durchaus bedachte Clusterbildung.

Solches Unterfangen fußt auch in einer seit den fünfziger Jahren zunehmenden Bedeutung des Raumes als zusätzlicher Dimension der bis dahin vor allem als zeitlicher Prozeß betrachteten Musik. Tonträger, Lautsprecher und Elektronik sind geeignete Hilfsmittel, Klang räumlich zu strukturieren. So kreierte Stockhausen für die Weltausstellung 1972 in Osaka ein Kugelauditorium, in dem Lautsprecher das Publikum allseitig umgaben – die Bühnentechnik des Rock wie auch die Ausstattung heutiger Diskotheken basieren letztlich auf derartigen Experimenten.

In diesen Zusammenhang gehört auch das Halaphon, das erste Gerät, mit dem sich von Lautsprechern wiedergegebener Klang in Echtzeit im Raum bewegen ließ. Es wurde 1970 von Hans-Peter Haller entwickelt, der im Jahr darauf die Leitung des neugegründeten Experimentalstudios der Heinrich-Strobel-Stiftung beim Südwestfunk in Freiburg übernahm. Ingenieure des Senders hatten 1953 bereits den ersten Frequenzumsetzer entwickelt, mit dem sich Klänge live verändern ließen, und 1956 den ersten Ringmodulator für Stockhausens Werk "Mantra". Diese inzwischen für die Live-Elektronik unerläßliche Schaltung moduliert ein mit Mikrophon aufgenommenes akustisches Signal so mit einer Sinuswelle, daß an seinem Ausgang dem originalen Klang Summe und Differenz beider Signale zugemischt werden. Das Ergebnis klingt fremdartig, was auch für Geräuschuntermalung von Filmen gern genutzt wurde.

Boulez arbeitete mit dem Halaphon 1973 und profitierte von seinen Erfahrungen im Freiburger Studio bei der Gründung des Pariser Institut de Recherche et Coordination Acoustique/Musique (IRCAM) 1977, einer seitdem zentralen Forschungsstätte für elektronische Musik. In seinem Werk "Répons" verräumlichte Boulez beispielsweise 1981 das Spiel von sechs selber im Raum verteilten Solisten, indem er die von ihnen erzeugten Klänge rechnergesteuert zwischen Lautsprechern gleichsam kreisen ließ (siehe "Computer als Orchester-instrument" von Pierre Boulez und Andrew Gerzso, Spektrum der Wissenschaft, Juni 1988, Seite 46).


Mixturtrautonium und Synthesizer

Freilich hatten technisch versierte Musiker beziehungsweise musikalisch gebildete Ingenieure seit Termen nicht aufgehört, an neuartigen elektrischen Instrumenten zu arbeiten. So entwickelte Sala nach dem Zweiten Weltkrieg das Trautonium weiter. Insbesondere entwarf er einen Schaltkreis, mit dem sich eine Untertonreihe bis zum 24. Unterton aufbauen läßt. Sein anspruchsvollstes Instrument, das auch ein zweites Manual umfaßt, nannte er Mixturtrautonium, weil sich aus Subharmonischen gebildete mehrstimmige Akkorde – "Mixturen" – vorgeben und über Seitwärtsbewegungen der Pedale einschalten lassen. Während man auf einem Manual eine Melodie spielt, kann man auf dem anderen Akkordgrundtöne abgreifen und mit dem Pedal dazu Mixturen auswählen. Spezielle, auch miteinander kombinierbare Schaltkreise des Trautoniums erzeugen zudem Formanten, verstärken also wie die Resonanzeigenschaften von Mund- und Rachenraum bestimmte Frequenzen eines Tons (die Stimmritze des Menschen erzeugt ebenfalls zunächst eine Sägezahnschwingung, die dann klanglich eingefärbt wird).

Sala ging mit diesem Instrument eine Weile auf Tournee, so mit Genzmers "Konzert für Mixturtrautonium und großes Orchester". Um Schäden an dem Einzelstück zu vermeiden, zog er sich Ende der fünfziger Jahre in sein eigenes Studio zurück und realisierte in der Folgezeit vor allem Filmmusiken, etwa 1961 die gespenstischen Vogelschreie für Hitchcocks "Die Vögel" (Bild 2).

Anfang der achtziger Jahre untersuchten Wissenschaftler und Studenten der Berliner Fachhochschule der Deutschen Bundespost das Instrument und übertrugen die Konstruktionsprinzipien in moderne Transistortechnik; das mit Röhren bestückte Original steht nunmehr im Deutschen Museum Bonn. Die Klangvielfalt des Mixturtrautoniums hat das Interesse daran in jüngster Zeit neuerlich belebt. Sala hofft, daß das derzeit einzige elektronische Instrument mit Saitenmanual und kontinuierlicher Tonhöhenvariation doch noch nachgebaut wird (eine digitale Version konstruierte der Musikwissenschaftler Jörg Spix an der Universität Oldenburg).

Ein erstmals Synthesizer genanntes Gerät präsentierten 1955 die Ingenieure Harry F. Olson und Herbert Belar vom Versuchslabor der Radio Corporation of America – den electronic music synthesizer Mark I. Die Töne wurden zwar zunächst nicht durch elektrische Schwingkreise, sondern mit Stimmgabeln erzeugt, aber elektromagnetisch abgenommen und in partialtonreiche elektrische Schwingungen umgewandelt; Filter und Resonatoren formten die Klangfarbe. Mark I hatte allerdings noch wenig mit heutigen Synthesizern gemein, denn er wurde noch Stimme für Stimme mit Lochstreifen gesteuert und das Ergebnis auf Schallplatte aufgezeichnet, statt über Lautsprecher wiedergegeben. Der nur wenige Jahre später verfügbare Mark II erlaubte bereits, die Komposition gleich anzuhören, und war auch mit elektronischen Schwingkreisen ausgestattet. Der amerikanische Komponist Milton Babbitt, der 1961 das erste musikalische Werk mittels Synthesizer realisierte, kontrollierte damit Tonparameter wie Intensität und Klangfarbenänderung.

Kommerziellen Erfolg hatte indes erst der Ingenieur Robert Abraham Moog, dessen Name geradezu stellvertretend für Synthesizer steht. Er entwickelte Oszillatoren, Filter und Verstärker in modularer Bauweise, deren Funktion sich – und das war das entscheidend Neue – mit der Höhe einer angelegten elektrischen Spannung steuern läßt. Gemeinsam mit dem Toningenieur und Musiker Walter (heute Wendy) Carlos suchte Moog die Klangfarben von Orchesterinstrumenten elektronisch zu imitieren. Carlos veröffentlichte 1968 die Schallplatte "Switched-on-Bach" mit Werken Johann Sebastian Bachs, die mehr als einmillionmal verkauft wurde und das Instrument weltbekannt machte. Es folgten nicht nur weitere Adaptationen klassischer Werke und spezifische Kompositionen etwa für Stanley Kubricks Film "Clockwork Orange", auch Rockmusiker wie Keith Emerson entdeckten die klanglichen Möglichkeiten. Damit hatte Moog nicht gerechnet; das System war für das Studio gedacht, somit nur beschwerlich auf einer Bühne zu installieren und obendrein teuer. Doch der Markt war da – 1970 kam der einstimmige Mini-Moog heraus und zwei Jahre später ein polyphones Bühnengerät, das fast zehn Jahre lang die Rockmusik prägte.

Auch experimentell arbeitende Musiker nutzten von analogen Spannungen gesteuerte Synthesizer, so Ligetis Schüler Klaus Schulze, dessen dynamisch sich wandelnde Klangflächen die Grenze zwischen E- und U-Musik einebnen. Obgleich aus standardisierten elektronischen Bauteilen bestehend, haben diese analogen Instrumente jeweils ihren eigenen Klangcharakter, was ihnen in jüngerer Zeit – als Kontrapunkt zu digitalen Klangerzeugern – erneut kommerziellen Erfolg eingetragen hat.


Bits und Bytes

Computer werden längst in jedem Bereich der Musikproduktion eingesetzt, sei es als Kompositionswerkzeug, Instrument oder Aufnahme- und Bearbeitungsmaschine. Diese Entwicklung begann 1955. Damals setzten Lejaren A. Hiller und Leonard M. Isaacson den Großrechner der Universität von Illinois in Urbana versuchsweise zur musikalischen Analyse und Komposition ein. Sie ließen Illiac, den Illinois automatic computer, in einem ersten Schritt mit einem Zufallsgenerator Zahlen erzeugen, denen je nach Wert Parameter wie Tonhöhe, -länge und -lautstärke entsprachen. Diese aleatorische Folge sortierte der Rechner dann anhand von Kompositionsregeln, die sie entweder aus klassischen und zeitgenössischen Werken abgeleitet hatten, beispielsweise solche für das Vorkommen bestimmter Intervalle, oder die bereits formuliert waren wie solche für Kontrapunkt oder Zwölftontechnik. Schließlich wurde eine Partitur in Form von Zahlen errechnet, in Notation umgesetzt und von einem Streichquartett zu Gehör gebracht.

Die "Illiac-Suite" war kein ansprechendes Meisterstück, belegte aber die Machbarkeit solcher Vorhaben und insbesondere die Eignung der algorithmisch arbeitenden Maschine für das regelgebundene Komponieren, wie es die serielle Musik fordert. Weil Computer große Zahlenmengen und komplexe Rechenoperationen beherrschbar machten, versprachen sie auch ideale Werkzeuge zu sein, um stochastische Prozesse in die Komposition einfließen zu lassen und somit Musik ein Moment der Unvorhersagbarkeit zu geben. Damit hat sich vor allem der griechische Komponist Iannis Xenakis befaßt, der seit 1956 Mathematik und Musik eng zu verknüpfen sucht.

Die wenigen, zum Teil als Einzelstücke gefertigten Rechner der fünfziger Jahre standen allerdings kaum für musikalische Zwecke zur Verfügung. Eine systematischere Nutzung wurde erst im folgenden Jahrzehnt möglich; alsbald gründete man Forschungszentren für Computermusik und stattete sie mit sogenannten Mini-Rechnern aus, also in Serie gebauten, schrankgroßen Computern wie der PDP-11. Nun konnte der Elektronenrechner als Werkzeug für Komposition, Klangerzeugung und -bearbeitung sowie zur Steuerung musikalischer Prozesse gründlich untersucht und erprobt werden.

Ein erstes Programm zur digitalen Klangsynthese, Music I, entwickelte der amerikanische Ingenieur Max Matthews in den fünfziger Jahren, damals Mitarbeiter der Bell-Telephon-Laboratorien in Murray Hills (New Jersey); es simulierte ab der dritten Version Oszillatoren, die sich zu virtuellen Instrumenten verknüpfen ließen (Bild 5). Der französische Komponist Jean-Claude Risset entdeckte mit Music V, daß sich das Frequenzspektrum natürlicher Töne verändert, während sie erklingen – nach wie vor ein Grund für den häufig synthetischen Charakter computergenerierter Klänge.

John M. Chowning übertrug Ende der sechziger Jahre das in der Rundfunktechnik gebräuchliche Verfahren der Frequenzmodulation (FM) auf hörbare Schwingungen. Mit vergleichsweise geringem technischen Aufwand war fortan digitale Klangsynthese möglich; vor allem Soundkarten in Computern sind auch heute noch mit FM-Chips ausgestattet (siehe "Trends in der Musiktechnik I: Digitale Klangsynthese", Spektrum der Wissenschaft, November 1997, Seite 74).

Die 1971 präsentierten Mikroprozessoren der Firma Intel ermöglichten, die Hardware weiter zu verkleinern. Anfang der achtziger Jahre kamen Heimcomputer auf den Markt. Zwar reichte deren Leistung nicht, um Klänge zu berechnen; doch waren sie zum Steuern von Synthesizern mit MIDI-Befehlen geeignet, einem speziell zu diesem Zweck geschaffenen Datenformat (das Kürzel steht für musical instrument digital interface). Damit realisierte Klarenz Barlow, ein Schüler Stockhausens, heute Dozent für Komposition und Sonologie am Königlichen Konservatorium Den Haag, eine Verbindung von Stochastik und Echtzeit-Steuerung. Seine Software Autobusk – die Planung begann 1975 während einer Busfahrt durch Ostanatolien – deutet Zufallszahlen anhand einer zuvor komponierten Konstellation von Parametern und erzeugt daraus MIDI-Befehle; zu den einstellbaren Größen gehören beispielsweise Dynamik und Tonhöhenbereich, Ereignislänge und -dichte oder ein Parameter für den Anteil von Tonalität. Weil die Zahlenfolge niemals gleich ist, unterscheidet sich auch jede Realisierung einer Komposition von der vorigen.

Demgegenüber steht das Programm EMI des amerikanischen Komponisten David Cope in der Tradition von 1955: Es analysiert gegebene Werke und generiert daraufhin neue (im April dieses Jahres wurde so Wolfgang Amadeus Mozarts 42. Symphonie an der Universität von Kalifornien in Santa Cruz uraufgeführt). Dazu untersucht EMI die musikalische Hinterlassenschaft eines Komponisten beispielsweise nach melodischen Mustern oder Akkordwechseln und legt Listen typischer Wendungen und Verfahrensweisen an, deren sich das Programm dann bedient. Zudem ermittelt es Sequenzen von wenigen Noten, die als persönliche Signatur immer wieder in den Werken auftauchen. Nach Meinung einiger Fachleute – darunter Cope selbst -klingen die Resultate durchaus nach dem jeweiligen Meister, allerdings wenig inspiriert – eben nach Imitat.

EMI läuft auf einem gewöhnlichen Macintosh-Computer. Mittlerweile erreichen diese und Personal Computer die Leistungsfähigkeit von Musik-Workstations, wie Forschungszentren sie nutzen, und die Entwicklungen dort lassen sich immer rascher in den eigenen vier Wänden nachvollziehen. Auch die direkte Aufnahme von Klängen auf die Festplatte statt auf Magnetband, das sogenannte Harddisk-Recording, steht inzwischen nicht nur Ton- und Experimentalstudios zur Verfügung – mancher stellt bereits in Frage, ob solche Einrichtungen noch sinnvoll seien. Schnelle Maschinen erlauben auch, musikalische Prozesse in Echtzeit zu steuern, also ihre Parameter während einer Darbietung zu ändern. Das Musikinstrument Computer ist spielbar geworden, und die Möglichkeiten zur kreativen Gestaltung von Tönen, Geräuschen und Klängen sind universell verfügbar.


Digitale E-Musik

Bereits in den fünfziger Jahren, noch unter dem Eindruck des Zweiten Weltkrieges und seiner Folgen, opponierten Künstler gegen die Dogmen des Serialismus, insbesondere gegen das völlige Durcharbeiten eines Musikstücks. John Cage vertrat 1954 seine Idee einer offenen, prozeßhaften und niemals reproduzierbaren Form auf dem Darmstädter Ferienkurs, einem etablierten Treffen von Komponisten der Neuen Musik, und seitdem gibt es keine allgemein verbindliche Ästhetik mehr. (Etwa 1960 entstand allerdings auch der als minimal music bezeichnete Stil, der sich gleichermaßen gegen den strengen Serialismus wie gegen Cages Unbestimmtheit wandte; kennzeichnend dafür sind ein auf wenige Elemente reduziertes Material, gleichförmige Abläufe wie etwa permanentes Wiederholen kurzer Passagen und additives Überlagern.) Elektronik und vor allem Digitaltechnik unterstützen die gewonnene Freiheit, denn das Denkbare wird allein durch Hard- und Software vom Machbaren geschieden.

Individueller Stil und Neuerung sind gefragt. Der Japaner Kiyoshi Furukawa, ein Schüler Ligetis, schuf zum Beispiel 1993 als Gast des Karlsruher Zentrums für Kunst und Medientechnologie ein interaktives Stück für Klarinette und Computer: "Swim Swan" basiert auf einem englischen Kindervers, der zuvor als Sprechgesang in digitaler Form aufgenommen worden war und somit zur beliebigen Verarbeitung zur Verfügung stand. Das Computerprogramm analysierte bei der Live-Darbietung das instrumentale Spiel und reagierte einerseits mit Passagen der modifizierten Aufnahme oder mit nichtlinearen klanglichen Strukturen, die je nach den momentanen Analyse-Ergebnissen als Eingabeparametern verschiedene Resultate lieferten, andererseits mit ebenso variabel gestalteter Computergraphik (Bild 6); die Aufführung geriet somit zum multimedialen Kunstwerk.

Die Kombination von Ton, Geräusch und Sprache mit visuellen Medien, deren wechselseitige Steuerung von digitaler Technik stark vereinfacht wird, erscheint einigen zeitgenössischen Künstlern und Musikwissenschaftlern denn auch als Chance, die Krise der Postmoderne – die These, alles sei schon einmal dagewesen – zu überwinden. Die neuen Medien sollen eine neue Qualität der Kunst ermöglichen und werden somit quasi zu Hoffnungsträgern. Bernd Enders, Leiter der Forschungsstelle Musik- und Medientechnologie der Universität Osnabrück, glaubt, daß Musik in Zukunft nur ein wichtiger Teilaspekt audiovisuell erlebbarer Raumklanginstallationen sein werde. Mit einem virtuellen Seminar im Internet und interaktiven Lernprogrammen sucht er zudem diese Techniken für die Ausbildung zu nutzen.

Diese Technisierung der Musik ist nicht unumstritten. So fürchten Hochschullehrer, daß Kompositionsprogramme in der Ausbildung das musikalische Vorstellungsvermögen auch beeinträchtigen könnten, da sie keineswegs jede kreative Idee technisch unterstützen (beispielsweise beschränkt die serielle Datenübertragung der MIDI-Schnittstelle mit ihrem hohen Zeitaufwand das Bilden von Clustern, also einen hohen Grad an Polyphonie). Zudem engt sich die Perspektive auf das gerade auf dem Monitor Dargestellte ein; größere Zusammenhänge zu entwerfen erfordert nach Meinung vieler bislang doch noch die Arbeit mit Papier und Bleistift.

Konrad Boehmer, Komponist und Musikwissenschaftler, Leiter des Insti-tuut voor Sonologie der Königlichen Musikhochschule in Den Haag, moniert sogar eine Nivellierung auf allen Fronten, verursacht durch die Orientierung an Zahlen und Algorithmen: "Daß Computer-Kompositionen bloß wie Simulationen von Kompositionen klingen, liegt darin begründet, daß selbst der differenzierteste Algorithmus nur die Formalisierung einer Handlung oder Wirklichkeit sein kann, nicht diese selbst." Das Besondere fände sich häufig nicht mehr in der Musik, sondern in der Aura, die Komponisten und Darbietende um sich hüllen, und in der äußerlichen Darbietung eines Werks. "Technik", konstatiert er, "tritt an die Stelle des Virtuosen."

Der Medientheoretiker und Musikpädagoge Norbert Schläbitz wirft angesichts solcher Möglichkeiten der Täuschung die Frage auf, inwieweit die Wahrnehmung der musikalischen Wirklichkeit durch die neuen Medien beeinflußt werde: "Wenn simulierte Körper Schwingungen in der konkreten Welt auslösen und von konkreten Körpern erzeugte Schwingungen in der abstrakten Welt des Zahlenspiels zu simulieren sind, dann wird die Grenzziehung zwischen simuliertem Schein und realem Sein aufgehoben."

Demgegenüber sieht Enders Wurzeln musikalischer Täuschung schon in der Einführung der temperierten Stimmung, also in der Einteilung der Oktave in zwölf gleich große Intervalle im 18. Jahrhundert. Qualitativ neu sei das Vermögen der Elektronik zur unbegrenzten Manipulation des Klangs, vom Verstärken und Verhallen bis zum Sampling, also dem Umsetzen von Schallereignissen in binäre Daten.

André Ruschkowski, Komponist und Hochschullehrer des Salzburger Mozarteums und der Technischen Universität Berlin, nutzt beispielsweise digitalisierte Sprache als akustisches Ausgangsmaterial, die je nach Bearbeitung als solche noch erkennbar und verständlich bleibt oder bis auf ihr strukturelles Gerüst reduziert oder völlig umgedeutet wird, so daß sie etwa wie ein elektronisches Instrument klingt. Wissenschaftler des IRCAM konstruierten für einen Film über den unter dem Künstlernamen Farinelli berühmten Kastraten Carlo Broschi (1705 bis 1782) dessen fiktive Gesangsstimme. Sie erreichten einen Stimmumfang von 3,5 Oktaven, große Intervalle sowie langanhaltende Koloraturen und Triller, indem sie die Frequenzspektren von Gesangspassagen eines Kontratenors und einer Sopranistin einander anglichen und ineinander überführten (aus der Videobearbeitung sind vergleichbare Techniken als Morphing bekannt).

Angesichts solcher Freiheiten mag es nicht verwundern, daß Künstler, die um Authentizität bemüht sind, mitunter recht zurückhaltend mit Technik umgehen. Manfred Stahnke, Schüler Ligetis und Leiter des Instituts für mikrotonale, elektronische und Computermusik in Hamburg, nutzt Synthesizer mehr und mehr nur als Werkzeug, nicht als Instrument. Das Charakteristikum mikrotonal bedeutet, daß beispielsweise die Stimmungen miteinander spielender Instrumente so geringfügig gegeneinander verschoben werden, daß sich eigentümliche Reibungen und Schwebungen ergeben. Zudem erzeugt Stahnke komplexe rhythmische Muster etwa mittels unterschiedlich schnell ablaufender Strukturen. Während er in früheren Werken häufig Synthesizer und herkömmliche Instrumente kombinierte, dienen ihm digitale Klangerzeuger und Sequenzer nunmehr zum Testen kompositorischer Ideen, weil sich seines Erachtens mit herkömmlichen Instrumenten Musik lebendiger gestalten läßt.

Abseits der etablierten Musikrichtungen bauen Individualisten auch wieder Klangerzeuger frei von Elektronik, die trotzdem ungewohnte, seltsame Töne und Geräusche hören lassen. Ohne Bearbeitung und Manipulation in integrierten Schaltkreisen vermag beispielsweise das Daxophon des Wuppertalers Hans Reichel an Stimmen erinnernde Laute hervorzubringen; der Name ist eine Remineszenz an die Stimmfähigkeit des Dachses. Es besteht aus filigran geformten und geschwungenen hölzernen Zungen, die – mit ihrer Basis auf einen Holzklotz montiert – durch Zupfen oder Streichen mit einem Geigenbogen zu spielen sind; ihre Tonhöhe läßt sich dabei durch Aufsetzen eines schmal zulaufenden Holzblocks noch verändern. Andere experimentelle Künstler formen ihre Instrumente aus Keramik, bearbeiten Schrott oder manipulieren schwingende Luftsäulen in Kunststoffröhren.


Raumkunst/Zeitkunst

Digitaltechnik im Verein mit anderer Elektronik und mechanischen, oft musikfremden Objekten nutzen auch Gestalter von Klanginstallationen. Sie verzichten in letzter Konsequenz gänzlich darauf, die zeitliche Abfolge von Hör-erlebnissen festzulegen, und schaffen visuell gleichfalls attraktive akustische Objekte, mit denen der Rezipient häufig auch interagieren kann – Klangumgebungen, in denen er sich bewegt. Manche werden zu Skulpturen geformt, also auch optisch attraktiv gestalteten Objekten, so die Klangwände Peter Vogels, großformatige Installationen aus Drähten und Elektronik, die mittels Photozellen auf den Schatten des Betrachters ansprechen (Bild 7).

Damit wenden sich diese Künstler unter anderem gegen akustische Umweltverschmutzung wie stete Hintergrundberieselung und Dauerlärm. Ein Beispiel für solche Sinnenschärfung war die Klangbrücke Köln-Kyoto von Bill Fontana 1993: Via Satellit wurden die Geräusche bestimmter Plätze von einer Stadt in die andere übertragen – die fremden Elemente machten auf die heimischen, altgewohnten aufmerksam.

Moderne Technik dient sogar als Mittel, vor Übertechnisierung zu warnen. So schloß der australische Performance-Künstler Stelarc seinen Körper an Kontrollapparaturen der Intensivmedizin an und machte damit Funktionen wie Herzschlag, Gehirnwellen und Muskeltonus über Lautsprecher hörbar. Durch Kontraktion der Bauchmuskeln steuerte Stelarc eine Prothese, während Spannungsstöße einen seiner natürlichen Arme unwillkürlich bewegten. Der Künstler interagierte zudem mit dem Arm eines Roboters, der ihn mit einer Videokamera beobachtete: der Mensch als Teil der Maschine, Mensch und Maschine als Kunstwerk, das nur für die Dauer der Aktion Bestand hat. Mittlerweile hat Stellarc auch das Internet in seine Schreckensvisionen integriert; auf der diesjährigen Ars Electronica in Linz koppelte er sich via Modem ans Netz und ließ seinen Muskeln von Surfern nervale Impulse geben.

Ausgefeilte Elektronik und Digitaltechnik sollen solchen Performance-Künstlern mehr Möglichkeiten für Wechselwirkungen mit Klangerzeugern geben. Schon Lew Sergejewitsch Termen hatte auf der Basis des Thereminvox ein Instrument für Tänzer entwickelt – es wurde durch Körperhaltungen gespielt. Kapazitive Sensorik nutzen nun Joseph A. Paradiso und Neil Gershenfeld vom Media Laboratory des Massachusetts Institute of Technology in Cambridge (Massachusetts), um die Position des Bogens beim sogenannten Hypercello zu bestimmen: Eine fünf Zentimeter große Antenne hinter dem Steg erzeugt ein elektromagnetisches Feld, und in den Bogen ist eine Elektrode eingelassen (das teilweise von ihnen selbst entwickelte Instrument besteht aus einer kompakten Platte mit allen Attributen eines Cellos; das Saitenspiel erzeugt zwar kaum Schall, doch werden die Schwingungen piezoelektrisch abgegriffen und dienen – nach entsprechender Verarbeitung – der Kontrolle von Samplern, Synthezisern und anderer Elektronik). Die Wissenschaftler arbeiten zudem an einer Anordnung aus Elektroden, um mit Gesten und Körperbewegungen musikalisch zu agieren. Den gleichen Zweck verfolgen Projekte anderer Forschungsgruppen, die Ultraschallsensoren und Photozellen bis hin zu Videokameras im Verein mit bildverarbeitenden Rechnersystemen einsetzen – moderne Technik im Dienst experimenteller Kunst.


Wirkung auf die Popularmusik

Manche Experten vergleichen die Elektrifizierung der Musik mit wichtigen Neuerungen der Vergangenheit. Die im Mittelalter aufkommende Notenschrift etwa ermöglichte nicht nur, Musik zu fixieren, sondern sie auch spekulativ zu erdenken; so bildete eine Konservationstechnik die Grundlage von Komposition schlechthin. Der Notendruck erübrigte später die Anwesenheit des Schöpfers bei der Aufführung eines Werks und entwickelte sich zum einträglichen Geschäft für Verlage. Die Schallplatte machte – mehr noch als die zu Beginn des 20. Jahrhunderts beliebten Musikboxen mit Tonzylindern oder von gestanzten Lochstreifen gesteuerten mechanischen Klaviere – sogar die Gegenwart der Musizierenden beim Anhören entbehrlich. Die Konzerne der Musikindustrie formierten sich und haben seitdem wesentlichen Einfluß auf die weitere Entwicklung genommen. Ohne die rasche globale Verbreitung von Tonträgern wäre die Entwicklung des Rock zu einem Massenphänomen und musikalischen Grunderlebnis einer ganzen Generation wohl kaum möglich gewesen – freilich auch nicht ohne das Aufkommen leistungsstarker Beschallungsanlagen und das der Elektrogitarre, deren Saitenschwingungen nicht mehr durch den resonierenden Gitarrenkörper, sondern elektrisch verstärkt und mit elektronischen Schaltungen manipuliert werden.

Die Anwendung moderner Technik in der zeitgenössischen "ernsthaften" Musik inspirierte Popkünstler immer wieder. So beeinflußten Stockhausens Komponieren von Klangfarbe und seine Montagetechniken verschiedene deutsche Rockgruppen der siebziger Jahre, wie es auch eine Grauzone zwischen beiden Lagern gab und gibt, zu der Künstler wie Klaus Schulze, Brian Eno und Laurie Anderson gehören sowie Gruppen wie Tangerine Dream und Kraftwerk. Letztere prägten mit ihrer von Schlagzeug-Computern gekennzeichneten, maschinell klingenden Musik den seit einer Weile populären Techno.

Dieses Genre entstand Ende der achtziger Jahre in Detroit und wurde vor allem in Europa schnell musikalischer Ausdruck des Lebensgefühls Jugendlicher. Innovative Klänge und ein durchgehender 2/4- oder 4/4-Rhythmus, gespielt von einer synthetischen Baßtrommel, der Bass Drum, sowie immer wieder repetierte, einfache Motive und Akkordfolgen waren ursprünglich charakteristische Kennzeichen. Längst gibt es Spielarten, die den gleichbleibenden Grundrhythmus aufgegeben haben. So dominieren beim Ambient sphärische Klangflächen, während für den aus England stammenden Jungle komplexe, bis zu 200 Schläge pro Minute schnelle und noch dazu rasch wechselnde Rhythmen typisch sind. Die technische Grundlage sind Sequenzerprogramme, analoge und digitale Synthesizer sowie Sampler. Weil Tonstudios und Tonträgerproduktion mit der Computerunterstützung erschwinglich wurden, entstand und entwickelte sich diese Musik durch kleinere, technisch und ästhetisch unabhängige Plattenfirmen, den sogenannten Independent labels.

Welche Freiräume Techno dem Musiker bietet, entdeckte der damalige Jazz-Rock-Gitarrist Pete Namlook Anfang der neunziger Jahre in einem der ersten auf dieses Genre spezialisierten deutschen Clubs: "Bei Techno ist über der Bass Drum alles möglich." Heranwachsende sind nicht nur bereit, Klangexperimente zu goutieren, sondern fordern sogar danach. Offensichtlich liegen diesem Stil Erfahrungen und Vorstellungen zugrunde, die ein breites Publikum unmittelbar ansprechen.

Dabei gilt das Primat direkter körper-licher oder – beim rhythmusfreien Ambient – emotionaler Erfahrung. Diese Musik wendet sich also nicht an eine intellektuelle Zuhörerschaft, auch wenn sie kompositorische Einfälle elektronischer E-Musik durchaus verwendet, etwa die Umkehrung von Klängen oder deren Manipulation mit dem Ringmodulator. Komponiert wird deshalb meist intuitiv; ein Werk manifestiert sich gleich auf einem Tonträger (für die Notation elektronischer Musik gibt es auch noch kein verbindliches System, weswegen sich viele Komponisten und Musikwissenschaftler graphischer Mittel bedienen, um die verschiedenen Variablen der Klangerzeugung und -änderung darzustellen). Vor seinen Auftritten prüft beispielsweise Namlook oft mehrere Stunden, wie Raum und Instrumente wechselwirken, indem er kurze Sequenzen einspielt, die er dann live bearbeitet, mischt und mit neuen Ideen kombiniert. So entsteht Raum für kreatives Spiel, das sich oft minimalistisch auf wenige Mittel beschränkt, bis hin zum einzelnen Ton, der mit Filtern variiert in Bewegung versetzt wird. Das schließt freilich minutiöse Arbeit im nachhinein bis hin zum Editieren einzelner Noten am Studiocomputer nicht aus.

Techno-Musiker greifen auf das gesamte präsente musikalische Wissen zurück. In diese elektronische Musik läßt sich an Zitaten oder Anspielungen alles einbringen; die Anleihen reichen von Schlager-Phrasen über Jazz bis zu exotischen Traditionen. Das ist freilich auch erforderlich, denn die Ware ist schnell verderblich. Diskjockeys tauschen oft schon nach wenigen Wochen ihre Plattensammlung komplett aus.

Peter Wicke, Musikwissenschaftler am Forschungszentrum Populäre Musik der Humboldt-Universität, kommentiert dieses Phänomen: "Was im Kontext moderner High-Tech-Kultur und vor dem Hintergrund globaler Vermarktungsstrategien zum musikalischen Ausdruck der als postmodern apostrophierten Informationsgesellschaften wurde, ist nichts anderes als ein permanentes und umfassendes Recycling aller vorangegangenen Entwicklungsformen populärer Musik, die auf der Basis computergesteuerter Produktionstechnologien in immer neuen Kombinationen synthetisiert, kombiniert oder einfach technisch hochgestylt werden. Insbesondere das als Sampling bezeichnete Produktionsverfahren, das Musik am Computerbildschirm editierbar macht, erlaubt ein geradezu grenzenloses Generieren neuer aus vorhandener Musik."

Die technischen Möglichkeiten und die von Technik geprägten Musikrichtungen geraten also schnell in den Sog der Musikindustrie. Die durchgängige Rhythmik vieler von Synthesizern und Electronic Drums gekennzeichneten Aufnahmen eignen sich beispielsweise gut für Videoclips, die Mitte der achtziger Jahre aufkamen und einen neuen Markt öffneten. Bereits 1990 erreichte der englische Sender MTV damit über Satellit und Kabelnetze 100 Millionen Haushalte. Weil die Produktion aber recht kostspielig ist, verloren die von Taschengeld abhängigen Teenager an Einfluß, und die kapitalstärkeren Twens wurden Hauptzielgruppe. "Damit begannen deutlich andere Wertmuster als in den drei Jahrzehnten zuvor die Musikentwicklung zu dominieren", konstatiert Wicke. "An die Stelle der Konstruktion einer sozial spezifischen kulturellen Identität, wie sie für die jugendlichen Fankulturen um Rock'n Roll und Rockmusik charakteristisch war, trat jetzt ein körperbezogenes Lustprinzip, das an explosiven Tanzrhythmen und synthetischen Klangstereotypien festgemacht war. Nicht zuletzt kam dieser Trend einer visuellen Präsentation im Musikvideo optimal entgegen."

Zunehmend werden Popmusiker zur bloßen Verpackung der von ihnen – mitunter nur scheinbar – dargebotenen Musik, nach Marketing-Kriterien den jeweiligen Konsumentengruppen entsprechend nicht mehr zu eigenständigen Bands, sondern zu kurzlebigen "Projekten" zusammengestellt. (Freilich weisen Kritiker des Musikgeschäfts darauf hin, daß auch in der E-Musik längst der Vermarktungsgedanke dominiert.) Daß sogar der musizierende Mensch entbehrlich werden kann, zeigt der Erfolg eines virtuellen, also computerdesignten Popstars in japanischen Videoclips.

Die gleichzeitige Standardisierung der Popularmusik etwa durch Ausrichten der Dauer eines Stücks auf die Single-Schallplatte, welche die Hektik von einschlägigen Radiosendungen zur Folge hatte, und durch Beschränken von Harmonik und Rhythmik auf leicht rezipierbare Muster vermittelt – so Hermann Rauhe, Präsident der Hochschule für Musik und Theater in Hamburg -Jugendlichen ein falsches Bild musikalischer Vielfalt. Zerstreutes, abgestumpftes Hören befürchtet er auch durch die funktionelle Musik, die entweder als unaufdringlich stimulierende, gleichförmige Tonkulisse Kaufhäuser oder Restaurants oder – dann markant und einprägsam – als Erkennungszeichen für Produkte und Firmen etwa in der Rundfunk- und Fernsehwerbung dient. R. Murray Schafer von der Simon Fraser Universität in Vancouver untersucht seit 1970 Klangumgebungen und resümiert, daß unsere Welt insgesamt immer lauter wurde und zudem technische Geräusche die natürlichen ersetzen. Auch diese Entwicklungen wären ohne die entsprechende elektronische Unterstützung kaum möglich.

Freilich wäre das Bild einer manipulierenden Industrie und einer passiven Zuhörerschaft verfehlt. Medienkonzerne können Tendenzen und Befindlichkeiten kaum aus dem Nichts schaffen; sie suchen vielmehr Trends aufzugreifen und zu verstärken. Den Erfolg einfach und überschaubar wirkender Hervorbringungen erklärt Jörg Mischke vom Forschungszentrum Populäre Musik der Humboldt-Universität mit einer gesamtgesellschaftlichen Sinn- und Orientierungskrise: "Nicht der strukturelle Reichtum des Klanglichen, das Auffinden immer versteckter angelegter Regularitäten im Material machen die Faszinationskraft aus, sondern die an Standbilder in einem Film erinnernde Konzentration auf eine Atmosphäre, auf ein Gefühl rückt in den Vordergrund. Realisiert wird dies durch immer wiederkehrende Muster in Rhythmus und Sound... Vertrautheit könnte das dahinterstehende Rezept heißen, das selbst die neue Idee wie schon lange bekannt behandelt und einbettet."


Zukunftsmusik

Die elektronischen Geräte und Systeme bieten demnach Optionen für kreatives Schaffen wie auch die konkrete Gefahr der Nivellierung und Banalisierung. Peter Niklas Wilson von der Musikhochschule in Hamburg stellt fest: "Eine ganze Generation von Musikern wächst derzeit heran, deren erste praktische Erfahrung mit Musik nicht das traditionelle Instrument, sondern ein Hyper-Instrument ist: der Sampler, eine Meta-Orgel, deren Register nicht Klangfarben, sondern Stile, Genres, semantische und kulturelle Klang-Systeme sind." Obwohl eine homogene Ästhetik des Sampling nicht zu erwarten oder zu befürchten sei, hält er doch für sicher, "daß die selbstverständliche Verfügbarkeit von digitaler Medientechnik neue musikalische Verhaltensformen ausbilden wird, die die ästhetischen und sozialen Normen unserer Musikkultur radikal in Frage stellen." Zurückhaltender äußerte sich Bob Ostertag, selbst für sampler-basierte Kompositionen bekannt, als Mitglied der Jury beim Computermusikwettbewerb der Ars Electronica 1996; die mit modernster Technologie kreierten Stücke, urteilte er, seien klanglich uniformer als die mit einfachen MIDI-Modulen erstellten.

Ein noch kaum absehbares Potential des Wandels bietet das Internet. Einerseits werden durch dessen Förderung der Globalisierung das gerade Gängige und seine Repräsentanten stark unterstützt, andererseits verschafft das prinzipiell offene Medium auch Anbietern fern vom Mainstream Nischenplätze. Des weiteren ist music on demand eine mögliche künftige Distributionsform, die dem Rezi-pienten immerhin die Freiheit gibt, seinen aktuellen individuellen Vorlieben entsprechende Kompositionen zu hören (was freilich die herkömmlichen Tonträger schon weitgehend erlauben).

Im weltumspannenden Netz tummeln sich zudem bereits Komponisten, Musiker und Plattenfirmen – jeder kann sie treffen, sofern er sie in der Informationsflut findet (Spektrum der Wissenschaft, Mai 1997, Seite 90). Stephen Travis Pope, Chefredakteur des "Computer Music Journal", erhofft sich denn auch in den nächsten zwanzig Jahren unter anderem virtuelle vernetzbare Instrumente für Online-Performances.

Die Wienerin Andrea Sodomka begreift ein solches Kunstwerk als von Urhebern eingespeist und zur Verfügung gestellt, dann aber sich stetig verändernd und organisch wachsend. Sie erprobt diese neue Form, die auch die Grenze zwischen Künstlern und Laien aufheben soll, im Rahmen des Kunstradios des Österreichischen Rundfunks. Ein erster Großversuch war die Veranstaltung "State of Transition" 1994, die Fremdenfeindlichkeit und Migration zum Thema hatte. Zwei Rundfunkstudios in Graz und Rotterdam gestalteten via MIDI-Datenleitungen, Internet, Telephon und Bildtelephon gemeinsam Klang. Der Zugriff auf Seiten zum Thema im World Wide Web durch Hörer der Sendung steuerte je nach abgerufener Textpassage einen Lautsprecherhimmel in Rotterdam. Außenmikrophone in den beiden Städten und Tonschnipsel, die aus einer Voicebox abzurufen waren, ergänzten das Material, das der Tonmeister des ORF anhand einer Strukturpartitur mischte.

Die Beteiligten empfanden das Unternehmen als spannenden kreativen Prozeß, erkannten freilich auch Einschränkungen wie die noch recht begrenzte Übertragungskapazität. Weltweit suchen technisch gut ausgestattete Einrichtungen, solche multimedialen Erfahrungen zu erweitern und in neue Formen der Kunst umzusetzen. Eine Hoffnung dabei ist, das herkömmliche Konzerterlebnis wie die Rezeption von Musik über die Massenmedien durch eine neue, interaktive und letztlich alle Sinne ansprechende Erlebnisform zumindest zu ergänzen.

Literaturhinweise und Diskographie

- Ligeti Artikulation. Eine Hörpartitur von Rainer Wehinger. Buch, Poster und Audiokassette. Schott Musik International, Mainz 1970.

– Jazz, Rock und Popmusik. Von Peter Wicke in: Volks- und Popularmusik in Europa. Herausgegeben von D. Stockmann. Neues Handbuch der Musikwissenschaft, Band 12, Seiten 445 bis 477. Laaber, 1992. Im World Wide Web unter: http://www2.rz.hu-berlin.de/inside/fpm/pop20jh.htm

– Neue Musiktechnologie II – Klang-Art-Kongreß '93. Herausgegeben von Bernd Enders. Buch mit CD. Schott Musik International, Mainz 1995.

– Die Sprache der Musik im 20. Jahrhundert. Von Ton de Leeuw. Verlag Freies Geistesleben, Stuttgart 1995.

– Ex Machina. Von Norbert Schläbitz in: Neue Zeitschrift für Musik, Heft 5, Seiten 4 bis 9, 1996.

– Remix der Realität. Von Peter Niklas Wilson in: Neue Zeitschrift für Musik, Heft 5, Seiten 14 bis 17, 1996.

– Hören im musikalischen Environment. Von Sabine Sanio in: Klangkunst, Seiten 230 bis 232. Herausgegeben von der Akademie der Künste Berlin. Prestel, 1996.

– Music Performance Kunst. Von Barbara Barthelmes und Matthias Osterwold in: Klangkunst, Seiten 233 bis 239. Herausgegeben von der Akademie der Künste Berlin. Prestel, 1996.

– Gravikords, Whirlies & Pyrophones. Experimentelle Instrumente. Herausgegeben von Bart Hopkin. Buch mit CD. Ellipsis Arts, 1996. Erhältlich beim Mainzer Musikalienzentrum.

– Elektronische Klänge & musikalische Entdeckungen. Von André Ruschkowski. Reclam, Stuttgart 1997.

– Subharmonic Mixtures. Von Oskar Sala. CD. Electronic Music Center. Frankfurt, 1997.

– Air 2. Von Pete Namlook. CD. Fax Records Ambient World. Electronic Music Center, Frankfurt 1994.

– The Historical CD of Digital Sound Synthesis. Computer Music Currents 13. Herausgegeben von Johannes Goebel. CD mit Buch. Schott Wergo Music Media, Mainz 1995


Aus: Spektrum der Wissenschaft 12 / 1997, Seite 54
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!