Vom kreativen Umgang mit Spannungsspitzen der verbauten Schaltkreise bis zu großorchestralen Kompositionen für Spiele mit mehr als 100 gleichzeitig aktiven Audiospuren: Kein halbes Jahrhundert ist die Computerspielmusik alt. Anfangs bestand ihre Aufgabe darin, einfachste Spielhandlungen zu untermalen, heute hat sie bedeutenden Einfluss auf Spielhandlungen. Sie kann unterschiedliche Funktionen erfüllen, indem sie die Spieler*innen sowohl auf rationaler als auch auf emotionaler Ebene anspricht.
Dieser Beitrag ist Teil des Dossiers Musik & Sound. Eine Übersicht über alle Beiträge des Dossiers gibt es hier | Titelbild-Quelle: Lucas Film Games / The Secret of Monkey Island
Doch welcher bemerkenswerte Unterschied besteht heute zwischen der Musik digitaler Spiele und anderen Musikformen? Es ist so einfach, wie speziell: Ihre Erscheinungsformen sind nicht auf starre Arrangements beschränkt, die zu immer gleichen Spielverläufen abgerufen, im Grunde abgespult werden. Stattdessen ist sie individuell, sie passt sich unterschiedlichen Handlungsverläufen an. Die Spieler*innen werden zum „Co-Arrangeur der Komposition“ (Moormann 2015, 134).[1] Und das häufig unbewusst. Denn das vordergründige Ziel der Spieler*innen ist meist nicht das Arrangement der Musik, sondern das Fortkommen im Spielverlauf. Spieler*innen beeinflussen Spielverläufe. Spielverläufe beeinflussen die Musik. Musik beeinflusst die Spieler*innen.
Ein komplexes System, dessen Geschichte von technischen Limitationen und darauffolgenden Weiterentwicklungen geprägt ist, die die ästhetische und inhaltliche Bedeutung der Musik digitaler Spiele erst möglich machten.
Von der musikalischen Illustration zur adaptiven Musik
Die frühe Geschichte der Computerspielmusik zeichnet sich durch die Untermalung einfacher Spielverläufe mit einer überschaubaren Anzahl von Spielentscheidungen aus. Die Rolle der Musik bestand nahezu ausschließlich in einer festgelegten Illustration vorher definierter, nacheinander inszenierter Situationen.
Doch die Möglichkeiten der Erzählung innerhalb eines Spiels entwickelten sich ab Mitte der 1980er Jahre schnell weiter. Die Anzahl der möglichen Spielentscheidungen nahm weiter zu und damit auch die Menge möglicher Spielverläufe. Während Spielverläufe vorher weitestgehend einer festen, linearen Struktur folgten, wiesen neu entwickelte Spiele immer öfter flexible, non-lineare Verläufe auf.
Die Computerspielmusik stand vor einem Problem (vgl. Tamme 2018, 295f): Spielverläufe waren nicht mehr vorhersehbar und die Musik konnte sich dieser Entwicklung nicht so einfach anpassen.[2] Dass Musik in der Lage sein könnte, „die Gamer in die Welt des Spiels hineinzuziehen und dort zu halten“ (Moormann 2015, 134), war Spieleproduzenten allerdings durchaus bewusst.
Die Herausforderung bestand nun darin, eine neue Form von Musik zu entwickeln, die adaptiv ist. Also Musik, „die in der Lage ist, den Spieler_innen bei ihren Entscheidungen durch die nonlinear erzählte Handlung zu folgen“ (Tamme 2018, 296).
Computerspielmusik mit MIDI
Programme, die Spielentscheidungen interpretieren können – Spiel-Engines – sollten das Problem lösen, was mehr oder weniger gut gelang. Der Standard zur Generierung von Computerspielmusik waren lange Musical Instrumental Digital Interface-Daten (MIDI). Mit MIDI-Daten wurden Hardware-Soundchips auf Soundkarten angesteuert (vgl. Krause 2008, 12), vorproduzierte Musikaufnahmen konnten noch nicht verwendet werden. Die Musik wurde anhand von Noten, die im MIDI-Format vorlagen, vom Soundchip ausgegeben. Spiel-Engines hatten die Aufgabe, Spielverläufe mit einem Repertoire an hinterlegten Daten abzugleichen. Dieses Repertoire bestand aus einer Liste möglicher Spielentscheidungen, einer Liste mit Wenn-Dann-Anweisungen und MIDI-Daten. Die Engine erkannte die Spielentscheidung, ordnete die entsprechende Anweisung zu und brachte so die richtigen Töne zum richtigen Zeitpunkt zum Klingen (vgl. Tamme 2018, 296f).
Dies ermöglichte zwar eine flexible Zuordnung von musikalischer Illustration zu non-linearen Spielverläufen, hatte jedoch ästhetische Makel, die den Flow einschränkten. So waren die Übergänge zwischen den einzelnen musikalischen Elementen sehr hart, sehr abrupt. Motive, denen aus unterschiedlichen Gründen kein Musikelement zugeordnet war, ließen die Soundchips verstummen. Es herrschte rein technisch bedingte Stille, musikalische Ausdruckslosigkeit aufgrund fehlender Alternativen. Hinzu kam, dass nur eine einzige Zuordnung der MIDI-Daten erfolgen konnte. Es konnte beispielsweise ein Ort oder eine Figur musikalisch untermalt werden, zwei parallele Zuordnungen – zu einem Ort und zu einer Figur – waren nicht machbar. Die Möglichkeiten und Einschränkungen der Spielemusik zur damaligen Zeit können an einem Beispiel aus The Secret of Monkey Island (1990) nachvollzogen werden.
Mehr Immersion durch iMuse
Der Komponist Michael Land wollte die klangästhetischen Defizite verbessern und entwickelte zusammen mit Peter McConnell im Auftrag von LucasArts eine neue Engine, die Interactive Music Streaming Engine (iMUSE). iMUSE ermöglichte erstmals fließende Übergänge zwischen einer Vielzahl möglicher musikalischer Sequenzen, die je nach Spielverhalten an bestimmten Stellen abgerufen werden (vgl. Moormann 2015, 135f). Dadurch entsteht der Eindruck eines durchkomponierten Musikstücks – dieser fördert das Flow-Erleben der Spieler*innen und die Immersion in die Spielewelt.
iMUSE kam im Spiel Monkey Island 2: LeChuck’s Revenge (1991) erstmals zum Einsatz (vgl. Fritsch 2018, 90).[3] Der untypische Pirat Guybrush Threepwood macht sich hier auf die Suche nach dem Schatz Big Whoop. Im ersten Kapitel begibt er sich in die Stadt Woodtick und in den dortigen Hafen.
„Von der Hauptstraße aus hat er fünf Schiffe zur Auswahl, die er nun – auf Anweisung der Spieler_innen – betreten kann. Für die technische Umsetzung bedeutet dies, dass vom Developerteam im Ausgangsloop decision points gesetzt wurden, die fünf verschiedene musikalische Auswege aus dem Loop eröffnen. Jedes Schiff, das Guybrush nun betritt, wird im Soundtrack durch eine spezielle Variante des Woodtick-Themas charakterisiert. Die Varianten unterscheiden sich durch die Instrumente, rhythmische und melodische Variationen oder auch verschiedene harmonische Verläufe.“ (Tamme 2018, 303).
Der Stadt Woodtick wird eine Musik zugeordnet, die den Spieler*innen signalisiert, wo sie sich gerade befinden. Dazu kommen fünf unterschiedliche Varianten dieser Musik, die den verschiedenen Schiffen zugeordnet sind. Diese Varianten werden durch die Ein- und Ausblendung zusätzlicher Instrumente geschaffen, die unterschiedliche Grundstimmungen hervorrufen. So transportiert die Musik zwei Informationen: In welcher Stadt und auf welchem Schiff sich Guybrush gerade befindet.
Der Gang von Schiff zu Schiff wird musikalisch von angenehmen, fließenden Übergängen begleitet, die Musik wirkt harmonisch aufeinander abgestimmt (vgl. Tamme 2018, 299f).
Mehr Speicherplatz: Ein Schritt vor und wieder einer zurück
Neue Technik ist oft nur so lange interessant, bis sie vom Fortschritt überholt wird. iMUSE kam 1991 auf den Markt, im gleichen Jahr erschienen Computerspiele erstmals auch auf CD-ROM – zuvor waren Disketten die Standard-Datenträger. Die CD-ROM brachte mehr Speicherplatz ins Spiel, was zu einem bedeutenden Umbruch für die Musik digitaler Spiele führte. Das zuvor verwendete MIDI-Format war vor allem deshalb so attraktiv, weil es wenig Speicherplatz verbrauchte, der bis dahin rar war. Auch wenn die Optik der Spiele weiterhin Vorrang bei der Vergabe von Speicherplatz hatte, stand nun auch für den Ton ausreichend Platz zur Verfügung, um vorproduzierte Musikaufnahmen jeder Art zu verwenden. So wurden erstmals eigens für Spiele aufgenommene Instrumental- und Gesangsversionen eingesetzt.
Im Hinblick auf die adaptive Qualität der Kompositionen bedeutete dies jedoch einen Rückschritt im Vergleich zur iMUSE-basierten Spielemusik. Eine dynamische Anpassung an das Spielgeschehen war kaum mehr möglich, da die Musik nicht mehr programmiert, sondern als Datei zugespielt wurde. Schnitte wurden wieder hörbar und klangen unnatürlich. Der Eindruck eines durchkomponierten Musikstücks konnte bei der Wiedergabe über CD-ROM nur bedingt hergestellt werden (vgl. Moormann 2015, 136 und Krause 2008, 13f.).
Durchbruch mit der DVD
Dies änderte sich, als sich in den 2000er Jahren die DVD als neues Speichermedium durchsetzte. Sie brachte im Vergleich zur CD-ROM ein Vielfaches der Speicherkapazität mit und ermöglichte damit einen Bedeutungszuwachs der auditiven Schicht (Sprache, Geräusche, Musik) in digitalen Spielen. Es stand nun so viel Speicherplatz zur Verfügung, dass der Ton nicht mehr hinter der Optik zurückstecken musste. Was folgte, war eine Rückkehr zu und Weiterentwicklung der adaptiven, sich dynamisch an das Spielgeschehen anpassenden Musik (vgl. Moormann 2015, 136). Das MIDI-Format spielte bei der Entwicklung neuer Computerspiele keine nennenswerte Rolle mehr.
Seitdem bei der Komposition von Computerspielmusik kaum mehr technische Einschränkungen berücksichtigt werden müssen, nahm ihre klangästhetische Komplexität und inhaltliche Bedeutung deutlich zu. Entsprechend hoch sind die Budgets und ist der Aufwand bei den Aufnahmen und Bearbeitungen:
„Bei prestigeträchtigen Games mit riesigen Produktionsbudgets sind mehr als 100 gleichzeitig aktive Audiospuren für Sounddesign, Dialog und Musik keine Seltenheit mehr. Auch bei der Musikaufnahme herrscht schon seit längerem ein hohes Qualitätsbewusstsein. So nahm Gary Schyman seine opulente Komposition für Bioshock (2007) in den Abbey Road Studios auf. Solch großorchestrale Scores finden sich immer häufiger in Games“ (Moormann 2015, 136).
Dass Computerspielmusik auch als reine Musik ohne Spiel eindrucksvoll sein kann, zeigt das von Moormann genannte Beispiel.
Die Musik digitaler Spiele ist unvergleichbar
Das Stadium einer reinen Illustrierung von Spielhandlungen in Form von reaktiver Spielmusik (vgl. Berndt 2013 299) hat die Computerspielmusik längst hinter sich gelassen.[4] Spielhandlungen finden nicht mehr nur auf visueller, sondern auch – bewusst und unbewusst – auf auditiver Ebene statt.
Spieler*innen agieren parallel auf zwei Ebenen: Sie sind in den meisten digitalen Spielen Teil des diegetischen Geschehens, also in der Welt und Szene des Spiels verortetet, als Avatar. Gleichzeitig sind sie aber als Person auch immer Teil des nicht-diegetischen Geschehens außerhalb der Welt des Spiels.
So kommt es, dass auch nicht-diegetische Musik, deren Quelle nicht in der Spielszene verortet ist (z.B. ein musikalisches Thema, das einen Ort untermalt und eine bestimmte Atmosphäre schafft), den Spielverlauf beeinflussen kann. Spieler*innen übertragen Informationen, die sie über die Musik erhalten, auf das Verhalten ihres Avatars, der dieses Wissen nicht aus dem Spielgeschehen erhalten haben kann (vgl. Berndt 2013, 294ff).
„Ein Beispiel veranschaulicht das: In einer augenscheinlich ungefährlichen Szenerie vermittelt allein die nicht-diegetische Musik drohende Gefahr. Der Spieler wird sich vorsichtiger verhalten, wird aufmerksamer auf Anzeichen einer möglichen Falle achten. Objektiv betrachtet hätte es dafür keine Veranlassung gegeben. Die ausdrucksmäßige Distanz zwischen szenischem Geschehen und Musik, aus welcher im Film großes Spannungspotenzial erwächst, verringert sich nun aber durch die Reaktion des Spielers auf die Musik. Der Spieler ist vorgewarnt.“ (Berndt 2013, 298).
Proaktive Musik, die eine solche Botschaft an die Spieler*innen richtet, kann visuell vermittelte Informationen unterstützen, diese ersetzen oder auch Nicht-Visualisierbares darstellen (vgl. Berndt 2013, 299f).
Auf welchen Weg hat sich die musikalische Reise begeben?
Seit der Etablierung der DVD als gängiges Speichermedium ist über ein Jahrzehnt vergangen. Großorchestrale Kompositionen für digitale Spiele haben bis heute eine große Faszinationskraft. Doch Medien und digitale Spiele haben sich in der Zwischenzeit weiterentwickelt.
Insbesondere das Mobile Gaming ist zu einem bedeutenden Faktor geworden. Das nicht-ortsgebundene Spielen stellt eigene Anforderungen an Spielemusik, bietet aber auch Raum für neue Herangehensweisen bei der Einbindung auditiver Elemente.
Ähnlich sieht es beim Blick auf Virtual Reality (VR)-, Augmented Reality (AR)- und Mixed Reality (MR)-Anwendungen aus. Sollten sie sich etablieren, könnte ihre immersive Wirkung Medienerfahrung in den nächsten Jahren völlig neu gestalten. Auch hier entstehen spezielle Anforderungen an eine spielbegleitende Musik im virtuellen Raum.
So ändern sich sowohl die Orte, an denen gespielt wird, als auch die Geräte, auf beziehungsweise mit denen gespielt wird. In virtuellen Welten lassen sich Person und Avatar nicht mehr voneinander trennen. Die Person wird zum Avatar, nimmt auditive Informationen direkt im Spiel wahr. Wie wird dies die Rolle der Musik verändern?
Es bleibt spannend, abzuwarten, durch welche Entwicklungen und in welche Richtung die Musik digitaler Spiele in Zukunft beeinflusst wird. An Potenzial für kreative Innovationen mangelt es nicht.
Autorin: Stephanie Stark
Literatur
[1] Moormann, P. (2015). Spiel mit Musik – Entwicklungen und Potenziale der Komposition für Games. In: Deutsches Filminstitut e.V. (Hrsg.), Film und Games – Ein Wechselspiel. (S. 132–139). Berlin: Bertz+Fischer.
[2] Tamme, A. (2018). Dem Spieler folgend – Monkey Island 2: LeChuck’s Revenge und der Beginn der adaptiven Videospielmusik. In C. Hust (Hrsg.), Digitale Spiele. Bielefeld: transcript.
[3] Fritsch, M. (2018). Vom Bip zum Bombast – eine kurze Geschichte der Computerspielmusik. In B. Beil, T. Hensel & A. Rauscher (Hrsg.), Game Studies. (S. 87–107). Mainz: Springer VS.
[4] Berndt, A. (2013). Im Dialog mit Musik: zur Rolle der Musik in Computerspielen. Kieler Beiträge der Filmmusikforschung, 9/2013, 293–322. Zugriff am 19.08.2018. Verfügbar unter www.cemfi.de/wp-content/papercite-data/pdf/berndt-2013-idm.pdf
Weiterführende Literatur
Krause, B. (2008). Adaptive Musik in Computerspielen – Grundlagen und Konzepte zur dynamischen Gestaltung. Zugriff am 19.08.2018. Verfügbar unter https://curdt.home.hdm-stuttgart.de/PDF/Krause.pdf