Künstliche Intelligenz komponiert Musik in Saarbrücken – anhand von Puls und Emotionen der Zuschauer

Es wird ein Konzert, von dem niemand vorher weiß, wie es genau klingt. Denn das Musikstück soll von Künstlicher Intelligenz am Abend erst entstehen. Grundlage sind Puls und Emotionen der Zuschauer:innen.
Bei dem Konzert am 8. November in der Alten Feuerwache würden zwei Versionen entstehen. Foto: Wikimedia Commons/Anna16/CC BY-SA 3.0/Bild zugeschnitten
Bei dem Konzert am 8. November in der Alten Feuerwache würden zwei Versionen entstehen. Foto: Wikimedia Commons/Anna16/CC BY-SA 3.0/Bild zugeschnitten

Wenn Künstliche Intelligenz den Ton angibt – Uraufführung

Am Saarländischen Staatstheater wird es demnächst ein experimentelles Konzert geben, bei dem Künstliche Intelligenz ein Musikstück komponiert. Grundlage für die Uraufführung von „The (Un)answered Question“ seien unter anderem biomedizinische Daten des Publikums wie Pulsschlag und Gesichtsausdruck, sagte der Entwickler des Projektes, Martin Hennecke, der Deutschen Presse-Agentur in Saarbrücken. „Es wird spannend, weil man vorher nicht weiß, was tatsächlich herauskommt.“

Vor dem Konzert erhalte jede:r Zuschauer:in ein Fitnessarmband, das die Pulsfrequenz messe. Emotionen würden via Gesichtserkennung über Kameras im Raum erfasst. Zudem würden Besucher:innen gebeten, vor dem Konzert einen Fragebogen auszufüllen. Alle Daten der erwarteten gut 100 Gäste würden anonym erfasst und ausgewertet.

Wie das Ganze funktioniert

Wie werden die Daten in Musik übersetzt? Heißt langsamer Puls dann langsame Musik, lachende Gesichter hohe Töne? „Genauso wollen wir es nicht machen“, sagte Hennecke, Komponist und Schlagzeuger des Staatsorchesters. Die Künstliche Intelligenz suche vielmehr nach Ähnlichkeiten der verschiedenen Datensätze und gebe dann die Musik vor, die die rund 25 Musiker:innen des Orchesters aufs Tablet gespielt bekämen und dann live spielten.

„Dieser intelligente Algorithmus bleibt in gewisser Weise ein Mysterium“, sagte Hennecke. Die Künstliche Intelligenz arbeite allerdings auf der Grundlage eines gleichnamigen Musikstücks von Charles Ives. „Wir benutzen diese Daten als Rohmaterial und darauf darf die Künstliche Intelligenz zugreifen und sie verändern.“ Zum Beispiel: den Rhythmus vorgeben, Töne doppelt so lang machen, bestimmte Töne durch andere ersetzen.

Zwei Versionen am 8. November

Bei dem Konzert am 8. November in der Alten Feuerwache würden zwei Versionen entstehen. Eine, in der die biomedizinischen Daten der linken Hälfte der Gäste eine Rolle spielten. Und eine zweite mit den Daten der rechten Hälfte des Publikums. Interessant werde dabei, wie sich die Versionen unterscheiden würden, sagte Hennecke.

Hintergrund

Das Projekt werde in Kooperation mit der Helmholtz Information & Data Science Academy in Berlin und der Akademie für Theater und Digitalität in Dortmund auf die Bühne gebracht. Der Bund fördert das Experiment im Programm „Exzellente Orchesterlandschaft“. Von dem Geld seien Computer, Tablets und Kameras angeschafft worden, hieß es.

Ziel des Projekts sei auch, Kunst und Wissenschaft dichter zusammenzubringen, sagte Hennecke. Das Konzert diene der Erprobung der Technik, vor allem der Datenverarbeitung. Weitere Projekte seien in Planung: So solle es im Mai 2023 eine Ballettproduktion des Staatstheaters geben, wo Daten der Zuschauer:innen die Musik steuerten – die Noten also jeden Abend anders sein sollen.

Verwendete Quellen:
– Deutsche Presse-Agentur
– Verwendetes Foto: Wikimedia Commons/Anna16/CC BY-SA 3.0/Bild zugeschnitten