Rounded Image

oper.digital


Das Projekt oper.digital wird durch die Kulturstiftung des Bundes im Rahmen von Dive-In gefördert und findet 2021 in vier Laboratorien an der Neuköllner Oper statt.

Es beschäftigt sich mit der Zukunft des digitalen Musiktheaters: Welche Potenziale liegen in der Digitalisierung? Welchen Einfluss kann das Publikum auf Werk und Programmgestaltungen in Zukunft haben? Welche Rolle spielt KI?

Im ersten Lab im April 2021 konnte ich folgende drei Arbeiten entwickeln und testen:

Conductor Suit

Zusammen mit dem Einstein Center Digital Future und dem VKKO habe ich 2020 einen elektronischen Anzug entwickelt, mit dem die Bewegungen eines Dirigenten mit Hilfe von KI in Sounds umgewandelt werden. (Siehe unten für mehr Infos)

Rounded Image Bild: Alexandra Börner, Nikolaus Brade

Web Applaus

Ich entwickelte auf Basis von p5.js und node.js eine Website, die es den Zuschauern eines Live-Streams ermöglicht in Echtzeit ihren Applaus zu den Künstlern auf die Bühne zu senden. Dazu muss nur eine Website mit dem Handy geöffnet werden. Bei kräftigem Schütteln des Smartphones werden die Daten dann über unseren Server direkt in meine DAW (Ableton) und in Form von Licht und Sound auf die Bühne geschickt.

Jonas Urbat griff diese Daten auf und lies mit kleinen Soundrobotern den Applaus in Form von Metallischen Grooves auf der Bühne ertönen.

Fitness Tracker Jury

Um mit dem Publikum auf eine neuartige Weise interagieren zu können, entwickelte ich ein System zur automatischen Abstimmung durch die Messung der Herzfrequenz und ihre Variabilität. Sechs ausgeloste Zuschauer hatten die Möglichkeit vor Ort als Jury zu dienen. Dazu bekam jedes Jurymitglied einen Fitness Tracker umgeschnallt, der während der einzelnen Performances gemessen hat. Bei mehr Aufregung gab es mehr Punkte für die Performance.

Mit diesem System kann nun auch Sound oder die Performance selbst gesteuert werden. In zukünftigen Projekten möchte ich diese unbewusste und sehr intime Möglichkeit weiter erforschen.

Rounded Image

Rounded Image
Rounded Image

oper.digital


The project oper.digital is funded by the Federal Cultural Foundation as part of Dive-In and will take place in four laboratories at Neuköllner in 2021 Opera takes place.

It deals with the future of digital music theater: What potential lies in digitalization? What influence can the audience have on the work and programming in the future? What role does AI play?

In the first lab in April 2021 I was able to develop and test the following three works:

Conductor Suit

In 2020, together with the Einstein Center Digital Future and VKKO, I developed an electronic suit that converts a conductor's movements into sounds using AI. (See below for more info)

Rounded Image Image: Alexandra Börner, Nikolaus Brade

Web applause

I developed a website based on p5.js and node.js that allows viewers of a live stream to send their applause to the artists on stage in real time. All you have to do is open a website with your mobile phone. When you shake your smartphone vigorously, the data is then sent via our server directly to my DAW (Ableton) and to the stage in the form of light and sound.

Jonas Urbat took up this data and used small sound robots to sound the applause in the form of metallic grooves on stage.

Fitness Tracker Jury

In order to interact with the audience in a novel way, I developed a system for automatic tuning by measuring heart rate and its variability. Six spectators selected by lottery had the opportunity to serve as a jury on site. Each jury member was strapped with a fitness tracker that measured during individual performances. If there was more excitement, more points were awarded for the performance.

With this system you can now also control sound or the performance itself. In future projects I would like to further explore this unconscious and very intimate possibility.

Rounded Image

Rounded Image
© Paul Biessmann, Impressum, Datenschutzerklärung