Digital Live Art
Rounded Image

Digital Live Art steht für die Symbiose aus Bild, Musik, Bewegung und Technik. Sie will musikalische Eindrücke verstärken und mit ihnen interagieren. Verbindungen herstellen zwischen Künstlern, Raum, Publikum.

Das Instrument soll weitergedacht werden: Alles kann ein Instrument sein!

Hierzu werden verschiedenste Sensoren, Kameras und Mikrofone genutzt, die mittels selbstentwickelter Software in Openframeworks, Pure Data oder der Arduino IDE prozessiert werden. Dieser creative coding-Part wird meist noch durch Musiksoftware wie Ableton und entsprechenden MIDI-Controllern erweitert.


eTextiles

Im Rahmen zweier Workshops am Einstein Center for Digital Future in Berlin konnte ich zusammen mit Prof. Dr. Berit Greinke und ihrem Team die Möglichkeiten von elektronischen Textilien in der Performance untersuchen.

Dabei erforschten wir unterschiedliche Arten die Stoffe zu verarbeiten und ihr Verhalten beim Tragen. Ebenso testeten wir mit der Hilfe von Prof. Dr. Felix Bießmann Machine-Learning Modelle zur besseren Spielbarkeit der Textilien. Ich erforschte dabei Konzepte zur Musikerzeugung, Spielbarkeit, Kommunikation zwischen den Textilien und Nutzer, sowie Wege zur Visualisierung der Bewegungen.

Ein Projekt zur Anwendung dieser Erkenntnisse auf der Bühne ist in Planung.

Techniken:
  • BelaBoard, PureData, Openframeworks
  • Stromleitende Fäden, Weben, Pleating

Prototyp gewebt von Giorgia Petri:

Rounded Image eTextile Prototyp von Pauline Vierne mit Pleating-Technik

Rounded Image Erste Konzeptprobe mit kleiner Besetzung. v.r.n.l. Katharina Czok, Melina Geitz, Paul Bießmann Foto Carolin Wabra

Swarms in Chaos

Musikerzeugung durch die Interaktion von TänzerInnen.

Für die Blaue Nacht 2020 in Nürnberg sollte eine interaktive improvisierte Performance zwischen Musik, freien Tänzern und generativer Software entstehen. Das Festival wurde wegen Covid-19 auf 2021 verschoben.
Die TänzerInnen um Melina Geitz werden mit Hilfe einer Infrarotkamera getrackt und beeinflussen mit ihrer Bewegung zueinander die Entstehung der Musik. Es wird im Laufe der Performance eine Klang- und Bildlandschaft erschaffen, die sich durch die Improvisation der Tänzer und des Musikers gegenseitig verändert. Das Verhalten der Tänzerinnen wird dabei analysiert, durch Parameter wie Momentangeschwindigkeit, Richtung, Richtungswechsel etc. wird ein Schwarm-Wert berechnet, der wiederum die generative Musikerzeugung in Max/MSP bestimmt.

Techniken:

  • Openframeworks, Kinect, Max/MSP, Ableton, OSC

Prototyp zum Tracking von Objekten und übertragen eines Schwarm-Wertes:


HIDALGO - Scrollen in Tiefsee

Für das Münchner Hidalgo Festival im September 2019 programmierte ich sowohl vorproduzierte als auch live audioreaktive Visuals. Das ganze wurde mit fünf Beamern auf eine den Raum einhüllende Kuppel projiziert.

Techniken:
  • Openframeworks, Audiolib Essentia, Kinect, OSC
Rounded Image
Bild: Max Ott
Rounded Image

Gesucht: Iphigenie

Zusammen mit dem Ensemble Fraktale und dem Theater Pfütze entwickelten wir das Stück Gesucht: Iphigenie für die Gluck-Festspiele Nürnberg. Hierfür kam eine größere Version des Tropfenklavieres zum Einsatz. Darüberhinaus konnte ich die Musiker live samplen und mit ihnen elektronisch improvisieren.

Techniken:
  • Arduino, OSC, Ableton, MaxForLive
Rounded Image
Rounded Image

Tropfen Klavier

In einem Projekt mit dem Ensemble Fraktale entstand ein über MIDI und Ableton steuerbares Wassertropfen-Klavier. Die Töne entstanden dabei durch Bleche und Felle, auf die die Tropfen fielen und mit Mikrofonen abgenommen wurden.

Techniken:
  • Arduino, OSC, Ableton, MaxForLive
Rounded Image

Enlivenment Projekt

Im Enlivenment-Projekt der Hochschule für Musik Nürnberg ging es um improvisierte Musik zum Thema Lebendigkeit. Initiiert wurde es von Jeremias Schwarzer, der zu diesem Anlass den Philosophen Andreas Weber an die Hochschule holte.

Rounded Image
Besetzung:
Musikalische Leitung: Isabell Rößler, Kompositionen von Isabell Rößler und Michael Falter, Visuals: Paul Bießmann

Ensemble Fraktale - Morpheus Metamorphosen
Uraufführung in Feldkirch 2017

Teil 1 - Sternenhagel:
Außerhalb des Saals wurden zwei Wege aufgebaut stellvertretend für Tag und Nacht. Am Ende dieser Wege war ein Sensor platziert, der bei Betreten des Saals zufällig ein zum jeweiligen Eingang passendes Audiofile abgespielt hat, welches mit Effekten aus Ableton versehen waren. Diese Audiofiles (Samples) konnten auch live bearbeitet und die Effekte verändert werden, so dass die elektronische Musik langsam von den echten Instrumenten abgelöst werden konnten. Die Animation auf der Leinwand ist in Openframeworks entstanden und kann live beschleunigt werden.

Teil 2 - Janus Traum:
Hierfür ist am Boden der Bühne eine Infrarot-Kamera angebracht, die die Bewegungen der Tänzerin aufnimmt und auf eine Grafik mit Flüssigkeitsmodell überträgt. Während des Stücks werden mit Hilfe der Mikrofone auf der Bühne Musikfragmente aufgenommen, mit denen am Ende des Stücks mittels elektronischer Effekter improvisiert werden kann.

Teil 4 - Prosperos Reise:
Die Animation ist in Openframeworks entstanden, außerdem sind Mikrofone auf der Bühne verteilt um die Musiker aufzunehmen. Diese Aufnahmen können live bearbeitet, gesampled und mit Effekten versehen werden, so dass mit den Musikern wieder improvisiert werden kann. Dabei stammen alle elektronischen Klänge von Instrumenten dieses Abends.

Techniken:
  • Arduino Mikrokontroller mit Ultraschall-Sensor & Funk
  • Live-Sampling mit Ableton & Raummikrofonen
  • Openframeworks (auf C++ und OpenGL basierend, open source) mit Kinect-Infrarotkamera. Addons ofxKinect und ofxFLowtools.
Besetzung:
Benina Berger - Tanzperformance & Stimme, Paul Bießmann - Live Elektronik & Visuals, Marie Erndl - Blockflöte, Christopher Kunz - Saxophon, Ricarda Roelcke - Violoncello, Miria Sailer - Violine, Dominik Vogl - Komposition & Gitarre

Audiovisuelle Improvisation

Ein komplett frei improvisiertes Konzert von Jazzmusikern zusammen, die mit interaktiven Visuals interagieren und auf sie reagieren.

Techniken:
  • Openframeworks mit Addons: ofxFft, ofxTimeline, ofxFlowtools, ofxKinect
  • Raummikrofone
  • Kinect-Infrarotkamera
Besetzung:
Paul Bießmann - Visuals, Martin Krechlak - Saxophon, Dominik Vogl - Gitarre, Florian Fischer - Drums, Christian Langpeter, Drums

Aphasia - by Mark Applebaum
Tag der Zukunft - Berlin, Futurium 2017

"Aphasia" ist eine Komposition für Handgesten zu vorher aufgenommenem Sound. Bei unserer Performance werden die Bewegungen der Künstlerin visuell verstärkt durch den interaktiven Einsatz einer Infrarot-Kamera.

Techniken:
  • Openframeworks mit Addons: ofxFft, ofxTimeline, ofxKinect
  • Raummikrofon
  • Kinect-Infrarotkamera
Besetzung:
Paul Bießmann - Visuals, Neus Estarellas - Performance
© Paul Bießmann, Impressum, Datenschutzerklärung