19. & 20. Juni 25
Das ZiMMT lädt ein zur RAUM+KLANG Konferenz. Treffe führende Expert:innen, Pioniere und Visionäre, um die Zukunft immersiver Audiotechnologien neu zu denken und wegweisende Impulse zu setzen.
RAUM+KLANG vereint Wissenstransfer und Networking an der Schnittstelle von Musiktechnologie, Audio-Engineering, XR-Development und Kulturwirtschaft – von Live-Musik und Clubkultur bis zu den darstellenden Künsten.
RAUM+KLANG vernetzt lokale Akteur:innen mit internationalen Partner:innen, um den interdisziplinären Austausch zu fördern und gemeinsam neue Maßstäbe in der Welt immersiver Audiotechnologien zu setzen.
Programm
An zwei Tagen erwarten uns spannende Expert:innen-Beiträge, Demos und Listening-Sessions.
Wir freuen uns auf inspirierende Talks, angeregte Diskussionen und spannende Gespräche!
19. Juni
Spatial Audio Fields
09:00 • arrival / check in / say hi
10:00 • Introduction • Jakob Gruhl & Felix Deufel
In Leipzig sind wir Teil einer noch kleinen, aber wachsender Branche für Musik- und Audiotechnologie. Daher sehen wir eine besondere Verantwortung im Transfer von Wissen zwischen Forscher:innen, Entwickler:innen und Anwender:innen. Als Initiatoren der Netzwerk-Projekte Spatial Audio Network Germany und Europe ist uns das persönliche Gespräch mit unseren Partner:innen und Kolleg:innen ein besonderes Anliegen. Wir verstehen die Verbindung von künstlerischer Forschung und Praxis mit technischer Innovation als Einheit – in Software, Hardware, Studio- und Live- und Ausstellungsetups. Mit diesem Hintergrund haben wir ein breites Spektrum an Expert:innen versammelt, gleichzeitig vernetzen wir lokale mit internationalen Akteur:innen. Wir freuen uns, alle Teilnehmenden zur ersten Spatial Audio Konferenz im ZiMMT zu begrüßen.
10:15 • Listening Session • spaes
10:30 • Soundjack - a low latency streaming solution (with Live demo) • Alexander Carôt
Soundjack ist ein Kommunikationssystem mit niedriger Latenz, das durch kontinuierliche Forschung und Entwicklung entwickelt wurde. Es ermöglicht Echtzeit-Audiostreaming sowohl im Peer-to-Peer- als auch im Server-Modus. Abhängig von Faktoren wie der physischen Entfernung, der Netzwerkkapazität, den aktuellen Internetbedingungen und dem Routing ermöglicht Soundjack eine Echtzeit- oder zumindest eine musikalisch brauchbare Ferninteraktion. Soundjack wird häufig für das Online-Musizieren eingesetzt und ermöglicht es Musikern und Sängern, gemeinsam zu proben oder aufzutreten, als ob sie sich im selben Raum befänden. Soundjack bereitet sich nun auf räumliche Audioanwendungen vor, wie z. B. das Streaming von Mehrkanalton und das Senden von Positionsdaten über OSC. In dieser Sitzung wird Alexander Carôt die neuesten Entwicklungen und zukünftigen Richtungen von Soundjack vorstellen, einschließlich einer Live-Demonstration des Systems in Aktion.
11:15 • 3D-Audio für Live-Musik: Vom Studio auf die Bühne • Banu Sahin
In diesem Vortrag wird Banu Sahin über ihre Erfahrungen mit räumlichem Audio berichten und die Prozesse bei der Musikproduktion, der Entwicklung und dem Betrieb eines Systems beleuchten. Die Teilnehmer werden die täglichen Praktiken bei der Anwendung von 3D-Audio für Live-Performances erkunden.
Welche Aspekte sollten Künstler beachten, wenn sie für die dritte Dimension komponieren? Welche Lösungen stehen Tontechnikern derzeit für den Einsatz von immersiven Systemen zur Verfügung? Wie haben immersive Audiotechnologien die Art und Weise beeinflusst, wie Musiker heute auftreten?
Diese Session eröffnet ein Gespräch zwischen Technologie und künstlerischer Praxis und bietet Perspektiven für diejenigen, die sich mit den kreativen und technischen Realitäten von immersivem Audio in Live-Settings beschäftigen.
12:00 • Lunch & Listening
In diesem Vortrag wird Banu Sahin über ihre Erfahrungen mit räumlichem Audio berichten und die Prozesse bei der Musikproduktion, der Entwicklung und dem Betrieb eines Systems beleuchten. Die Teilnehmer werden die täglichen Praktiken bei der Anwendung von 3D-Audio für Live-Performances erkunden.
Welche Aspekte sollten Künstler beachten, wenn sie für die dritte Dimension komponieren? Welche Lösungen stehen Tontechnikern derzeit für den Einsatz von immersiven Systemen zur Verfügung? Wie haben immersive Audiotechnologien die Art und Weise beeinflusst, wie Musiker heute auftreten?
Diese Session eröffnet ein Gespräch zwischen Technologie und künstlerischer Praxis und bietet Perspektiven für diejenigen, die sich mit den kreativen und technischen Realitäten von immersivem Audio in Live-Settings beschäftigen.
13:30 • ACS - Active Acoustic System (with live demo) • Sebastian Oeynhausen
14:15 • Raum und Klang - eine szenografische Perspektive • Johannes Scherzer
Wie definieren wir Klang und Raum im Verhältnis zueinander? In meiner Arbeit als beim Klangszenografie-Studio TAUCHER, durch die Spatial Audio App MNTN und im Rahmen der interdisziplinären Aktivitäten des spæs lab habe ich eine Perspektive entwickelt, die sowohl von der Gestaltungspraxis als auch vom Diskurs geprägt ist. In diesem Beitrag berichte ich, wie dieses Verständnis meine Herangehensweise an die Gestaltung von Klang in Ausstellungen und künstlichen Umgebungen beeinflusst – wo Klang nicht einfach einem Raum hinzugefügt wird, sondern seine Wahrnehmung und Bedeutung aktiv prägt.
Schwerpunkte: Klangszenografie, Design & Kommunikation, Raumästhetik, Spatial Audio
15:00 • Binaural Technologies for Real-Time Audio Rendering: Theory and Practice • Konstantin Fontaine
Die weitreichenden Trends im Bereich Augmented und Virtual Reality (AR/VR) gehen mit einer wachsenden Nachfrage nach fortschrittlichen akustischen Simulationen einher, die die Eigenschaften der menschlichen Hörwahrnehmungsmechanismen genau wiedergeben. In dieser sich entwickelnden Landschaft führen die vielfältigen und sich schnell entwickelnden Rendering-Methoden zu Unklarheiten hinsichtlich der optimalen Wahl der Techniken aufgrund ihrer inhärenten Vorteile und Einschränkungen. Der Vortrag wird sich daher auf die grundlegenden Prinzipien des räumlichen Hörens stützen, um das Feld der angewandten Psychoakustik zu umreißen, indem er die modernsten Methoden für die binaurale Wiedergabe in Echtzeit vorstellt und dabei auf allgemeine Hindernisse, praktische Ansätze und neue Forschungsrichtungen eingeht.
15:15 • Perspectives on the Use of Extended Realities in Sound Art and Composition • Paul Hauptmeier
Die Entwicklung der Musik war schon immer mit der Entwicklung technischer Kompositionsmöglichkeiten und neuer Wiedergabeformate verknüpft. Obwohl es Technologien wie AR und VR schon seit langem gibt, gewinnen sie derzeit sowohl im Alltag als auch im professionellen Einsatz an Bedeutung. Dies ist auf neue technische Entwicklungen und ihre zunehmende Zugänglichkeit zurückzuführen. Erweiterte Realitäten gehören heute zu den technologischen Innovationen, die für die zeitgenössische Kunst und Musik prägend zu sein versprechen. Doch obwohl es einige großartige Möglichkeiten für die Arbeit mit Klang und Musik gibt, hat man das Gefühl, dass auditive Aspekte oft nur ein notwendiges Nebenprodukt und nicht der künstlerische Ausgangspunkt für AR/VR-Arbeiten sind. In diesem Vortrag werde ich die technischen und künstlerischen Möglichkeiten und Grenzen von AR/VR aus einer auditiven Perspektive diskutieren und über bestehende Ansätze für die erweiterte Realität in Musik und Klangkunst nachdenken.
16:00 • Listening Session & Coffee Break • ZiMMT
16:45 • Daniel Rudrich
17:30 • Spatial Clubbing – 3D Audio für den Dancefloor • Felix Deufel
3D Audio ist in Kinos, Studios und in der Musikindustrie angekommen – nur die Clubszene bleibt bisher außen vor. Dabei wird Musik längst in 3D produziert. Was fehlt, sind performative Tools für DJs. Genau hier setzt das Forschungs- und Entwicklungsprojekt Spatial Clubbing an.
In Zusammenarbeit mit Grapes 3D Audio Control wird am ZiMMT ein System entwickelt, das bestehende DJ-Setups – etwa CDJs, Plattenspieler oder Controller – um eine räumliche Dimension erweitert. Ein kompakter Zusatzcontroller ermöglicht die intuitive Steuerung von 3D-Effekten: Tracks werden beat-synchron und dynamisch im Raum verteilt, ohne dass DJs ihre gewohnte Arbeitsweise ändern müssen. Eine 3D Audio Engine übernimmt dabei das Echtzeit-Rendering im Hintergrund.
Erste Live-Tests, etwa beim sens Festival im ZiMMT, zeigen: Immersives Clubbing funktioniert – technisch, künstlerisch und publikumstauglich. Der Talk gibt Einblicke in Konzept, Technologie, Herausforderungen und den aktuellen Entwicklungsstand des Projekts – und sucht gezielt nach Partnern für die nächste Projektphase.
18:00 • Hang Out & Connect & Dinner
19:30 • Spatial Clubbing DJ Set
20. Juni
Deep Dive
09:30 • Immersion in der Lehre (with live demo) • Christian Birkner & Felix Wege (HTWK Leipzig)
An der Fakultät Medien der HTWK Leipzig sind Mehrkanalproduktionen schon seit vielen Jahren fester Bestandteil der Lehre. Seit 2017 sammeln wir Erfahrung mit Immersive Audio. Wir testen Mikrofonierungen, Workflows, neue Technologien und bringen diese in unsere Lehre ein.
In unserem Vortrag erzählen wir, woran wir gelernt haben, wie sich unsere Sicht- und Arbeitsweise verändert hat und an welchen Projekten wir aktuell arbeiten.
10:15 • ADM OSC • Mathieu Delquignies
ADM-OSC ist eine Brancheninitiative zur Standardisierung objektbasierter Audiodaten (OBA) durch die Implementierung des Audio Definition Model (ADM) über Open Sound Control (OSC). Mit der zunehmenden Verbreitung von Immersive Audio – von Musikstreaming bis Rundfunk – etabliert sich ADM als Standard für Metadaten, etwa als serielles ADM oder ADM-BWF/XML im Studio. Die ADM-OSC-Arbeitsgruppe wurde vor vier Jahren gegründet, um die Lücke zwischen immersiven Live- und Studio-Umgebungen zu schließen. Heute arbeiten führende Entwickler und Hersteller daran, die Nutzung von Audioobjekt-Metadaten zu vereinfachen – im Studio, Broadcast oder live. ADM-OSC wird bereits von zahlreichen Audiotools unterstützt, darunter DAWs, Mischpulte, Live-Renderer, Controller, Tracking-Systeme und Medienserver. Es kommt in Live- und Studioproduktionen zum Einsatz und findet zunehmendes Interesse bei Technologieanbietern. Die Präsentation gibt Einblicke in die Ursprünge von ADM-OSC, die 1.0-Spezifikation sowie aktuelle Entwicklungen und Ausblicke.
11:00 • Listening Session • ZiMMT
11:15 • Dometools • Robert Dorn (Prefrontal Cortex)
12:00 • Lunch Break
13:00 • SANE Evaluation of Listening tests between different Speaker Layouts and renderings • Konstantin Fontaine
13:45 •
14:30 • Amoenus - Label (with listening examples) • Christian Duka (Amoenus)
15:15 • Listening Session • Amoenus
15:30 • LEMM3D - a spatial composition toolkit (with live demo) • Martin Recker
In diesem Vortrag stellt Martin Recker anhand der Software LEMM3D, entwickelt vom Künstlerduo Hauptmeier|Recker, Strategien und Konzepte zur Komposition und Performance mit Spatial Audio vor. LEMM3D ist eine Software, die multikanalige Klangsynthese und räumliche Gestaltung in einem intuitiven Live-Elektronik-Setup vereint. Inspiriert von akusmatischer Ästhetik und elektroakustischer Improvisation verbindet LEMM3D Klanggenerierung und Spatialisation auf innovative Weise. Auf Basis der Spat-Algorithmen des IRCAM, diversen DSP-Konzepten und Spatialisierungsmethoden sowie spektromorphologischen Parametermappings ermöglicht uns LEMM3D Klang und Raum zu einem ausdrucksstarken räumlichen Instrument zu vereinen.
16:15 • Real time spatial audio with AudioKit & PHASE Engine (Apple) • Marc Andre Weibezahn (Sonic Moves)
Innerhalb der Software Sonic Moves hat der Entwickler Marc-André Weibezahn eine Schnittstelle zwischen der AudioKit Engine und der von Apple entwickelten API PHASE (Physical Audio Spatialization Engine), einer Engine, um komplexe, dynamische Audioerlebnisse in Ihren Spielen und Anwendungen zu ermöglichen. Innerhalb von Sonic Moves entwickelte Marc-André einen Spatial Mixer, der ein binaurales Rendering mit unterschiedlichen Hallumgebungen kombiniert sowie das native, dynamische Head-Tracking von Apple einbindet (z.B. mit Airpods). In seinem Vortrag spricht er zu der konzeptuellen Verbindung der verschiedenen Engines und gibt Einblicke in die Praxis der Entwicklung.
17:00 • Breakout Session
Speakers
Konstantin Fontaine
Konstantin Fontaine (*1996) ist ein Audiotechnologe, Programmierer und Klangkünstler, der sich auf virtuelle Akustik, räumliche Audiosignalverarbeitung und Klangkunst spezialisiert hat. Er studierte Audiokommunikation und -technologie an der TU Berlin, wo er derzeit eine Stelle als akustischer Forschungsassistent im Bereich virtuelle Umgebungen und binaurales Rendering innehat.
Mathieu Delquignies
Mathieu hat einen Bachelor-Abschluss in angewandter Physik von der Universität Paris 7 und einen Master-Abschluss in Tontechnik von der ENS Louis Lumière aus dem Jahr 2003. Er verfügt über jahrelange internationale Erfahrungen als freiberuflicher Mischer und Systemdesigner sowie als Entwickler von Lautsprechern, Verstärkern, DSP- und Softwareprodukten. Seit 2018 ist er bei d&b audiotechnik als französischer Anwendungssupport, Organisator von Workshops und Seminaren tätig, um neue Technologien zu unterstützen und für den Einsatz in der Praxis zugänglich zu machen.
Paul Hauptmeier
Paul Hauptmeier ist ein in Leipzig lebender Komponist und Multimedia-Künstler. Er studierte elektroakustische Komposition an der Hochschule für Musik FRANZ LISZT Weimar und an der „University of California San Diego“. Seit 2009 arbeitet er als Teil des Künstlerduos Hauptmeier|Recker im Bereich der Komposition, Klang- und Multimediakunst. Das Duo ist in verschiedenen Bereichen tätig, von der Oper über elektronische Live-Performance, Radiokunst und elektroakustische Musik bis hin zu ortsspezifischen Installationen.
hauptmeier-recker.de
Banu Sahin
Banu Sahin hat eine Leidenschaft für immersives Audio und war an zahlreichen Projekten beteiligt – von kleinen Veranstaltungsorten bis zu großen Open-Air-Events. Sie unterstützte verschiedene Künstler:innen und Produktionen durch das Design und den Betrieb räumlicher Audiosysteme. Sie studierte Musiktechnologie – Audiodesign an der Technischen Universität Yıldız in Istanbul und verbrachte ein Jahr am ICEM der Folkwang Universität der Künste. Anschließend absolvierte sie den Masterstudiengang Musikakustik am Erich-Thienhaus-Institut in Detmold.
LinkedIn-Profil von Banu Sahin
Johannes Scherzer
Johannes Scherzer studierte Ton an der Filmuniversität Konrad Wolf in Potsdam-Babelsberg, bevor er TAUCHER, ein Studio für Klangszenografie in Berlin, mitbegründete. Seine Arbeit bei TAUCHER hat zu mehreren anderen Projekten geführt, darunter das spæs lab for spatial aesthetics in sound Berlin, das er zusammen mit Gerriet K. Sharma gegründet hat. Außerdem entwickelte er MNTN - The Sound of the Mountain, eine Raumklang-Software für szenografische Klangprojekte. Von Zeit zu Zeit veröffentlicht er einen Text und gibt Kurse über Klang und Raum.
Felix Deufel
grapes-3d.com
notanumber.space
felixdeufel.net
Martin Recker
Martin Recker ist Komponist, Klang- und Multimedia-Künstler. Er ist Teil des international tätigen Künstlerduos „Hauptmeier|Recker“, mit dem er seit 2009 arbeitet. Gemeinsam realisierten sie Konzerte und Klanginstallationen für renommierte Festivals wie die Biennale Venedig und die Sharjah Biennale.Er studierte Komposition bei Robin Minard und Maximilian Marcoll an der HfM FRANZ LISZT Weimar sowie an der Sibelius Akademie Helsinki bei Marianne Decoster-Taivalkoski.
hauptmeier-recker.de
Alexander Carôt
soundjack.eu
Christian Birkner
Felix Wege
Robert Dorn
Marc-Andre Weibezahn
Jakob Gruhl
Sebastian Oeynhausen
Daniel Rudrich
Tickets
Tagespass:
65 € regulär
30 € Studierende
Konferenzpass:
110 € regulär
55 € Studierende