Teil III: Das Internet der Klänge schaffen
Seit Juni 2020 ist Dr. Nils Peters Associate Professor an den International Audio Laboratories Erlangen. Seine Gruppe forscht zu „Audio Signal Processing for the Internet of Things“ (Audiosignalverarbeitung für das Internet der Dinge).
Bis zum Jahr 2030 sollen mehr als 25 Mrd. Geräte miteinander kommunizieren und Informationen austauschen können. Für Nils Peters ist klar, dass sich das Internet der Dinge (Internet of Things, IoT) auf immer mehr Anwendungsbereiche erstrecken wird. Deswegen erforscht er zusammen mit den Experten vom Fraunhofer IIS die Möglichkeiten, die Audioanwendungen eröffnen. Damit liegt sein Schwerpunkt auf dem Internet der Klänge (Internet of Sound, IoS).
Vernetzte Geräte bieten zahlreiche Möglichkeiten – beispielsweise im Bereich der Musik: Bandmitglieder können ihre Songs proben, selbst wenn sie sich nicht treffen können. Bei virtuellen Konzerten kann die Stimmung des Publikums wahr- und aufgenommen werden. Echtzeit-Feedback erlaubt es den Künstlern dann, ihr Programm der wechselnden Stimmung anzupassen. Zu weiteren Anwendungsbereichen gehören Musikproduktion und Musikunterricht. In Zukunft sollen Apps und smarte Musikinstrumente es möglich machen, Fehler während der Proben genauestens zu analysieren und dadurch besser zu werden. Die Forschenden am Fraunhofer IIS und an den AudioLabs wissen, dass für diese Anwendungen eine hohe Audioqualität und geringe Latenz erforderlich sind, denn nur so kann man sie optimal auf individuelle Bedürfnisse abstimmen.
Das IoS überträgt Klänge und damit assoziierte Daten, die von Menschen und Maschinen erzeugt und wahrgenommen werden. Hier interessiert Professor Peters sich gleich für mehrere Bereiche, nämlich Datensicherheit und Datenschutz, effiziente Algorithmen für kleine Edge-Geräte und verteilte Algorithmen für verschiedene Arten von Geräten, die in und mit der Cloud arbeiten. Hierzu gehören Sensornetzwerke wie etwa Mikrofon-Arrays, mit denen sich Klänge präzise wahrnehmen und orten lassen. Da viele Geräte, zum Beispiel Smartphones, bereits Audio aufnehmen und abspielen können, greift man zur Einrichtung von IoS-Netzwerken gern auf sie zurück. Die Nutzung dieser nahezu überall verwendeten Geräte ist auch deswegen sinnvoll, da sie vergleichsweise kostengünstig sind: Mikrofone sind günstiger in der Herstellung und im Betrieb als andere Sensoren, wie zum Beispiel Kameras.
Es ist keine einfache Aufgabe, eine leistungsfähige verteilte Mikrofon-Array-Infrastruktur zu entwickeln. Auch das Verknüpfen verschiedener Gerätetypen zu einem Netzwerk und der schnelle, effiziente Austausch von relevanten akustischen Daten darin ist eine größere Herausforderung. Ein Smartphone könnte die Verarbeitung einer komplexen Aufgabe an ein nahegelegenes Rechenzentrum delegieren und das Ergebnis in kürzester Zeit empfangen. Das wäre ziemlich praktisch — doch wäre es auch sicher? Je komplexer die Netzwerke und je verteilter die Rechenleistung, desto schwieriger wird es, Datenschutz und Sicherheit zu gewährleisten.
Das IoS hält offensichtlich viele Chancen und offene Fragen für die Forschung bereit, denen Professor Peters mit seinem Team auf den Grund geht. Er hatte schon immer Gefallen daran, sich mit komplexen, interdisziplinären Themen zu befassen. Zu seinen in Österreich, Kanada und den USA gesammelten Erfahrungen und Kenntnissen gehören Raumakustik, Psychoakustik, Signalverarbeitung und maschinelles Lernen. An der Universität für Musik und darstellende Kunst Graz und der Technischen Universität Graz erwarb er seinen Master of Science in der Elektrotechnik und Tontechnik. Er promovierte an der McGill University in Montreal im Fach Musiktechnologie, wo er unter der Leitung von Prof. Stephen McAdams im Music Perception and Cognition Lab (MPCL) akustische Raumwahrnehmung studierte und räumliche Audiowiedergabe-Tools entwickelte, um das Hörerlebnis des Publikums zu optimieren. Anschließend forschte er als Postdoktorand am International Computer Science Institute (ICSI), dem Center for New Music and Audio Technologies (CNMAT) und dem Parallel Computing Laboratory an der University of California, Berkeley. Sein Schwerpunkt lag auf den technischen Möglichkeiten und Anwendungen der Mehrkanal-Audioverarbeitung für ein Mikrofon-Array mit 144 Kanälen. Bevor er zu den AudioLabs kam, arbeitete Professor Peters für Qualcomm, Inc. in San Diego und entwickelte Algorithmen für die Analyse räumlicher Audioszenen und die 3D-Audiocodierung. Einige dieser Algorithmen wurden in den ISO-Standard MPEG-H 3D Audio integriert.
Nils Peters gibt sein umfangreiches internationales und interdisziplinäres Fachwissen gerne weiter und motiviert Studierende dazu, die Audiosignalverarbeitung durch eine wissenschaftliche und kreative Brille zu betrachten. Seit 2013 ist er Co-Vorsitzender des Spatial Audio Technical Committee der Audio Engineering Society (AES). Er hat bei der Gründung der AES Student Section Erlangen-Nürnberg mitgeholfen und ist nun deren Fakultätsberater.