Akustische Sensornetzwerke

Akustische Sensornetzwerke (ASNs) und insbesondere drahtlose ASNs (WASNs) werden als Next-Generation-Technologie zur Audiosignalaufnahme und -verarbeitung angesehen. Verglichen mit traditionellen Mikrofonarrays bieten ASNs sowohl mehr Flexibilität, da sie in verschiedenste eingebettete Systeme integriert werden können, als auch eine bessere Skalierbarkeit, da kleine und große akustische Szenarien gleichermaßen abdecken können.

Einige Beispiele sind betreutes Wohnen und Smart-Homes, in denen Sensoren in einem Raum oder im ganzen Haus verteilt sind, bis hin zu ganzen Smart-Cities oder der Erfassung und Überwachung des natürlichen Lebensraums von Tieren, mit vielen Sensoren verteilt über ein weites Gebiet.

Die technischen Aufgaben und Herausforderungen, die diese Netzwerke behandeln, variieren von Sprecher- und Spracherkennung bis hin zur Detektion akustischer Ereignisse und der Gruppierung und Klassifikation von Schallquellen. Beispiele für verschiedene sogenannte Klassifikations-Labels sind vielfältig: „Hupe vom Auto“, „Martinshorn“, „Telefon klingelt“, „Waschmaschine läuft“, „Kettensäge schneidet“, „Motorengeräusch“, und viele mehr.

Was Sie erwartet:

Die hauptsächlich verwendeten Umgebungen sind Matlab und/oder Python, zusätzlich ist jegliche Erfahrung mit Tensorflow willkommen. Einige Projekte wurden außerdem mit und auf Android-Geräten in Java entwickelt.

Sie erhalten die Möglichkeit, die wichtigsten Signalverarbeitungstools (FFT, DCT, MFCC, etc.) einzusetzen und diese mit Ansätzen des Machine Learning (LDA, PCA, Clustering, Entropie, Mutual Information etc.) zu verbinden. Während mancher Projekte haben Sie außerdem die Möglichkeit, mehr über Deep Neural Network Technologien (CNN, MLP, GRU,etc.) auf dem heutigen Stand der Technik zu lernen und diese zu verwenden.

Das Bearbeiten der Projekte kann einzeln oder im Team erfolgen. Zusätzlich werden Sie hilfreiche Basis-Techniken im Bereich Agiles Projektmanagement erlernen, wie z.B. Sprints und Scrums.

Beispiele bereits abgeschlossener Projektarbeiten:

  • Bachelor-Praxisprojekte:
    • Extraction of MFCC features on Android based embedded  devices

    • Audio data acquisition and management on Android based embedded devices

    • Music genre classification using Mod-MFCC features

    • Neural Network based Feature Extraction for Gender Discrimination and Speaker Identification

  • Bachelorarbeiten:
    • Audio feature extraction with privacy constraints on Android based embedded devices

    • Audio signal classification with privacy constraints on Android based embedded devices

    • Automatic classification of moving vehicles using audio signals

    • Generation of cryptographic keys using the available information of acoustic channels

    • Content- and context-based classification of music signals using deep neural networks

Ansprechpartner:

Luca Becker, M.Sc.  
ID 2/255  
0234 / 32 27543  
luca.becker@rub.de