Was singt und wer winkt?

Ob Vogelstimmen oder Gesten: Mit ihren Algorithmen können Informatiker der Chemnitzer InnoProfile-Transfer-Initiative "LocalizeIT" diese genau erkennen und zuordnen. Wie und warum sie das machen, haben sie jetzt auf ihrem Abschlussmeeting berichtet.

Wer auf Feld und Flur zwitschert, interessiert nicht nur Vogelliebhaber, sondern auch Ornithologen und Umweltschützer. Die Vogelpopulation nimmt stetig ab. Heute gibt es in Europa weniger als halb so viele Vögel wie noch 1980. Zum besseren Schutz der Vögel ist es wichtig zu wissen, wo und wann sie sich aufhalten. Dafür haben Informatiker der Technischen Universität Chemnitz gemeinsam mit Ornithologen der Cornell University in den USA ein intelligentes System entwickelt. „BirdNet“ gibt es inzwischen sogar als kostenlose App für Android-Smartphones. Das Besondere an „BirdNet“ ist die Genauigkeit, mit der die Vogelstimmen erkannt werden. Möglich ist das durch ein lernfähiges Computerprogramm. „Bei uns auf dem Analyseserver läuft ein künstliches neuronales Netz, das auf die 500 häufigsten Vogelarten für Nordamerika und Europa trainiert wurde“, sagt der Entwickler Stefan Kahl. Die Software kann Nebengeräusche weitestgehend herausfiltern. Analysiert werden die Aufnahmen von Nutzern aus der ganzen Welt in Echtzeit. Die App ist bereits über 100.000 Mal heruntergeladen worden. Auf diese Weise bekommen Ornithologen wertvolle Daten, die über große Flächen verteilt sind und die unter anderem Aufschluss über die Bewegungen von Zugvögeln geben können. Stefan Kahl, der gerade seine Promotion eingereicht hat, will mit seiner Entwicklung kein Geschäft aufbauen, sondern diese mit seinen Kollegen für rein wissenschaftliche und umwelttechnische Zwecke nutzen.

Stefan Kahl
Ein lernfähiges Computerprogramm, das Stefan Kahl gemeinsam mit US-amerikanischen Wissenschaftlern entwickelt hat, kann Vogelstimmen in Echtzeit identifizieren. © PRpetuum GmbH

Notfälle und Fehler erkennen

Die Chemnitzer können mit den von ihnen entwickelten Technologien aber nicht nur Vogelstimmen erkennen, sondern auch andere akustische Signale im Raum verfolgen und interpretieren. Das ist zum Beispiel für die Betreuung älterer Menschen interessant, um Notfallsituationen sofort zu erkennen. Aber auch die Industrie kann von dieser Technologie profitieren. So lassen sich Fehler beim Schweißen anhand von akustischen Signalen feststellen. Die Informatiker planen, demnächst mit der Professur für Schweißtechnik an der Technischen Universität Chemnitz zusammenzuarbeiten und ihre Ideen in der Praxis zu testen. Einem der Unternehmenspartner und Stifter der Professur von LocalizeIT-Projektleiter Danny Kowerko kommen die Ideen der jungen Wissenschaftler bereits zugute. Die Firma 3D Micromac AG hat nach einer zuverlässigen visuellen Qualitätskontrolle bei der Laserbearbeitung gesucht – zum Beispiel beim Schmelzen von Metall oder Schneiden von Wafern. Mit einer hybriden Technologie, die in die Bilder hinein zoomen kann, die während des Prozesses gemacht werden, sinkt die Fehlerrate bei unterschiedlichen Wafer- und Imagingsystemen von 45 auf 15 Prozent. Das System gehört damit zu den weltweit besten. Da jedoch noch höhere Erkennungsraten für Produktionsfehler gefordert sind, arbeiten die Informatiker weiterhin daran.

lernfähiges Computerprogramm Darstellung fiktive Situation
Um Personen, Objekte und Bewegungen im Raum dreidimensional verfolgen und gefährliche Situationen erkennen zu können, haben die Informatiker ein ausgeklügeltes System entwickelt. © LocalizeIT – TU Chemnitz

Gesten und Personen zuordnen

Objekte und Bewegungen im Raum dreidimensional zu identifizieren, war eine weitere Herausforderung für das Chemnitzer Team. Für die Überwachung öffentlicher Räume wie Flughäfen und Straßenbahnen, aber auch für Patientenzimmer in Krankenhäusern und Sicherheitssysteme im Auto ist das relevant. Im Rahmen von LocalizeIT haben die Forscher ein audiovisuelles Versuchslabor mit mehreren Videokameras und Sensoren aufgebaut, um bewegte Objekte dreidimensional im Raum erkennen und verfolgen zu können. Anhand ihrer Testergebnisse haben sie ein ausgeklügeltes System für die menschliche Posen- und Verhaltenserkennung erstellt. Damit lassen sich Gesten einer bestimmten Person zuordnen, die dann in verschiedenen Umgebungen relativ sicher identifiziert werden kann. Das erleichtert auch die Suche nach Menschen oder Objekten in umfangreichen Bilddatenbanken wie beispielsweise in Video-Archiven. Die Chemnitzer haben mit ihrem System an internationalen wissenschaftlichen Wettbewerben teilgenommen und konnten damit bereits gute Ergebnisse erzielen. Auch nach dem Abschluss von LocalizeIT wollen sie weiter an den begonnenen Projekten arbeiten und Kooperationen mit ihren Industriepartnern fortführen. Neue Partnerschaften wie mit Augenkliniken in Freiburg, Chemnitz und Greifswald zur Verarbeitungen medizinischer Bilddaten stehen ebenfalls auf dem Plan.