Research Fund

Unterstützung der Grundlagenforschung in den Bereichen maschinelles Lernen, Computer Vision und Robotik

Heutige autonome Systeme fallen noch immer weit zurück hinter den vielseitigen Fähigkeiten des Menschen Szenen wahrzunehmen und mit Objekten umzugehen. In diesem Projekt werden Jörg Stückler und sein Team untersuchen, wie Roboter selbstüberwacht lernen können, visuelles und taktiles Feedback für die Objektwahrnehmung und -manipulation zu nutzen. Die Forscher werden einen Ansatz entwickeln, der Roboter befähigen soll, ein Modell darüber zu lernen, wie sie mit Objekten interagieren können. Dabei werden die Interaktion und Objekte über taktile sowie visuelle Messungen wahrgenommen. Der Ansatz wird für die Bewegungsplanung eines Roboters in einer Reihe von Objekthandhabungsaufgaben evaluiert.

Zukünftige mobile Serviceroboter, wie z.B. Lieferroboter oder selbstfahrende Autos, müssen selbständig in ihrer Umgebung lernen können, um sich an Veränderungen anpassen zu können. Dadurch würden sie sich nicht nur effizienter fortbewegen können, sondern Ingenieure würden auch davon befreit werden, Roboter durch manuelle Programmierung auf die jeweilige Umgebung abzustimmen.

In diesem Projekt werden Jörg Stückler und sein Team untersuchen, wie mobile Roboter ihre Fahreigenschaften in ihrer Umgebung selbstüberwacht lernen können. Der Ansatz soll Bewegungsmodelle lernen, die die Auswirkungen von Aktionen von mobilen Robotern in ihrer Umgebung vorhersagen können. Die Forscher werden einen kamerabasierten Navigationsansatz zur Planung von Bewegungen anhand der gelernten Modelle entwickeln. Das Verfahren wird für die autonome Navigation eines mobilen Roboters evaluiert. 

Sogenannte Netzwerkmodelle helfen, komplexe Systeme mit vielen einzelnen Elementen zu beschreiben. In verschiedenen Forschungsbereichen, wie z.B. den Sozialwissenschaften, der Biologie und der Informatik, gibt es bereits zahlreiche solcher Netzwerkmodelle. Diese wurden vor allem in den letzten Jahren genutzt, um neue Schlussfolgerungen aus bereits bekannten Daten zu ziehen. Vor allem die Verfügbarkeit großer Datenmengen hat diese Entwicklung befördert.

Ein beliebtes Netzwerkmodell sind generative Modelle. Hierbei werden latenteVariablen eingeführt, welche die wissenschaftlichen Erkenntnisse auf diesem Wissensgebiet (das „Domänenwissen“) integrieren und die komplexen Wechselwirkungen erfassen. Diese Variablen sind aber meist so komplex, dass sie selbst bereits als eigenständige Modelle gelten. Bedingt durch diese Variablen sind die Netzwerkkanten unabhängig und die Verteilung von Wahrscheinlichkeiten innerhalb des Netzwerkes kann zusammengefasst bzw. vereinfacht werden. Nachteil dieser Modelle ist, dass bei einigen Szenarien aus der realen Welt die Interaktionen innerhalb des Netzwerkes nicht gut abgebildet werden. Das bedeutet, dass die mathematische Beschreibung aus dem Modell nicht mit der Realität übereinstimmt. Hauptproblem sind hier die Variablen, welche zu sehr eingeschränkt sind.

Im Vergleich dazu benutzen Netzwerk-Ensemble-Modelle keine solchen einzelnen Variablen, sondern netzwerkspezifische Größen (z.B. Verteilungsgrad oder Clustering-Koeffizient). Doch auch diese Modelle leiden unter verschiedenen Problemen, welche die praktische Anwendung einschränken.

Mit diesem Projekt hier wird Caterina de Baccos Gruppe nun bestimmte Merkmale dieser beiden Modelle, des generativen und des Netzwerk-Ensemble-Modells, mit Methoden aus der statistischen Physik kombinieren, um bessere prinzipienbasierte Modelle zu entwickeln. Darüber hinaus soll deren effiziente Anwendung auf konkrete Problemstellungen (z.B. Wiederholbarkeit oder das gleichzeitige Auftreten verschiedener Beziehungsformen zwischen zwei Knoten) gewährleistet werden.

Mit zunehmender Technologisierung und Automatisierung werden Millionen von Arbeitsplätzen sich dramatisch verändern oder gar ganz wegfallen. Dieses Projekt versucht eine wissenschaftlich fundierte Lösung zu finden um die daraus resultierenden gesellschaftlichen Probleme abzumildern. Intelligente Trainingsprogramme sollen den Arbeitnehmer*innen schnell und kostengünstig die notwendigen Fähigkeiten vermitteln, um in der veränderten Arbeitswelt der Zukunft zurechtzukommen.

Unser allgemeiner und vielseitig verwendbarer Ansatz baut auf Computermodellen des menschlichen Lernens und der Entscheidungsfindung auf. Er nutzt maschinelles Lernen und künstliche Intelligenz, um den betroffenen Arbeitnehmer*innen die Strategien beizubringen, die sie brauchen um den Selbstmanagement-Herausforderungen der sich ändernden Arbeitsbedingungen zu begegnen.

Wir werden diesen Ansatz testen, indem wir eine Reihe von sogenannten „intelligenten Tutoren“ (Computerprogramme) entwickeln, welche optimale Entscheidungsstrategien für immer realistischere Szenarien entdecken und vermitteln. Das Potenzial dieses Ansatzes werden wir veranschaulichen, indem wir einen Tutor entwickeln, der die Zeitmanagement-Fähigkeiten einer bestimmten Berufsgruppe (z.B. Wissenschaftler) in einer simulierten Arbeitsumgebung trainiert. Im Idealfall kann dieser dann weitsichtige Strategien zur Planung von Projekten, zur Priorisierung von Aufgaben und zum effektiven Selbst-Management vermitteln, die im Arbeitsalltag nützlich sind.

In unserem digitalen Zeitalter sind Informationen allgegenwärtig und konkurrieren um unsere Aufmerksamkeit. Dabei lenken uns gerade soziale Medien häufig von unseren eigentlichen Aufgaben ab. Dies verhindert, dass sich Schüler*innen und Studierende lange genug konzentrieren können, um effektiv zu lernen. Auch unsere Wirtschaft erfährt durch die sinkende Effektivität und Produktivität enorme finanzielle Verluste. Wie die Forschung zeigt, können wir gezielt trainieren, Ablenkungen zu widerstehen und auf ein bestimmtes Ziel fokussiert zu bleiben. Allerdings verwenden bestehende Trainingsansätze oft künstliche Aufgaben, die sich nicht in den Alltag übertragen lassen.

Um dieses Problem zu lösen, entwickeln Dr. Falk Lieder und Jun.-Prof. Dr. Maria Wirzberger gemeinsam mit ihrem Projektteam die intelligente Computersoftware ACTrain. Diese verwandelt den Alltag in eine optimale Lernumgebung, in der die Nutzenden mit ihren eigenen Zielen trainieren während sie lernen, studieren oder arbeiten. Als persönlicher Assistent soll ACTrain einen Namen und ein individuelles Erscheinungsbild erhalten, um die Motivation der Nutzenden zu steigern. Das Herzstück von ACTrain ist ein intelligentes Feedback, das den Wert vermittelt, konzentriert zu bleiben und nicht abgelenkt zu werden. Dieser Mechanismus basiert auf mathematischen Modellen davon, wie die Fähigkeiten zur Kontrolle der Aufmerksamkeit erlernt werden.

Dieser neuartige Trainingsansatz hat das Potential, die moderne Bildungs- und Arbeitswelt zu revolutionieren und Millionen von Menschen dabei zu unterstützen, ihre Ziele effektiver zu erreichen und damit ihr Leben zu verbessern.

In diesem Projekt untersuchen wir neue Möglichkeiten Eigenschaften des biologischen Sehsystems auf künstliche neuronale Netze zu übertragen, um sie robuster gegen Veränderungen von Bildmerkmale zu machen, die den Bildinhalt nicht verändern – wie z.B. die Veränderung des Bildstils. Derzeit gibt es keinen Lern-Algorithmus, der es schafft robust das Erlernte auf andere nicht-trainierte Bildmerkmale zu übertragen. Selbst bei leichten Veränderungen des Bilds, z.B. durch Hinzufügen von Rauschen oder Veränderungen des Stils, begehen künstliche neuronale Netze schnell Fehler, obwohl unser Wahrnehmungsapparat keine Probleme hat den Inhalt des Bilds zu erkennen. Auch wenn die Meisten von uns unter dem Einfluss einer bestimmten Umwelt mit spezifischen Bildmerkmalen aufwachsen (beispielsweise der Schwäbischen Alb), kann unser Wahrnehmungsapparat das Erlernte problemlos auf ganz andere Umgebungen (beispielsweise der Umweltstatistik in einer Wüste oder die eines Gemäldes) übertragen.

Frühere Arbeiten haben gezeigt, dass künstliche tiefe neuronale Netzwerke ganz andere Bildinformationen (Merkmale) zur Entscheidungsfindung nutzen als unser Sehsystem. Während wir beispielsweise Objekte meist anhand ihrer Form kategorisieren, stützen sich diese Netzwerke hauptsächlich auf lokale Muster in den Bildern. Derzeit ist es noch sehr schwierig, die in unserer menschlichen Wahrnehmung verwendeten Bildmerkmale in künstliche Systeme einzubauen, da wir schlicht noch zu wenig über die genauen Eigenschaften biologischer Systeme wissen.

Aus diesem Grund wollen wir Mechanismen entwickeln, die robuste Merkmale direkt aus Messungen von Gehirnaktivität auf künstliche Systeme übertragen können. Wir werden zunächst unter kontrollierten Bedingungen untersuchen, mit welchen Mechanismen diese Merkmale zwischen den Netzwerken übertragen werden können. In der finalen Phase des Projekts werden wir öffentlich zugängliche Messdaten neuronaler Aktivität des Sehsystems nutzen und testen, welche Eigenschaften der Daten sich auf künstliche Netze mit den von uns entwickelten Methoden übertragen lassen.

Die Cyber Valley Forschungsgruppe "Locomotion in Biorobotic and Somatic Systems" untersucht die Mechanik der Fortbewegung und die zugrunde liegenden morphologischen Anpassungen, wie sie von der Natur im Laufe der Evolution perfektioniert wurden. Die Forscher wenden ihre Erkenntnisse auf die Entwicklung von lebensechten Robotern sowie auf multi-funktionale Materialien an, die denen in der Natur vorkommenden sehr ähnlich sind. Ihre Forschung ist an der Schnittstelle von Ingenieurwesen und Biologie angesiedelt – ein relativ neues und vielversprechendes Gebiet. 

In ihrem aktuellen Projektantrag geht es Dr. Ardian Jusufi und Hritwick Banerjee darum, einen flexiblen, dehnbaren und biokompatiblen externen Sensor aus multifunktionalen intelligenten Materialien zu entwickeln. Dieser könnte eines Tages im Gesundheitswesen eingesetzt werden – bei Menschen und in der nicht-invasiven Veterinärmedizin. Der Sensor würde wie eine zweite Hautschicht an Gewebe anhaften, so dass er, egal wie sich eine Person oder ein Tier bewegt, an Ort und Stelle bleibt. Der Sensor könnte dann die Gesundheit einer Person erkennen, den Blutdruck und andere biometrische Werte erfassen oder messen, ob eine Person einen unregelmäßigen Herzschlag hat, der möglicherweise auf einen Herzinfarkt hindeutet. 

Mögliche Einsatzgebiete gehen jedoch über ein breites Spektrum an biomedizinischen Anwendungen hinaus: Der weiche und flexible Sensor könnte in intelligente Kleidung, tragbare Elektronik, in weiche Roboter oder zur Verbesserung der Mensch-Maschine Interaktion eingebaut werden. So stellen sich die Forscher beispielsweise vor, dass solche Sensoren in selbstfahrende Autos eingebaut werden könnten. Wenn eine Person den Sensor berührt, während sie im Fahrzeug sitzt, könnte der Sensor einen medizinischen Notfall erkennen und ein Signal an den Autopiloten senden, sofort zum nächsten Krankenhaus zu fahren.

Der Weg zur Entwicklung solcher sogenannter Soft-Interfaces ist sehr steinig. Es liegen viele Herausforderungen vor den Wissenschaftlern. Die grundlegenden Eigenschaften eines solchen Sensors müssten zu dem, was es bereits gibt, stark verbessert werden. Es geht darum, die Flexibilität, Empfindlichkeit, Wiederholgenauigkeit, Linearität, oder Haltbarkeit zu erforschen, um nur einige wenige Kriterien zu nennen. 

Fazit: Die Hauptziele des Forschungsprojektantrags der Wissenschaftler sind 

- Herstellung eines druckempfindlichen taktilen Abtastsystems, das dehnungsunabhängig ist und die Schnittstelle zwischen hochdehnbaren und biokompatiblen leitenden Materialien verbessert, die eine ausgezeichnete Haftung bieten.

- Entwickelung einer Sensorhülse mit einer Multistimulierungsfunktion, die in eine einzige Hybridplattform eingebettet ist, die sich aktiv an den Körper anpassen kann, ohne die Wirksamkeit zu beeinträchtigen

- Erforschung innovativer Anwendungen für innovative Soft-Sensoren in der Automobil- und Unterhaltungsindustrie, einschließlich der Integration mit mobilen Soft-Robotern, rehabilitativen Systemen und möglicherweise kollisionssicherer chirurgischer Robotik.

Angehende Piloten trainieren viele hundert Stunden in einem Flugsimulator, bevor sie ein echtes Flugzeug fliegen dürfen. Im Gegensatz dazu haben Chirurgen nur sehr begrenzten Zugang zu Simulatoren; und die, die es gibt, bieten keine ausreichend realistischen Bedingungen. Medizinische Instrumente, die in der Roboter- und minimal-invasiven Chirurgie eingesetzt werden, werden daher oft an einer Traube oder an gepresstem Fleisch aus einer Dose getestet.

Dr. Tian Qiu, Leiter der Cyber Valley-Forschungsgruppe „Biomedizinische Mikrosysteme“, hat sich zum Ziel gesetzt, die Situation zu verbessern. Seine Forschung konzentriert sich darauf, sehr realistische Organ-Attrappen zu entwickeln, die das Training chirurgischer Eingriffe optimieren und quantitativ messbar machen. Die Attrappen sind sehr authentische physische Nachbildungen, haben aber zusätzlich eine Cyber-Komponente. Daher trägt sein Projekttitel den Namen „cyber-physikalischer Zwilling menschlicher Organe“.

Mit Blick auf die Anatomie und die Gewebeeigenschaften realer Organe und menschlicher Körperteile wird jeder 3D-gedruckte Organ-Zwilling aus weichen Materialien hergestellt, die dem echten Organ sehr ähneln. Die Cyber-Komponente wiederum besteht darin, dass das Modell spüren kann, was an ihm gemacht wird, und diese Daten sammelt. Solche Daten wären unmöglich aufzuzeichnen, wenn zum Beispiel ein medizinisches Verfahren an einem echten menschlichen Organ trainiert würde. Mit den Daten, die der cyber-physikalische Zwilling erzeugt, kann das Ergebnis eines chirurgischen Trainings jetzt klar visualisiert werden, was unter realen Bedingungen unmöglich wäre. Die Leistung eines/r Medizinstudent*in könnte jetzt automatisch ausgewertet werden; und unmittelbar nach jedem Training könnten sie Feedback bekommen, wodurch die Trainingserfahrung optimiert würde.

Solch intelligente cyber-physikalische Organ-Zwillinge werden eines Tages die chirurgische Ausbildung verändern. Sie könnten das Training am menschlichen Körper immer mehr ersetzen und Tierversuche reduzieren, glauben Tian Qiu und sein Team. Die Organ-Zwillinge bieten nicht nur die Möglichkeit, neue medizinische Instrumente zu entwickeln und zu testen, sondern auch bessere Sicherheitsprodukte wie Helme und Airbags zu entwickeln, wenn zum Beispiel bei Crashtests real nachgebaute Körperteile eingesetzt werden. Lebenswichtige Daten darüber, wie sie bei einem Unfall betroffen sind, können gesammelt und analysiert werden. 

Das Erlernen eines Musikinstruments ist ein langes und schwieriges Unterfangen. Nicht jeder kann sich die Hilfe eines professionellen Lehrers leisten, und selbst mit dieser Hilfe ist das Feedback in Bezug auf Latenz und Aussagekraft begrenzt. Um diese Probleme anzugehen, werden wir eine Sammlung neuer datengesteuerter Techniken und Werkzeuge entwickeln. Die Hauptidee ist die systematische Aufzeichnung musikalischer Übungsdaten von Schülern und deren Rückmeldung durch intelligente, visuelle Schnittstellen. Mit einem Visual Analytics Web-Tool werden wir es Studenten, Lehrern und professionellen Musikern ermöglichen, Fehler zu erkennen und ihren Stil auf völlig innovative Weise zu verbessern. Durch die zusätzliche Aufzeichnung von Bewegungsdaten werden wir auch in der Lage sein, Fingersatzanweisungen oder korrekte Posen durch Augmented-Reality-Displays zu vermitteln, die Informationen direkt an einem physischen Musikinstrument visualisieren.

Da musikalische Daten komplex sein können und Noten oder Audiodatensignale, die von Instrumenten aufgezeichnet werden, in der Regel verrauscht sind, ist KI ein nützliches, wenn nicht sogar notwendiges Mittel zur Datenverarbeitung und -analyse. Wir werden einen menschenzentrierten Designprozess verfolgen, der Musiker und Musiklehrer mit unterschiedlichem Hintergrund und Fähigkeitsniveau in die Datenerfassung, Entwicklung und Evaluierung unserer Techniken und Werkzeuge einbezieht. Unser Ziel ist es, gebrauchsfertige Werkzeuge für den Musikunterricht, wiederverwendbare Datenverarbeitungstechniken und Datensätze bereitzustellen, die aus Noten, Audio, Bewegungserfassung und anderen Merkmalen bestehen, die wir von Instrumenten und Spielern aufzeichnen.

Während die meisten erfolgreichen Anwendungen des maschinellen Lernens bisher im Bereich des überwachten Lernens angesiedelt sind, wird das unbeobachtete Lernen oft als ein anspruchsvolleres und möglicherweise wichtigeres Problem angesehen. Der Turing-Preisträger Yann LeCun, einer der sogenannten „Godfathers of AI“, verglich bekanntermaßen das überwachte Lernen mit dem dünnen „Sahnehäubchen“ des unbeobachteten Lernens. Ein Ansatz, der als kontrastives Lernen bezeichnet wird, hat sich in letzter Zeit als leistungsfähige Methode des unbeobachteten Lernens von Bilddaten herauskristallisiert, die es beispielsweise ermöglicht, Fotos von Katzen von Fotos von Hunden zu trennen, ohne dass für das Training irgendwelche markierten Daten verwendet werden. Die Schlüsselidee ist, dass ein neuronales Netzwerk darauf trainiert wird, jedes Bild so nah wie möglich an seiner leicht verzerrten Kopie und so weit wie möglich von allen anderen Bildern entfernt zu halten. Das Gleichgewicht zwischen anziehenden und abstoßenden Kräften bringt ähnliche Bilder zusammen. In diesem Projekt werden diese Ideen auf die Einzelzell-Transkriptomik angewendet, ein sehr aktives Gebiet der Biologie, in dem ein Experiment die Genaktivität von Tausenden von Genen in Millionen von Einzelzellen messen kann. Die Forschungsgruppe wird kontrastives Lernen einsetzen, um Strukturen in solchen Datensätzen zu finden und sie zweidimensional zu visualisieren. Die Forschenden werden dann zu den Bilddaten zurückkehren und zweidimensionale Einbettungen als Werkzeug verwenden, um einen Eindruck davon zu gewinnen, wie verschiedene Modellierungs- und Optimierungsentscheidungen die endgültige Darstellung beeinflussen.

Tiere bewegen sich auf eine faszinierend effiziente, dynamische und präzise Art und Weise. Um dies zu erreichen, müssen sie lernen, ihre Muskeln mit Hilfe ihres Nervensystems zu steuern. Die Muskeln wiederum sorgen für Stabilität und senden Informationen über die Bewegung an das Nervensystem zurück. Dieses dynamische Zusammenspiel zwischen Nervensystem und Muskeln ist der Schlüssel zu ihrer Bewegung – die weichen Muskeln tragen maßgeblich dazu bei. Die Rolle, die die Muskeln dabei spielen, bezeichnen Wissenschaftler*innen als „morphologische Berechnung“ oder „morphological computation“. Aufbauend auf dieser Idee werden neuartige Robotersysteme, wie muskelgesteuerte Roboter, weiche Roboter oder weiche, tragbare Hilfsmittel wie Exoskelette entwickelt. Allerdings ist die Steuerung von Systemen mit weichen Aktoren eine Herausforderung.

In diesem Projekt werden wir Ansätze des maschinellen Lernens einsetzen, um ein gut abgestimmtes dynamisches Zusammenspiel zwischen Controller und muskel(-ähnlichem) Aktor zu erlernen. Ziel ist es, die stabilisierenden Eigenschaften weicher Muskeln explizit auszunutzen und damit die „morphologische Berechnung“ zu nutzen. Wir werden diesen Ansatz mit Computersimulationen menschlicher Armbewegungen entwickeln, die Muskeln und neuronale Steuerung auf niedriger Ebene (ähnlich wie Reflexe) berücksichtigen. Wir werden außerdem ein Modell eines technischen Hilfsmittels hinzufügen und einen Controller lernen, der hilft, die morphologische Berechnung in der Interaktion mit dem menschlichen Modell zu maximieren.

Mit unseren Kooperationspartnern Syn Schmitt (Uni Stuttgart) und Dieter Büchler (MPI-IS) werden wir diesen Ansatz auch auf muskelgesteuerte Robotersysteme anwenden. Dies wird uns erlauben, eine Steuerung zu erlernen, die auch die morphologische Berechnung in solchen Systemen ausnutzt.

Das Erlernen der Ausnutzung der morphologischen Berechnung wird einen neuartigen Ansatz für die Steuerung von Robotersystemen mit elastischen Aktoren und weichen Strukturen bieten, der insbesondere in der Mensch-Roboter-Interaktion oder Assistenz Anwendung finden kann.

In den vergangenen Jahrzehnten haben Meteorolog*innen Wettervorhersage-Systeme kontinuierlich verbessert. Dadurch sind diese Systeme aber auch immer komplexer geworden. Komplexe Systeme, wie das Modell des „Consortium for Small Scale Modeling“ (COSMO), beziehen Einflüsse wie lokale topographische, Boden- und Vegetationseigenschaften mit ein. Trotz dieser Fortschritte bleiben die Daten aufgrund von räumlichen und zeitlichen Unterschieden sowie Wechselwirkungen und Einflüssen, die entweder nicht beobachtet werden können oder nicht berücksichtigt werden, approximativ, d.h. es sind ungefähre Angaben. Mit der „Distributed, Spatio-Temporal Graph Artificial Neural Network Architecture“ (DISTANA) haben Professor Martin Butz und seine Neuro-Cognitive Modeling Group im Fachbereich Informatik der Universität Tübingen nun einen neuen Ansatz entwickelt, der herkömmliche Vorhersagesysteme entweder ergänzt oder als Alternative dazu dienen kann.

DISTANA wendet induktive Lernverfahren an, die universelle Prinzipien der Wetterdynamik umsetzen. Dies erfolgt unter der Berücksichtigung von zwei Prinzipien: Erstens, dass die Systemdynamik durch nur teilweise beobachtbare oder sogar vollständig unbekannte, aber universell gültige lokale Faktoren beeinflusst werden kann, und zweitens, dass die Ausbreitung der Wetterdynamik über den Raum auf lokale Nachbarschaften beschränkt ist, wenn die zeitlichen Intervalle ausreichend klein sind.

Im Laufe des Projekts werden die Forschenden sowohl kombinierte Wettervorhersage-Datensätze als Benchmarks entwickeln als auch DISTANA weiterentwickeln. Sie erwarten, dass DISTANA den aktuellen Stand der Technik bei der Wettervorhersage übertrifft, da es in der Lage sein wird, auch unbekannte Faktoren zu berücksichtigen. Einmal erfolgreich trainiert, könnte DISTANA für die Wettervorhersage auf verschiedenen räumlichen und zeitlichen Skalen nützlich sein und möglicherweise bessere Vorhersagen von extremen Wetterereignissen ermöglichen. Dies würde es wiederum ermöglichen, entsprechende Präventivmaßnahmen zu ergreifen. Darüber hinaus kann das Prinzip von DISTANA auch in anderen Bereichen angewandt werden, z. B. bei der Vorhersage von Wasserströmungen, bei der Erosionsmodellierung oder bei der Leistungsvorhersage für Windkraftanlagen. Langfristig könnte diese Forschung dazu beitragen, Maßnahmen zu ergreifen, die darauf abzielen, die negativen Auswirkungen des Klimawandels abzumildern.

Zu verstehen, wie sich Tiere verhalten, insbesondere wie sich Tiere bewegen und untereinander sowie mit ihrer Umwelt interagieren, ist eine grundlegende Voraussetzung, um die wichtigsten ökologischen Probleme unserer Zeit anzugehen. Die modernen Methoden zur Bewegungserfassung von Tieren, die uns erlauben, ihr Verhalten nachzuvollziehen, stören ihren Alltag und sind in weitläufigen Umgebungen nicht anwendbar. Aus diesem Grund entwickeln Aamir Ahmad und seine Gruppe WildCap: eine Gruppe von Flugrobotern, die die Bewegungen von Tieren auf nicht-invasive Art und Weise erfasst. Im Gegensatz zu bestehenden Methoden erlaubt dieser neuartige Ansatz den Robotern, Flugrouten zu wählen, die die Bewegung der Tiere am besten einschätzt und künftig auch Auskunft über ihr Verhaltens bieten kann.
Thumb ticker sm allgower1
University of Stuttgart
Thumb ticker sm pi  053
University of Tübingen
Thumb ticker sm headshot2021
Max Planck Institute for Intelligent Systems
Thumb ticker sm kjkuchenbecker1
Max Planck Institute for Intelligent Systems
Thumb ticker sm bernhard sch%c3%b6lkopf  germany
Max Planck Institute for Intelligent Systems
Thumb ticker sm metin eth vertical
Max Planck Institute for Intelligent Systems
Square news event item green
Porsche AG
Thumb ticker sm petergehler copy
Amazon
Square news event item blue
ZF Friedrichshafen AG
Thumb ticker sm bosch research thomas kropf cr p 0578
Robert Bosch GmbH
Square news event item blue
BMW Group
Square news event item blue
IAV GmbH