Research Fund

Unterstützung der Grundlagenforschung in den Bereichen maschinelles Lernen, Computer Vision und Robotik

Heutige autonome Systeme fallen noch immer weit zurück hinter den vielseitigen Fähigkeiten des Menschen Szenen wahrzunehmen und mit Objekten umzugehen. In diesem Projekt werden Jörg Stückler und sein Team untersuchen, wie Roboter selbstüberwacht lernen können, visuelles und taktiles Feedback für die Objektwahrnehmung und -manipulation zu nutzen. Die Forscher werden einen Ansatz entwickeln, der Roboter befähigen soll, ein Modell darüber zu lernen, wie sie mit Objekten interagieren können. Dabei werden die Interaktion und Objekte über taktile sowie visuelle Messungen wahrgenommen. Der Ansatz wird für die Bewegungsplanung eines Roboters in einer Reihe von Objekthandhabungsaufgaben evaluiert.

Zukünftige mobile Serviceroboter, wie z.B. Lieferroboter oder selbstfahrende Autos, müssen selbständig in ihrer Umgebung lernen können, um sich an Veränderungen anpassen zu können. Dadurch würden sie sich nicht nur effizienter fortbewegen können, sondern Ingenieure würden auch davon befreit werden, Roboter durch manuelle Programmierung auf die jeweilige Umgebung abzustimmen.

In diesem Projekt werden Jörg Stückler und sein Team untersuchen, wie mobile Roboter ihre Fahreigenschaften in ihrer Umgebung selbstüberwacht lernen können. Der Ansatz soll Bewegungsmodelle lernen, die die Auswirkungen von Aktionen von mobilen Robotern in ihrer Umgebung vorhersagen können. Die Forscher werden einen kamerabasierten Navigationsansatz zur Planung von Bewegungen anhand der gelernten Modelle entwickeln. Das Verfahren wird für die autonome Navigation eines mobilen Roboters evaluiert. 

Sogenannte Netzwerkmodelle helfen, komplexe Systeme mit vielen einzelnen Elementen zu beschreiben. In verschiedenen Forschungsbereichen, wie z.B. den Sozialwissenschaften, der Biologie und der Informatik, gibt es bereits zahlreiche solcher Netzwerkmodelle. Diese wurden vor allem in den letzten Jahren genutzt, um neue Schlussfolgerungen aus bereits bekannten Daten zu ziehen. Vor allem die Verfügbarkeit großer Datenmengen hat diese Entwicklung befördert.

Ein beliebtes Netzwerkmodell sind generative Modelle. Hierbei werden latenteVariablen eingeführt, welche die wissenschaftlichen Erkenntnisse auf diesem Wissensgebiet (das „Domänenwissen“) integrieren und die komplexen Wechselwirkungen erfassen. Diese Variablen sind aber meist so komplex, dass sie selbst bereits als eigenständige Modelle gelten. Bedingt durch diese Variablen sind die Netzwerkkanten unabhängig und die Verteilung von Wahrscheinlichkeiten innerhalb des Netzwerkes kann zusammengefasst bzw. vereinfacht werden. Nachteil dieser Modelle ist, dass bei einigen Szenarien aus der realen Welt die Interaktionen innerhalb des Netzwerkes nicht gut abgebildet werden. Das bedeutet, dass die mathematische Beschreibung aus dem Modell nicht mit der Realität übereinstimmt. Hauptproblem sind hier die Variablen, welche zu sehr eingeschränkt sind.

Im Vergleich dazu benutzen Netzwerk-Ensemble-Modelle keine solchen einzelnen Variablen, sondern netzwerkspezifische Größen (z.B. Verteilungsgrad oder Clustering-Koeffizient). Doch auch diese Modelle leiden unter verschiedenen Problemen, welche die praktische Anwendung einschränken.

Mit diesem Projekt hier wird Caterina de Baccos Gruppe nun bestimmte Merkmale dieser beiden Modelle, des generativen und des Netzwerk-Ensemble-Modells, mit Methoden aus der statistischen Physik kombinieren, um bessere prinzipienbasierte Modelle zu entwickeln. Darüber hinaus soll deren effiziente Anwendung auf konkrete Problemstellungen (z.B. Wiederholbarkeit oder das gleichzeitige Auftreten verschiedener Beziehungsformen zwischen zwei Knoten) gewährleistet werden.

Mit zunehmender Technologisierung und Automatisierung werden Millionen von Arbeitsplätzen sich dramatisch verändern oder gar ganz wegfallen. Dieses Projekt versucht eine wissenschaftlich fundierte Lösung zu finden um die daraus resultierenden gesellschaftlichen Probleme abzumildern. Intelligente Trainingsprogramme sollen den Arbeitnehmer:innen schnell und kostengünstig die notwendigen Fähigkeiten vermitteln, um in der veränderten Arbeitswelt der Zukunft zurechtzukommen.

Unser allgemeiner und vielseitig verwendbarer Ansatz baut auf Computermodellen des menschlichen Lernens und der Entscheidungsfindung auf. Er nutzt maschinelles Lernen und künstliche Intelligenz, um den betroffenen Arbeitnehmer:innen die Strategien beizubringen, die sie brauchen um den Selbstmanagement-Herausforderungen der sich ändernden Arbeitsbedingungen zu begegnen.

Wir werden diesen Ansatz testen, indem wir eine Reihe von sogenannten „intelligenten Tutoren“ (Computerprogramme) entwickeln, welche optimale Entscheidungsstrategien für immer realistischere Szenarien entdecken und vermitteln. Das Potenzial dieses Ansatzes werden wir veranschaulichen, indem wir einen Tutor entwickeln, der die Zeitmanagement-Fähigkeiten einer bestimmten Berufsgruppe (z.B. Wissenschaftler) in einer simulierten Arbeitsumgebung trainiert. Im Idealfall kann dieser dann weitsichtige Strategien zur Planung von Projekten, zur Priorisierung von Aufgaben und zum effektiven Selbst-Management vermitteln, die im Arbeitsalltag nützlich sind.

In unserem digitalen Zeitalter sind Informationen allgegenwärtig und konkurrieren um unsere Aufmerksamkeit. Dabei lenken uns gerade soziale Medien häufig von unseren eigentlichen Aufgaben ab. Dies verhindert, dass sich Schüler*innen und Studierende lange genug konzentrieren können, um effektiv zu lernen. Auch unsere Wirtschaft erfährt durch die sinkende Effektivität und Produktivität enorme finanzielle Verluste. Wie die Forschung zeigt, können wir gezielt trainieren, Ablenkungen zu widerstehen und auf ein bestimmtes Ziel fokussiert zu bleiben. Allerdings verwenden bestehende Trainingsansätze oft künstliche Aufgaben, die sich nicht in den Alltag übertragen lassen.

Um dieses Problem zu lösen, entwickeln Dr. Falk Lieder und Jun.-Prof. Dr. Maria Wirzberger gemeinsam mit ihrem Projektteam die intelligente Computersoftware ACTrain. Diese verwandelt den Alltag in eine optimale Lernumgebung, in der die Nutzenden mit ihren eigenen Zielen trainieren während sie lernen, studieren oder arbeiten. Als persönlicher Assistent soll ACTrain einen Namen und ein individuelles Erscheinungsbild erhalten, um die Motivation der Nutzenden zu steigern. Das Herzstück von ACTrain ist ein intelligentes Feedback, das den Wert vermittelt, konzentriert zu bleiben und nicht abgelenkt zu werden. Dieser Mechanismus basiert auf mathematischen Modellen davon, wie die Fähigkeiten zur Kontrolle der Aufmerksamkeit erlernt werden.

Dieser neuartige Trainingsansatz hat das Potential, die moderne Bildungs- und Arbeitswelt zu revolutionieren und Millionen von Menschen dabei zu unterstützen, ihre Ziele effektiver zu erreichen und damit ihr Leben zu verbessern.

In diesem Projekt untersuchen wir neue Möglichkeiten Eigenschaften des biologischen Sehsystems auf künstliche neuronale Netze zu übertragen, um sie robuster gegen Veränderungen von Bildmerkmale zu machen, die den Bildinhalt nicht verändern – wie z.B. die Veränderung des Bildstils. Derzeit gibt es keinen Lern-Algorithmus, der es schafft robust das Erlernte auf andere nicht-trainierte Bildmerkmale zu übertragen. Selbst bei leichten Veränderungen des Bilds, z.B. durch Hinzufügen von Rauschen oder Veränderungen des Stils, begehen künstliche neuronale Netze schnell Fehler, obwohl unser Wahrnehmungsapparat keine Probleme hat den Inhalt des Bilds zu erkennen. Auch wenn die Meisten von uns unter dem Einfluss einer bestimmten Umwelt mit spezifischen Bildmerkmalen aufwachsen (beispielsweise der Schwäbischen Alb), kann unser Wahrnehmungsapparat das Erlernte problemlos auf ganz andere Umgebungen (beispielsweise der Umweltstatistik in einer Wüste oder die eines Gemäldes) übertragen.

Frühere Arbeiten haben gezeigt, dass künstliche tiefe neuronale Netzwerke ganz andere Bildinformationen (Merkmale) zur Entscheidungsfindung nutzen als unser Sehsystem. Während wir beispielsweise Objekte meist anhand ihrer Form kategorisieren, stützen sich diese Netzwerke hauptsächlich auf lokale Muster in den Bildern. Derzeit ist es noch sehr schwierig, die in unserer menschlichen Wahrnehmung verwendeten Bildmerkmale in künstliche Systeme einzubauen, da wir schlicht noch zu wenig über die genauen Eigenschaften biologischer Systeme wissen.

Aus diesem Grund wollen wir Mechanismen entwickeln, die robuste Merkmale direkt aus Messungen von Gehirnaktivität auf künstliche Systeme übertragen können. Wir werden zunächst unter kontrollierten Bedingungen untersuchen, mit welchen Mechanismen diese Merkmale zwischen den Netzwerken übertragen werden können. In der finalen Phase des Projekts werden wir öffentlich zugängliche Messdaten neuronaler Aktivität des Sehsystems nutzen und testen, welche Eigenschaften der Daten sich auf künstliche Netze mit den von uns entwickelten Methoden übertragen lassen.

Die Cyber Valley Forschungsgruppe „Locomotion in Biorobotic and Somatic Systems“ untersucht die Mechanik der Fortbewegung und die zugrunde liegenden morphologischen Anpassungen, wie sie von der Natur im Laufe der Evolution perfektioniert wurden. Die Forscher wenden ihre Erkenntnisse auf die Entwicklung von lebensechten Robotern sowie auf multi-funktionale Materialien an, die denen in der Natur vorkommenden sehr ähnlich sind. Ihre Forschung ist an der Schnittstelle von Ingenieurwesen und Biologie angesiedelt – ein relativ neues und vielversprechendes Gebiet. 

In ihrem aktuellen Projektantrag geht es Dr. Ardian Jusufi und Hritwick Banerjee darum, einen flexiblen, dehnbaren und biokompatiblen externen Sensor aus multifunktionalen intelligenten Materialien zu entwickeln. Dieser könnte eines Tages im Gesundheitswesen eingesetzt werden – bei Menschen und in der nicht-invasiven Veterinärmedizin. Der Sensor würde wie eine zweite Hautschicht an Gewebe anhaften, so dass er, egal wie sich eine Person oder ein Tier bewegt, an Ort und Stelle bleibt. Der Sensor könnte dann die Gesundheit einer Person erkennen, den Blutdruck und andere biometrische Werte erfassen oder messen, ob eine Person einen unregelmäßigen Herzschlag hat, der möglicherweise auf einen Herzinfarkt hindeutet. 

Mögliche Einsatzgebiete gehen jedoch über ein breites Spektrum an biomedizinischen Anwendungen hinaus: Der weiche und flexible Sensor könnte in intelligente Kleidung, tragbare Elektronik, in weiche Roboter oder zur Verbesserung der Mensch-Maschine Interaktion eingebaut werden. So stellen sich die Forscher beispielsweise vor, dass solche Sensoren in selbstfahrende Autos eingebaut werden könnten. Wenn eine Person den Sensor berührt, während sie im Fahrzeug sitzt, könnte der Sensor einen medizinischen Notfall erkennen und ein Signal an den Autopiloten senden, sofort zum nächsten Krankenhaus zu fahren.

Der Weg zur Entwicklung solcher sogenannter Soft-Interfaces ist sehr steinig. Es liegen viele Herausforderungen vor den Wissenschaftlern. Die grundlegenden Eigenschaften eines solchen Sensors müssten zu dem, was es bereits gibt, stark verbessert werden. Es geht darum, die Flexibilität, Empfindlichkeit, Wiederholgenauigkeit, Linearität, oder Haltbarkeit zu erforschen, um nur einige wenige Kriterien zu nennen. 

Fazit: Die Hauptziele des Forschungsprojektantrags der Wissenschaftler sind…

  • Herstellung eines druckempfindlichen taktilen Abtastsystems, das dehnungsunabhängig ist und die Schnittstelle zwischen hochdehnbaren und biokompatiblen leitenden Materialien verbessert, die eine ausgezeichnete Haftung bieten.
  • Entwickelung einer Sensorhülse mit einer Multistimulierungsfunktion, die in eine einzige Hybridplattform eingebettet ist, die sich aktiv an den Körper anpassen kann, ohne die Wirksamkeit zu beeinträchtigen
  • Erforschung innovativer Anwendungen für innovative Soft-Sensoren in der Automobil- und Unterhaltungsindustrie, einschließlich der Integration mit mobilen Soft-Robotern, rehabilitativen Systemen und möglicherweise kollisionssicherer chirurgischer Robotik.

Angehende Piloten trainieren viele hundert Stunden in einem Flugsimulator, bevor sie ein echtes Flugzeug fliegen dürfen. Im Gegensatz dazu haben Chirurgen nur sehr begrenzten Zugang zu Simulatoren; und die, die es gibt, bieten keine ausreichend realistischen Bedingungen. Medizinische Instrumente, die in der Roboter- und minimal-invasiven Chirurgie eingesetzt werden, werden daher oft an einer Traube oder an gepresstem Fleisch aus einer Dose getestet.

Dr. Tian Qiu, Leiter der Cyber Valley-Forschungsgruppe „Biomedizinische Mikrosysteme“, hat sich zum Ziel gesetzt, die Situation zu verbessern. Seine Forschung konzentriert sich darauf, sehr realistische Organ-Attrappen zu entwickeln, die das Training chirurgischer Eingriffe optimieren und quantitativ messbar machen. Die Attrappen sind sehr authentische physische Nachbildungen, haben aber zusätzlich eine Cyber-Komponente. Daher trägt sein Projekttitel den Namen „cyber-physikalischer Zwilling menschlicher Organe“.

Mit Blick auf die Anatomie und die Gewebeeigenschaften realer Organe und menschlicher Körperteile wird jeder 3D-gedruckte Organ-Zwilling aus weichen Materialien hergestellt, die dem echten Organ sehr ähneln. Die Cyber-Komponente wiederum besteht darin, dass das Modell spüren kann, was an ihm gemacht wird, und diese Daten sammelt. Solche Daten wären unmöglich aufzuzeichnen, wenn zum Beispiel ein medizinisches Verfahren an einem echten menschlichen Organ trainiert würde. Mit den Daten, die der cyber-physikalische Zwilling erzeugt, kann das Ergebnis eines chirurgischen Trainings jetzt klar visualisiert werden, was unter realen Bedingungen unmöglich wäre. Die Leistung eines Medizinstudenten bzw. einer Medizinstudentin könnte jetzt automatisch ausgewertet werden; und unmittelbar nach jedem Training könnten sie Feedback bekommen, wodurch die Trainingserfahrung optimiert würde.

Solch intelligente cyber-physikalische Organ-Zwillinge werden eines Tages die chirurgische Ausbildung verändern. Sie könnten das Training am menschlichen Körper immer mehr ersetzen und Tierversuche reduzieren, glauben Tian Qiu und sein Team. Die Organ-Zwillinge bieten nicht nur die Möglichkeit, neue medizinische Instrumente zu entwickeln und zu testen, sondern auch bessere Sicherheitsprodukte wie Helme und Airbags zu entwickeln, wenn zum Beispiel bei Crashtests real nachgebaute Körperteile eingesetzt werden. Lebenswichtige Daten darüber, wie sie bei einem Unfall betroffen sind, können gesammelt und analysiert werden. 

Das Erlernen eines Musikinstruments ist ein langes und schwieriges Unterfangen. Nicht jeder kann sich die Hilfe eines professionellen Lehrers leisten, und selbst mit dieser Hilfe ist das Feedback in Bezug auf Latenz und Aussagekraft begrenzt. Um diese Probleme anzugehen, werden wir eine Sammlung neuer datengesteuerter Techniken und Werkzeuge entwickeln. Die Hauptidee ist die systematische Aufzeichnung musikalischer Übungsdaten von Schülern und deren Rückmeldung durch intelligente, visuelle Schnittstellen. Mit einem Visual Analytics Web-Tool werden wir es Studenten, Lehrern und professionellen Musikern ermöglichen, Fehler zu erkennen und ihren Stil auf völlig innovative Weise zu verbessern. Durch die zusätzliche Aufzeichnung von Bewegungsdaten werden wir auch in der Lage sein, Fingersatzanweisungen oder korrekte Posen durch Augmented-Reality-Displays zu vermitteln, die Informationen direkt an einem physischen Musikinstrument visualisieren.

Da musikalische Daten komplex sein können und Noten oder Audiodatensignale, die von Instrumenten aufgezeichnet werden, in der Regel verrauscht sind, ist KI ein nützliches, wenn nicht sogar notwendiges Mittel zur Datenverarbeitung und -analyse. Wir werden einen menschenzentrierten Designprozess verfolgen, der Musiker und Musiklehrer mit unterschiedlichem Hintergrund und Fähigkeitsniveau in die Datenerfassung, Entwicklung und Evaluierung unserer Techniken und Werkzeuge einbezieht. Unser Ziel ist es, gebrauchsfertige Werkzeuge für den Musikunterricht, wiederverwendbare Datenverarbeitungstechniken und Datensätze bereitzustellen, die aus Noten, Audio, Bewegungserfassung und anderen Merkmalen bestehen, die wir von Instrumenten und Spielern aufzeichnen.

Während die meisten erfolgreichen Anwendungen des maschinellen Lernens bisher im Bereich des überwachten Lernens angesiedelt sind, wird das unbeobachtete Lernen oft als ein anspruchsvolleres und möglicherweise wichtigeres Problem angesehen. Der Turing-Preisträger Yann LeCun, einer der sogenannten „Godfathers of AI“, verglich bekanntermaßen das überwachte Lernen mit dem dünnen „Sahnehäubchen“ des unbeobachteten Lernens. Ein Ansatz, der als kontrastives Lernen bezeichnet wird, hat sich in letzter Zeit als leistungsfähige Methode des unbeobachteten Lernens von Bilddaten herauskristallisiert, die es beispielsweise ermöglicht, Fotos von Katzen von Fotos von Hunden zu trennen, ohne dass für das Training irgendwelche markierten Daten verwendet werden. Die Schlüsselidee ist, dass ein neuronales Netzwerk darauf trainiert wird, jedes Bild so nah wie möglich an seiner leicht verzerrten Kopie und so weit wie möglich von allen anderen Bildern entfernt zu halten. Das Gleichgewicht zwischen anziehenden und abstoßenden Kräften bringt ähnliche Bilder zusammen. In diesem Projekt werden diese Ideen auf die Einzelzell-Transkriptomik angewendet, ein sehr aktives Gebiet der Biologie, in dem ein Experiment die Genaktivität von Tausenden von Genen in Millionen von Einzelzellen messen kann. Die Forschungsgruppe wird kontrastives Lernen einsetzen, um Strukturen in solchen Datensätzen zu finden und sie zweidimensional zu visualisieren. Die Forschenden werden dann zu den Bilddaten zurückkehren und zweidimensionale Einbettungen als Werkzeug verwenden, um einen Eindruck davon zu gewinnen, wie verschiedene Modellierungs- und Optimierungsentscheidungen die endgültige Darstellung beeinflussen.

Tiere bewegen sich auf eine faszinierend effiziente, dynamische und präzise Art und Weise. Um dies zu erreichen, müssen sie lernen, ihre Muskeln mit Hilfe ihres Nervensystems zu steuern. Die Muskeln wiederum sorgen für Stabilität und senden Informationen über die Bewegung an das Nervensystem zurück. Dieses dynamische Zusammenspiel zwischen Nervensystem und Muskeln ist der Schlüssel zu ihrer Bewegung – die weichen Muskeln tragen maßgeblich dazu bei. Die Rolle, die die Muskeln dabei spielen, bezeichnen Wissenschaftler*innen als „morphologische Berechnung“ oder „morphological computation“. Aufbauend auf dieser Idee werden neuartige Robotersysteme, wie muskelgesteuerte Roboter, weiche Roboter oder weiche, tragbare Hilfsmittel wie Exoskelette entwickelt. Allerdings ist die Steuerung von Systemen mit weichen Aktoren eine Herausforderung.

In diesem Projekt werden wir Ansätze des maschinellen Lernens einsetzen, um ein gut abgestimmtes dynamisches Zusammenspiel zwischen Controller und muskel(-ähnlichem) Aktor zu erlernen. Ziel ist es, die stabilisierenden Eigenschaften weicher Muskeln explizit auszunutzen und damit die „morphologische Berechnung“ zu nutzen. Wir werden diesen Ansatz mit Computersimulationen menschlicher Armbewegungen entwickeln, die Muskeln und neuronale Steuerung auf niedriger Ebene (ähnlich wie Reflexe) berücksichtigen. Wir werden außerdem ein Modell eines technischen Hilfsmittels hinzufügen und einen Controller lernen, der hilft, die morphologische Berechnung in der Interaktion mit dem menschlichen Modell zu maximieren.

Mit unseren Kooperationspartnern Syn Schmitt (Uni Stuttgart) und Dieter Büchler (MPI-IS) werden wir diesen Ansatz auch auf muskelgesteuerte Robotersysteme anwenden. Dies wird uns erlauben, eine Steuerung zu erlernen, die auch die morphologische Berechnung in solchen Systemen ausnutzt.

Das Erlernen der Ausnutzung der morphologischen Berechnung wird einen neuartigen Ansatz für die Steuerung von Robotersystemen mit elastischen Aktoren und weichen Strukturen bieten, der insbesondere in der Mensch-Roboter-Interaktion oder Assistenz Anwendung finden kann.

In den vergangenen Jahrzehnten haben Meteorolog:innen Wettervorhersage-Systeme kontinuierlich verbessert. Dadurch sind diese Systeme aber auch immer komplexer geworden. Komplexe Systeme, wie das Modell des „Consortium for Small Scale Modeling“ (COSMO), beziehen Einflüsse wie lokale topographische, Boden- und Vegetationseigenschaften mit ein. Trotz dieser Fortschritte bleiben die Daten aufgrund von räumlichen und zeitlichen Unterschieden sowie Wechselwirkungen und Einflüssen, die entweder nicht beobachtet werden können oder nicht berücksichtigt werden, approximativ, d.h. es sind ungefähre Angaben. Mit der „Distributed, Spatio-Temporal Graph Artificial Neural Network Architecture“ (DISTANA) haben Professor Martin Butz und seine Neuro-Cognitive Modeling Group im Fachbereich Informatik der Universität Tübingen nun einen neuen Ansatz entwickelt, der herkömmliche Vorhersagesysteme entweder ergänzt oder als Alternative dazu dienen kann.

DISTANA wendet induktive Lernverfahren an, die universelle Prinzipien der Wetterdynamik umsetzen. Dies erfolgt unter der Berücksichtigung von zwei Prinzipien: Erstens, dass die Systemdynamik durch nur teilweise beobachtbare oder sogar vollständig unbekannte, aber universell gültige lokale Faktoren beeinflusst werden kann, und zweitens, dass die Ausbreitung der Wetterdynamik über den Raum auf lokale Nachbarschaften beschränkt ist, wenn die zeitlichen Intervalle ausreichend klein sind.

Im Laufe des Projekts werden die Forschenden sowohl kombinierte Wettervorhersage-Datensätze als Benchmarks entwickeln als auch DISTANA weiterentwickeln. Sie erwarten, dass DISTANA den aktuellen Stand der Technik bei der Wettervorhersage übertrifft, da es in der Lage sein wird, auch unbekannte Faktoren zu berücksichtigen. Einmal erfolgreich trainiert, könnte DISTANA für die Wettervorhersage auf verschiedenen räumlichen und zeitlichen Skalen nützlich sein und möglicherweise bessere Vorhersagen von extremen Wetterereignissen ermöglichen. Dies würde es wiederum ermöglichen, entsprechende Präventivmaßnahmen zu ergreifen. Darüber hinaus kann das Prinzip von DISTANA auch in anderen Bereichen angewandt werden, beispielsweise bei der Vorhersage von Wasserströmungen, bei der Erosionsmodellierung oder bei der Leistungsvorhersage für Windkraftanlagen. Langfristig könnte diese Forschung dazu beitragen, Maßnahmen zu ergreifen, die darauf abzielen, die negativen Auswirkungen des Klimawandels abzumildern.

Zu verstehen, wie sich Tiere verhalten, insbesondere wie sich Tiere bewegen und untereinander sowie mit ihrer Umwelt interagieren, ist eine grundlegende Voraussetzung, um die wichtigsten ökologischen Probleme unserer Zeit anzugehen. Die modernen Methoden zur Bewegungserfassung von Tieren, die uns erlauben, ihr Verhalten nachzuvollziehen, stören ihren Alltag und sind in weitläufigen Umgebungen nicht anwendbar. Aus diesem Grund entwickeln Aamir Ahmad und seine Gruppe WildCap: eine Gruppe von Flugrobotern, die die Bewegungen von Tieren auf nicht-invasive Art und Weise erfasst. Im Gegensatz zu bestehenden Methoden erlaubt dieser neuartige Ansatz den Robotern, Flugrouten zu wählen, die die Bewegung der Tiere am besten einschätzt und künftig auch Auskunft über ihr Verhaltens bieten kann.

Das Erkennen von Anomalien ist ein wichtiges Problem in vernetzten Systemen, in denen viele einzelne Einheiten miteinander verbunden sind. Anomale Verhaltensweisen entstehen, wenn Interaktionsmuster von dem abweichen, was als reguläre Aktivität angesehen wird. Beispiele hierfür finden sich in sozialen Netzwerken, wo gefälschte Profile realistische Profile nachahmen, um Menschen in bösartiger Absicht anzusprechen.

Die Herausforderung besteht darin, zu beschreiben, was ein reguläres Interaktionsmuster ist, sodass Abweichungen gemessen werden können. Probabilistische generative Modelle sind hierfür ein leistungsfähiger Ansatz, da sie es ermöglichen, Wissen über Domänen miteinzubeziehen. Das kann zu einer aussagekräftigen Beschreibung eines Systems führen und somit bei der Vorhersage von Anomalien helfen. Die Modelle wurden beispielsweise erfolgreich eingesetzt, um Gemeinschaften zu erkennen, also Gruppen von Menschen, die auf ähnliche Weise interagieren. Dieses Verhalten wurde in mehreren Szenarien, insbesondere in der Sozialwissenschaft, beobachtet. In diesen Situationen ist die Erkennung von Anomalien also eng mit der Erkennung von Gemeinschaften verbunden.

In diesem Projekt nutzt Caterina De Baccos Forschungsgruppe am Max-Planck-Institut für Intelligente Systeme diese Erkenntnisse, um Modelle zu entwickeln, die Gemeinschaften und Anomalien gemeinsam erkennen. Die Idee ist, dass die Einbeziehung dieser beiden Probleme die Vorhersagemöglichkeiten bei der Erkennung anomaler Verhaltensweisen ausweitet. Insbesondere werden wir Szenarien zu modellieren, in denen Reziprozitätseffekte eine wichtige Rolle spielen und in denen sich Netzwerke und damit Anomalien mit der Zeit entwickeln.

 

Roboter in der Bauindustrie sind oft größer als das Objekt, an dem sie arbeiten. Sie beschränken sich auf die Arbeit mit standardisierten Materialien, wobei sie im Allgemeinen wenig nachhaltig sind. Die Fortschritte in der Forschung zeigen derzeit eine Verlagerung hin zu mobilen Material-Roboter-Bausystemen. Dies bedeutet, dass Robotersysteme direkt von den von ihnen verwendeten Materialsystemen mitgestaltet werden, was zu abfallfreien Bausystemen führt. Das Potenzial dieser Systeme liegt in ihrer Anpassungsfähigkeit und Robustheit, die es ihnen ermöglichen, in dynamischen Umgebungen und in großen Teams zu arbeiten.

Durch dieses Projekt von Nicolas Kubail Kalousdian und Achim Menges (Universität Stuttgart) soll diese Forschungslinie erweitert werden, indem die Forschung in den Bereichen Architektur, Ingenieurwesen, Bauwesen und KI mit dem Problem des Bauens mit natürlichen verformbaren Materialien, insbesondere Bambus, kombiniert wird. Insbesondere werden wir untersuchen, wie die Anpassungsfähigkeit des Reinforcement Learning (RL) mit den Fähigkeiten der logisch-geometrischen Programmierung (LGP) mit langem Zeithorizont kombiniert werden kann, um eine Strategie zur Aufgaben- und Bewegungsplanung zu entwickeln, die kollaborative und nichtlineare Bauprobleme lösen kann. Wir glauben, dass die Kombination der Stärken von verteilten Material-Roboter-Systemen und die von KI-Methoden wie LGP und RL wesentlich sind, um natürliche verformbare Materialien für den Einsatz in nachhaltigeren robotischen Konstruktionen zu erschließen.

 

Deep Learning wird oft als Spitzentechnologie wahrgenommen, die Innovationen vorantreibt, indem sie virtuelle Assistenten wie Siri ermöglicht oder mithilfe von GANs fotorealistische Bilder von fiktiven Personen erstellt. Auf den zweiten Blick zeigt sich jedoch, dass die Algorithmen, die das eigentliche Training dieser neuronalen Netze durchführen, eher archaisch sind. Entscheidend ist, dass diese Trainingsalgorithmen immer noch auf menschliche Eingriffe angewiesen sind, um gut funktionierende Modelle zu erzeugen. Sie erfordern daher entweder eine umfangreiche, sehr kostspielige Suche nach Hyperparametern oder Experten, die diese sorgfältig festlegen. Gegenwärtig werden große Mengen an menschlicher Arbeitskraft und Rechenressourcen damit verschwendet, denselben Trainingsprozess auf der Suche nach geeigneten Hyperparametern immer wieder zu wiederholen.

Frank Schneiders Gruppe (Universität Tübingen) plädiert stattdessen für eine neue Art von Trainingsalgorithmus, der „out of the box“ funktioniert. Um diesen Automatisierungsgrad zu erreichen, wollen wir die aktuellen Methoden durch ein dynamisches Verhalten ersetzen, das sich automatisch an den Trainingsprozess anpassen kann. Es ist zu erwarten, dass Trainingsalgorithmen, die weniger oder gar keine manuelle Abstimmung erfordern, den Energie- und Rechenaufwand um deutlich reduzieren. 

 

Zusammenarbeit ermöglicht es intelligenten Systemen, Kosten, Risiken und Nutzen zu verteilen. Sie erschließt das wahre Potenzial kognitiver Netze in Bezug auf die Effizienz des Ressourceneinsatzes (Selbstoptimierung), stabil verteilte Steuerung (Selbstorganisation) und die Nachhaltigkeit (Selbstdiagnose und Selbstheilung). Kooperative Mechanismen zur Kosten-, Risiko- und Ressourcenverteilung sind breit anwendbar, um technologische Netzwerke wie beispielsweise Fog Computing zu verwalten und zu optimieren. Dennoch ist die Zusammenarbeit zwischen kognitiven Einheiten aufgrund verschiedener Probleme wie Informationsmangel, Interessenkonflikte und übermäßige Rechenkomplexität eine Herausforderung. 

Dieses Projekt von Setareh Maghsudi (Universität Tübingen) zielt darauf ab, rigorose Entscheidungsmechanismen für die Zusammenarbeit zu entwickeln. Solche Mechanismen ermöglichen es kognitiven Entitäten, in komplizierten Szenarien, z.B. unter Unsicherheiten oder in dynamischen Umgebungen, strategisch zusammenzuarbeiten. Der Schwerpunkt solcher Strategien ist die wiederholte Interaktion oder die Verwendung von Verlaufsplänen solcher Interaktionen. Genauer gesagt sind die Bausteine solcher Mechanismen reinforcement learning oder inverses reinforcement learning. Wir nutzen Stabilitätskonzepte und Konvergenzbegriffe aus der graphbeschränkten kooperativen Spieltheorie, um Konvergenz- und Stabilitätseigenschaften in unsicheren Szenarien zu definieren und ihre Erreichbarkeit zu untersuchen. Außerdem analysieren wir die Strategien hinsichtlich ihrer Nützlichkeit und Lerneffizienz.

Gerade werden in der Luftfahrt große Investitionen und Entwicklungen im Bereich der individuellen Mobilität getätigt. Hierzu zählen beispielsweise städtische Luftfahrzeuge und unbemannte Flugzeuge, beispielsweise für medizinische Transporte oder Rettungszwecke. Die meisten dieser Flugzeuge oder Luftfahrzeuge haben einen elektrischen Antrieb und daher nur eine begrenzte Reichweite. Bei Starrflüglern lassen sich diese Parameter durch die Nutzung von Energie aus der Atmosphäre erheblich verbessern. Ein extremes Beispiel ist der konventionelle Segelflug, bei dem der Pilot seine Erfahrung, seine Fähigkeiten, sein Wissen und seine Wahrnehmung in einem Entscheidungsprozess so kombiniert, dass Aufwinde erkannt und genutzt werden, um die Flugreichweite zu maximieren und dabei jederzeit die Lage im Blick zu behalten. Diese Aufgaben sind sehr komplex und können nur von sehr gut ausgebildeten Pilot:innen bewältigt werden.

Ziel dieser Arbeit von Aamir Ahmad (Universität Stuttgart) ist es, systematische Ansätze zu finden, um die Nutzung der Umweltenergie bei Flügen mit kleinen Starrflüglern (unbemannt oder bemannt) autonom zu maximieren und dabei die Flugdauer für eine geforderte Strecke zu minimieren. Das zugrundeliegende Problem ist die Abwägung zwischen kurzfristig lohnenden Aktionen (Zurücklegen einer bestimmten Strecke) und Aktionen, die sich langfristig auszahlen sollen (Kartierung und Ausnutzung atmosphärischer Aufwinde), während der Navigation in einer komplexen, besonders schwer zu modellierenden Umgebung.

Was wir aus einem einzelnen Datensatz in wissenschaftlichen Experimenten lernen können, ist immer begrenzt und es bleibt zwangsläufig ein gewisser Rest an Unsicherheit bestehen. Daher ist es wichtig, diese Unsicherheit bei unseren Schlussfolgerungen zu berücksichtigen, wenn wir echte wissenschaftliche Fortschritte erzielen wollen. Die Einordnung und Quantifizierung der Ungewissheit ist daher das Herzstück von statistischen Methoden, die darauf abzielen, Erkenntnisse aus Daten zu gewinnen.

Um wissenschaftliche Theorien zu vergleichen, übersetzen Wissenschaftler sie in statistische Modelle und untersuchen dann, wie gut die Vorhersagen der Modelle mit den gesammelten realen Daten übereinstimmen. Ein weit verbreiteter Ansatz zum Vergleich statistischer Modelle ist der Bayessche Modellvergleich (BMC). Mit Hilfe des BMC erhalten die Forscher die Wahrscheinlichkeit, dass jedes der konkurrierenden Modelle angesichts der Daten wahr ist (oder der Wahrheit am nächsten kommt). Diese Wahrscheinlichkeiten sind ein Maß für die Ungewissheit, sie sind aber auch selbst ungewiss. Dies bezeichnen wir als Meta-Ungewissheit (Unsicherheit über Unsicherheiten). Meta-Unsicherheit wirkt sich auf die Schlussfolgerungen aus, die wir aus Modellvergleichen ziehen können, und folglich auch auf die Schlussfolgerungen, die wir über die zugrunde liegenden wissenschaftlichen Theorien ziehen können.

Dieses Projekt von Paul-Christian Bürkner (Universität Stuttgart, SimTech Exzellenzcluster) trägt zu diesem Vorhaben bei, indem es Methoden zur Quantifizierung der Meta-Unsicherheit in BMC entwickelt und bewertet. Aufbauend auf der mathematischen Theorie der Meta-Unsicherheit werden wir umfangreiche Modellsimulationen als zusätzliche Informationsquelle nutzen, die es uns ermöglichen, bisher implizite, aber wichtige Annahmen der BMC zu quantifizieren. Darüber hinaus werden wir in der Lage sein, zwischen einer geschlossenen Welt, in der angenommen wird, dass das wahre Modell in der Menge der betrachteten Modelle enthalten ist, und einer offenen Welt, in der das wahre Modell möglicherweise nicht in dieser Menge enthalten ist, zu unterscheiden – entscheidend im Zusammenhang mit Modellvergleichsverfahren.

Thumb ticker sm allgower1
University of Stuttgart
Thumb ticker sm pi  053
University of Tübingen
Thumb ticker sm headshot2021
Max Planck Institute for Intelligent Systems
Thumb ticker sm kjkuchenbecker1
Max Planck Institute for Intelligent Systems
Thumb ticker sm bernhard sch%c3%b6lkopf  germany
Max Planck Institute for Intelligent Systems
Thumb ticker sm metin eth vertical
Max Planck Institute for Intelligent Systems
Square news event item green
Porsche AG
Thumb ticker sm petergehler copy
Amazon
Square news event item blue
ZF Friedrichshafen AG
Thumb ticker sm bosch research thomas kropf cr p 0578
Robert Bosch GmbH
Square news event item green
BMW Group
Square news event item blue
IAV GmbH