Weitere Projekte
Aktuelle Projekte
Wasserstoffkonditionierung und Sicherheit (WAKOS): Modellbasierte Verifikation für die Sicherheitsanalyse neuartiger wasserstoffbasierter Antriebe in der Luftfahrt
Laufzeit: 01.10.2022 bis 31.03.2026
Der Verbund "Wasserstoffkonditionierung und Sicherheit für neuartige Antriebe" (WAKOS) zielt mit seinem Vorhaben darauf ab, einen Beitrag zur "Umweltfreundlichen Luftfahrt" zu leisten. Dazu steht die Entwicklung und Umsetzung einer neuartigen Brennkammer und der dafür notwendigen Steuerungs-, Regel- und Verteilungssysteme zur Konditionierung von Flüssigwasserstoff im Fokus. Bei dieser Entwicklung sollen darüber hinaus alle relevanten Betriebsbedingungen, Sicherheitsaspekten und luftfahrtspezifischer Anforderungen beachtet werden.
Die Arbeiten zielen darauf ab, einen Beitrag hinsichtlich der Entwicklung leistungsfähigerer, sicherer und energieeffizienter Systeme für die und Komponenten zur Wasserstoffkonditionierung, -verteilung und Nutzung in einem hocheffizienten Wasserstoffverbrennungsantrieb zu leisten.
Ein wichtiger Aspekt der Arbeiten wird die Entwicklung neuer und der Transfer bereits in der Forschung angewendeter Methoden und Tools liegen. Durch ihre frühe Integration in den Systementwurfsprozess werden Entwicklungs- und Testaufwände drastisch reduziert werden. Dadurch kann sowohl die Entwicklung einzelner Systemkomponenten adressiert als auch die Gesamtintegration der Teilkomponenten zu einem Gesamtsystem verbessert werden.
In diesem Vorhaben sollen nun genau die Entwicklung und Validierung solcher Methoden umgesetzt werden. Dadurch werden nicht nur Entwicklungs- und Testaufwände für die Umsetzung der Steuerungs- und Regelungslösungen im Kontext der zugehörigen Komponenten reduziert, sondern durch die Anwendung automatisierter, modellbasierter Analysemethoden auch die der Zertifizierungsprozess unterstützt.
Mittelstand-Digital Zentrum Magdeburg - Teilvorhaben IT-Strategien und -Sicherheit
Laufzeit: 01.08.2022 bis 31.07.2025
Das Mittelstand-Digital Zentrum Magdeburg unterstützt kleinere und mittlere Unternehmen mit dem bewährten Transferansatz aus Informieren, Qualifizieren, Umsetzen und Vernetzen beim Thema der Digitalisierung. Unser Ziel ist es, diese Unternehmen auch über Organisationsgrenzen hinweg auf ihrem Weg der digitalen Transformation hin zu wettbewerbsfähigen Produkten und Dienstleistungen, innovativen Geschäftsmodellen und effizienten Wertschöpfungsnetzwerken zu begleiten.
Im Rahmen des Teilvorhabens "IT-Strategien und -Sicherheit" im Mittelstand-Digital Zentrum Magdeburg beschäftigt sich die Otto-von-Guericke-Universität Magdeburg (OvGU) als Forschungseinrichtung mit dem Thema wie KMUs befähigt werden können, verlässliche Entscheidungen hinsichtlich der Einführung von digitalen Systemen zu treffen. Dies umfasst sowohl die Erhöhung des Verständnisses der KMUs bzgl. konkreter Technologien, um Entscheidungskompetenzen zu stärken, strategische Vorgehensweisen, um Digitalisierungsprojekte zu starten als auch den Aspekt der Resilienz dieser Systeme, um vor IT-Sicherheitsvorfällen gewappnet zu sein. Flankiert wird das Thema mit dem Schwerpunkt "KI & Maschinelles Lernen", indem konkret die Technologien und das Potenzial von lernenden Systemen nahegebracht werden.
SafeTrAIn: Sichere KI am Beispiel fahrerloser Regionalzug
Laufzeit: 01.01.2022 bis 31.12.2024
Für einen klimaneutralen und attraktiven Verkehrsmix ist der Betrieb des Schienenverkehrs mit höchsten Automatisierungsstufen (GoA4) ein wesentlicher Bestandteil. Nach Stand der Technik kann dieses Ziel in den vorherrschenden komplexen Umgebungen durch klassische Automatisierungstechnologien allein nicht gelöst werden. Andererseits gibt es bei der Entwicklung von Technologien im Bereich des hochautomatisierten Fahrens (auf Straße & Schiene) bemerkenswerte Fortschritte, die auf der Leistungsfähigkeit von Künstlicher Intelligenz (KI) basieren. Eine wesentliche ungelöste Herausforderung ist dabei die Verknüpfung der KI-Verfahren mit den Anforderungen und Zulassungsprozessen im Bahnumfeld. In dieser Skizze beschreibt ein Konsortium aus Schienenindustrie, Technologiezuliefern, Forschungseinrichtungen sowie Normungs- und Prüforganisationen ein gemeinschaftliches Vorhaben, um die Möglichkeiten von KI mit den Sicherheitsbetrachtungen des Schienen- verkehrs zu verbinden und eine Lösung am Beispiel des fahrerlosen Regionalzugs praktikabel umzusetzen. Basierend auf den Anforderungen an die Sicherheitsnachweisführung werden Prüfmethoden und -werkzeuge für KI-basierte Methoden erforscht. Es wird eine Sicherheitsarchitektur am Beispiel des fahrerlosen Regionalzugs konkretisiert und ein GoA4-System für diesen Anwendungsfall in einem virtuellen Testfeld konzeptionell entwickelt und validiert. Arbeiten aus verwandten Industrien werden aufgegriffen.
Abgeschlossene Projekte
Fine-Grained Recognition of Retail Products
Laufzeit: 01.01.2015 bis 30.09.2024
Grocery recognition in supermarkets comprises several challenges as groceries embed small inter-class and intra-class variance. Small inter-class variance is given because different products share substantial visual similarities. Datasets typically contain real-world images and reference images, which induces intra-class variance. The visual appearances of products change over time, and their number continuously grows because designs are reworked or new products are published. Standard object classification methods are inapplicable at scale because models need to be fine-tuned continuously to relax these changing conditions.
In this project, we leverage the burden of requiring all classes to be known at training time using methods derived from face recognition techniques and meta-knowledge derived from additional sensor information. The setting is based on recognizing groceries in unknown supermarkets, e.g., without substantial infrastructural changes. The core idea is to extend face-recognition methods and fine-tune known architectures to distinguish the fine-grained visual differences of grocery products. The required training images are semi-automatically generated using sensor data acquired with modern smart glasses, e.g., the user’s trajectory and a model of the environment. Product candidates in real-world images are found using a sliding window approach, which uses the observation that products are arranged on shelves.
API Specific Automatic Program Repair
Laufzeit: 01.01.2015 bis 31.07.2024
API Specific Automatic Program Repair or how can we find and fix API Misuses automatically?
Nowadays, programmers re-use much code from existing code libraries by means of Application Programming Interfaces (APIs). Due to missing or outdated documentation as well as misunderstandings on how to correctly use a particular API, programmers may falsely apply that API.
If this false application leads to a negative behavior of the software, e.g. software crashes, performance losses, or inconvenient software usage, we denote these as API misuses.
Recent research has shown that half of the existing bugs demand an API-specific correction and therefore require knowledge on the correct application of the API. In order to be capable to create API-specific patches automatically, we represent such knowledge as API usage patterns. Based on the existing error localization techniques (e.g., testing, detection of deviant behavior) and mechanisms to extract API usage patterns (e.g. Specification Mining), we plan to create patches for API-specific bugs.
Entwicklung anpassungsfähiger Verifikationsalgorithmen für softwareintensive Systeme in sich ändernden Umgebungen
Laufzeit: 01.01.2017 bis 30.06.2024
Softwareintensive, cyberphysische, Systeme halten immer mehr Einzug in unser alltägliches Leben. Das beginnt bei smarten Heizungssteuerungen und Kühlschränken, über Energiekraftwerke und -netze in Smart Grid Infrastrukturen, bis hin zu autonomen Autos.
Dabei haben vor allem die letzten beiden Elemente gemein, dass Fehlfunktionen zu kritischen Situationen führen können, die einerseits mit hohen Kosten, andererseits aber auch mit der Gefahr für Menschenleben, verbunden sind.
Daher wird heutzutage bereits ein großer Aufwand betrieben, die Systeme möglichst ausfallsicher zu entwickeln und diese Sicherheit auch nachzuweisen.
Diese Analysen sind aber lediglich zur Entwicklungszeit des Systems möglich und somit müssen bereits zur Designzeit alle möglichen Situationen und Umstände betrachtet werden.
Dadurch wird jedoch ausgeschlossen, dass die Systeme im Zweifelsfall auf sich ändernde Umgebungen reagieren und selber abschätzen können, ob sie die gewünschte Funktionalität noch mit der geforderten Zuverlässigkeit, ausführen können.
Dies betrifft z. B. autonome Funktionen bei Autos, wenn sich Wetterbedingungen ändern und dadurch gewisse Sensoren nur noch eingeschränkt nutzbar sind bzw. ausfallen.
Eine Möglichkeit wäre, die jeweilige Funktion sofort zu deaktivieren. Aber ggf. ist der Einfluss der Änderung so minimal, dass die gewünschte Funktionalität noch ausgeführt werden kann.
Diese müssten dann jeweils online analysiert und verifiziert werden.
Solche Analysen sind prinzipiell mit gängigen Verifikationsmethoden wie proabilistischem Model Checking umsetzbar. Leider sind gängige Methoden noch nicht in der Lage schnelle Analysen für hochkomplexe Systeme durchzuführen, da die Berechnungen schlicht zu lange dauern.
Um diese Onlineanalysen in Zukunft zu ermöglichen, sollen in diesem Projekt Modellverifikationsalgorithmen erstellt werden, die prinzipiell mit Modellen realer Komplexität umgehen können und dazu auch sowohl zur Designzeit aber auch währende des Einsatzes des Systems Parameter und Eigenschaften lernen, die eine schnelle, aussagekräftige und zuverlässige Analyse ermöglichen.
Evaluating Anomaly Detection Algorithms
Laufzeit: 01.01.2021 bis 31.12.2023
Anomaly detection mechanisms are crucial components of machine learning systems that are deployed in safety critical applications, where failures might inflict physical, psychological or economic damage to some party. In such settings, it is important to identify observations or events that diverge so much from the data that has been used to determine the parameters of the machine learning model that the model can not be expected to generalize to the new input.
As anomaly detection methods are usually taken as unsupervised learning problems, estimating their performance under realistic settings turns our to be rather difficult; current evaluation protocols might underestimate the probability of failure and do sometimes not account for randomness in algorithms. Deep models dealing with high dimensional data suffer from this problem in particular. The goal of this project is to develop methods that are able to reliably evaluate unsupervised anomaly detection algorithms.
Echtzeit Vor-Ort-Aufklärung und Einsatzmonitoring (EVOK) - Teilvorhaben: Konzeption eines echtzeitfähigen Vor-Ort-Aufklärungssystems
Laufzeit: 01.02.2019 bis 31.12.2022
In EVOK soll ein System zur echtzeitfähigen Lagedarstellung erarbeitet werden, dass die Erstellung eines 3D-Modells der Umgebung während eines laufenden Einsatzes erlaubt. In diesem Modell können darüber hinaus die aktuellen Positionen der Einsatzkräfte dargestellt werden. Dies soll in einer für jede Nutzergruppe spezifisch zugeschnittenen Weise visualisiert werden. Dazu wird neben speziellen Softwarealgorithmen auch die entsprechende Hardware, u. a. einsatztaugliche Sensoren, entwickelt und angepasst. Letztere sollen dabei so kompakt sein, dass sie sowohl an autonomen Aufklärungssystemen als auch an der Ausrüstung der Spezialkräfte montiert werden können.
Das im Projekt entwickelte System stellt eine technische Neuerung dar, die direkt am Praxisbedarf ausgerichtet ist. Die Anforderungen echter Einsätze fließen während der gesamten Projektlaufzeit in die Entwicklung ein. Die Visualisierung von Einsatzort und Position der Einsatzkräfte kann dazu beitragen, Gefahren zu minimieren und Einsätze effizient zu gestalten. Somit wird die Sicherheit der Einsatzkräfte und betroffener Personen erheblich erhöht.
Verbesserung von Methoden zur automatischen Extraktion von API Spezifikationen
Laufzeit: 01.01.2017 bis 31.12.2022
Der Umgang mit Application-Programming-Interfaces (kurz APIs) macht heutzutage einen wichtigen Bestandteil des Alltags eines jeden Softwareentwicklers aus. Diese Programmierschnittstellen ermöglichen den Zugriff auf verschiedenste Ressourcen wie Programmklassen, Softwarebibliotheken oder Web-Services. Um ungewolltes oder fehlerhaftes Verhalten bei der Benutzung derartiger Ressourcen zu vermeiden, ist es unerlässlich, dass die von der API vorgesehenen Benutzungsregeln eingehalten werden. Eine Klasse dieser Einschränkungen befasst sich mit der zulässigen Reihenfolge von Methodenaufrufen, z.B. dem korrekten Initialisieren, Benutzen und schließlich Freigeben einer Ressource. Werden diese Regeln nicht eingehalten, kann es zu unerwünschtem Verhalten und Programmabstürzen mit ggf. kritischen Folgen kommen. Aus diesem Grund sind Spezifikationen der korrekten Benutzungsmuster von APIs von großem praktischen Wert. Einerseits erleichtern sie dem Entwickler die Einarbeitung in unbekannte APIs. Andererseits, und von besonderem Interesse, ermöglichen sie eine Reihe automatisierter Unterstützungstechniken im Software Engineering bis hin zu automatischer Detektion und Korrektur von Fehlverwendungen.
Da das manuelle Spezifizieren von APIs mit einem sehr hohen Aufwand verbunden ist, befasst sich die Forschungsrichtung des Specification Mining mit Techniken zur automatischen Extraktion von API Spezifikationen aus bestehenden Quellcodebeständen. Hierzu werden beispielsweise Algorithmen aus dem Data-Mining ausgenutzt, um wiederkehrende Muster bei der Verwendung von APIs in großen Projekten zu detektieren. Einfache Algorithmen sind hier insbesondere aufgrund ihrer geringen Präzision für den praktischen Einsatz nur sehr eingeschränkt nutzbar.
Das Ziel dieses Projekts besteht darin hier Abhilfe zu schaffen. Insbesondere sollen abstrakte Informationen aus dem Software Engineering Prozess, wie zum Beispiel das Wissen über projektspezifische API Benutzungsmuster, eingebracht werden, um neue Methoden und Heuristiken zur Verbesserung automatischer Extraktionstechniken zu entwickeln.
VIP+-AuRora Validierung des Innovationspotenzials der automatischen Generierung effizienter Roboterprogramme
Laufzeit: 01.01.2020 bis 31.12.2022
Roboter gehören zu den flexibelsten Werkzeugmaschinen, die heutzutage für den industriellen Einsatz zur Verfügung stehen. Während herkömmliche Werkzeugmaschinen in der Regel hochspezialisierte Konstruktionen für einzelne Anwendungsszenarien darstellen, sind Industrieroboter (mit dem richtigen Werkzeug) für eine äußerst große Bandbreite an Einsatzszenarien nutzbar. Als Konsequenz würde man erwarten, dass spezialisierte Werkzeugmaschinen vorwiegend in Großserien und Industrieroboter wegen ihrer Flexibilität eher in der Produktion von Klein- und Kleinstserien zum Einsatz kommen. Die industrielle Praxis zeigt jedoch genau das Gegenteil: Industrieroboter kommen heute fast ausschließlich in Großserien zum Einsatz. In Klein- und
Kleinstserien spielen sie praktisch keine Rolle.
Der entscheidende Grund dafür liegt überraschenderweise in der Programmierung des Roboters. Obwohl Roboterprogramme konzeptionell sehr einfach sind - es handelt sich oft nur um eine einzige Sequenz von Bewegungen, die iterativ wiederholt werden muss -, ist die Programmierung für ein konkretes Anwendungsszenario mit extrem hohen Kosten verbunden. Diese übersteigen oft die Anschaffungskosten und fallen im Prinzip bei jeder Änderung der Aufgabe erneut an. Dieser Problematik nehmen sich eine ganze Reihe aktueller Forschungs- und Transferprojekte an. Dabei können zwei grundlegend unterschiedliche Tendenzen bzw. Lösungsansätze beobachtet werden. Einerseits wird versucht die Programmierung durch das Prinzip "Teaching" zu verbessern bzw. zu ersetzen. Der große Vorteil teaching-basierter Verfahren liegt in der einfachen Anwendbarkeit. Jedoch wird der Roboter lediglich die, in der Regel unpräzisen und selten zeit- oder energieeffizienten, Bewegungen des Menschen nachahmen. Dadurch wird nur Bruchteil des Potenzials der Automatisierung ausgeschöpft. Parallel dazu versucht eine zweite Gruppe von Ansätzen die (manuelle) Programmierung (zeit-) effizienter zu gestalten. Dies beinhaltet neue, modulare Softwarearchitekturen, die Standardisierung der Programmiersprachen und -umgebungen sowie die Einführung generischer Frameworks.
In diesem Projekt soll das Innovationspotenzial eines dritten, komplementären Ansatzes validiert werden. Statt Programmabläufe manuell zu erstellen, werden diese automatisch aus einem Modell des zu fertigenden Produkts sowie des Bearbeitungsprozesses abgeleitet. Existierende Ansätze fokussieren dabei auf den - relativ einfachen - Teil der Generierung von Roboterbahnen aus vorgegebenen CAD-Daten. Das Hauptproblem liegt aber in der Berechnung optimaler, kollisionsfreier Zustellbewegungen und Arbeitssequenzen. Rein konzeptionell führt dies auf die Probleme der Programm- und Reglersynthese.
Beide Probleme sind nicht vollkommen generisch lösbar. Es gibt aber sehr wohl äußerst effiziente Lösungen für ausgezeichnete Teilprobleme. Im Kontext der Industrierobotik bedeutet dies die Generierung von Sequenzen von Trajektorien, die eine Reihe von Randbedingungen erfüllen, etwa Kollisionsfreiheit, Energieoptimalität und Bearbeitungszeit. Für diese eingeschränkte Klasse an Problemen konnten die Antragsteller sehr effiziente Verfahren entwerfen. Wenn es gelingt diese Verfahren effizient an Standardindustrieroboter anzubinden, kann eine Sprunginnovation erreicht werden. Durch die Automatisierung eines Großteils der Integrationsaufgaben können die Kosten für die Anpassung eines Roboters bei wechselnden Aufgaben um bis zu 90% (eine 90 %ige Reduktion sehen wir bei einfachen Anwendungen wie Bestücken/Löten als erreichbar. Bei komplexeren Problemen rechnen wir mit einer Reduktion um bis zu 50 %) gesenkt werden, wodurch sich eine Bandbreite neuer Anwendungsszenarien für Industrierobotik eröffnen würde. Diese führt zu Innovationen und Umsatzwachstum sowohl bei den Endanwendern als auch bei den Roboterherstellern.
Zusammengefasst ist das Ziel dieses Projekts die Validierung des Innovationspotenzials modellbasierter Techniken zur automatischen Generierung effizienter Kontrollprogramme für Industrieroboter. Im Erfolgsfall ergibt sich eine Sprunginnovation durch den höheren Automatisierungsgrad in Domänen, in denen in Kleinserien produziert wird. Es wird Teil des Projekts sein zu entscheiden, ob die angestrebte Innovation als Dienstleistung, Produkt oder Kombination aus beidem am erfolgversprechendsten wirtschaftlich genutzt werden kann.
Verbundprojekt Mittelstand 4.0 Kompetenzzentrum Magdeburg, Teilvorhaben Safety und Security in der Digitalisierung von kleineren und mittleren Unternehmen
Laufzeit: 01.08.2017 bis 31.07.2022
Mit dem Mittelstand-4.0 Kompetenzzentrum Magdeburg sollen bei den KMU Vertrauen in die Digitalisierung geschaffen, Mitarbeiter und Führungskräfte zur Durchführung von Digitalisierungsmaßnahmen befähigt sowie ”Digitalisierungs-Aha-Erlebnisse" ermöglicht werden. Um diese Ziele zu erreichen, ist der mittelstandgerechte Technologie- und Wissenstransfer in fünf unterschiedliche Schwerpunkte aufgeteilt. Die Otto-von-Guericke Universität beteiligt sich dabei bei den Schwerpunkten ”Safety & Security", ”Digitale Geschäftsmodelle" als auch ”Künstliche Intelligenz & Maschinelles Lernen". Um den Technologie- und Wissenstransfer in diesen Schwerpunkten mittelstandsgerecht zu gewährleisten sind unterschiedlichste Angebote in diesem Projekt vorgesehen.
Entwicklung eines modularen Verifikationswerkzeugs zur Integration automatisierter Sicherheitsanalysen in den Entwurfsprozess softwareintensiver Systeme
Laufzeit: 09.02.2021 bis 30.04.2022
Kluge Software, ausgefeilte Algorithmik und künstliche Intelligenz erlauben eine Vielzahl von neuen Anwendungspotentialen - oftmals auch speziell für (sicherheits)kritische Anwendungen. So kann beispielsweise die Energie im Netz effizienter verteilt, moderne Fahrzeuge können sicherer gestaltet und ggf. Kollisionen autonom vermieden werden. Grundlage ist dabei immer eine zunehmend komplexer werdende Kontrollsoftware.
Speziell für sicherheitskritische Systeme, wobei in diesem Zusammenhang die Vermeidung von Schaden an Mensch und Umwelt im Fokus steht, stellt die notwendige Sicherheitsanalyse eine immer größere Herausforderung dar. Um dies gewährleisten zu können, muss der Systementwickler das System holistisch in seiner gesamten Komplexität betrachten. Das betrifft nicht nur die eigentlichen Softwarekomponenten, sondern im Besonderen auch das zu steuernde System sowie auch die Systemumgebung und deren Verhalten. Dies wird für die genannten software-intensiven, sicherheitskritischen Systeme zunehmend schwieriger oder sogar unmöglich. Das liegt unter anderem daran, dass Software- und Systembeschreibungen auf unterschiedlichen mit unterschiedlichen Ausführungssemantiken entworfen werden. Daher werden sie aktuell nur auf einer hohen Abstraktionsebene integriert analysiert. Bei der weiteren Entwicklung können dann jedoch Abweichungen entstehen, welche zuvor verifizierte Sicherheitsziele wieder verletzen.
In der Wissenschaft gibt es bereits Techniken und Ansätze, die Kombination aus Software und(!) Systemverhalten hinsichtlich sicherheitsrelevanter Eigenschaften auch im weiteren Verlauf des Entwurfs zu verifizieren. Diese sind aber nur bedingt praktisch anwendbar. Hintergrund ist, dass in der Praxis verwendete Modellierungsformalismen und -sprachen nicht mit den meist akademischen Verifikationswerkzeugen kombinierbar sind. Dafür müsste ein Algorithmus definiert und umgesetzt werden, der mit den in der Praxis verwendeten Modellierungsformalismen kompatibel ist.
In diesem Projekt wollen die Partner gemeinsam genau solch einen Prototypen schaffen. Dazu wählen wir ein bis zwei in der Praxis weit verbreitete Modellierungssprachen aus und Transferieren bekannte Algorithmen aus dem Bereich der formalen Verifikation so, dass sie auf diese, in der Praxis verwendeten, Modellierungssprachen auch anwendbar sind. Im Ergebnis existiert ein prototypisches System, das in der Lage ist software-intensive Systeme - wie sie oben beschrieben sind - automatisch zu analysieren und damit die zentralen Argumente für einen Sicherheitsnachweise zu liefern bzw. entsprechende Schwachstellen im Systemdesign aufzudecken. Dadurch kann die Entwicklungszeit solcher Systeme drastisch verkürzt und ihre funktionale Sicherheit gesteigert werden.
Entwicklung von Technologien für intelligente, kollaborative, interaktive Displays für den Outdoor-Bereich (i-Display)
Laufzeit: 01.01.2019 bis 30.04.2022
In diesem Projekt sollen eine Stele entwickelt werden, die a) sowohl Indoor als auch Outdoor einsetzbar ist, die b) Nutzerinteraktionen erlaubt - im Besonderen solche die über reine Touch-Gesten hinausgehen - und die c) durch Vernetzung und Kollaboration mit anderen Stelen Kontext- und Historie-abhängig Information darstellen kann.
Im Outdoorbereich sind die Stelen starken Temperatur-, Feuchtigkeits- und Luftdruckschwankungen ausgesetzt (an einem Tag bis zu 50°C Differenz). Dies erfordert besonders abgehärtete IT und Sensorik. Durch unterschiedlichste zu erwartende Lichtverhältnisse, sind ggf. Wetter-/Kontext abhängig Darstellungen von Information und Interaktionsmetaphern notwendig.
Für Nutzerinteraktion existieren konzeptionell vielfältige Metaphern - von Sprache über Gesten bis hin zu biometrischen Signalen. Für die Stelen stellen sich hier besondere Herausforderungen durch die Wetterlage, die potenziell großen Mengen schnell wechselnder Betrachter und natürlich des Datenschutzes.
Zur Kollaboration ist es notwendig, dass die Stelen Informationen miteinander austauschen und in Korrelation setzen können. Dazu muss beispielsweise ein gemeinsames Bild der Umgebungen (z.B. wo steht welche Stele, wer steht wo) erstellt werden. Im Besonderen für die Historie-abhängige Darstellung spielt der Datenschutz eine essenzielle Rolle, da es sich hier oft um Nutzer-bezogene Daten handelt und gleichzeitig nicht einfach zu entscheiden ist, wer gerade mit der Stele interagiert.
ObViewSly 4.0 - Objektextraktion aus 3D-Massendaten der Geoinformation
Laufzeit: 07.05.2019 bis 30.04.2022
Ziel des Projektes "ObViewSly 4.0" ist die Entwicklung einer neuartigen Methode zur semiautomatischen, interaktiven Ableitung von 3D-Geodatenprodukten aus Luftbildern.
Dabei soll dem Anwender die Möglichkeit gegeben werden, einfach und schnell 3D-Objekte aus Massendaten abzuleiten. Ein illustrierendes Beispiel zeigen die Abbildung 1 bis 3. Nach einer vorläufigen Marktrecherche ist ein solches Softwaresystem derzeit nicht verfügbar. Darüber hinaus soll eine automatische, flächenbezogene Ableitung von 3D-Geodatenprodukten erreicht werden, ohne dass Benutzerinteraktionen notwendig sind.
Die Markteinführung dieses Produktes soll in verschiedenen Schritten, je nach Versionsstand und Einsatzfähigkeit erfolgen. Folgende Teilziele sind in diesem Projekt vorgesehen:
Multi-Area Coverage Path Planning
Laufzeit: 01.01.2017 bis 31.12.2020
Die Aufgabe, einen Überdeckungspfad für einen Robotermanipulator zu berechnen, um eine gegebene Oberfläche zu bearbeiten, wird üblicherweise Coverage Path Planning Problem (CPP) genannt. Die Lösung für dieses Problem ist ein Pfad, so dass jeder Punkt auf der Oberfläche vom Footprint eines Werkzeugs abgedeckt wird. Optimierungsziele für CPP in der Robotik sind vor allem die Länge des Werkzeugweges, die Fertigstellungszeit sowie die Länge des Weges im Gelenkraum des Roboters.
Die Komplexität des CPP Problems steigt extrem, wenn die zu überdeckenden Bereiche nicht miteinander verbunden sind. Zum Beispiel beim Lackieren einer Oberfläche, ist es üblich, dass größere Objekte von mehreren Seiten gesprüht werden müssen, während andere Teile der Oberfläche gar nicht bearbeitet werden. Aus algorithmischer Sicht ist das Ziel jedoch nicht die Bearbeitungszeit für jeden einzelnen Bereich, sondern für die gesamte Fläche zu minimieren. Außerdem enthalten viele Anwendungen eine Menge (oft implizit definierter) Freiheitsgrade (z. B. mehrere Lösungen der inversen Kinematik, Symmetrien des Werkzeugs etc.). Diese Freiheitsgrade bieten ein enormes Optimierungspotenzial, machen aber das Finden von optimalen Lösungen noch schwieriger.
Im Gegensatz zum klassischen CPP wurde die Multi-Area CPP Problem mit einem Robotermanipulator nicht genügend untersucht. Die meisten verwandten Ansätze konzentrieren sich entweder auf die Abdeckung von Pfaden für die gegebenen Gebiete oder auf das Verbinden von Pfaden zwischen ihnen. Darüber hinaus berücksichtigen die meisten State-of-the-Art-Ansätze keine Wiederverwendung von existierenden Teillösungen oder nutzen die vorhandenen Freiheitsgrade, welche großes Optimierungspotential enthalten, nicht aus.
Ziel dieses Vorhabens ist es, effiziente Algorithmen zur automatischen und optimierten Lösung eines Multi-Area CPP Problems zu entwickeln. Das Kernidee ist es, zwei Ansätze zu kombinieren: (1) eine Anpassung von Techniken für optimale Abarbeitung von Aufgabensequenzen (wobei die Freiheit der Ausführungsreihenfolge ausgenutzt werden kann) auf das Multi-Area CPP Problem sowie (2) Verwenden von zuvor berechneten Teillösungen für dieses Problem. Solche Kombination würde zur zeiteffizienten Pfadberechnung führen sowie eine optimierte Neu- bzw. Umplanung ermöglichen.
Forschungscampus STIMULATE: Forschungsgruppe Robotik
Laufzeit: 01.01.2015 bis 31.12.2019
Für eine Thermoablation von Wirbelsäulentumoren sollen im Rahmen des Projektes die neuen Methoden entwickelt werden, welche deutlich über den heutigen Stand der rein telemanipulierenden OP-Roboter hinausgehen. Ein zentrales Ziel des Projektes ist die Entwicklung eines Regelungs- und Bahnplanungsalgorithmus für die optimale Positionierung eines Ablationselektroden durch einen Roboter in einer autonomen Intervention an der Wirbelsäule. Die klinischen und technischen Anforderungen werden in der engen Abstimmung mit den Projektpartnern aus der Forschung und Industrie definiert. Die Ansätze zur optimalen Bahnplanung für einen Roboter werden in einer kliniknahen Laborumgebung entwickelt und untersucht. Die wesentliche Herausforderung besteht in der Kompensation und Minimierung der möglichen systematischen und nicht-systematischen Fehler. Vor allem führen die häufig auftretenden Fehler, wie z.B. bei der Registrierung des Roboters relativ zum Patienten und zu den bildgebenden Geräten (Angoigraphiegerät und eine externe Navigationssystem) oder durch die Nachgiebigkeit der Ablationelektroden und die Atmung des Patienten, zu einer hohen Ungenauigkeit in der Elektrodenplatzierung, welche reduziert werden soll. Damit wird im Rahmen des Projektes ein Konzept zur Online-Kompensation der möglichen Modellierungs- und Positionierungsfehler erarbeitet, um während einer Intervention auf die möglichen Störungen zu reagieren. Im Ergebnis wird dadurch eine höhere Genauigkeit der Ablationsdosierung, geringere Behandlungsdauer und reduzierte Röntgendosis für das behandelnde Personal als auch für die Patienten ermöglicht.
A state-based model for fetal distress estimation during labor through a progressive analysis of the cardiotocographic recording
Laufzeit: 01.01.2015 bis 30.09.2019
During laboratory, the fetal welfare assessment (CTG), which provides continuous information on fetal heart rate (FHR) in relation to uterine contractions (UC) signals. This information helps clinicians to observe how the fetus reacts to stress and thus indicate timely intervention. CTG patterns, whose properties are defined in guidelines for CTG fetal monitoring. However, CTG interpretation is difficult since it involves the human visualization of highly complex signals. In consequence, the interpretation of CTG has been shown to suffer from widespread intra- and inter-observer disagreement, leading to a poor interpretation of reproducibility.
Nowadays, in order to reduce the intra -and inter-observer disagreements and improve the CTG interpretation, much effort has been made on improving the clinical guidelines for CTG interpretation and on providing support to clinicians using expert systems and advanced signal processing algorithms. However, these efforts do not show clear evidence on improving the estimation of fetal acidemia.
In this context, we propose to develop a welfare state model for fetal condition estimation during labor and delivery based on the observations of FHR and UC signals. The main idea is to design a state model of clinical guidelines. This model will allow to connect proposed CTG guidelines with FHR signal features by using standard and advanced signal processing and classification techniques.
Validierung des Innovationspotentials modellbasierter Techniken für den Sicherheitsanalyseprozess (VIP-MoBaSA)
Laufzeit: 01.11.2012 bis 30.09.2016
In den letzten 30 Jahren hat die technologische Revolution der Computersysteme in praktisch allen technischen Domänen eine ganze Klasse neuer, innovativer Systeme und Anwendungen ermöglicht. Dies reicht von hochspezialisierter Technologie im Luft- und Raumfahrtsektor, über nicht direkt sichtbare Technologie im Bereich der Energieerzeugung und -verteilung bis hin zu Technologien in Transportsystemen wie beispielsweise Bahn oder Individualverkehr.
Der Preis für diese neuen Technologien ist eine stark erhöhte Systemkomplexität, die wesentlich dadurch bestimmt wird, dass korrektes und sicheres Funktionieren nur durch ein sehr gut abgestimmtes Wechselspiel zwischen Steuersoftware und kontrollierter Aktorik zu Stande kommt. Es ist traditionell Aufgabe der Sicherheitsanalyse, durch geeignete Betrachtungen vor Inbetriebnahme neuer Systeme den Nachweis zu erbringen, dass ein sicherer Betrieb gewährleistet werden kann bzw. potentielle Schwachstellen identifiziert und korrigiert wurden. Die dazu in der Industrie und Zertifizierung eingesetzten Methoden beruhen fast ausschließlich auf Verfahren aus den 60er und 70er Jahren, welche für die Analyse hauptsächlich mechanischer Systeme entwickelt wurden. Dass dies für moderne, softwareintensive Systeme nicht mehr ausreichend ist, demonstriert leider eine steigende Anzahl schwerer Unfälle in den letzten Jahren.
Der Antragsteller konnte innerhalb der letzten 8 Jahre eine ganze Reihe neuer und im internationalen Vergleich sehr effizienter Verfahren zur modellbasierten, computergestützten Sicherheitsanalyse erfolgreich entwickeln. Es konnte bereits gezeigt werden, dass diese Verfahren wesentlich präzisere und aussagekräftigere Resultate als die traditionellen Techniken liefern können. Zusätzlich erlauben diese Verfahren bereits in frühen Entwurfsphasen automatisiert qualitative und quantitative Abschätzungen über die Zuverlässigkeit und Ausfallwahrscheinlichkeit des Systems zu berechnen. Frühe Abschätzungen der Zuverlässigkeit sind entscheidend für den Entwurfsprozess. Denn nur so ist es möglich, das Systemdesign bereits frühzeitig - und damit auch kosteneffizient - anzupassen. Gleichzeitig wird der Aufwand zur endgültigen, sicherheitstechnischen Bewertung als Teil des Zertifizierungs- und Zulassungsprozesses signifikant gesenkt.
Durch Verfügbarmachen neuer, automatisierter Methoden zur Zuverlässigkeitsbewertung kann eine Sprunginnovation erreicht werden, die dazu führt dass domänenübergreifend Entwicklungszeiten kritischer Systeme gesenkt und hoch-präzise, a-priori Sicherheitsanalysen kosteneffizient möglich werden. Dadurch werden sowohl die Entwicklungskosten reduziert, als auch der durch Unfälle und Fehleinschätzungen zu erwartende Schaden neuer Systeme drastisch gesenkt. In einer Reihe von Vorträgen und informellen Vorabgesprächen mit Industrievertretern wurde dies immer wieder bestätigt. Leider sind bis heute diese modernen Verfahren außerhalb der akademischen Gemeinde praktisch nicht in Verwendung.
Knowledge 4.0
Laufzeit: 22.09.2014 bis 30.09.2015
Projektziele sind die Entwicklung eines Konzepts für ein überregional sichtbares Kompetenzzentrum im Bereich der Aus- und Weiterbildung zum Themenfeld Industrie 4.0 (Knowledge 4.0) sowie die pilothafte Erprobung zentraler Elemente dieses Konzepts.
Das Projekt vereint Kompetenzträger aus Universitäten, Fachhochschulen und angewandter Forschung zu einem Netzwerk, welches am industriellen Bedarf orientierte Lehr- und Ausbildungskonzepte entwickelt. Dabei werden alle Qualifikationsniveaus von zunächst spezialisierten Blockkursen über berufsbegleitende Studien bis hin zur Promotion adressiert.
Dazu sollen zunächst die relevanten Industrie 4.0 Software-Systeme für akademische Partner deutschlandweit und international als Dienstleistung bereitgestellt werden, um im Anschluss Schulungen für Anwender dieser Software zu ermöglichen. Schließlich erfolgt die Erstellung spezisalisierter Lerninhalte auf den verschiedenen Qualifikationsniveaus sowie deren Profilierung auf die identifizierten Leitmärkte Automobil, Maschinen- und Anlagenbau, Elektrogerätebau und Energietechnik.
Im Anschluss an das Projekt wurde das Zentrum für Weiterbildung cedemo initiiert (http://www.metop.de/cedemo/index.php?id=3).
ProMoSA - Probabilistic Model for Safety Analysis
Laufzeit: 01.04.2011 bis 28.02.2015
Durch die immer weiter steigende Komplexität und die gleichzeitig wachsende Verwendung von softwareintensiven Systemen in potentiell sicherheitskritischen Systemen, werden aussagekräftige Sicherheitsanalysemethoden immer wichtiger.
Ziel dieses Projektes ist es das Zusammenspiel von Mensch und Technik so, zu gestalten dass kein Schaden an Mensch (und Umwelt) entsteht. Technologische Grundlage bilden analytische Verfahren, die bei der Konstruktion der die Technik steuernden Software angewendet werden. Dabei sind (stochastische) Modelle des menschlichen Verhaltens (z.B. wie/wann ignoriert ein Autofahrer Warnhinweise) und der Umgebung (z.B. Verhaltensdynamik der Fahrzeuge) Grundlage, um eine Softwaresteuerung zu bewerten. Darauf aufbauend ist es dann sogar möglich verbesserte/optimale Steuerungsvarianten abzuleiten. Die größte Forschungsherausforderung besteht (a) in der adäquaten Modellierung und (b) der effizienten, automatischen Analysierbarkeit.
Die Kernidee modellbasierter Sicherheitsanalyseverfahren ist durch die (formale) Analyse der Systemmodelle im Kontext ihrer Umgebung und Nutzer können systeminhärente Sicherheitseigenschaften äußerst präzise abzuleiten. Durch neueste Entwicklungen auf dem Gebiet der Informatik ist es möglich, neben rein qualitativen Zusammenhängen auch quantitative Aussagen über die Wahrscheinlichkeit von Systemausfällen modellbasiert mittels formalen Analysen abzuleiten. Technologisch beruhen die im Projekt untersuchten Ansätze auf stochastischen Modellen (hier Markoventscheidungsprozesse), Verifikationsverfahren (hier stochastisches und probabilistisches model checking) und intelligenten, mulikriteriellen Optimierungsverfahren (hier genetische Algorithmen mit Schätzfunktionen).
Optimierte Bahnplanung für robotergestütze Angiographieanlagen (Teilprojekt STIMULATE: Bildgebung, OvGU)
Laufzeit: 01.03.2013 bis 28.02.2014
Der STIMULATE-Forschungscampus verfolgt das Ziel der Entwicklung und Dissemination innovativer Medizinprodukte für spezifische Beeinträchtigungen und Krankheiten im Alter, indem gestützt durch multimodale Bildgebung Technologien für minimal-invasive Verfahren entwickelt bzw. verbessert werden, um auf der Basis optimierter Diagnoseansätze die genannten Krankheiten lokal mit minimaler Invasivität und individuell angepasst zu therapieren.
Im Projekt Bildgebung werden Möglichkeiten zur weiteren Verbesserung der Bildgebungsmodalitäten für den Einsatz zur Planung und Durchführung von bildgestützten Eingriffen evaluiert. Hierbei werden innovative Ansätze für die Darstellung mittels 3D-roboterbasierter Angiographie und der Kernspintomographie, neuartige Photonendetektoren und intravaskuläre Bildgebung untersucht, um die Projekte für die Hauptphase zu definieren.
C-Arm-basierende Angiographiesysteme finden, forciert durch technische Entwicklungen, auch abseits von herkömmlichen angiographischen Untersuchungen in anderen Bereichen des klinischen Alltags Einsatz. Angiographiesysteme stellen im zweidimensionalen Röntgen den Goldstandard dar;
dennoch ist die 3D Bildgebung mit dem C-Arm aufgrund technischer Unzulänglichkeiten noch nicht vollständig etabliert. Im Vergleich zur herkömmlichen Computertomographie sind C-Arm CT Systeme deutlich langsamer und bringen auch gewisse Einschränkungen hinsichtlich der Bildqualität und der Handhabbarkeit mit sich.
Zur Verbesserung der Bildqualität bieten auch die bei der Angiographieanlage eingesetzten Robotersysteme Verbesserungspotential. Eine optimierte Bahnplanung kann dafür genutzt werden die Bildqualität bei der dreidimensionalen Bildgebung zu erhöhen und die dafür nötige Strahlendosis für den Patienten zu reduzieren.
ottomotion - a cyber-phyiscal network for sports
Laufzeit: 01.11.2011 bis 31.10.2013
New IT technology allows for new methods of planning urban development. otto-motion focuses on urban planning and development of sporting activities. In this projects researchers and experts from sports, data mining and systems engineering together develop tools and methods for increasing sportive activities among the citizens of Magdeburg. One focus will be mobile information technology. The core idea is to bring together motivating factors well-known from social networks with real sport activities. The underlying technologies include Web 2.0 methods and mobile (smartphone-based) assistants. These can for example help predicting when and where to meet friends at any sport activity. In parallel modern data mining and knowledge engineering methods will be used, to find out where to build which type of sport facilities.
ViERforES II - TP 2: Entwurf hochzuverlässiger Logistiksysteme
Laufzeit: 01.11.2011 bis 30.09.2013
Kontinuierliche Überwachung von Gütern innerhalb der gesamten, logistischen Kette ist eine immer stärker nachgefragte Eigenschaft. Um dies zu erreichen, müssen die Güter kontinuierlich über geeignete Sensorsysteme überwacht werden. Gleichzeitig werden hohe Ansprüche an die Zuverlässigkeit dieser Systeme gestellt (da sie beispielsweise auch die Basis zur Identifikation potentieller Schäden oder Fehler bei Transport, Lagerung und Zugriff bilden). Dementsprechend wird der Bedarf an verifizierbaren und validierbaren Sensorsystemen im Umfeld großer, internationaler Logistikknoten weiter wachsen. Als Konsequenz ergibt sich ein großes Marktpotential für geeignete Planungs- und Evaluierungsanwendungen.In diesem Projekt werden neue Planungs- und Evaluierungsmethoden, um aus der Kenntnis des geplanten logistischen Szenarios inklusive der Umgebungssituation eine virtuelle, zeitabhängige Szene zu erstellen, die eine zuverlässige und nachvollziehbare Einschätzung der Wirkungsweise des zu untersuchenden Sensorsystems vor der eigentlichen Inbetriebnahme erlaubt. Dabei müssen nicht nur ideal, kooperative Situationen betrachtet werden, sondern auch Situationen mit Komponentenausfällen oder ungünstigen Umgebungsbedingungen & Zielstellung ist das Sensorsystem bei virtuellen generierten Szenen so zu qualifizieren, dass ähnliche Ergebnisse wie beim realen System entstehen.
ViERforES II - TP6: Virtual reality in model-based Safety Analysis
Laufzeit: 01.01.2011 bis 30.09.2013
Die steigende Komplexität moderner, software-intensiver Systeme bringt traditionale Analyse- und Bewertungsverfahren an Ihre Grenzen. In modernen Automobilen entstehen inzwischen wesentliche Innovationen durch komplexe Softwarekomponenten. Dadurch ergeben sich aber vollkommen neue Anforderungen in Hinblick auf Zuverlässigkeit und Vertrauenswürdigkeit. Diese Eigenschaften definieren sich nur durch die geschickte Zusammenarbeit von Technik, Softwarekontrolle und "unterstütztem" Fahrer.
In diesem Projekt wird untersucht wie Simulationen und virtuelle Realitäten in diesem Bereich helfen können. Grundidee ist es das zu untersuchende System samt Akteuren und (Arbeits-)Umgebung in einer virtuellen Realität abzubilden. Diese Simulation kann dann sowohl bei der Identifikation von Gefährdungen, der Durchführung traditioneller Analysetechniken als auch zur besseren Nachvollziehbarkeit formaler, modell-basierter Ansätze oder der Planung der Zusammenarbeit von Mensch, Technik und Software helfen. Die im Projekt entwickelten Methoden werden direkt an den Simulatoren und Demonstratoren der Anwendungsbereiche von ViERforES erprobt.
Trajectory Description Language
Laufzeit: 01.07.2011 bis 30.06.2013
This project is about programming industrial robots. Today, industrial robots are almost exclusively used in large batch series production. Small and medium enterprises hardly use robots, because programming the robots is very time-consuming and expensive. The cost for programming an industrial robot can easily outweigh the costs for the hardware. The aim of this project is to fundamentally change the way industrial robots are programmed. This will be done by introducing a completely new programming paradigm for industrial robots. Instead of programming robots traditionally in terms of (imperative) commands, users/programmers will only specify how movements should look like (i.e. what they expect from a movement). For instance, users will no longer be forced to describe motions explicitly but rather only formulate requirements an intended movement must fulfill. The robot will then find a fitting trajectory on its own. As a consequence, development of applications with industrial robotics will change completely. It will (1) increase the efficiency of the development of new high-level applications, allow for (2) very intuitive and user-friendly programming interfaces and (3) provide a standardized way of multi-robot programming. Furthermore, it will help (4) abstracting from vendor specific hardware, promote a unifying programming interface and thus open the path to re-usable third party software for many applications. This can speed up innovation cycles exponentially (maybe comparable to innovations in business IT after the introduction of standard operating systems and database access languages). The core idea is to develop a declarative programming language for the specification of robotic movements. Starting from arbitrary movements, users restrict these by formulating spatial, temporal and/or minimization constraints. The software control will then automatically calculate fitting solutions which the robots will then execute. This shifts a lot of responsibility from users/programmers to the software-infrastructure. The underlying mathematica lidea is, that any robot command can be understood as a mapping from time to nominal values for all actuators. The problem of finding solutions which adhere to a number of constraints is then reduced to finding a mathematical function which fulfills a number of restrictions.
ViERforES - TP2 - Logistik / Teilbereich Informatik
Laufzeit: 01.09.2009 bis 31.12.2010
Ziel dieses Teilprojekts ist es zuverlässige eingebettete Systeme für den Logistikeinsatz unter Verwendung virtueller Realitäten und modell-basierter Ansätze zu entwickeln. Als Anwendungszenario dient dabei eine Logistikumschlagplatz eines Flughafens der nächsten Generation. Dabei sollen die Prozesse und Abläufe dort durch intelligente Sensorik, bessere Planung und Algorithmik sowie unterstützende Aktuatorik wesentlich effizienter und zuverlässiger werden.