Sequentielles Entscheiden bei systeminhärenter Unsicherheit: Mathematische Optimierungsverfahren für zeitdynamische Anwendungen

Projektbeschreibung

In der mathematischen Optimierung wird meist angenommen, dass die Daten eines Problems vollständig bekannt sind. In der Praxis trifft dies aber oft nicht zu, da Daten im Zeitverlauf bekannt werden und wiederholtes Entscheiden unter Unsicherheit erfordern. Anwendungen für zeitdynamische Optimierungsprobleme finden sich auf verschiedenen Ebenen: Beispielsweise werden in der strategischen Supply Chain Planung Daten quartalsweise bekannt, während bei der operativen Maschinensteuerung minütlich neue Aufträge einbezogen werden müssen. Vereinendes Element sind Unsicherheiten im Zeitverlauf. Hierzu existiert kein systematischer, anwendungsübergreifender Ansatz.In der Forschung werden problemabhängig verschiedene Methoden genutzt: In der Online-Optimierung hat man keinerlei Zukunftskenntnis und entscheidet so, dass man selbst im schlechtesten Fall nicht zu weit von einer rückblickend optimalen Lösung entfernt ist. In der stochastischen Programmierung liegen Zukunftsszenarien samt Eintrittswahrscheinlichkeiten vor und man entscheidet im Sinne des erwarteten Ergebnisses. In der robusten Optimierung wird für alle Szenarien Zulässigkeit garantiert, weshalb die Freiheitsgrade für die Optimierung eingeschränkt sind. Das Hauptdefizit aktueller Forschung liegt im uneinheitlichen Umgang mit den Faktoren Zeit und Unsicherheit. Die Online-Optimierung leidet unter der Worst-Case-Orientierung, Ergebnisse der stochastischen Programmierung beruhen auf möglicherweise ungesicherten stochastischen Annahmen, die robuste Optimierung ist nicht auf Mehrstufigkeit ausgelegt. Erweiterungen, wie die Untersuchung des Werts zukünftiger Daten, stehen erst am Beginn ihrer Entwicklung. Flexible Implementierungen in Planungs- und Steuerungstools des Supply Chain Management existieren nicht.Unser Ziel besteht daher in der Zusammenführung der verschiedenen Ansätze zum Umgang mit Unsicherheit in einem gemeinsamen Framework, das eine kontextabhängige Auswahl einer passenden Lösungsmethodik (Algorithmus aus der Online-Optimierung, stochastischen Programmierung oder robusten Optimierung) ermöglicht. Hierzu werden verteilungsbasierte Analysemethoden benötigt, um die Qualität von Algorithmen und den Wert von Daten einordnen und vergleichen zu können. Mit Sensitivitätsanalysen soll zudem beantwortet werden, wie sich die verschiedenen Verfahren unter variablen Randbedingungen verhalten. In Anwendungen aus Produktion und Logistik wird schließlich die Einsatzfähigkeit der Verfahren in der Praxis geklärt. Daneben wird angestrebt, Planungs- und Steuerungstools zu einer adaptiven Entscheidungslogik hinzuführen. Die in der Praxis zunehmend verfügbaren Datenmengen, z.B. aus GPS- oder RFID-Chips, verdeutlichen, dass ein umfassendes methodisches Verständnis benötigt wird, um Aussagen über den Wert von Daten machen und passende Optimierungsverfahren einsetzen zu können. Dies wird durch Industrieinitiativen, wie Industrie 4.0 hierzulande oder Industrial Internet in den USA, bestätigt.