Web service based framework for the coupling of simulation models in heterogeneous environments

Widemann, Marc

Analytische Simulationen werden verwendet, um das Systemverhalten quantitativ zu analysieren und sind in der Regel so ausgelegt, dass sie so schnell wie möglich ausgeführt werden sollen. Die Hochleistungs-Computing-Forschungsgemeinschaft hat die Entwicklung von verteilten Simulationen von analytischen Anwendungen vorangetrieben, wobei die ersten Algorithmen für die Synchronisation von diskreten Ereignissimulationen in den späten 70er Jahren entworfen wurden. Die Praktikabilität dieser Technologie für reale Anwendungen wurde zuerst in der Modellierung von militärischen Gefechten [1] und kommerziellem Luftverkehr [2] gefunden. Die verteilte Simulation dreht sich um die Ausführung einer einzigen Simulation, die möglicherweise in mehrere Modelle aufgeteilt ist, die auf mehreren Prozessoren laufen oder sich an verschiedenen geografischen Standorten befinden. Vor dem Hintergrund gemeinsamer Projekte haben geographisch verteilte Simulationen mehrere Vorteile. Der Arbeitsaufwand kann auf die Teilnehmer verteilt werden und ihr Systemwissen kann durch die Partitionierung der Simulation in mehrere Submodelle voll genutzt werden. Darüber hinaus werden einzelne Modelle wiederverwendbar und können in mehrere Simulationen integriert werden, um Portierungen oder Umgestaltung völlig zu vermeiden, was zu einem kostengünstigeren und weniger zeitintensiven Ansatz führt. Durch das rasante Wachstum des Luftverkehrssektors in Deutschland wurde das Exzellenzcluster Projekt „Effizienter Flughafen 2030“ vom Bundesministerium für Bildung und Forschung (BMBF) in Auftrag gegeben [3]. Ziel ist die Entwicklung neuer technologischer und logistischer Lösungen für Vorfeld- und Terminalprozesse am Hamburger Flughafen zur Vorbereitung der Zeithorizonte 2015 und 2030. Die Universität Hamburg und mehrere weitere Projektpartner analysieren den Fluss der Passagiere von der Haustür bis zum Flugzeug. Da die Partner geographisch getrennt sind, müssen die individuell entwickelten Modelle in eine Gesamtsimulation eingebunden werden. Die High Level Architecture (HLA) [4] ist der aktuelle de-facto Standard für die Realisierung von verteilten Simulationen. Als Plattform für Interoperabilität und Wiederverwendbarkeit ist es die Basis für ein breites Framework. Da keine Simulation die Bedürfnisse jedes Benutzers genügt und alle Kombinationen zwischen Simulationen einfach nicht alle vorhergesehen werden können, legt die HLA einen modularen Ansatz vor, der für jede Simulation eine gut definierte Schnittstelle erfordert, die den Austausch von Daten über ein Netzwerk ermöglicht [5]. Jedoch erfordert dies spezifische Middle-ware, die zu einer engen Auswahl von Hard- und Softwarekomponenten führt, da Commercial-Off-The-Shelf (COTS) Simulation Packages (CSP) nach wie vor ungern HLA aufgrund unzureichender Spezifikationen unterstützen. Die einzige Möglichkeit, dieser Inflexibilität zu begegnen, scheint eine fortgeschrittene Form des verteilten Rechnens wie das Grid-Computing zu sein [6]. Darüber hinaus zeigt die Arbeit von Strassburger, dass frühere Versuche, die Interoperabilität über ein breites Spektrum von Anwendungen in Systemen wie HLA durch zeitliche Kopplung und synchronisierten Zugriff auf ein globales Datenfeld zu erreichen, in der Regel zu komplexen Lösungen führen [7]. Der Ansatz von Wittmann et al. Zu diesem Problem ist pragmatischer [8]. Nach der Analyse des Projektkontextes wird deutlich, dass die relevanten Prozesse seriell angeordnet sind, sodass die einzelnen Modelle in einer Pipeline dargestellt werden können. Im Wesentlichen wird jedes Modell als ein Schritt in der Pipeline betrachtet, der als Lastmodell für den folgenden Schritt arbeitet. Da die Kopplung nur über die Ergebnisse der Modelle stattfindet und die Notwendigkeit eines globalen Datenfeldes eliminiert wird, erweist sich der Modellpipeline-Ansatz als wesentlich einfachere Lösung, die die Unabhängigkeit jedes Modells unterstützt. Um eine hohe Zugänglichkeit und Vermeidung von proprietären Protokollen zu gewährleisten, haben Wittmann et al. vorgeschlagen, eine serviceorientierte Architektur unter Verwendung von Modell-Servern zu implementieren, die über eXtensible Markup Language (XML) -Pipelines kommunizieren. Im Rahmen des Projekts "Effizienter Flughafen 2030" wurde der Modellpipelineansatz den vorgenannten Richtlinien entsprechend erstmals erfolgreich umgesetzt [9]. Die Simulationsmodelle jedes Projektpartners werden durch eine Web-Service Schnittstelle repräsentiert, der XML-Daten in Form von SOAP-Nachrichten (Simple Object Access Protocol) liest und schreibt. Diese Schnittstellen werden dann in einer Pipeline, die in der XML Pipeline Language (XPL) geschrieben ist, über die Orbeon Forms Plattform verbunden. Das erste Ziel dieser Dissertation ist es, die Auswirkungen dieser Technologie auf große gemeinschaftliche Bemühungen am Beispiel des Projekts "Effizienter Flughafen 2030" zu ermitteln. Anschließend soll die Idee verbessert werden, indem ein JAVA-Framework geschaffen wird, das echte Plug-and-Play-Fähigkeiten und eine benutzerfreundliche Interoperabilität bietet. Diese neuartige verteilte Simulationsumgebung soll dann gegen aktuelle Lösungen dieses Bereichs, nämlich HLA, analysiert werden, wobei sowohl Vorteile als auch Nachteile aufgezeigt und damit die jeweils geeigneten Anwendungsgebiete festgelegt werden.

Analytic simulations are used to quantitatively analyze system behaviors and are usually designed to run in as less time as possible. The high performance computing research community spearheaded the development of distributed simulation of analytic applications, with the first algorithms for the synchronization of discrete event simulations being designed in the late 1970's. The practicability of this technology to real world applications was first found in the modeling of military engagements [1] and commercial air traffic [2]. Distributed simulation revolves around the execution of a single simulation, possibly split up into several models on multiple processors or from different geographic locations. Against the background of joint projects, geographically distributed simulations have multiple advantages. The workload can be distributed amongst the participants and their system knowledge can be used to it's fullest through the partitioning of the simulation into several sub models. Additionally, individual models become reusable and may be integrated in multiple simulations, entirely avoiding porting or remodeling, resulting in a more cost effective and less time consuming approach. Due to the recent rapid growth of the air traffic sector in Germany, the “efficient airport 2030” cluster of excellence project was commissioned by the Federal Ministry of Education and Research (FMER) [3]. It's aim is to develop new technological and logistical solutions for apron and terminal processes at the Hamburg airport in preparation of the time horizons of 2015 and 2030. The University of Hamburg and several other project partners are to analyze the routing of passengers from their doorstep to the plane in particular. Since the partners are geographically separated, the individually developed models have to be connected into an overall simulation. The Department of Defense High Level Architecture (HLA) [4] is the current state of the art for distributed simulation. As a platform for interoperability and reusability , it's the base for a broad framework. Since no single simulation will suffice the needs of every user, and all combinations between simulations simply cannot all be anticipated, HLA stipulates a modular approach requiring a well defined interface for each simulation, allowing the exchange of data over a network [5]. However this requires specific middle ware resulting in a narrow choice of hard and software components as commercial-off-the-shelf (COTS) simulation package (CSP) vendors are still reluctant to support HLA due to insufficient specifications. The only way to counter this inflexibility seems to be an advanced form of distributed computing like grid computing [6]. Furthermore, Strassburger's work shows that previous attempts at achieving interoperability across a wide range of applications in systems such as HLA through temporal coupling and synchronized access to a global data field, generally leads to rather complex solutions [7]. The approach of Wittmann et al. to this problem is more pragmatic [8]. Having analyzed the project's context, it becomes clear that the processes of interest are arranged in a serial fashion, allowing the individual models depicting them to be ordered in a pipeline. Essentially, each model is considered to be a step in the pipeline, working as a load model for the following step. Since the coupling only takes place via the results of the models, eliminating the need for a global data field, the model pipeline approach turns out to be a significantly simpler solution, natively supporting the independence of each model. To ensure a high accessibility and avoid depending on proprietary protocols, Wittmann et al. are proposing to implement a service oriented architecture using model servers communicating over eXtensible Markup Language (XML) pipelines. In line with the “efficient airport 2030” cluster of excellence project, the model pipeline approach has been successfully implemented for the first time according to the aforementioned guidelines in [9]. The simulation models of each project partner are interfaced by a web service reading and writing XML data in form of Simple Object Access Protocol (SOAP) messages. Those interfaces are then connected in a pipeline written in the XML Pipeline Language (XPL) using the Orbeon Forms platform. The first goal of this doctoral thesis is to determine the impact of this technology on large collaborative efforts using the example of the “efficient airport 2030” project. Subsequently, the idea is to be improved upon, by creating a JAVA framework providing true plug-and-play capabilities and ease-of-use interoperability. This novel distributed simulation environment is then to be analyzed against current solutions of this field, namely HLA, pointing out advantages as well as drawbacks, consequently establishing the most suited areas of application.

Vorschau

Zitieren

Zitierform:

Widemann, Marc: Web service based framework for the coupling of simulation models in heterogeneous environments. Clausthal 2017.

Zugriffsstatistik

Gesamt:
Volltextzugriffe:
Metadatenansicht:
12 Monate:
Volltextzugriffe:
Metadatenansicht:

Grafik öffnen

Rechte

Nutzung und Vervielfältigung:
Alle Rechte vorbehalten

Export