Methoden der quantitativen stochastischen Experimentdurchführung mit Peer-to-Peer-Systemmodellen und -Systemen
Zusammenfassung der Projektergebnisse
Im Rahmen des Vorhabens konnte gezeigt werden, dass Methoden der quantitativen stochastischen Simulation auch in Verbindung mit großen Peer-to-Peer-Systemmodellen angewandt werden können. Dazu wurde der ursprünglich sequentielle Peer-to-Peer- Systemsimulator PeerSE zu einem verteilten Simulator weiterentwickelt, um eine Simulation von Peer-to-Peer-Systemen mit Millionen von Peers zu unterstützen, die auf einzelnen Rechnern aufgrund von Speichergrenzen nicht mehr simuliert werden können. In Verbindung mit dem an der Universität Canterbury entwickelten Simulationscontroller Akaroa2 wurden verteilte Simulationen von Peer-to-Peer-Systemen automatisiert wiederholt und ausgewertet, bis die Qualität der Simulationsexperimente einer vorgegebenen Genauigkeit entsprachen. Darüber hinaus konnte gezeigt werden, dass die Konzepte der quantitativen stochastischen Simulation auch auf die Durchführung von Laborexperimenten übertragen werden können. Das Modell einer Peer-to-Peer-Applikation wurde dazu derart erweitert, dass es - von einem Nutzermodell gesteuert - über ein reales Netzwerk in realer Zeit kommunizieren kann. Zahlreiche Replikationen eines Laborexperiments wurden durch Akaroa2 automatisiert gestartet und ausgewertet, bis die Genauigkeit des Experimentergebnisses den vorgegebenen Genauigkeitsparametern entsprach. Die entwickelte Softwarearchitektur wurde derart generalisiert, dass sie für die Weiterentwicklung bestehender Simulatoren und Simulationscontroller wiederverwendet werden kann, um quantitative stochastische Experimente selbst komplexer Modelle zu ermöglichen. Dabei ist der Einsatzbereich nicht auf Peer-to-Peer-Systeme begrenzt. Die verteilte Simulation großer Peer-to-Peer-Systeme stellt nach wie vor eine Herausforderung dar, die in mehreren Bereichen an ihre Grenzen stößt. Die Performanz einer verteilten Simulation mittels PeerSE ist gegenüber einer sequentiellen Simulation grundsätzlich geringer gewesen, was durch die vergleichsweise langsame Netzwerkkommunikation zwischen den beteiligten Rechnern begründet werden kann. Eine Performanzsteigerung konnte durch den Einsatz weiterer Rechner erreicht werden, stößt jedoch durch die begrenzte Anzahl der möglichen parallel ausführbaren Ereignisse bei dem verwendeten konservativen Synchronisationsverfahren früher oder später an ihre Grenzen. Die eingesetzten Methoden zur zentralen Generierung von Initialisierungsdaten (z.B. Hashtabellen, Netzwerkadressen, Nutzerverhalten etc.) für Peer-to-Peer- Systemmodelle mit Millionen von Peers benötigen viel Speicherplatz und sind zeitintensiv. Eine verteilte Generierung ist denkbar, kann jedoch einen hohen Kommunikations- Overhead erfordern, wenn bspw. die für die Initialisierung von Hashtabellen erforderlichen Daten nicht zentral vorliegen. Die Generierung und Übertragung umfangreicher Modellinitialisierungsdaten kann zudem mehr Zeit beanspruchen als die eigentliche Simulation (die Ausführung von Ereignissen). Letztendlich haben die umfangreichen Arbeiten dieses Vorhabens zahlreiche weitere Fragestellungen aufgeworfen, die einer weiteren detaillierten Analyse bedürfen.