Konferenzprogramm

Hier findet ihr das vergangene Programm des GTD 2025!

Wenn Performancetest-Tools unter ihrer eigenen Last zusammenbrechen

In einem groß angelegten Projekt im öffentlichen Dienst sollten bis zu 10 Millionen HTTP-Requests pro Minute simuliert werden. Dabei kam eine verteilte Lasttest-Architektur auf Basis von Apache JMeter und einer cloud-gestützten Lösung zum Einsatz, die jedoch schnell an ihre Grenzen stieß. Hohe Netzwerklast, immense RAM-Nutzung und lange Berichtgenerierungszeiten machten die Performancetests extrem herausfordernd. Der Vortrag beleuchtet die technischen Engpässe und erklärt, wie die zunehmende Skalierung von Services in der Cloud die Performanzmessung erschwert. Zudem werden Lösungsansätze für zukünftige Tests dieser Größenordnung vorgestellt.

Zielpublikum: Tester und Entwickler, die sich für Performance von verteilten Systemen interessieren
Voraussetzungen: Grundlegendes Verständnis von Performancetesting ist gut, aber nicht notwendig.
Level: Basic

Extended Abstract:
Im Rahmen eines groß angelegten Projekts im öffentlichen Dienst bestand die Aufgabe darin, eine Simulation von bis zu 10 Millionen HTTP-Requests pro Minute zu realisieren. Zur Bewältigung der enormen Last wurde eine verteilte Lasttest-Architektur eingesetzt, die auf Apache JMeter und einer eigenen, cloud-gestützten Lösung basiert. Es zeigte sich jedoch, dass selbst das Master-Slave-Prinzip von JMeter an seine Grenzen stößt und sich letztlich selbst behindert. In diesem Vortrag werden die technischen Herausforderungen und Engpässe erörtert, die während der Tests aufgetreten sind. Obgleich eine verteilte Architektur zum Einsatz kam, manifestierten sich Schwierigkeiten wie eine immense interne Netzwerklast, extrem hohe RAM-Nutzung sowie sehr lange Generierungszeiten von Berichten. Unser Monitoring war lediglich in der Lage, Daten für wenige Minuten anzuzeigen, und auch unsere Datenbank für Messdaten war mit der Datenmenge überfordert. Angesichts zunehmender Migration von Services in Cloud-Umgebungen wie AWS und Azure und deren Skalierung ins Unermessliche, wird die Performanzmessung dieser Services immer problematischer. Zur Diskussion stehen unsere Erkenntnisse zu den Grenzen von Tools für Performancetests wie JMeter sowie kurz- und langfristige Lösungsansätze und Optimierungen für zukünftige Performancetests dieses Ausmaßes.

Als erfahrener DevOps- und Platform Engineer entwickle ich skalierbare, cloudbasierte Infrastrukturen mit Fokus auf Testautomatisierung, Performance Testing und CI/CD. Durch den Einsatz von Cloud-Technologien schaffe ich flexible, kosteneffiziente Lösungen, die Entwicklungsprozesse beschleunigen. Zertifiziert in AWS, Jenkins und agilen Methodiken, bringe ich fundiertes Wissen in Cloud Computing, Continuous Integration und Testing mit, um robuste Plattformen zu realisieren.

Matthias Eggert
16:45 - 17:20
Vortrag: Di 2.2

Vortrag Teilen