TL;DR: Ein Software-Unternehmer mit komplexer Fachanwendung ließ nach jedem Release bis zu drei Tester die Anwendung manuell durchklicken. Durch den Umstieg auf automatisiertes Testing wurden zwei dieser drei Positionen eingespart — bei gleichzeitig besserer Software-Qualität. Der Hebel lag darin, manuelles Testing als Konzept zu hinterfragen statt es nur zu beschleunigen.

Drei Leute klicken nach jedem Release die Anwendung durch

Freitagnachmittag, Release-Tag. Drei Tester sitzen vor der Anwendung — einer Software für Notfallplanung und Krisenmanagement — und klicken sich durch Szenarien. Jedes Formular, jeder Workflow, jeder Sonderfall. Manuell. Seit Jahren. Das Release geht erst raus, wenn alle drei fertig sind. Trotzdem rutschen Fehler durch. Der Inhaber sieht Qualitätsprobleme und langsame Auslieferung — und hält beides für ein Kapazitätsproblem.

Wie ein Entwickler das manuelle Testing überflüssig machte

Der Inhaber kam im Rahmen eines Coachings bei anne&thorsten. auf die Frage, wo in seiner Wertschöpfungskette der eigentliche Engpass steckt. Die Antwort war unbequem: Egal wie schnell sein Entwicklerteam Features baute, am Ende wartete alles auf den manuellen Testdurchlauf. Die Tester waren der Engpass. Mehr Tester hätten das Problem nur skaliert, weil manuelles Testen bei einer komplexen Anwendung mit jedem Feature langsamer und fehleranfälliger wird.

Sein Schritt: Er setzte einen Entwickler aus dem eigenen Team gezielt darauf an, Acceptance-Tests — also genau die Tests, die vorher ein Mensch durch Durchklicken der Anwendung erledigte mit Hilfe einer KI-Lösung zu automatisieren. Schritt für Schritt, neben dem laufenden Tagesgeschäft. Das Ergebnis nach dem Aufbau: zwei von drei Testpositionen eingespart, die Qualität der Software wurde besser statt schlechter.

Warum schnelleres Klicken nie die Lösung war

Der Reflex bei Qualitätsproblemen ist: mehr testen, genauer hinschauen, zusätzliche Tester einstellen. Beim automatisierten Testing passiert etwas anderes. Die Frage verschiebt sich von „Wer prüft das?" zu „Was genau muss geprüft werden — und wie lässt sich das codieren?"

Hier liegt der eigentliche Mechanismus. Manuelles Testen skaliert negativ: Je komplexer die Anwendung, desto länger dauert jeder Testdurchlauf, desto mehr Szenarien werden unter Zeitdruck übersprungen, desto mehr Fehler bleiben unentdeckt. Drei Tester prüfen eine Anwendung mit hunderten Workflows — und jeder von ihnen trifft bei jedem Klick eine subjektive Entscheidung, ob das Ergebnis korrekt aussieht. Das ist fehleranfällig, auch wenn die Tester gut sind.

Test Automation dreht diese Dynamik um. Die Automatisierung prüft dieselben Szenarien jedes Mal identisch, in einem Bruchteil der Zeit. Und bei wachsender Anwendung wächst die Testsuite mit, statt dass Menschen unter der Last zusammenbrechen.

Der Inhaber sparte mit diesem Schritt zwei Testpositionen ein. Das sind Personalkosten, die direkt das Ergebnis verbessern. Gleichzeitig sank die Fehlerquote, weil die automatisierten Tests keine Szenarien auslassen, wenn es Freitagnachmittag wird.

Der zweite Effekt war überraschend: Das Vertrauen in Automatisierung wuchs so weit, dass das Team begann, KI auch in der Entwicklung selbst einzusetzen. Erst im Frontend, dann im Backend — Bereiche, die vorher tabu waren. Der Inhaber beschrieb es so: Dass jemand mit KI ans Backend geht, war vorher undenkbar. Das wurde möglich, weil der Testautomatisierungs-Erfolg dem Team gezeigt hatte, dass KI-Ergebnisse überprüfbar und verlässlich sein können.

Dein Selbst-Check: Wo testen bei Dir noch Menschen, was Maschinen besser können?

Zähl die Stunden, die Dein Team pro Release-Zyklus mit manuellem Testen verbringt. Wenn diese Zahl über die letzten zwölf Monate gestiegen ist, hast Du ein Skalierungsproblem, das mit zusätzlichen Testern nur teurer wird. Der Hebel beim Software Testing automatisieren liegt darin, die am häufigsten wiederholten Prüfschritte zuerst zu automatisieren — und einen Entwickler darauf anzusetzen, der den fachlichen Kontext kennt.

Weiterlesen

Wenn Du schauen willst, wo bei Dir gerade der größte Hebel liegt — wir machen das in 60 Minuten, kostenlos.

Engpass-Diagnose buchen

Lieber erstmal selbst durcharbeiten? Der 12-Wochen-Kurs hat die komplette Methode als Online-Modul. Einmalzahlung 199 €, dauerhaft verfügbar.

Zum 12-Wochen-Kurs

Häufige Fragen

Wie lange dauert es, bis KI-automatisiertes Testing produktiv läuft?

Das hängt von der Komplexität der Anwendung ab. In dem beschriebenen Fall lief der Aufbau neben dem Tagesgeschäft über mehrere Monate. Der erste spürbare Effekt — weniger manuelle Testzyklen pro Release — kam deutlich vor dem vollständigen Umbau. Starte mit den Szenarien, die am häufigsten manuell wiederholt werden.

Verliere ich durch automatisiertes Testing die Fähigkeit, unerwartete Fehler zu finden?

Manuelles exploratives Testen — also das bewusste Suchen nach unerwarteten Fehlern — bleibt sinnvoll und lässt sich mit einer Person abdecken. Der Unterschied: Diese Person sucht gezielt nach neuen Fehlern, statt zum hundertsten Mal denselben Standardworkflow durchzuklicken. Die Routine-Regression übernimmt die Automatisierung.

Was mache ich mit den Testern, die durch die Automatisierung frei werden?

Im beschriebenen Fall wurden zwei Positionen abgebaut. Die Alternative: Tester mit Fachwissen eignen sich gut als QA-Engineers, die Testfälle für die Automatisierung definieren, statt sie manuell auszuführen. Die Entscheidung hängt davon ab, ob Dein Team an anderer Stelle Engpässe hat, die mit diesem Know-how lösbar sind.