Hallo und herzlich willkommen zu einer neuen Folge vom Podcast Software Testing. Ich bin euer Host Ritschi und habe heute wieder eine Folge vom QS-Tag 2024 für euch mitgebracht. Bei mir zu Gast war Thilo Linz, Klammer auf, schon lange überfällig, Klammer zu. Mit ihm habe ich über Trends in Testing gesprochen, der gleichnamigen Event-Serie, die er mit organisiert und natürlich besonders die Ergebnisse daraus. Wo wird sich das ganze Thema KI hin entwickeln? Was ist und passiert
mit Agilität? Und wie geht es mit Software Testing generell weiter? Das und mehr in der heutigen Folge. Und da interessiert mich natürlich auch, was siehst du als Trends der Zukunft? Wo meinst du, wird sich das Thema Software Qualität und Software Test hin entwickeln? Schreib dazu gerne in die Kommentare auf YouTube oder Social Media oder mir per E-Mail an podcast@software-testing.fm Ach ja, und wir haben wieder eine Verlosung und zwar gibt es Thilos Buch zu gewinnen. Details
dazu findet ihr in den Show Notes. Und jetzt viel Spaß bei der Folge. Hallo Thilo, schön, dass du da bist. Ja, hallo Ritschi, ich freue mich, dass du mich eingeladen hast. Ja, auf jeden Fall sehr gerne. Wir sind ja hier am QS-Tag 2024 in Frankfurt. Tolle Konferenz, ich habe gutes Feedback gehört schon und hatte auch schon tolle Gäste hier von den Speakern. Also das ist immer wieder ein Highlight für mich, auch hier
zu sein. Ja, schön, dass du hier Teil der Community bist und uns hiermit auch hilfst, die Sache in die Welt zu transportieren. Und es waren zwei sehr spannende Konferenztage, das heißt ein halber steht ja noch bevor. Genau, ein bisschen was ist noch da. Aber das waren wirklich sehr spannende Vorträge auf einem hohen Niveau. Ja, das habe ich auch gehört und habe ich auch so wahrgenommen auch von meinen Gesprächspartnern hier. Also da ist schon gut
Fleisch dahinter, muss man schon so sagen. Ja, für die Podcast Community, also manche wissen es ja vielleicht noch nicht, aber du bist ja mit ein gedanklicher Vater dieses Podcasts. Wir hatten vor zwei Jahren mal eine Blog-Serie zum Thema Future Testing gemacht und du hast dich ja strikt geweigert, mir einen Text zu liefern. Du hast gesagt, wir machen ein Interview über Zoom und
ich soll das dann transkribieren. Und ich habe gesagt, ja gut, dann mache ich das halt. Aber das war so schön, hat so viel Spaß gemacht, dass ich mir nachher gedacht habe, gehen wir mal einen Podcast machen. Und so hat das dann noch ein Jahr nach Schwangergehen irgendwie gedauert und dann ging der Podcast dann in den Start. Also du bist nicht ganz unschuldig, dass es den Podcast gibt. Entschuldigung, jetzt habe ich die Arbeit gemacht.
Genau, jetzt habe ich viel Arbeit. Also freut mich umso mehr, dass du heute auch hier im Podcast zu Gast bist. Und wir haben ja gesagt, worüber sprechen wir so? Und ihr habt ja quasi ein Thema, das euch ja schon lange begleitet, ist immer so ein bisschen der Blick in die Zukunft. Was sind so die Trends im Testing? Da habt ihr auch eine eigene Veranstaltung dazu. Und das ist doch spannend, mal darauf zu schauen, was kommt denn so auf uns zu im Testing und wo geht die Reise hin?
Ja, bevor ich da in den aktuellen Trend darauf eingehe, vielleicht noch kurz zur Veranstaltung Trends im Testing. Das machen wir bei Imbus ja schon seit über zehn Jahren. Einmal jährlich im Frühjahr immer eine dreivierteltägige Workshop, Roadshow-Veranstaltung mit einem bunten Mix aus schulungsartigen, trainingsartigen Vortrag zu dem jeweiligen Thema. Und Workshop-Charakter, Demo-Charakter findet bundesweit statt an allen unseren Standorten in Deutschland. Und ja,
da haben sich dann auch mehrere Dinge daraus entwickelt. Wir hatten das dann irgendwann, als wir das das erste Mal durchgeführt haben, uns überlegt, wie nennen wir das? Haben wir dann Trends in Testing genannt. Und über die Jahre hat sich das dann wirklich so entwickelt, dass wir jedes Jahr dann auch einen Blick auf den Markt geworfen haben. Was ist denn im Moment aktuell so das, was die Tests der Community oder die Quality-Community bewegt? Vor einigen Jahren
haben wir sogar das ganze als Studie dann noch vertieft. Da haben wir einen Zukunftsforscher beauftragt, um eben die Trends in Testing auch zu verschriftlichen. Das waren so knapp 30 Seiten Text. Das ist fast zehn Jahre her. Und wenn man jetzt komischerweise, oder nicht komischerweise, wenn man jetzt in dieser Studie von damals blättert, dann bin ich selber manchmal schockiert,
was alles wirklich eingetreten ist. Hätte man vielleicht gar nicht gedacht. Ja, das hätten wir vielleicht, können wir eine extra Folge noch machen und blättern, was da alles eingetreten ist, im Guten wie im Schlechten. Gut, und jetzt der aktuelle Trend, das sehen wir jetzt hier auch am QS-Tag. Wir hatten jetzt natürlich das Thema KI im Testen, als Werkzeug für Tester und für Quality-Leute. Und damit verbunden natürlich auch dann die andere
Seite der Medaille, das Testen von KI-basierten Systemen. Und das hat sich in den letzten Jahren angedeutet. Da haben wir am QS-Tag vereinzelt Vorträge dazu gehabt. Und jetzt heuer hatten wir wirklich tatsächlich an beiden Konferenztagen einen kompletten Track, über den jeweils den
ganzen Tag, also über zwei Tage, nur zum Thema KI und Test oder KI und Quality. Und da kann man auch, wenn man die Vorträge verfolgt, eben sehen, wie weit sind dann sozusagen die Betroffenen, was für Systeme haben die gerade vor sich oder welche Werkzeuge, die KI gestützt sind, setzen sie ein. Und das war auch das Thema von der Trends in Testing im April diesen Jahres,
KI im Software-Test. Und das war auch dann eben an diesem Dreiviertel-Tag, sowohl mal ein paar Grundlagen nochmal vermitteln, wie funktionieren KI-basierte Systeme oder generative KI als Beispiel, aber auch Beispiele, wie kann man sie im Software-Test nutzen. Das finde ich ja ganz spannend. Also wo stehen wir denn da gerade, beziehungsweise wo geht denn
da der Zug hin? Weil bei KI, wir haben ja gerade, es gibt ganz viele KI-Experten auf einmal, die dann irgendwelche Dinge erzählen oder sowas und man weiß gar nicht, wo die auf einmal alle herkommen. Aber so quasi auf das Testing bezogen, was ist denn da jetzt heute konkret da und wo geht denn da die Reise hin? Also zum einen müssen wir auseinanderhalten das Thema Testen von KI-basierten Systemen und Testen mit KI. Also im Sinne von KI als Werkzeug des Testers oder
der testenden Person. Und die beiden Felder entwickeln sich parallel mit unterschiedlichen
Geschwindigkeiten, das ist meine Wahrnehmung. Das eine Feld, Testen von KI-basierten Systemen, da ist meine Einschätzung aufgrund dessen, was ich so von Kunden sehe oder auch was ich jetzt in den Vorträgen gesehen habe und auch was wir auf der Trends in Testing als Feedback bekommen haben, dass fast jedes ernsthaft softwareentwickelnde Unternehmen sich damit beschäftigt, welche Funktionen in ihrem jeweiligen Produkt können KI-basiert verbessert werden oder
angereichert werden. Das trifft aber nicht nur reine Softwaresysteme, sondern insbesondere auch da, wo Maschinen, Hardware-basierte Systeme gebaut werden und Software drin ist, wo man natürlich sich auch überlegt, wie kann ich die Maschine durch KI intelligenter machen. Und da sind alle Unternehmen, die da am Markt nennenswert als Anbieter auftreten, damit beschäftigt, internen Prototypen zu bauen und Experimente zu machen, um auszuloten, wie man wirklich an ihre KI ihre
Produkte besser machen kann. Im Umkehrschluss aus Sicht des Softwaretests ist es dann so, meiner Wahrnehmung oder Inbus-Wahrnehmung nach, dass diese Aufgabenstellung, diese Systeme zu testen, jetzt vorbereitet wird. Die Leute machen sich schlau, besuchen Konferenzen wie Trends in Testing oder QS-Tag, aber die Systeme sind noch nicht so weit, dass sie wirklich in Production
gehen und deswegen der Test noch erübt, um es mal flapsig auszudrücken. Das wird in den nächsten Jahren wahrscheinlich dann relativ scharf und schnell dann kommen, dass es wirklich ernsthaft, was sich als Softwaretester eben stellen muss und sagt, habe ich da wirklich jetzt alles gefunden, was das System leisten soll oder alle Bugs, die da drin sind, zweifelsohne werden da noch mehr Bugs drin sein als bei einem System, die man jetzt als Tester oder Testerin auf den Tisch bekommt.
Gut, das war das Thema Testen von KI-basierten Anwendungen oder Anwendungssystemen, da wo KI- Komponenten und Funktionalität drin ist. Und das andere spannende Thema ist, wie können KI-basierte Algorithmen, Systeme, Sprachmodelle, generative KI uns als Testexperten helfen, um unseren Job zu
erledigen. Und das ist jetzt die andere Seite der Medaille und da tut sich auch rasant viel. Haben wir jetzt auch auf der Trends in Testing gesehen, haben wir jetzt auch auf dem QS-Tag gesehen und wir haben auf der Trends in Testing dazu auch eine Umfrage gemacht, um das ein bisschen genauer noch zu hinterfragen, wie weit da die Praxis wirklich ist. Und wir haben festgestellt, dass die Nutzung in der Softwareentwicklung tatsächlich im Bereich Programmierung und Test den höchsten Verbreitungsgrad
schon hat, was etwas niedriger ist. Jedenfalls in unserer Umfrage rausgekommen ist, dass der Einsatz im Bereich Requirements Engineering, da hätte ich persönlich erwartet, dass das da sogar weiter ist, Stichwort Analyse von Requirements. Das sind ja alles sprachliche Dokumente mit sprachlichem Inhalt,
die man wahrscheinlich glaubt, dann analysieren zu können. Das ist naheliegend. Vielleicht liegt es auch daran, dass die befragten Teilnehmer der Trends in Testing, die alle aus dem Software-Test- Bereich kommen, jetzt nicht so genau wussten, was die Kollegen im Requirements Engineering so alles
machen. Aber wie gesagt, das Bild aus der Umfrage ist ganz klar gewesen. Programmierung Nummer eins, das war zu erwarten, nachdem die ganzen IDEs heutzutage da die entsprechenden KI-Assistenten drin haben und man schnell mal fragen kann, "Hallo, Bot, hilf mir mal, die Code-Seite zu justieren." Das ist also klar Nummer eins. Nummer zwei war dann eben der Einsatz im Testen und Nummer drei in der Requirements Engineering. Und ganz weit abgeschlagen war Einsatz im Projektmanagement.
Da hätte ich jetzt auch erwartet, oder vielleicht ist es aus meiner Sicht ein Feld, wo man noch mehr tun könnte, um einfach, sei es agil oder in hybriden Vorgehensweisen, sein Projekt besser zu steuern, was ja auch immer eben Quelle von vielen Problemen ist, wenn das nicht sauber gemacht wird. Aber das ist, wie gesagt, noch abgeschlagen. Zurück zum Thema Testen. Da haben wir ja einmal die Anwendungsfrei-Testen oder Generieren von Testdaten. Dann haben wir das Anwendungsfrei-Generieren
von Testfällen. Das ist ein bisschen mehr als Testdaten, also auch die Prozedur, wie gebe ich den Testfall ein und welches Ergebnis erwarte ich. Also noch ein bisschen komplexer. Und beides wird ausprobiert, wird gemacht mit unterschiedlichen, sagen wir mal, Reifegrad, je nach Unternehmen. Auf der Trends in Testing haben wir da auch ein Beispiel, ein Prototyp gezeigt, eine neue Funktionalität in unserer Testbench, in dem Testmanagement- und Testspezifikationstool,
und zwar KI-basierte Generierung von Security-Tests, ausgehend von dem Obers Kriterienkatalog. Also man kann sagen, okay, meine Anwendung macht dies und jenes und hier ist der neueste Obers Kriterienkatalog und bitte produzieren wir mal drei Testprozeduren zum Kriterium 2. Und dann muss man das natürlich, oder das muss man ganz offen sagen, dass es dann etwas, was eben überarbeitet werden muss von dem Security-Testspezialisten, der dann da verantwortlich ist und den Test wirklich
durchführt. Und ganz in dem Sinne arbeiten auch aus meiner Sicht, so meiner Kenntnis stand, alle Systeme in dem Bereich heute eben wirklich als Assistenten. Man darf sich auf die KI nicht verlassen und sagen, das nehme ich jetzt und wenn das grün ist, dann ist der Test gelaufen, sondern das ist eine Hilfe, um einfach schneller zu einer Grundlage zu kommen und im Dialog mit
dem System. Das weiß ja auch jeder, der mit Chats GPT und so arbeitet, wenn man mit dem dann wirklich spricht und dann entspricht sich eventuell ein interessanter Dialog und da muss man halt das herausgreifen, was einem hilft und das wegwerfen, wo man sagt, das ist jetzt merkwürdig. Und das funktioniert dann. Also das ist schon eine tolle Unterstützung. Ja, sehr spannend und das wird ja, ich weiß nicht, in Zukunft ja noch zunehmen, nehme ich an. Also da wird ja noch, natürlich
jetzt auch, die werden ja auch besser immer die Systeme und sowas. Wie sieht es denn da so in Richtung Testautomatisierung aus? Habt ihr da auch so einen Ausblick? Ja, da Richtung Testautomatisierung haben wir jetzt nicht speziell abgefragt, sondern es ist uns subsummiert worden und im Thema Testen. Da rechne ich damit, dass natürlich die Generierung von Testabläufen dann verbunden wird mit beispielsweise Keyword-basierten Testen und dann dadurch, dass man schon eine Bausteinbibliothek
beispielsweise hat, die dann auch zuverlässig die einzelnen Keywords automatisiert. Natürlich dann so ein KI-Tool, das Arrangement der verschiedenen Keywords zu immer wieder neuen Prozeduren verbunden mit den generierten Testdaten, dass das dann ja vollautomatisch machbar sein wird. Ja, das wäre vielleicht ein logischer nächster Schritt, dass man da hinkommt und diese Dinge
dann auch miteinander kombiniert. Ja, sehr spannend. Habt ihr auch so abseits von den KI-Themen, was sind denn da noch so, weil das ist natürlich sehr präsent gerade, gibt es denn vielleicht so im Schatten von KI noch andere Themen, wo ihr merkt, okay, da ist gerade so richtig Fahrt drauf, da geht es in eine weitere Richtung? Ja, also es gibt im Schatten von KI und von den anderen Themen, die, sagen wir jetzt ganz aktuell die Leute bewegen, ist natürlich immer noch oder
im Untergrund die große Frage, wie agil arbeiten die Projekte da draußen. Und da gibt es subjektiv die ganz unterschiedlichen Einschätzungen, je nachdem in welchem Umfeld man selber gerade arbeitet und das hat uns auch interessiert. Deswegen haben wir schon bei der Trends in Testing 2023 dazu eine Umfrage gemacht, also sprich Fragen gestellt, wie agil arbeitet ihr denn in euren Projekten, ganz so ähnlich wie es auch das German Testing Board jetzt in ihren Umfragen macht, wo wir gestern
auch auf dem QS den Bericht zur neuesten Umfrage gesehen haben. Und da haben wir eben vor zwei Jahren eine Umfrage auch gemacht, wie agil arbeitet ihr und die haben wir 2024 auch noch mal wiederholt, parallel zu dieser KI-Umfrage. Also wie ist der Stand jetzt bei den Teilnehmern, unter den Teilnehmern, die bei der Trends in Testing dabei waren, welche Vorgehensmodelle werden eingesetzt und da war im Gegensatz zu den letzten Jahren davor wirklich ganz, ganz klar die
Aussage und das Feedback und die Antworten, dass agil, sprich Scrum, dominiert. Ja. Ganz klar, das war auch deckungsgleich die Information aus der GTW-Umfrage und dahinter kommt dann Kanban
und dann kommen noch ein paar V-Modell. Ich würde es persönlich sagen, das sind Altprojekte, die einfach, macht keinen Sinn, die jetzt umzustellen auf agil, die arbeiten immer noch so und ich persönlich schätze so ein, dass wenn irgendwo was Neues gestartet wird, egal in welcher Branche, egal in welchem Anwendungsbereich, dass das einfach agil gearbeitet wird und da
dominiert Scrum. Und das Interessante ist ja auch, das weißt, hast du auch miterlebt oder mit verfolgt, dass ja auch in den kritischen Branchen Luftfahrt und Medizintechnik in den vergangenen Jahren die entsprechenden Behörden, die das zulassen, auch offiziell in ihren Regularien erlaubt haben, auch da agil vorzugehen, wenn man natürlich das noch als Sicherheitsnetze einzieht, klar, aber da wird nicht mehr darauf bestanden, nach V-Modell vorzugehen, wie das vielleicht
früher noch der Fall war und das ist jetzt überall angekommen. Es ist erstaunlich, dass es gerade in den letzten Jahren noch mal so einen Boost bekommen hat, das finde ich ja auch toll. Man hört ja manchmal jetzt im Internet, in diesen Filter-Bubbles und sowas, Agilität ist tot, das funktioniert jetzt nicht mehr, wir brauchen irgendwas anderes. Wie siehst du das?
Man muss sich schmunzeln. Also ich kann es nicht bestätigen, ich habe das, was ich gerade erwähnt habe, als Wahrnehmung und als Feedback auch eben von den Kunden und von den Umfragen und auch aus Diskussionen jetzt mit Fachkollegen auf Konferenzen, das ist alles andere als tot, sondern eher sozusagen hat es eine wirkliche praktische Routine, Reifegrad erreicht. Und wenn jetzt jemand sagt, okay, das ist tot, dann ist es oft vielleicht daraus resultierend, dass man
viele Projekte auch in diesem agilen Ansatz dann scheitern sieht oder scheitern gesehen hat. Und da muss man sich aber dann doch fairerhalber fragen, scheitern dann genauso viel oder mehr Projekte als damals nach Wasserfall? Weil deswegen hat man ja eigentlich mal auf agil umgeswitcht. Oder sind es jetzt wirklich signifikant weniger? Wenn es signifikant weniger sind, dann spricht das ja für den agilen Ansatz. Und dann kann man jetzt sagen, hey,
da sind jetzt zwei gescheitert, das funktioniert alles nicht. Und der andere Punkt, den man sehen muss, ist, wenn man auf agil umsteigt und macht das Agile jetzt dann einfach oberflächlich, insbesondere das Gramm, und setzt dann wieder zu notwendigen Techniken und Praktiken nicht wirklich ein, sondern wurstelt sich so durch, dann macht man dasselbe wie vorher im phasenorientierten Vorgehen, man wurstelt sich halt durch und wenn es dann scheitert, braucht man sich nicht wundern.
Und das dann im Phasenmodell oder dem Agilen in die Spur zu schieben, das führt nicht wirklich weiter. Ja klar, das ist natürlich ein Ding. Ich glaube auch, dass es jetzt gerade so ein bisschen immer mehr, wird das präsent, ob das jetzt funktioniert oder nicht. Aber ich glaube, es macht einfach auch die Menge. Projekte sind schon immer gescheitert und die scheitern ja meistens auch aus vielen anderen Gründen als irgendwie dem Prozess, sondern es gibt immer irgendwas.
Genau, genau. Ja, finde ich, weil du auch gerade sagst Methoden und Agilität, da haben wir gleich den Einschub. Du hast ja auch ein Buch geschrieben "Testen in agilen Projekten". Das werden wir hier auch verlosen, wie gehabt fünf Stück. Ich freue mich auch sehr, dass wir das zur Verfügung haben. Du hast es auch signiert. Also für die Zuhörer und Zuhörerinnen, geht in die Show Notes, da könnt ihr das Buch gewinnen. Ja super, vielleicht darf ich da noch zwei Sätze zu sagen.
Gerne, ja. Also das Buch ist ja nicht ganz neu, sondern die erste Auflage ist auch schon vor zehn Jahren erschienen und dann gab es mal eine zweite Auflage zur Aktualisierung. Das orientiert sich ja auch an dem einen oder anderen ISTU-B-Lehrplan, damals der Agile-Tester-Foundation-Level. Und da hatte ich jetzt dann Anfang dieses Jahres die Möglichkeit, das Buch zu aktualisieren auf die neue Auflage. Und da habe ich natürlich auch dann dabei lernen dürfen, was sich alles in den zehn
Jahren getan hat seit der ersten Auflage. Es war dann doch einiges an Stoff, was da dazu kam, bis hin zu DevOps und alles, was diese neuen Tool-getriebenen Dinge getan hat in dieser Zeit. Es ist wirklich eine Menge. Und das Buch selbst widmet sich jetzt aus einer speziellen Perspektive dem Thema Agile. Also weniger aus Perspektive, wie man es vielleicht auch in anderen Büchern sieht, was muss ich als Software-Entwicklungsperson da, wie muss ich da arbeiten, genau was mache ich,
irgendwelche Praktiken ins Kram. Sondern eben primär aus der Perspektive des Software-Testenden und dann eben aber auch gegliedert nach bekannten Teststufen. Wie arbeite ich da im Unitest, wie arbeite ich im Integration-Test oder auf System-Test-Ebene? Und erklärt eben auch, dass diese Ebenen, obwohl sie sagen aus dem V-Modell bekannt sind, jetzt im Agilen nach wie vor als Abstraktionsebene notwendig sind und erklärt dann die jeweils zugehörigen Techniken
auf der jeweiligen Ebene. Und das ist aus meiner Sicht etwas, was eben das Buch differenziert gegenüber manchen anderen Büchern. Ja, ich meine, das ist natürlich auch immer gut zu sehen, dass man das, was man eigentlich vorher gemacht hat, dass das noch immer Bedeutung hat, nur halt jetzt vielleicht in einen anderen Kontext kommt, andere Gewichtung vielleicht bekommt, aber noch alles im Prinzip relevant ist. Man wirft ja nicht alles übers Bord,
was früher mal gut war. Ja, sehr schön. Da freue ich mich, dass wir das Buch auch hier drinnen haben. Ja, hast du dann noch so aus den Trends heraus noch so einen dritten Stream für uns, wo du sagst, okay, das wird uns Testing qualitätsmäßig? Ja, also das habe ich vorhin angedeutet. Ich war ein bisschen überrascht, dass eben im Requirements Engineering der Anschein ist, dass da noch weniger gemacht wird. Es kann jetzt eben sein, dass die Bubble aus den Testern weniger
Einblick hat in die Kollegen aus dem Requirements Engineering. Insofern kann das einfach ein falsches Bild sein. Oder wenn nicht, dann rechne ich damit, dass das wirklich noch ein hohes Potenzial hat und enorm an Zug gewinnen wird, weil ja offenkundig die ganzen Requirements Engineering Tool-Hersteller das Potenzial haben, die Requirements, die da erfasst werden, wenn sie denn da in solchen Tools erfasst werden, nach allen möglichen Dimensionen wunderbar zu
klassifizieren, auszuwerten, zu vergleichen. Also beispielsweise das Thema, ich habe da doppelte Requirements von verschiedenen Leuten, eigentlich reden über das Gleiche, aber nur leicht verschieden. Das ist ja ganz einfache Anwendungsfall-Dupletten zu erkennen. Und das ist schon eine Quelle von
Problemen im Softwareentwicklungsbereich, die man damit eliminieren kann. Nicht, indem das System dann entscheidet, die eine Duplette lasse ich zu, die andere nicht, sondern indem es so wie so ein Code-Analyse-Tool sagt, hallo, Warning, du hast hier zwei ähnliche Requirements, schau doch bitte nochmal drüber, welches jetzt, oder vielleicht kann man es mergen. Also im Sinne von Anwendung dieser Tools, im Sinne von Code-Checkern, als Assistent wiederum, als Warning, das ist das
große Potenzial auf der kurzen Distanz. Ja, da ist sicher viel drin, das kann ich mir auch ganz gut vorstellen. Wir hatten ja in dieser Future-Testing-Umfrage damals, hatten wir auch eine Zeit lang sehr intensiv gesprochen über das Thema "Szenario-basiertes Testen". Das ist jetzt ja auch schon drei Jahre her oder so, dass wir darüber gesprochen haben. Hat sich das nochmal für dich verändert oder an Bedeutung gewonnen oder verloren? Wie siehst du das Thema? Also das ist jetzt wieder
ein spannendes Punkt, dass du da ansprichst, das Szenario-basierte Testen. Insofern habe ich gelernt, dass es ja in zwei verschiedenen Flavors erhältlich ist. Es gibt einmal aus ISTOB- und GTB-Sicht ein Überbegriff "Szenario-basiertes Testen", wo man eben Anwendungsszenarien aufschreibt, wie eine User-Story, in verschiedenen Ablaufvarianten, dann verschiedene Szenarien A, B, C hat und dann sagt, okay, wie reagiert das Testobjekt auf diese Szenarien, in denen das
Testobjekt angewendet wird. Das ist sozusagen der Begriff als Generalisierung von den bekannten Testprozeduren, Klassifikationen. Und dann gibt es eine spezielle Form des Szenario-basierten Testens, eben beim Testen von autonomen Fahrzeugen. Und da ist das Szenario identifiziert mit einem Verkehrsszenario, also beispielsweise eine Kreuzung, die ich modelliere und sage, was passiert auf der Kreuzung? Ja, da gehen hier Fußgänger, da gibt es Ampeln, da fahren die und die Autos in die und
die Richtungen. Und das wird dann definiert, als Szenario formal beschrieben und dann in einen Simulator gegeben. Und dann kann man sein Testobjekt, seine Steuerung in so ein Auto einpflanzen und schauen, ob es die Kreuzung sozusagen darüber kommt, ohne Crash und ohne einen Fußgänger zu
überfahren. Und das ist das eigentliche neue Szenario-basierte Testen, das in seiner Komplexität, aber deutlich schwieriger zu handhaben ist, als jetzt so, sagen wir mal, textuell fassbare Abläufe in User-Schritten, weil eben da viele verschiedene autonome Agenten dann sich unabhängig bewegen. Und die Herausforderungen sind zwei, um das jetzt da nochmal deine Frage zu beantworten. Die Herausforderungen, das sind zwei, nämlich einmal sich zu überlegen, welches Szenario ist es
denn wert, modelliert zu werden, weil das relativ aufwendig ist. Und wenn ich irgendwas auf eine Kreuzung setze und da fährt das Auto drüber, dann ist die Frage, ja, was habe ich denn jetzt getestet? Darf ich dann jetzt das Auto über alle Kreuzungen fahren lassen, weil es die eine geschafft hat? Also diese Klassifikation und Beurteilung von dem Szenario, was ich da mir gerade ausgedacht habe, inwiefern ist es relevant oder repräsentativ? Das sind wir eigentlich bei einer abstrakten Form der
Äquivalenzklassenbetrachtung. Das ist wirklich eine große Herausforderung, an der auch gearbeitet wird durch verschiedene Formalismen zur Klassifikation von solchen Szenarien. Das ist
auch in verschiedenen Normungsinitiativen gerade im Gange. Und die zweite Sache ist natürlich, wenn ich dann gesagt habe oder entschieden habe, das Szenario möchte ich jetzt modellieren, dann der Aufwand, um das so hinreichend detailliert zu modellieren, dass es einerseits den Testszweck erfüllt und die Aspekte, die ich testen möchte, dem Auto dann da auch aussetze, dass er in der
Kreuzung darauf stößt, wo das Auto dann zeigen muss, dass es das kann. Und auf der anderen Seite aber nicht so sehr übertreiben, weil ich möchte ja auch, sagen wir mal, nicht mit unendlich viel Manpower das automatisieren, sondern vielleicht an ein, zwei Tagen und dann noch Review und dann noch eine neue Version. Und dann muss es der Simulator auch noch schlucken. Und das ist die
zweite Herausforderung. Und das Beides zeigt sich eben, dass es doch sehr anspruchsvoll ist und deswegen noch nicht so stark genutzt wird, wie es vielleicht mal die Hoffnung darin gesetzt hatte. Aber es wird gemacht und die Leute arbeiten dran und wir versuchen alle in der Community, die Rezepte und die Sprachen dafür und die Simulatoren zu erweitern, dass das alles
einfacher mit weniger Aufwand möglich ist. Ich glaube, es ist ja wahrscheinlich perspektivisch noch interessanter, wenn jetzt KI oder autonome Fahrzeuge auf so einen Level kommen, wo die einfach selbstständig dann auch ihre Dinge machen sollen. Das sind ja nicht nur jetzt unbedingt Autos, das kann ja auch ein kleiner Roboter sein, der rumfährt oder ein Drohner. Oder ein Robotaxi oder was weiß ich, was es da so alles geben wird, das rumfliegt. Oder wie auch immer,
die Amazon-Paketdrohne. Also für all diese Situationen ist das natürlich dann auch relevant. Ja, das ist ja spannend. Und dann, deswegen machen wir die ganze Sache auf, damit wir eben dann hier die paar Leute, die noch natürliche Systeme sind, nicht von den anderen ständig überfahren oder überlaufen werden. Die Trends in Testing? 2025 wird es sie wieder geben?
Wird sie wieder geben, ja. Ich kann jetzt noch nicht verraten, wozu. Das wird immer, sagen wir jetzt im Dezember, Januar so, ist dann der Planung und dann im April wird es stattfinden. Und dann müsst ihr, die da interessiert sind, auf die entsprechenden Einladungen oder auf die Webseite schauen oder den Inbus-Newsletter abonnieren. Die Studien, die ich vorhin angesprochen habe, sind auch alle auf der Inbus-Webseite heruntergeladen,
kostenfrei. Sehr schön, werden wir auch verlinken. Wunderbar, danke schön. Ja, Thilo, vielen lieben Dank, dass du hier im Podcast warst. Vielen Dank auch für die Konferenz hier. Ich finde sie, wie gesagt, sehr klasse. Ein tolles Format, auf das ich immer wieder gerne komme. Hat mich gefreut. Also auch, muss man sagen, danke für dein Lebenswerk, weil du hast ja schon ganz viel in ganz vielen Richtungen bewegt und gedacht
und gemacht. Das finde ich natürlich auch ganz toll. Großes Vorbild für viele auch im Testen. Danke schön. Und freue mich, dass du heute im Podcast warst und wünsche dir noch ein schönes ausklingen des QS-Tags. Das wird sicherlich. Wir haben jetzt noch eine spannende Schluss-Keynote und zwar zu dem Thema, werden wir noch mehr Fähigkeiten behalten im Vergleich zu Robotern? Und da ist ein Neurowissenschaftler hier, also jemand, der nicht primär aus der IT kommt, aber der einen IT-Background hat,
ist auch ein Informatiker. Schaut auf die QS-Tag-Webseite, da gibt es den Link. Und da bin ich jetzt selber gespannt, was er uns berichtet. Was da gleich kommt. Ja, lassen wir uns überraschen. Vielen Dank, dass du da warst. Ja, danke. Tschüss. Tschüss! [Musik]