Hallo und herzlich willkommen zu einer neuen Folge von Podcast Software Testing. Ich bin dein Podcast Host Ritschi und freue mich wieder eine Folge vom QS-Tag 2023 aus Frankfurt mit dabei zu haben. Diesmal haben wir eine kleine Premiere und zwar Claudia Dusatziger ist wieder mal im Podcast und zwar, wer sich erinnert kann, war sie eine der ersten Interviewgäste. Und jetzt diesmal zusammen mit Michael Heller hier und wir haben uns ein ganz spannendes Thema rausgesucht
und zwar "Jettivity for Testing". Wie können wir Jettivity gut nutzen für Tests, wie kann man sich dem annähern und wie kann man mal so einen leichtgewichtigen Einstieg finden in diese Welt der KI, die gerade so spannend ist. Und wie an dieser Stelle auch gerne gesagt, wenn dir dieser Podcast gefällt, du immer wieder neue Inspirationen erhältst, auf neue Gedanken kommst, ja das eine oder andere auch lernst, dann freue ich mich natürlich über ein Like und eine Bewertung
auf den üblichen Plattformen und jederzeit über Feedback an [email protected]. Und jetzt viel Spaß bei der Folge. Hallo Claudia, hallo Michael, schön, dass ihr hier seid. Claudia, ich habe ein Déjà-vu, aber diesmal in echt. Du bist der erste Podcast-Gast, der das zweite Mal dabei ist. Ich freue mich sehr und fühle mich geehrt. Ja, das ist ganz schön. Und diesmal auch noch mit charmanter Begleitung Michael mit dabei.
Freue ich mich, dass ihr hier seid. Wir sind hier am Quest-Tag 2023 in Frankfurt. Der zweite Tag geht langsam in die Zielgerade. Und ich habe mir vorneweg die Speakerliste angesehen und die Abstracts durchgelesen. Und da habe ich euren Abstract gelesen und da las ich "Jett-Gibity und Test". Und da dachte ich, ja, das muss natürlich im Podcast kommen. Und da will ich gar nicht keine großen Worte verlieren. Was habt ihr denn da so mitgebracht? Also "Jett-Gibity
und Test"? Naja, also wir haben uns an das Thema angenähert von der Nutzerseite. Wir sind ja keine Data Scientists, keine neuronale Netzwerkeentwickler. Das heißt, von der Seite kommen wir nicht. Aber wir wollten mal gucken, was ist … Also ich möchte immer gerne verstehen, was ist es tatsächlich so ein bisschen im Hintergrund? Und dann aber auch mal ausprobieren, mal gucken, wofür man es benutzen kann, wie es funktioniert, ob es gut funktioniert, was es einem so erzählt. Und diese spielerische
Komponente, diese Neugier, die da so kitzelt, die ist bei Michael noch viel stärker ausgeprägt. Und so haben wir dann gestartet. Wir haben den Vortrag gedrittelt erst mal. Ein bisschen was über Jett-Gibity als Sprachmodell. Ein bisschen, wie es aussieht, was für Varianten es gibt. Also Bezahlmodell, Nichtbezahlmodell. Dann auch ein bisschen, wie es gelernt wurde. Und diese, ich sage mal so, diese formalen Punkte mehr. Dann einen Hauch. Und jetzt kommen wir langsam in diese
kreative Wolke rein. So ein Hauch einer Charakterisierung, ob man das mit einem guten oder mit einem schlechten Abiturienten vergleichen kann. Also haben wir diese Jett-Gibity Macht-Abitur Ergebnisse vom Bayerischen Rundfunk, als bayerisches Abitur mit 3.5 und 4.0. Und dann ging es aber tatsächlich darum, nachdem wir dann dieses so gefasst haben oder versucht haben, so zu charakterisieren,
tatsächlich zu gucken, wo kann man es überall einsetzen. Und dadurch, dass es ja ein Sprachmodell ist und wir ja doch Konzepte erzeugen, Spezifikationen erzeugen, Programme erzeugen, geht das schon sehr weit. Aber jetzt geht es los. Man muss das mit sehendem Auge machen. Also man muss sich wirklich gut überlegen, wie man fragt, was man fragt. Und wenn man Antworten zurückkriegt, wie man die auch einsortieren muss. Ja, absolut. Ich würde sagen, da steigen wir da auch gleich mal mit rein. Ich
glaube, jetzt haben wir so die Theorie von Jett-Gibity. Kann man googlen, kann man Jett-Gibity fragen. Aber so eure Erfahrungen, wie ihr so reingestartet seid, in das Thema mal zu nutzen. Ich glaube, ich bringe mal was, was in den Vortrag nicht reingepasst hat. Wir hatten eine Dreiviertelstunde. Ich bringe was exklusiv für den Podcast. Ich nenne es die Autoren-Story-Atlas. Da muss man in einem internationalen Team englische Texte schreiben. Das geht schon,
aber ich neige zu Bandwohnsitzen und anderen Dingen. Und 2000 ging das los. Und Diebel kennen viele, das verwenden auch viele. Und das hat mir dann angefangen zu nützen. Das ist KI, die angefangen hat zu nützen und zwar mit Flüsterpost. Ich habe angefangen, die englischen Sätze, die ich formuliert hatte, Diebel vorzuwerfen, auf Deutsch zu übersetzen, dann das Deutsche zu nehmen, Diebel wieder zu geben. Und der englische Satz, der rauskam,
war allermeistens besser als meiner vorher. Also einfach, weil diese Sprachmodelle natürlich mit wahnsinnig viel durchschnittlicher Sprache, die geschliffen ist, formuliert waren, hat es geholfen, als Nicht-Muttersprachler, englische Texte zu schreiben. Übrigens, meine Deutschen verbesserte auch. Dann war der nächste Schritt. Die haben dann RIDE eingeführt. Da haben sie das, was ich mit Flüsterpost gemacht habe, offiziell gekonnt. Da konnte man da RIDE einschreiben. Hat auch die
Sätze verbessert. Und dann kam das, was wir auch vorgeführt haben im Chat-GPT, dem man dann auch noch Anweisungen geben kann, was er tun soll. Prompt und Training war dann ein Thema, ein kleines. Und das Prompt, was mir daran am meisten genutzt hat, formuliere dieses Ding neu, ändere nur da, wo für Verständlichkeit, Rechtschreibung oder Grammatik unbedingt nötig. So eine Art von Prompting kann man da hinbringen. Das macht einen schneller. Das macht es besser und macht einen
schneller. Also sonst schleift man da ewig dran. Das war eine der Hauptnutzen. Gut, das gilt für jeden Text. Dass das jetzt zufällig was über Testen im agilen Kontext war. Die Erfahrung haben natürlich viele auf der Welt gemacht. Also ich glaube, wenn ich meinen ersten Eindruck so zusammenfassen würde, hätte ich gesagt "Wow". Also es kann schon jede Menge. Wenn man ihm jetzt eine Anforderungsspezifikation
gibt und jetzt sagt "Leite mir mal Testfälle ab". Wow, da kommt schon jede Menge Punkte. Klar muss man das doch prompten, dass man es so und so formatiert haben möchte oder dass man Vor- und Nachbedingungen haben möchte. Aber die Menge, was erst mal zurückkommt und die Ideen, auch von den Testideen, das ist schon ziemlich überzeugend. Also ich denke, es ist eine super gute Unterstützung, dass man schneller effizienter arbeiten kann. Aber, und da hatten wir auch ein nettes Beispiel,
man muss auch wissen, wenn er einem totalen Mumpits erzählt. Und dieses Know-how, das unterscheiden zu können, das finde ich, ist noch die Schwierigkeit an ChatGPT. Also wir hatten in dem Vortrag ein kleines Beispiel, da ging es darum um Technologie-Stacks und immer diese schönen drei oder vier buchstabigen Abkürzungen. Elksteck, das kann man sich hier googeln, wenn man will. Oder eben auf GPC tragen. Und da hat er halt das Akronym komplett falsch übersetzt. Sehr charmant.
LGTM-Stack. Hat er gemeint? Looks good to me. Ich habe es ihm geglaubt. War aber in dem Kontext auch nicht dramatisch, weil es halt einfach, es war in so einer Cobb Community of Practice, die sind halt alle online. Und dann war da, da ist jetzt nicht meine native Fähigkeit, solches Text zu beherrschen. Worte kennenlernen, kann man sicher auch googeln, war aber schneller, wenn man sich von ChatGPT erklärt. Also dieses sehr gezielt, es ist halt noch nicht so werbedurchseuchend.
Ja, ich glaube auch, es ist ja bei diesem, was da so rund kommt, dieses Interpretieren, ist es dann brauchbar, was kommt? Ich glaube, das ist schon eine Kompetenz, die man jetzt einfach auch noch braucht. Vielleicht nicht immer, weil das wird sich auch weiterentwickeln, aber gerade jetzt denke ich das auch. Ein Spiel, was wir zwei dann auch ganz gerne treiben, Claudia. Du hast dann erklärt, unnachahmlicherweise, wie es funktioniert hat.
Und dann hört man da, das generiert mit Wahrscheinlichkeitsmodellen und vielen Schichten die nächsten Buchstaben. Und dann sage ich, also mein Spruch dazu ist dann, MP-Übergänge in Transistoren zu kennen, hilft einem halt nicht bei der Handybedienung. Ja, aber darum arbeiten wir auch gerne zusammen, weil wir uns da wirklich gut ergänzen. Also ich glaube, man kann das wirklich gut nutzen, aber man muss noch mal drauf schauen können und das
dann wirklich einsortieren können. Und der erste Wurf, wenn man ein bisschen mit dem Prompting sich reinfindet, ein bisschen das präzisiert, in welche Richtung man gehen möchte, bin ich mir sehr sicher, dass man damit sehr viel schneller ist, als wenn man das erstmal alles händisch runterschreibt. Weil der macht das ja in einem Schnipsen, der macht ja in ein, zwei, drei Minuten schreibt er mir ja x Testfälle runter, für die ich schon allein zum Tippen viel länger brauchen
würde. Ob das jetzt the latest and the greatest ist und ob man das nicht noch verfeinern muss, ist völlig unbenommen. Aber ich glaube, die Unterstützung ist auf jeden Fall da. Und etwas, was mir auch während des Vortrags erst gekommen ist, es ist ein Sprachmodell. Also man sollte nicht primär versuchen, das irgendwas rechnen zu lassen, aber es ist ein Sprachmodell auf vielen Ebenen. Also wir ist nicht nur natürliche Sprache, der kann genauso gut Python generieren,
der kann genauso gut Cucumber Code generieren. Man muss ihn da halt hinschubsen oder hinführen vielleicht, dass er einem das gibt, was man haben möchte. Und ich glaube dieser, ich glaube dieser Wow, wo viele Leute es erstmal benutzen, was weiß ich, dass sie sich Gedichte schreiben lassen oder Reisepläne oder E-Mails zusammenfassen, das ist schon mal ganz nett, aber das ist jetzt nichts, was ich primär wirklich in einem Projekt nutzen würde, wenn ich ihnen ein Testkonzept schreiben
muss oder einen Bericht machen muss. Aber das als Hilfsmittel zu verwenden, glaube ich schon, wird uns effizienter machen. Das glaube ich schon. Ein Gebiet, was wirklich ein Kernthema vom Testen ist, wo ich zutiefst daran glaube, dass das eine sinnvolle Unterstützung ist, haben wir auch in zwei Vorträgen so ein bisschen aufbauend gehabt, ist tatsächlich exploratives Testen. Weil es da, wenn man da mal irgendeine Annahme trifft, die falsch ist oder so, das ist
nicht das Thema. Die Frage ist, hat man kreativ genug nach den kritischen Stellen gesucht? Und als Kreativitätsbooster, da gibt es auch Studien, wo man das inzwischen sehen kann, die versuchen das zu messen, einfach als Erweiterung des eigenen Denkens auf Ideen kommen, woran man noch denken könnte. Wenn man das abstrakt genug formulieren kann,
kriegt man auch kein Datenschutzproblem. Also wenn man das als allgemein ein Problem und mal so eine Ideenliste zu generieren, das ist faszinierend, was da schon rauskommt. Ja, das glaube ich auch. Also gerade als Impulsgeber, auch auf neue Dinge zu kommen. Genau. Und auch hier, finde ich, kann man den Prompt ja auch gut immer erweitern und sagen, gib mir noch mehr Ideen, gib mir noch bessere, noch ungewöhnlichere. Ja, dein Beispiel war SOA. Also natürlich wissen viele Leute,
dass man bei Web auch SOA testen muss. Ob man selber draufkommt. Ja, ich hatte ein Beispiel darum gebeten, dass ich mir Testfälle für eine Webseite generiert. Mit dem ersten Wurf hat er nur Testthemen generiert, was auch okay ist. Aber auf eins wäre ich nicht gekommen. Weil SEO-Optimierung wäre mir nicht als erstes eingefallen. Ich hätte halt den klassischen Funktional und Nicht-Funktional, wäre halt Performance und alles gewesen. Aber
SEO-Optimierung, ja, hat er recht. Und dafür, dass du es einfach als Hilfsmittel nutzen kannst, dass du dir Ideen geben lässt. Perfekt. Oder was dann auch, Computer Gamer Headset habe ich als Beispiel. Versucht in verschiedensten Richtungen von GPT mal auch aufzubereiten für sowas, was dabei rauskommt. Und ihr kennt auch die Literatur zu Testtouren, zu exportatieren. Testtouren. Also, den bringt ihn auch dazu, zu erklären, dass man bei einer FedEx-Tour, was jemand, wer es nicht kennt, möge,
ist in anderen deiner Podcasts nachhören oder im Internet. Das dann so wäre wie die signalstärkenden Kabeln und andere Dinge. Also, der ist schon, der versucht schon auch, wenn man ihn in die Ecken setzt, aus diesen Ecken heraus, sage ich gefährliches zu denken. Das ist ein Modell dafür. Natürlich denkt er nicht, aber er ist da kreativ. Er hilft dir, die eigene Kreativität zu führen. Wenn ich so auf die Testthemen schaue, ihr habt euch ja im ganzen Testumfeld, wir können
ja ganz viel machen, was habt ihr denn da so noch probiert? Also, du hast gesagt, aus Anforderungen Tests ableiten. Ja, und sogar nicht nur aus Anforderungen, sondern in einer Situation, wo wir keine Anforderungen hatten, tatsächlich aus einem Benutzerhandbuch Testfälle ableiten lassen. Und das hat sehr überraschend, na, überraschend gut funktioniert. Hätte ich so nicht gedacht, aber das war Pro. Ja, habe ich mit dem Gammage-Gezett auch gemacht. Also, ich bin dann daran gescheitert,
dass dieses PDF nicht lesbar war für es. Und dann habe ich es dann nochmal rauskopiert und in anderen gemacht. Aber einfach mal die Handbuchseite von dem Teil GPT vorlegen, das geht ja mit dem Vierer, kann man dann Dateien da mit reinmachen und dann sagen, auf diesem Ding möchte ich testen, was schlägst du vor?
Aber vielleicht, um deine Frage noch zu beantworten, also von reinen Testspezifikationen, tatsächlich dann auch über Skripten, dass man wirklich bis zum ausführbaren Skript kommt, dann zum Teil auch vorne und hinten, also bei der Testkonzepterstellung, dass man so ein erstes Grippe kriegt. Berichte habe ich jetzt damit noch nicht machen lassen, aber ich habe einen Kollegen, der hat gesagt, der hatte schon getan. Und wir haben auch schon Kollegen,
die gesagt haben, sie nutzen das zur Testdatengenerierung. Also, wenn man sagt, man braucht jetzt 100 Daten von Personen, die hier wohnen, da wohnen, ledig, also Familie, sowas, das kann man ihnen auch sagen. Und das passiert ja alles auch auf, also, ewig schnell mit einem Schnipsen, dann hat man da die ganzen Daten.
Ja, ja. Und auch das ist wieder so ein allgemeines Beispiel, aber auch für Tester typisch. Man braucht ja oftmals so ein kleines Skript oder irgend so was, um es sich schneller zu machen, um die Umgebung besser, schneller vorzubereiten. Container, also Docker, also Docker-Skript. Also, Docker sprechen überhaupt nicht, aber ich glaube, mit JetGPT könnte ich sogar so ein Container-Skript irgendwie herbringen. Mein Beispiel, womit ich es ausprobiert habe,
war PowerShell. PowerShell ist eine Sprache, die GPT wunderbar spricht, ich gar nicht. Ich habe aber ein gutes Gefühl dafür, was damit gehen müsste, wenn ich mir Anweisungen gebe, mache da etwas. Und natürlich gibt es viele Abläufe in Testfällen, wo man mit solchen Umgebungen gehen muss. Und wenn man dann nicht, also wenn man einfach jemanden hat, der einem das schnell macht, dann ist das hilfreich. Das war auch mein, wenn du das gerade sagst,
auch, ich finde, das war eines meiner ersten Highlights mit JetGPT. Und zwar, also, was ich gar nicht kann und noch nie konnte, waren Regular Expressions. Ich verstehe sie nicht, ich kann sie nicht bauen und so was. Und da kam mir gerade eine unter und ich habe das da rein gesagt, erklär mir das mal, was heißt denn das? Und dann kommt Text aus und ich habe gesagt, ja,
und umgekehrt hinaus und dann mach mir einen. Und da hatte ich schon Tränen in den Augen und habe gesagt, endlich ist dieses Problem gelöst, weil ich brauche die recht häufig, Regular Expressions. Das ist immer für mich ein Krampf, weil ich es einfach nicht verstehe. Ich habe natürlich alles aufgesaugt, bevor wir jetzt den Vortrag gemacht haben, was so Prompt Engineering frei findbar ist. Und eines der Dinge, was ich erst die Woche vorher entdeckt
habe, war die Idee, in Emojis einbauen zu lassen. Also, das ist dann auch, hat dann noch mal den Output bereichert, wo wir so eine explorative Teststrategie gemacht haben. So was im Kontext, wo man es braucht, also wo Visualisierung wichtig ist. Und natürlich, normalerweise würde man den Aufwand nicht treiben, weil man, bis du sie gefunden hast und dann eingemacht hast. Aber es fügt so eine Schicht an so einer Bewertung dazu, wenn du dann so ein lächelndes Emoji hast.
Also, es ist natürlich ganz subtil, aber es ist ein bisschen mehr noch. Ja, ja. Und das ist auch eine Sprache. Wenn man sich das überlegt, ist Emoji halt eine Sprache. Genau. Genau wie PowerShell. Das stimmt. Ja, und bei Testspezifikation, weil ich tatsächlich auch damit angefangen hatte, das geht schon auch so weit, dass du ihm auch
wirklich Formate geben kannst. Und auch nicht nur Gherkin oder so was, dass du so Schablone möchtest, sondern wirklich auch, du möchtest Tabellen, wo das und das und das drinstehen. Also, du kannst ihm wirklich die Ausgabeformate ganz klar vorgeben, was ich auch sehr überraschend fand, aber es geht auch. Das geht gut, ja. Also, genau da wird es dann, wenn es dann in den wirklichen Projekt- und professionellen Umfeld ist, dann ist es ja oft
so, du willst es dann auch öfter nachhaltig in einer bestimmten Form machen. Und das Verhalten von dem Ding ist ja emergent. Also, keiner hätte vorhersagen können. Also, emergent entwickelt sich. Deswegen ist auch Experimentieren das absolut Entscheidende. Im Arbeitsalltag ist eines der Hauptprobleme damit. Ich muss ja eine gewisse Vorhersagegenauigkeit entwickeln, ob es sich lohnt, damit zu spielen. Weil ich muss ja irgendwie schnell, ich muss ja effizient zu
meinem Ergebnis kommen. Und dafür muss man einfach eine gewisse Bandbreite entwickelt haben, was man ausprobiert hat. Und dann hat man das auch. Das kann dann mal schiefliegen, aber wenn man in 80 Prozent der Fälle, wo man glaubt, wirklich schneller ist, dann hat man gewonnen. In dem Moment ist diese Effizienzsteigerung, YouTube würde sagen Faktor, sonst ist mir egal, solange es überhaupt entweder besser oder schneller ist, war es es ja wert.
Auf jeden Fall, ja. Ich sage es was Schönes, dieses Experimentieren. Was ist denn so eure Strategie? Also wenn jetzt, sage ich, ihr trefft die Entscheidung, das lohnt sich jetzt, dann ist es ja meistens mit dem ersten Prompt nicht getan. Das stimmt. Kommt dann irgendwas raus. Wie ist eure Strategie, sich da dann weiterzuarbeiten? Es ist ein guter Punkt. Zeitlimitiert und neugiergetrieben, würde ich sagen. Ja. Man müsste es vielleicht in die Jahrfragen, weil momentan Jugendliche
nicht begeistert sind. Und jugendlich klappt es nicht mehr ganz. Zum Teil macht man das natürlich einfach, probiert man auch aus, weil es Spaß macht. Manchmal hat man keine Zeit, das zu tun, was Spaß macht, sondern man muss entkommen. Und da hilft natürlich diese Phasen, wo man es getan hat, dass es Spaß macht, um dann auch zu wissen. Es gibt einfach ein paar Prompt Engineering Techniken, wenn die dann keinerlei Erfolge zeigen, kann man auch wieder aufführen. Ein Beispiel ist
es, dass man den ja sehr gut in bestimmte Betriebsmodi versetzen kann. Man kann ihm eine Person ergeben, man kann sagen, sei so. Und was Prompt Engineering ein Beispiel ist, ist, solche Expertenrunden gegeneinander antreten zu lassen. Also sowas kann man kennen. Wenn ich im ersten Versuch komische Dinge kriege, die nicht so recht passen, dann wäre das nochmal mein nächster Versuch. Dann würde ich jetzt mal ausprobieren, lass mal drei Betriebsmodi von GPT versuchen,
sich dem Ergebnis zu nähern. Und wenn es dann da auch nicht kommt, dann muss ich einen guten Grund haben, nicht einfach selber. Weil dann wird es aufwendig. Man probiert halt den einen oder anderen Trick, den man schon erfolgreich gesehen hat, nochmal auf und irgendwann bricht man dann ab. Das stimmt. Irgendwann wird es nicht besser. Ja, also das ist, ich glaube aber auch, was uns
helfen wird, ist diese eigene Biase von dem, was geht. Das haben wir auch gehabt. Wann haben Menschen, oder ich habe es in einem anderen Vortrag gehabt, wann haben Menschen noch geglaubt, dass Computer nicht intelligent genug sind, um Schachweltmeister zu sein? Antwort, ja, 1996 war das letzte Mal. Kasparov hat dann 97 verloren. Und seitdem ist Schach als gegen Weltmeister gewinnen keine Intelligenzleistung. Das ist diese AI. Das ist eine Änderung in der
Vorstellung, was Intelligenz ist. Und ich glaube, das Gleiche ist gerade mit Kreativität im Gange. Also momentan wird noch jeder sagen, ja, wenn ich kreativ sein will, dann brauche ich natürlich den Menschen. Ich denke, dass das nicht mehr stimmt. So wie mit Schachweltmeistern. Ja, es ist schon spannend, weil es ein Paradigmenwechsel ist. Absolut. Ich habe am Anfang immer Chachivity als Google-Ersatz genutzt. Und jetzt mittlerweile verstanden, ja, ich kann viel mehr in Dialog gehen auch mit dem.
Aber ist das nicht faszinierend? Ich komme mir vor wie vor 40 Jahren als Jugendliche in den Science-Fiction rum. Man hat eine künstliche Intelligenz, mit der man reden kann. Und was auch halbwegs sinnvoll ist, also nicht irgendwie wie Pygmalion. Also da gibt es ja auch ganz alte Systeme, wo das noch nach Schablonen ging. Aber jetzt, das ist ja irre, irre. Also ein Nerd ist ja definiert als jemand, der Enterprise mag. Enterprise-Bordcomputer,
wir haben es gehabt. Also für mich ist das die grundlegende Technologie. Und ich hätte geschworen, das erlebe ich nicht. Das mag gehen, aber die Computer, die ich zu sehen kriege, können das nicht. Und das ist natürlich schon eine Faszination. Wenn jetzt mal, ihr habt ja viel gespielt mit den Tests, mit den Testkonzepten und so was. Wo war denn da so die Grenze, wo ihr gesagt habt, da kommt jetzt nur mehr Mist raus? Oder in der
Richtung, das funktioniert da nicht weiter? Oder man müsste vielleicht einen ganz anderen Ansatz noch mal wählen? Also was ich tatsächlich noch nicht gemacht habe, und das berührt einen anderen Punkt, den wir am Ende auch adressiert haben. Ich habe tatsächlich noch nicht versucht, projektspezifische Daten einzuspeisen, dass ich es quasi noch näher, noch kompakter eins zu eins zurückkriege. Bis jetzt war die
Annäherung immer über eine generische Schiene. Zwar dann auch von der Website zu einer ganz bestimmten Website, aber immer noch diesen Weg. Aber jetzt, dass man tatsächlich sagen würde, ich habe in einem Kundenprojekt Folgendes und das will ich da jetzt reintun. Das habe ich noch nicht gemacht. Und da scheue ich mich auch noch ein bisschen vor, weil dieses ganze Governance-Thema,
wo liegen die Daten, wem gehören die Ergebnisse, wer soll das sehen können? Das ist noch ein sehr sensibles Thema, was auch in einigen Firmen tatsächlich unterschiedlich gehandhabt wird. Wir haben Feedback bekommen von Teilnehmern, die gesagt haben, in ihrer Firma ist es verboten, ChatGPT zu benutzen. Ende. Ende aus. Ende aus. Du kannst immer noch Homeoffice neben Computer als Kreativitätssteigerer nehmen,
aber das war es dann auch. Erste fangen an, habe ich auch nach dem Vorrat. Die haben es dann vielleicht als Firmennetz gesetzt. Dann gehen plötzlich ganz andere Dinge, weil wir sind ja wahnsinnig schnell in der Grauzone. Es spricht ja ungeheuer gut alle Programmiersprachen. Fehlersuchen kann sehr viel schneller sein. Darf ich jetzt den Code wirklich reingeben? Ja. Das ist sofort mindestens Grauzone. Also das ist eine der Probleme. Aber selbst,
wenn wir dann mal so weit sind, aber die Erfahrung habe ich, die fehlt mir noch. Ich war jetzt in keiner Firmenumgebung, wo jeder GPT-Lizenzen hat und es auch ganz offiziell mit auch internsten Daten verwenden kann. Ich glaube, die Ersten fangen an, so etwas zu haben. Dann wird sich die Frage stellen, schaffe ich ein konsistentes Prompting für größere, am Stück hängende Sachen. Ich glaube, das kommt erst. Also ganze Bücher schreiben.
Das weiß ich nicht, ob das gehen wird. Du wirst immer noch jemanden brauchen, der das macht. Wir haben ja nach Grenzen gehört. Also ein komplettes Testkonzept generieren aus Interviews von, könnte man sich vorstellen, aber es ist so weit zu meine. Ja, also ich glaube, dieses Governance-Thema wird ein ganz großes werden. Einfach, um die Sicherheit zu haben, dass du es tatsächlich auch mit gutem Gewissen benutzen kannst,
auch in Projekten. Nicht nur zum nerdigen Rumspielen, sage ich jetzt mal, sondern wirklich auch produktiv. Aber ich glaube, wenn wir das erst mal gelöst haben, wird das ein Effizienzboost werden. Wenn wir jetzt drauf schauen, es gibt ja ganz viele KI-Modelle. Wenn man auf Hugging Face schaut, das sind jetzt irgendwie 50.000, die da zur Verfügung stehen. Jetivity ist ja quasi der Primus gerade, wo man gerade… Der, der den Hype ausgelöst hat,
mindestens mal. Natürlich, weil man den auch einfach bedienen kann. Man muss da jetzt nicht irgendwelche APIs ranklöppeln oder sonst was. Ich glaube, das ist genau der Punkt, weil der Zugriff so einfach ist. Genau, das ist total einfach und deswegen auch ja legitim, das zu nutzen, wenn man darf. Was glaubt ihr denn, wenn wir jetzt so auf die nächsten Monate schauen, in die Glaskugel rein, was wird sich denn da noch ändern? Wo wird es denn
da noch besser werden, was wir für den Test nutzen können? Gerade so in diesem, sagen wir, leichtgewichtigen Jetivity nutzen. Okay, leichtgewichtigen, ja. Unabhängig von irgendwelchen Test-Tools, die vielleicht auch KI können. Also worauf ich mich schon freue, ist, dass es immer mehr Menschen geben wird, die selber Dinge ausprobiert haben und das dann natürlich auch erzählen. Also dieses voneinander lernen, wir als Menschen von anderen. So weit, dass wir hauptsächlich von der KI lernen,
sind wir noch nicht. Also insofern, wenn wir gehört haben, als du auf dem ASQF-Tag das so sammelt hast, da sind immer dann wieder mal kleine dabei. Das ist eigentlich mal eine interessante Idee, das zu haben. Also könnte man nicht wirklich… Ja, das könnte man ausprobieren. …einen, also die Idee, die ich jetzt da zum Beispiel vorhin hatte, hat vielleicht jemand und probiert es da mal aus. Okay, man könnte mal sagen,
mach eine FedEx-Tour. Man probiert das aus und dann stellt man fest, das ist da. Und irgendwann entwickelt sich dann auch so ein Prompting, was vielleicht sogar vom Chatbot abhängig ist, ob es funktioniert, weil der eine hat dieses Buch gelesen, der andere nicht. Ja. Und da kriegt man Erfahrung damit. Also was funktioniert, in welchen Themengebieten kann man sie lenken? Wo kommt was raus? Wo… Es ist ein nettes Spiel, aber die Zeit ist weg.
Ja, also ich weiß auch nicht. Vielleicht wird sich es auch etwas wegbewegen von ChatGPT, weil jetzt sind schon Diskussionen, ist jetzt Bart besser, ist jetzt ChatGPT viel besser? Da gibt's… Haben wir auch intern schon jemanden, der so Vergleichssachen macht und guckt, was kommt da raus, was kommt da raus? Vielleicht das. Ich würde hoffen, dass man tatsächlich noch mehr einfach auf andere KI-Lösungen schaut. Können auch gerne generative sein, also auch Bilder erzeugen,
also was auch immer. Aber wir haben auch sehr schöne Lösungen, zum Beispiel Objekterkennung für Testautomatisierung. Das ist eine Objekt… Also ist auch eine KI, die muss ja das Objekt erkennen. Hat jetzt mit ChatGPT nichts zu tun und gab's vorher schon und hat vorher auch schon Sinn gemacht. Ich hoffe, dass diese, weißt du, diese Bewusstseinserweiterung, diese Scheuklappen, dass das ein bisschen aufgeht. Ich denke, ChatGPT hat tatsächlich durch diese leichte Zugriff
barkeit den Markt komplett aufgemacht oder das Bewusstsein komplett geöffnet. Und wenn es jetzt wieder so ein bisschen zurückgelenkt wird, auch in andere KI-Bereiche, die sinnvoll wären, das wäre eigentlich etwas, was ich hoffen würde. Also ich glaube, da wäre für Test auch noch an anderen Stellen einiges möglich. Aber dieser leichte Zugriff, ich weiß nicht, verführen ist da der falsche Ausdruck, aber der hat uns ja wie ein Tsunami mitgenommen. Das ist ja irre.
Ich glaube, der Teil, also für die, die diese 20-Euro-Lösung im Monat haben, der Teil, wo ich mir am meisten verspreche, jetzt mal rein als technischer Zugriff, ist das, was ich ursprünglich Code Interpreter und jetzt Data Analysis nenne. Also diese Fähigkeit, innerhalb des Chatbots auch Python-Code auszuführen. Dadurch kann man, das ist wieder diese leichte Zugänglichkeit, dadurch kann ich ihm sagen, mach mir mal eine MP3-Datei für meinen
Stereo-Kopfhörertest, die zwei Sinustöne auf dem linken und rechten Lautsprecher macht. Ich gebe das als Anweisung und dann kommt meine MP3-Datei raus. Und das funktioniert. Was nicht funktioniert, ist, wenn ich dann sage, ich möchte das Gleiche jetzt bitte für Surround
Sound haben. Also nicht mit nur zwei Prompts. Dann sagt er dann, nee, kann ich nicht. Aber ich glaube, wenn ich das unbedingt bräuchte, werde ich auch damit Chat… Also dieses sich selber kleine Tools machen und zwar auch mit diesen jetzt dazukommenden Fähigkeiten, diese Nähe, die Programmierung zu normalen Sprechen kriegt. Das glaube ich, da glaube ich dran, dass das einer der Gleichmacher sein wird. Wenn Leute schlau genug sind, Erfahrung darin zu
gewinnen, wie sie mit dem Ding umgehen, ist es ein Gleichmacher. Also mein Abstand für Kubernetes fahren ist im Jahr 2023 ein ganz anderer, als er im Jahr 2021 gewesen wäre. Also wenn ich den Job kriege, ist es machen zu müssen. Und das liegt nur daran, dass es dieses… Du hast eine Hilfe. Du hast eine Hilfe. Ja, es ist so. Also nach wie vor würde ich es mir nicht geben als Zugang. Aber gesetzt in den Fall, dass… Manchmal macht man halt Dinge, weil es jemand tun muss und gar keiner da ist,
der es besser kann. Abschließend, wenn jetzt ein Hörer, Hörerin jetzt sagt, ja, ich werde das, ich muss das jetzt ja auch mal ausprobieren. Es wird an der Zeit. Habt ihr jeder kurz einen Tipp, wie man loslegt? Keine Scheu, einfach ausprobieren. Keine Scheu. Ja, schön. Ja, erst mal überhaupt den Zugang machen und mit dem,
was am meisten Spaß macht, ausprobieren. Das würde ich als erstes machen. Je nachdem wie, man kann es natürlich ganz leichtgewichtig machen, indem man sich auf Microsoft einlenkt und diese Bing-Ergänzungen macht. Aber ich persönlich würde ein OpenAI-Konto umsonst, weil ich will nicht das Zusatzprompting, was Microsoft hat, dass man über Präsidenten keine Witze macht.
Das würde ich machen. Ja, irgendeine oder sei es Bart, ist egal, welche. Einfach mal ausprobieren und dann vielleicht mal eine leichtgewichtige Recherche über ein paar Prompting-Techniken. Und dann probieren. Sehr schön. Dann hat ja jeder seine Hausaufgaben. Super. Claudia, Michael, vielen Dank, dass ihr hier Rede und Antwort mal in einer
ganz unkompliziertes, einfaches Gespräch über diese Themen, was da möglich ist. Aber ich glaube, das ist immer wieder wichtig, uns darauf einfach auch mal zu fokussieren, dass man sich einfach mal damit ein bisschen rumspielen kann, dass man den Anschluss nicht verliert, dass man ein Gefühl bekommt für diese Technologie. Ich glaube, das ist genau der Punkt. Man muss einfach dranbleiben und man muss auch nicht zwingend gleich mit Tests anfangen. Man kann auch mit Geburtstagsgedichten
anfangen oder was auch immer. Aber damit man einfach so ein Gespür dafür kriegt, für die Leichtigkeit versus Ergebnisqualität und wie man dann dran arbeiten muss, um es zu verfeinern. Und dann kann man es gerne auch für seriösere Dinge ansetzen. Aber ja, ich glaube, das braucht man. Ja. Und keine Scheu. Genau, so machen wir es. Super. Vielen Dank. Schönen QS-Tag euch noch. Dir. Und bis bald. Danke. Danke. Und dir auch. Noch eine schöne Zeit. Danke. [Musik]