Weil wenn du es irgendwann überhaupt nicht mehr verstehst, so, dann weiß nicht dann bin, dann ist die Frage, benutzt du die KI oder benutzt die KI dich? Coding Buddies Dein Podcast rund um. Softwareentwicklung und aktueller Tech News Herzlich Willkommen.
Halli Hallo und herzlich Willkommen zur neuen Folge des Calling Bodys Podcasts. Schön, dass du wieder eingeschaltet hast, deine Gastgeber, wie soll es anders sein, meine Wenigkeit, der Tino und an meiner Seite der fantastische Fabi, er lächelt mich wieder mal an, er ist bereit, ich seh es in seinen Augen fabi was geht ab? Ja, ich bin bereit. Ja, cool. Geil, ich wusste es, ich hab's gesehen, für dich so durchschaubar. Ja, das ist. Wir kennen uns einfach schon zu lange.
Ich seh das sofort, dass du, dass du Bock auf diese Folge hast. Aber sag doch mal alles gut bei dir. Ja, doch, ich würde sagen, alles alles gut. Also ich hab ja manchmal, weißt du, man hat ja manchmal so Sachen zu beanstanden, aber es
geht. Ist gut, alles alles im Grün Bereich. Ja, also wenn grün deine lieblingsfarbe ist, dann ja. Das so ne positive Farbe halten und grün ist wirklich ne coole Farbe muss man schon sagen aber gehen wir mal nicht so in die Farbphilosophie rein, war ja ne spannende Woche und deswegen dachten wir uns machen wir heute auch mal ne ne etwas andere Folge ja und zwar wollen wir ja heute mal sag ich mal so n bisschen. Berichterstattung kann man es nicht nennen, aber mal so, mal so. Take news.
Ja, wir sagen ja, wir machen auch ab und zu Take News, haben wir auch lange nicht mehr gemacht, deswegen heute mal so ne Take News Folge, denn die Woche hat ja die Microsoft Build stattgefunden in Seattle und wir haben da ja auch reingeschaut und waren jetzt leider nicht vor Ort, wär bestimmt cool gewesen, sah per Livestream ziemlich cool aus was da so abging. Aber wir haben uns mit den Themen beschäftigt.
Ja, und deswegen würde ich sagen, lass uns doch direkt rein starten, weil ich denke, es wird ziemlich umfangreich und damit wird die Folge von der Zeit nicht sprengen. Gehen wir mal direkt rein, stell doch mal ganz kurz die 2 Themen vor, die wir uns da. So Ausgepickt haben die wir so besonders interessant fanden. Genau, also wir können ja wie gesagt, also es wurden ja natürlich logischerweise mehrere
Sachen vorgestellt. Aber was uns ja irgendwie ganz, ich sag mal, abgeholt hat oder interessiert oder unser Interesse geweckt hat, war ja zum Beispiel einmal ne Vorstellung von github und zwar der neue, Na ja, Coding Agent oder Copilot Coding Agent, der vorgestellt wurde und auf der anderen Seite neues Protokoll, also MCP heißt das beziehungsweise Model context Protokoll. Also es ist jetzt nicht unbedingt.
Ich sag mal neu, aber das neuere dabei ist, dass sozusagen Microsoft so n native Support für dieses Protokoll in Windows 11 vor hat. Sag ich jetzt mal. Und was genau diese MCPS, da reden wir natürlich gleich noch drüber, aber wir können ja auf jeden Fall erstmal vielleicht uns auf das erste Thema fokussieren, nämlich die Vorstellung von dem github Coding Agent. Ja, man muss sagen, das war auch echt.
Ziemlich dolle im Fokus also gerade am ersten Tag in der also Veröffentlichung. Wie sagt man Eröffnungsveranstaltung ja auch mit dem CEO Vortrag und so, es war alles ganz cool gemacht muss man sagen und es ging halt da auch schon viel um genau diesen Copilot Coding Agent und das ist halt wirklich ne spannende Sache, es ist so thematisch gesehen nicht ganz neu warum ich so diese Spitze bringe, kommen wir später zu. Aber die der Grundgedanke
dahinter ist natürlich spannend, ne, also man geht jetzt davon aus oder sagt OK, wir haben jetzt einen AI Agent der jetzt quasi noch mehr Verantwortung übernehmen kann als so ne reine LLM die beispielsweise Code generiert und sagt Hey du wolltest doch wissen, wie kann ich das und das umsetzen hier hab ich dir ne Funktion generiert so jetzt kannst du.
Jetzt bei dir einbauen in deine Software ne, sondern man geht jetzt noch einen Schritt weiter und sagt Okay dieser KI Agent übernimmt Verantwortung und agiert selbstständig. Ja also er wird halt so direkt in diesem developer Workflow integriert und das finde ich finde ich halt sehr spannend. Also ist eine coole Vorstellung, dass du halt wirklich wieso eine Art ki Kollegen hast am Ende ne dem du Aufgaben delegieren
kannst und. Allerdings hat das so n wie sagt man so schön so n beigeschmäckle ne, weil das ist ja jetzt Geschmäckle, weil das ist ja nicht neu. Wir haben ja vor, Boah, das ist jetzt auch schon ne Weile her und nicht nur wir, sondern gefühlt die ganze Tech Welt über Devin berichtet ne. Und. Diesen Ansatz, über den wir hier gerade sprechen, ist das, was Devin so gehypt hat, ne, weil das sollte dieser. KI Agent ja auch schon. Können.
Ja und deswegen lass uns das mal n bisschen detaillierter angucken was github davor hat beziehungsweise umgesetzt hat, wie das mit Devin vergleichbar ist und wo jetzt hoffentlich ja bei Github wirklich die Wahrheit liegt, weil Devin ich mein das ist kein Geheimnis, da wurde viel rumgetrickst und war mehr Schein als sein am Ende und das von github, aber die Vorstellungsvideos sahen halt. Und nicht nur vorstellungsvideos, sondern es waren ja auch live Demos.
Das muss ich noch mal anmerken, das fand ich sehr cool, mit allem was dazu gehört, auch Sachen, die nicht geklappt haben. Ja, also es war wirklich live und da lass mal drauf eingehen was was da so gemacht wurde.
Ja, auf jeden Fall. Also ich mein, klar, zumindest muss man ja sagen, dass auch wenn das bei Devin da vielleicht noch nicht so richtig war, aber die hatten ja zumindest ne gewisse Vision dahinter, die ja wohl jetzt, ich sag mal von github irgendwie n bisschen Realität geworden ist. Zumindest laut der Vorstellung her.
Und im Endeffekt ist es ja so, dass du hattest ja schon gesagt, du hast dann so ne Art Teammitglied, ne AI Teammitglied der dann oder die dann ne Aufgabe übernimmt, also sowas wie Bugfixes machen, Features entwickeln oder Tests erweitern oder so ne und im Endeffekt kann man sich das so vorstellen und was natürlich irgendwie ganz cool war, war ja ist ja.
Ich sag mal, die Art der Integration bei github kennt man ja, damit arbeitet man ja auch ganz gerne und du hast ja auch ne Menge Möglichkeiten bei github. Ne, also du kannst zum Beispiel per Request stellen, du kannst n dir n Branch aufmachen, was man halt alles so kennt, also auch
über Git selber und. Im Endeffekt ist es ja, du kannst ja zum Beispiel auf einem Repository irgendwie n weiß nicht so n issue stellen oder ne ne ne ne Anfrage, ne dass du sagst OK das ist jetzt n repositor ich möchte aber gerne, dass n das und das vielleicht gemacht wird oder das und das funktioniert noch nicht oder was auch immer ne also du stellst ja irgendwie kommst mit deinen. Wünschen, Problemen an das
Repository ran. So und dann kannst du aber zum Beispiel sagen, OK, hier ist n issue n Problem was aufgetreten ist oder n Feature Wunsch oder was auch immer kannst du jetzt zuweisen an diesen Agenten, das heißt du kannst irgendwie sagen, OK hier ist der issue, ich möchte aber gerne diesen issue möchte ich jetzt ne kannst du auswählen hier zack hast du ne Liste kannst du sagen hier bitte einmal den Copilot ki Agent
auswählen und dann wird. Das sozusagen zugewiesen und der Agent dieser KI Agent, der sagt jetzt OK alles klar, ich soll mir das jetzt machen, dann analysiert er halt den issue den issue. Was sagt man die Issues dessen Issues klingt gut, also den issue das issue du weißt was ich meine so wird analysiert und im Endeffekt. Hast du, dann wird dann auch so ne Umgebung aufgebaut, das heißt der KI Agent bekommt dann so ne Art VM. Kann sich das repo Klonen und hat dann sozusagen ne eigene
Umgebung? Ne kann da auch zum Beispiel dann da drin entwickeln. Du kannst dir auch angucken was für Steps gemacht wurden und kannst auch n bisschen in den Entwicklungsprozesse reingucken und kannst dann theoretisch natürlich auch gleichzeitig. Auch noch Anweisungen dazu geben beziehungsweise irgendwann wenn der Agent fertig ist, stellt der ja n Pull request. Ne das ist find ich jetzt auch wieder cool. Das ist wieso n Workflow das ist
ja wenn du es vergleichst. Du sagst ey kannst du mal bitte das und das übernehmen an irgendeinen Kollegen Kollegin und die Person sagt dann ja alles klar mach ich dann wird
entwickelt. Und dann am Ende also du hast ja auch, du klonst dir das Repo auf deinen Rechner, zum Beispiel, du arbeitest damit, du entwickelst das Feature auf einem Branch vielleicht und sagst dann okay jetzt stelle ich ein Puri Quest und genau so im Endeffekt macht es ja dann dieser Co Pilot, dieser KI Agent und dann hast du ja am Ende das das Resultat, dass dieser Puri Quest reinkommt und dann kriegst du das ja mit so und dann kannst du ja darauf reagieren auf diesen Puri Quest.
Also es ist ja im Endeffekt so n normaler Workflow wie man ihn halt kennt, ne? So würdest du das halt auch stellen. Wirklich die Anfrage das zu reviewen ja und kannst dir das dann halt angucken und wie du schon meintest, es ist halt wirklich cool gemacht und irgendwie fühlt es sich natürlich an wie es umgesetzt wurde und das wurde auch dann im Vortrag. Quasi erwähnt, dass das so das Ziel war, so eine natürlichen
Workflow hinzubekommen. Und da dachte ich mir dann auch, wo wir uns quasi diesen Livestream angeguckt haben, das war auch wirklich so das Erste was was ich oder wir uns dabei dachten, dass es sich wirklich natürlich anfühlt und auch aussieht, ja, also wie quasi diese Integration stattfindet, weil du hast halt wie gesagt die Issues, die jeder kennt, der mit github arbeitet und kannst jetzt quasi ein issue sein und dann hast du halt deine Teams. Teammitglieder und gleichzeitig
steht da aber dann sozusagen auch dein Coding Agent Copilot drin, den du Design kannst und in dem Moment, wenn du ihn assignst, fängt er an dieses Issue zu bearbeiten und baut sich, wie du ja meinst, die eigene Umgebung auf. Ne, es ist halt auch cool, dass du diese die Workflows von github actions genutzt werden dafür ne, dass es auch so Dediziert ist, dass nichts kaputt gehen kann, nur weil der jetzt im Hintergrund dran arbeitet, weil das.
Ist ja auch so, sag ich mehr diese diese Neuheit dahinter. Du kannst ja in der Zeit an deinem eigenen Ticket arbeiten, das Ganze passiert ja im Hintergrund, ne, also du kriegst halt irgendwann den Pull request wenn er fertig ist und das find ich halt schon irgendwie crazy und dir der Gedanke ist cool zu sagen Hey warte mal. Ich hab mir das angeguckt, ich kommentier mal das und das ist irgendwie nicht richtig, könnte
man das nicht so und so machen. Und genauso reagiert dieser Agent auch auf deine Kommentare und baut dann wieder Changes ein, zum Beispiel das ist halt, das fühlt sich sehr natürlich an, also so, dass man vergessen könnte, dass du eigentlich mit einer mit einer KI da gerade zusammenarbeitest. Ne, weil es könnte auch genauso sein, dass jetzt n Kollege da zurückkommentiert ja, das finde ich halt ziemlich abgefahren, wie da so diese Zusammenarbeit umgesetzt wurde.
Und dass du halt wie gesagt am Ende getaggt wirst für n Review, dann machst du das, kannst wie gesagt Feedback geben und das ist das ist schon, das ist schon stark, muss ich sagen und was ich auch cool fand ist, die haben ja ne live Demo gemacht von diesem ganzen ne da ging es halt darum ich krieg es nicht mehr ganz zusammen, aber es gab im Endeffekt n Frontend und die Möglichkeit, dass du auf n Knopfdruck also es gab so n Button der Daten gelöscht hat, so gecleart hat ja.
Und die aktuelle Implementierung sah so aus.
Du drückst diesen Knopf und erklärt, er macht halt was er soll, man hat sich aber aus UIUX und das macht Sinn sich überlegt ja sollte man nicht vielleicht noch mal so ne Bestätigung einfordern ne also wenn du das jetzt wirklich möchtest ist alles weg, bestätigen oder canceln ne und dann gab es n issue was gesagt hat Hey bau mal bitte n Model ein was sich dann öffnet und dann muss noch mal quasi quittiert werden, dass ich das jetzt wirklich clearen möchte.
Normale UIUX Sache und das wurde halt dann wie gesagt dem Copilot Coding Agent zugewiesen und in in dem Issue war ja beschrieben was zu tun ist. Ne also das ist ja im Prinzip dann der Input von dem Agenten so genauso wie NN coder sich das Ticket sozusagen durchliest weiß er ja auch dann was zu tun ist. Dementsprechend muss das ja auch ordentlich, sag ich mal formuliert und präzise sein, ne was ich aber spannend fand. Ist, dass du sogar Screenshots verwenden kannst und das als
Input dient. Das fand ich halt irgendwie ganz cool, dass es so auf visueller Ebene auch funktioniert und dann ja, es war natürlich alles so n bisschen Show mäßig, aber cool gemacht, ne, dann hat die Vortragende halt gesagt, OK, ich hab hier von meinem keine Ahnung, sagen wir mal vom PO oder so. Ne Zeichnung bekommen wie er sich das vorstellt und dann war da halt einfach ne Skizze von diesem von dem Frontend und wie das Model da in der Mitte über
den Button sitzt, unten 2 buttons, links, rechts und so weiter ne und hat so aufgezeichnet wie er sich das vorstellt und dann hast du das quasi auch dem Agenten als Input gegeben und er hat es verarbeitet und quasi dieses Model so aufgebaut, Zufall oder geil umgesetzt sei mal dahingestellt, das ist wir berichten ja jetzt wirklich von diesem Livestream. Aber nice.
Also wenn das so funktioniert, ist das natürlich ne coole Möglichkeit, wenn du halt auch Abläufe, Skizzen, alles sowas, also grafische Elemente mit reingeben kannst. Ne es werden auch repo Richtlinien berücksichtigt, Coding Guidelines sowas ne, das ist halt schon schon ne spannende Sache muss ich sagen. Ja, das ist natürlich auch gut, dass du dann im Endeffekt so bestimmte Richtlinien mitgeben kannst, weil du ja auch bestimmte, ich sag mal, auch innerhalb von einem Team natürlich auch.
Bestimmte Guidelines, meistens irgendwie definierst. Von daher ist es natürlich auch sinnvoll, dass man sowas machen kann, dass es dann halt eben auch berücksichtigt wird, was ich halt spannend finde ist, dass auch gesagt wurde, dass es trotzdem wichtig ist, dass man den Code reviewen soll, bevor man ihn ausführt, zum Beispiel ne, also jetzt mal grob gesagt ne und das ist für mich halt immer noch so n Punkt, wo man natürlich dann im Endeffekt also.
Das ist halt n Ding, immer noch ne logischerweise so also und ich glaube das da wird auch glaub ich noch ne ganze Zeit lang dauern, wenn es nicht vielleicht nie ganz weggehen kann, dass man halt sagt, du brauchst irgendwie noch irgendwo noch diesen gatekeeper Mensch, der dann sagt, OK das passt jetzt für mich ne, weil einfach nur zu sagen, OK hier mach mal das und integrier das weiß ich nicht, ist halt. Das das, das muss man dann am Ende auch noch mal so n bisschen
überdenken wie wie dann genau? Also wie weit möchte man sich dann sozusagen auf die KI verlassen, weil da ist n eigenes Thema für sich, aber ich find es zumindest halt wie gesagt, dass das das war auf jeden Fall noch mal auch von der Seite selber auch noch mal diese Anmerkung, dass man es auf jeden Fall noch mal reviewen sollte, ne. Ja, das ist auf jeden Fall absolut richtig, auch von github so umgesetzt, dass Sie sagen, OK, der Entwickler kann nicht ersetzt werden, ne, also auch
so, Stichwort Vibe Coding haben wir auch ne Folge zu gemacht und Spoilerwarnung ist nicht so geil bei uns weggekommen sind wir halt sehr kritisch gegenüber und das deswegen fand ich es halt auch gut wie du schon meintest, dass github da vom Workflow schon sagt, Nein, am Ende muss ein Entwickler oder eine Entwicklerin über diese Changes drüber gucken. Und auch, dass das wirklich n abgetrennter Bereich ist, in dem
dieser Agent arbeiten kann. Ne, es wird auch nicht automatisch irgendwas CICD mäßig angetriggert ne, dass du halt sagst, OK, die Änderung wird direkt deployed und produktiv geschaltet, sozusagen ja auch, dass du, der den Agenten quasi erstellt, sozusagen ne, also du weißt das jetzt zu Mhm. Dem Coding Agent und wenn ich das richtig verstanden hab, dann siehst du diesen Pull request und reviewst ihn, kannst ihn
aber nicht selbst approven. Du hast halt immer noch mal so diese sagen wir mal dritte Instanz zwischen Agent dir und einem weiteren Developer der diesen Pull Request erst approven kann ja oder auch so ne interneteinschränkung ne Zugriff, dass halt du nur von vertraulichen Zielen. Zugriffe nimmst sozusagen nicht, dass er anfängt irgendwelche Packages da reinzuhauen und dir sonst was daran zieht. Das ist halt fand ich halt auch ganz gut.
Was heißt ganz gut, super wichtig, ja das ist echt wirklich ne wichtige Eigenschaft und ne ne Einstellungssache, zumal du das wenn ich das richtig verstanden hab korrigier mich aber ich meine dass auch gesagt wurde, dass es aber konfigurierbar ist. Also du hast jetzt keinen komplett eingeschränkten Zugriff, sondern. Du hast diese klassischen vertraulichen Ziele, sag ich mal und kannst aber selbst auch konfigurieren, wenn du sagst, nee, das und das möchte ich auch zulassen.
Ich hab ne Idee, Tino, Pass auf, wie wär es denn mit einem KI Agenten der Pull Requests akzeptiert? Das wär nice. Ja, wenn du den nachher noch hast, dann kannst du Füße hochlegen, Kaffee trinken. Ja, aber das, was mich halt, also wenn man sich jetzt, wenn man jetzt das Ganze noch so n bisschen weiter spinnt, ne,
also? Man kann sich jetzt hinstellen und sagen, Na ja, gut, OK, es gibt jetzt, wenn das so funktioniert, dann brauche ich ja nur noch ne Account bei github, muss sagen was ich haben möchte, dann macht der KI Agent das und dann muss ich ja nur noch das Approven am Ende und
sagen OK das doch das passt. Ich nehm das mit rein und mehr muss ich gar nicht machen, also muss ich ja eigentlich gar nicht mehr coden, also ist coden eigentlich, irgendwie braucht man nicht mehr ne und das ist halt finde ich. Also 2 Sachen die mir dazu einfallen.
Auf der einen Seite, was wirklich wichtig ist und ich glaube das ist einfach ein riesengroßer Painpoint verdammt, die Leute müssen jetzt wirklich mal anfangen richtige User Stories zu schreiben, ansonsten kann so kann auch nicht wirklich was. Damit anfangen und das, so zeigt sich es dann. Ja, also das ist wahrscheinlich auch noch mal ein Skill, der logischerweise dann irgendwie wichtig ist. Wirklich? Ich sag mal ein eindeutig irgendwie mitzuteilen, was denn
gemacht werden soll. Das ist halt irgendwie wichtig. Das heißt, du kannst da nicht einfach irgendwie einen riesen Text reinschreiben und was weiß ich hier. 5 verschiedene Anforderungen, die aber vielleicht vorne und hinten nicht ganz ein übereinstimmen und dann hinterher sagen, Komm mach mal und wird schon passen und du musst es halt auf jeden Fall noch reviewen das ist ja auch noch was, das heißt im Endeffekt, ich meine ich weiß nicht wie es dir geht Tino, aber
ich habe auch schon. Diversen Code generieren lassen und dann aber zum Beispiel auch entweder selber oder auch in ne, wenn wir zusammen irgendwie programmiert haben, irgendwie an irgendwelchen Sachen sind uns ja teilweise auch einfach bessere Sachen eingefallen. Also es gibt dann Ideen die ne, also auch Algorithmen die dann vorgeschlagen werden, aber teilweise hat man ja selber noch irgendwie dann doch geilere Ideen einfach von der Umsetzung her zum Beispiel also.
Und, und manchmal funktioniert der Kram halt irgendwie dann auch nicht so richtig so. Manchmal beißt sich das ganze Ding fest und ich kann mir vorstellen, dass so NKI Agent dann am Ende trotzdem halt auch manchmal an den Punkt kommt, wo es dann irgendwie nicht mehr weitergeht. Weißt du dieses typische. Entwickeln wir mal dieses Feature, dann kommt das Feature und wir haben ja eben gesagt, man kann dann noch mal Feedback als Kommentar geben.
Ne, nach so einem Review und sagen Na ja, pass auf das und das ist schon ganz gut, aber da brauchen wir noch n bisschen was, das muss noch n bisschen verändert werden ne so und ich kann mir vorstellen, dass dann immer wieder n Pull request kommt. Ne von diesem Agenten und jedes Mal kommst du an einem Punkt wo du denkst nee, so auch nicht so doch auch. Nicht das nicht, ja. Und dann bist du ja, und dann kommst du noch ganz kurz noch und dann kommst du ja wieder an diesen Punkt.
Dass du sagst, okay du Reviews diesen einen Code, dann kommt ein neuer Pull request und auf einmal sieht der Code deutlich
anders aus als vorher. Das heißt, du musst dich wieder reindenken, das heißt, und hier, das finde ich, ist dieser, das ist für mich zumindest dieser wichtige Punkt an der Stelle, du kannst es nutzen als Unterstützung und es wird dich sicherlich schneller machen in der Softwareentwicklung, aber ich glaube, dass du immer wieder an Punkte kommst, wo du einen gewissen initialen Aufwand von diesem Agenten. Dir übernehmen lässt und dann selber noch weitermachst.
Weißt du also, dass du, dass es irgendwann sich zeitlich nicht mehr rentiert zu sagen, Komm, mach mal noch mal, mach mal anders? Nee, mach mal noch mal anders, nee, mach mal neu und dann fängst du irgendwann an und sagst, Ach komm, pass auf den Policas, den Leucht ich komplett weg, der kommt gar nicht rein, ich schreib das jetzt noch mal neu, weißt du? Ja. Solche Sachen und wo man ja auch wieder dran denken muss, das kostet ja auch irgendwo Geld. So ne so n so n Agenten zu
benutzen, ne? Ja, auf jeden Fall. Ganz, ganz wichtiger Punkt, das ist ja alles nicht, das ist ja nicht, wie sagt man for Free die ganze Nummer, also allgemein so was laufen zu lassen, keine Frage, haben wir auch schon oft drüber gesprochen, was ich halt erstmal förderlich finde ist, dass sozusagen sehr ausführlich von dem Agent beschrieben wird, was er geändert hat, das heißt lässt sich dann auch ganz gut reviewen, dass du siehst okay. Das und das hat er umgesetzt.
Du hast so Akzeptanz akzeptanzkriterien meine Güte, heute ist aber sprechen wieder schwierig, die so abgehakt werden, ne dann sagt er, OK, das habe ich umgesetzt, da und da sind die Änderungen und so weiter das kannst du gut nachvollziehen, das ist halt auch, dass auf den ersten Blick sehr gut umgesetzt aus im Sinne von damit kann man arbeiten, dass man dann auch schnell sieht, was ist da passiert, weil ich glaube es auch bekannt ist, wie du gerade meintest.
Dann werden halt 1000 Sachen geändert, irgendwie läuft es doch nicht richtig und irgendwann. Kommst du halt in so n Teufelskreis wo du nur noch änderst und änderst und änderst, aber es nie richtig zu der
eigentlichen Lösung kommt. Ja und deine ganze Code Basis gefühlt Umgefügt wurde deswegen glaube ich wird ja auch explizit gesagt und ich meine das Stand in dem Gitter Blog selbst, die gibt es ja auch n Artikel zu dem Thema den sie ja dann quasi am Montag auch direkt rausgehauen haben, weil wie gesagt Montag wurde ja das Thema veröffentlicht sozusagen.
Und spannend war, dass da drin stand für leichte bis mittelschwere Aufgaben. Ja, also es wird halt schon von vornherein gesagt, Leute für richtig komplexe Issues, nee, also das steht nicht explizit da, aber so hört sich das für mich an, wenn ich sage, zum Beispiel hier, ich möchte so n Model einbauen, ne und das soll einfach noch mal bestätigen ob das wirklich passiert, das traut das kann ich mir gut vorstellen, dass das funktioniert oder so n bisschen.
Ja, so kleine Änderungen wie der Button muss ein bisschen anders aussehen, aber weiß ich was irgendwie sowas den Button Grün macht, den Button grün? Sowas könnte ich mir vorstellen. Ja, aber es ist. Es hat halt seinen Grund, warum dieser Satz da drin steht, denke ich. Das auf jeden Fall. Was ich auf jeden Fall, weil du auch vorhin noch Vibe Coding gesagt hast und gerade in Kombination mit diesen Agenten zum Beispiel, die ja, ich denke
mal, einfach logischerweise. Es geht jetzt los damit, die werden auch überall noch weiter aus dem Boden sprießen und ich fand, wenn man sich jetzt, weil es ist ja immer es ist, man kommt ja immer wieder, vielleicht an diesen gedanklichen Punkt zu sagen, bringt das noch was, Softwareentwicklung, was, was soll das ne und das Beste was ich dazu in letzter Zeit gehört habe.
Ne, falls man jetzt noch irgendwie an einem Punkt ist, wo man vielleicht struggelt und sagt, ich wollte es gern machen, aber eigentlich, vielleicht mache ich es doch nicht, bringt doch gar nichts mehr. Ich brauche doch nur noch irgendwie hier ne irgendwelche Agenten benutzen.
Ich finde es voll interessant wenn man, wenn man das Gedankenexperiment macht und sagt es kommen im im Normalfall immer mehr Leute logischerweise oder so und so viele Leute, es gibt ne Betrag x von Leuten die in die Softwareentwicklung reingehen ne und ob das jetzt dann.
Softwareentwickler sind, wie wir sie von gestern oder heute vielleicht noch kennen oder halt nur noch irgendwann vipe Coder sind, die dann reinkommen, ne, und wenn du dir aber überlegst, dass du irgendwann, dass alle, die jetzt anfangen programmieren zu lernen, nur in Anführungsstrichen Vipe Coder sind, die sich auf KI verlassen und vielleicht gar nicht mehr richtig verstehen, wie Programmierung läuft, ey dann und und und. Du bist noch jemand, der das.
Richtig lernt in Anführungsstrichen richtig lernt, dann bist du einfach der Rockstar. Später, wenn es darum geht, Softwareentwicklung zu betreiben, weißt du was ich meine und ich finde das ist n super guter Anreiz zu sagen ey lern das und lass dir das nicht einfach alles Vibe Coen sondern versteh was da passiert ne und ich fand das war so find ich irgendwie das beste was in letzter Zeit so zu diesem was ich zu diesem Thema gehört hab
und ich find das stimmt auch. Ja, gehe ich absolut mit. Jetzt ist natürlich auch die Frage, wie gut funktioniert das nachher wirklich produktiv bei jedem einzelnen, deswegen möchte ich noch mal kurz den Devin Vergleich ziehen, ich meine Devin kann wahrscheinlich der eine oder andere auch nicht mehr hören, das war ein riesen Hype, alle haben davon gesprochen und die Demos sahen so toll aus und krass was der alles konnte, aber es hat sich am Ende herausgestellt, dass auch viel.
Gestellt war, sag ich mal Gefaked war und auch nicht reproduzierbar war. Es war auch kein Open Source. Ja, also man kann konnte sich das auch nicht wirklich angucken was da passiert und hier ist jetzt ganz klar der Unterschied das github was vorgestellt hat was einfach Realität statt Vision ist. Nenn ich es mal so ne sie haben gezeigt dass es funktioniert und sie bieten es auch an, das ist
jetzt nicht. So gedroppt worden und hier guck mal wie krass, aber ihr dürft es nicht nehmen, sondern das ist produktiv. Ja also du kannst es nutzen und es ist auch vollständig in ihrem etablierten Workflow, wie wir ja gesagt haben integriert und das ist ja nicht einfach so.
Ja, also das ist ja auch schon n Statement zu sagen, das ist voll integriert hier und es wirkt halt einfach schon irgendwie sicher in der an in der Anwendung sage ich mal und es hat alles Hand und Fuß ja also es ist nachvollziehbar was. Was wie da und warum passiert deswegen, liebe Zuhörer, lieber Zuhörer, die Anmerkung aber noch wegen diese, man kann es verwenden, dann muss man hier aber anmerken, dass das aktuell für Co Pilot Pro Plus und Enterprise nur gilt.
Ja, also das. Aber nichtsdestotrotz nicht, dass jetzt jeder hier mit Free versucht, das jetzt zu verwenden. Das geht leider nicht aktuell ja, aber nichtsdestotrotz Tino, Wir wollen natürlich auch gucken, dass wir irgendwie in der Lage sind, das auch so schnell wie möglich mal auch auszuprobieren. Ja, ich hätt da Bock drauf, da müssen wir mal gucken, wie wir das hinkriegen. Und dann checken wir das einfach
mal aus. Sobald wir es machen, sagen wir mal Bescheid. Auf jeden Fall abschließend an der Stelle noch Chapeau. Github sieht auf jeden Fall ziemlich nice aus, war auch ne geile Präsentation, hat uns mega Spaß gemacht da zuzuschauen. Ich würd sagen wir gehen aber mal zum zweiten Teil rüber, ich meine das kam auch direkt im Anschluss bei dieser Hauptveranstaltung bei der Eröffnung und zwar wurde angekündigt, dass.
Windows 11 ein native Support für MCP bekommt und ich finde das reiht sich so nahtlos in dieses Agenten Thema ein, weil das geht genau in die gleiche Richtung. Also ich hatte das ja am Anfang schon gesagt, das ist jetzt das zweite Thema dieses MCP, also quasi Model, Kontextprotokoll und aber was ist das eigentlich genau? Kannst du es kurz einmal vielleicht?
Ja, also im Prinzip geht es darum, dass man sich überlegt hat oder versucht hat, einen einen offenen Standard zu entwickeln, also quasi ein leicht gewichtiges, gewichtiges Protokoll, was in dem Fall Jason APC basiert, ist also das Ganze zu entwickeln, und das wurde von anthropic glaube ich Ende 23.
Also es ist noch, es ist, es steckt doch in den Kinderschuhen, muss man dazu sagen, ist aber eine geile Sache, einfach ne, also jetzt MCP allgemein, weil das Ziel ist zu sagen, wir haben jetzt so einen offenen Standard der es erlaubt universell eine einfache Tool Ansteuerung durch zum Beispiel LL MS zu ermöglichen. Ja, dass du im Prinzip es schaffst ll MS nicht nur. Reden zu lassen.
Ich sag formulier es mal so, sondern sie auch ins Handeln zu bekommen, dass du keine Antwort mehr bekommst hier. So und so sieht die Funktion aus, die du dir wünschst. Füge Sie jetzt in deinem Projekt ein, sondern du Schnittstellen hast, dass das automatisch passiert, sozusagen ne, also dass wirklich ne Handlung stattfindet und da gibt es halt diesen Vergleich, der hat sich einfach jetzt schon durchgesetzt, aber der ist halt auch wirklich gut, dass man sagt MCP. Ist das USB C für KI?
Ja, du hast halt eine standardisierte Verbindung zwischen Sprachmodellen und Tools und das ist halt wirklich ein cooler Vergleich, weil wenn du es schaffst so ein USB C für KI zu entwickeln und durchzusetzen und alle entwickeln danach, dann hast du halt also eine unglaubliche wie soll ich sagen Anbindungsmöglichkeit am Ende.
Und ich hab mich denn jetzt in dem Zuge auch mal n bisschen mehr mit dem Thema schon beschäftigt, weil es klang halt spannend so, gerade wenn Microsoft groß ankündigt, wir jetzt hier mit Windows 11 werden, so n native Support integrieren. Ja denkst dir so OK das ist es ist angekommen. Ja von so einem von so einem von so einer Idee, von so einem kleinen sag ich mal anfänglichen Projekt hinzu, alle wollen das jetzt umsetzen, das soll jetzt
quasi. Ausgerollt werden weltweit sag ich mal ne und es gibt halt auch schon viele Tools die das unterstützen. Also so zu die sogenannten MCP Server unterstützen, da gehen wir ja gleich noch mal n bisschen drauf ein wie MCP funktioniert und dann sind mir so Listen untergekommen wie whatsapp, Blender, Dropbox, github, ja jetzt auch oder Spotify so die die Supporten das
dann denk ich mir OK krass also. Wenn diese ganzen Tools und es sind noch viel, viel mehr und es wären auch noch viel, viel mehr diese Schnittstelle unterstützen, dann hast du irgendwann eine Automatisierungsmöglichkeit, die
grenzenlos ist. Ja da, wenn du es wirklich, wenn du wirklich sagst, diese ganzen Tools kann ich anbinden über eine allgemeine Schnittstelle und kann mit LLMS quasi sagen, also wirklich sagen was ich möchte und dieses dieser LLM, also eine LLM als Client. Nutzt jetzt diese ganzen Tools um das umzusetzen was du geprompted oder wirklich vielleicht auch stimmlich aufgenommen hast, um das
umzusetzen. Das ist halt, das ist halt wirklich, das ist schon, das ist schon so ein bisschen revolutionär, muss ich sagen, das ist so der Next Step dahinter dann, und das finde ich halt ziemlich cool, dass dieses Thema da auch von Microsoft Seite aus angegangen wird. Ja, auf jeden Fall. Also du hast halt einfach mehr Möglichkeiten, also um das noch mal aufzugreifen und. Du hast halt nicht mehr dieses. Ich würde gerne beispielsweise was weiß ich das und das und das gerne machen.
Ne also nimm mal, du hattest Blender gesagt so n 3 d Modell oder so ne, dass du dann sagst so ja ich würd gern n 3 d Modell von. Was weiß ich. Donald Donald Duck machen so wie kann ich damit loslegen? Und dann sagt er dir ja, guck mal Pass auf, am besten du machst jetzt n neues Projekt auf, dann machst du dies, dann machst du das, dann gibt dir dann gibt das Modell dir so Anweisungen denen du folgen kannst und Tipps wie du das
selber hinkriegen kannst. Wenn du dann aber diese Anbindung irgendwo hast, kannst du natürlich dann im Endeffekt.
Diese diese Anfrage stellen das Ding kommuniziert wiederum mit Blender und Blender, gibt dir dann sozusagen am Ende dann dieses Modell über ne, also dieses dieses 3 d Modell zurück, so würde ich das jetzt verstehen und dann hast du natürlich ein bisschen mehr einfach noch gekonnt, als dass du also gekonnt im Sinne von du kommst schneller an dein Ziel ran, weil du ja selber dann sozusagen diesen ganzen Kram nicht mehr machen musst. Ne also?
Da gab es ja auch wirklich coole, coole Beispiele, die. Beispielsweise sowas wie das so eine KI Datei Zugriff bekommt. Ja und du denn so was sagen kannst. Wie finde die Dateien zu Projekt XY, fasse die bitte noch mal zusammen und schicke sie dann bitte ans gesamte Team. So das würde aktuell ja ohne MCP oder ohne diese Vision dahinter gar nicht funktionieren, dann würde halt wahrscheinlich kommen so ja ich kann nicht auf deine Dateien zugreifen.
Lad sie mir doch bitte hoch und dann fasse ich sie zusammen oder gib mir den Inhalt. Ich fass dir das zusammen, ne, also du hast halt keinen gemeinsamen Kontext, so an der Stelle und sie ans Team schicken wird schon gar nicht funktionieren so ne. Aber wenn du jetzt so verschiedene Tools integrierst in diese.
MC, also MCP Landschaft, und er kann halt vom Dateisystem diese ganzen Projektdateien finden, Sie zusammenfassen und beispielsweise bleiben wir mal in der Microsoft Welt über Outlook ans Team versenden, als Mail beispielsweise oder über Teams per Nachricht, wie auch immer, ja, das ist das ist halt, das ist halt next Level dann so ne. Und dafür wurden ja auch ziemlich viele Partnerschaften vorgestellt, mit Figma zum Beispiel oder Zoom.
Was waren mir jetzt noch so im Kopf, also da wird auf jeden Fall da werden ordentliche Kooperationen eingegangen, und da, da geht was, sagt man ja so schön in Zukunft. Ich find es halt spannend, weil auf der einen Seite ist es natürlich immer ne ne coole Vorstellung, weil du ja einfach schneller auch als sag ich mal Einzelperson, mal als Beispiel.
Du kannst dann vielleicht einfach, du musst nicht Ewigkeiten zum Beispiel an bestimmten Dingen sitzen als Einzelperson, sondern das wird dir dann irgendwie abgenommen, weil halt eben diese diese das LM zusammen mit den entsprechenden Tools dann am Ende dir halt das, also dich da unterstützt halt einfach, das ist natürlich auf der einen Seite irgendwie was Schönes, auf der anderen Seite ist es auch irgendwie immer finde ich so ein bisschen.
Also irgendwo so n bisschen gruselig ist es schon so, weil ja ich, also ich weiß nicht ob ob du es so nachvollziehen kannst, aber ich denk mir halt so. Wenn du irgendwann also du du hast dieses, du sagst ey, bitte nimm mir mal, nimm mir mal meine, mach mir mal n Fotoalbum aus den Bildern, ne sagst du dann deinem Handy oder so aus den Bildern von dem Urlaub wo wir da waren so und dann kriegt
das Handy das hin so und dann. Frag ich mich immer okay, aber wer weiß das denn jetzt noch besser? Ich meine hat die Gaiale Fotos gefunden, das ist die Frage ich weiß ich weiß was du meinst. Das ist halt irgendwie oder oder einfach sowas wie was ist wenn es ein paar löscht weil es denkt so ja NÖ die gehören nicht dazu oder die Fotos sind ja eh nicht gelungen. Genau.
Das ist ja geh ich ganz mit, das ist irgendwie ne komische Vorstellung. Aber aus technischer Sicht schon krasse Möglichkeiten, die sich da ergeben. Halt ne, aber das ist eigentlich ganz cool, dass du das ansprichst auch so n bisschen bedenken, weil in dem Zuge auch ganz klar Herausforderungen und so Sicherheitsrisiken genannt wurden in dieser Präsentation. Und lass uns doch da noch mal
kurz drüber sprechen. Also wir haben ja gesagt, also du hast halt auf einmal so Zugriffe aufs Dateisystem, auf andere Applications. WSL wurde auch genannt, zum Beispiel und jetzt, was bringt das mit sich? Ne, das klingt alles ganz cool, aber es ist ja auch richtig da bedenken anzumelden sozusagen. Und dann hatte Microsoft da auch verschiedene konkrete Risiken genannt.
Ja, also ganz oben stand natürlich immer noch das Thema prompt Injection. Haben wir uns ja auch schon mit beschäftigt, haben wir auch schon mehr mehrfach auf dieses coole Gandalf Spiel verwiesen, wo du genau das einfach mal
ausprobierst. Ne, also mittels prompt Injection quasi Secrets zu entlocken und das haben war natürlich auch ganz oben da ne also zu sagen was ist wenn ich den Agenten dann durch manipulierte Texte oder Formulierung fehlleiten kann, ja richtig, das ist auf jeden Fall weiterhin n Risiko dabei oder wahrscheinlich noch umso mehr.
Ich find, das erinnert mich immer so n bisschen an so ne Art Social Engineering, bloß halt dann weiß ich nicht auf klassischer Ebene KI Engineering, ich weiß ja weißt du was ich meine, also es ist halt also daran erinnert es mich immer, dass du irgendwie, also dass dass du so ne KI halt austrickst wie du halt theoretisch auch nen Menschen austricksen kannst und ich es funktioniert hundertprozentig,
irgendwie immer. Also du kriegst bestimmt irgendwie, irgendjemand findet wieder irgendwas, wie man an irgendwas rankommt und das ist eigentlich irgendwie tricky.
Und was ich mir auch dann in diesem Zuge irgendwie überlege ist, wenn du man kann so viel mit KI mittlerweile machen und es wird natürlich auch immer mehr ne da frag ich mich halt so, es ist ja nur ne Frage der Zeit bis du irgendwie ne Art von KI hast, die dann halt im Endeffekt genutzt wird um eben genauso solche Schwachstellen noch zu erkennen. Ne, dass du halt quasi gar nicht selber dafür sorgen musst, dass du ne prompt injection machst, sondern dass du halt sagst.
OK, ich hab jetzt ne KI, der du sagst, OK, versuch mal bitte über ne gewisse prompt injection an entsprechende Daten heranzukommen, ne? Ja. Meiner Meinung nach irgendwie auch nur ne Frage der Zeit und ich find da ist auch dann am Ende auch wieder nur mal um den Bogen noch n bisschen weiter zu schlagendie.it Security. Einfach noch mal wird auf noch mal n ganz anderes Level gehoben, ne? Ja, aber.
Es war sehr. Spannend, ja, damit muss man sich auch zunehmend immer mehr auseinandersetzen, weil die Gefahren halt auch immer größer werden und vielseitiger. Beispielsweise wurde ja auch Tool Poisoning genannt, das finde ich halt auch sehr spannend bei dem Thema, was ist wenn so NMCP Server ja, also der jetzt so Funktionalität bereitstellt, einfach unsicher ist. Ja, also du promptest jetzt was du bist halt. Also ich glaub wir haben das noch gar nicht so genau erklärt.
Du hast ja im Prinzip das Protokoll, sieht ne Client Server Applikation vor. Ne du bist jetzt zum Beispiel der Client oder die LLM ist der Client und du Triggerst das zum Beispiel über VS Code hatten sie natürlich als Beispiel gebracht, ne dass du sagst ich möchte das und das haben so und dann wird. Ja, an. Dann werden ja Anfragen quasi an einen MCP Server gestellt, so der kann jetzt validiert sein, ne und einfach vernünftig sozusagen vernünftigen Dienst
bereitstellen. Aber was ist, wenn du einfach an ne unsichere Server gelangst die einfach gefährliche Funktion ausführen, einfach absolut valide ne oder dadurch zum Beispiel Cruidentials geleakt werden, ne, dass sie, dass du sagst ey ich, ich geb dir meine Login Daten mal blöd gesagt ja. Bitte frag mal bei dem und dem Service meine Daten ab und dann wird das aber halt entweder umgeleitet oder irgendwie werden
die geleakt. Das wäre das wäre der absolute Supergau. Ja gut, geleakte Contentials ja auch nichts Neues. Gut ist halt mal kurz sichtbar, meine Liebe. Ja, also sowas oder oder Command Injection wurde genannt noch der vierte Punkt mal dahinter den ich halt auch super spannend finde ist wie validierst du diese Eingaben die an den Server gehen. Durch ne LLM zum Beispiel. Welche gefährlichen Aktionen
können daraus entstehen? Das sind halt alles so fragen die dann aufkommen halt ne weil es es fühlt sich ja und das ist glaub ich das was auch so n bisschen Angst macht dabei wie ne Blackbox am Ende an ich habe ne eingabeschnittstelle, dass ich sage ey such mir doch mal bitte die und die Fotos oder oder Protokolle raus von irgendeinem Projekt was wir vorhin genannt hatten was passiert wirklich unter der Haube, ja. Werden jetzt alle meine Daten
durchgeguckt? Werden die irgendwo zwischengespeichert, um irgendwie zu analysieren? Ey, gehört das zum Projekt oder nicht? Das sind alles so Sachen, dann am Ende die es halt abzusichern gilt. Ja, das ist ja auch noch mal ich. Ich glaub da tut sich auch noch mal n ganz neues Feld auf. Auch wissenschaftlich würde ich jetzt irgendwie vermuten, was ich interessant finde ist, weil
du Blackbox gesagt hast. Es ist ja am Ende immer ne Blackbox, wenn du wirklich ne Blackbox hast, dann weißt du ja, dann hast du ja irgendwo. Die Möglichkeit des Kontrollverlustes, weil du vielleicht gar nicht mehr weißt, OK, was passiert da eigentlich genau?
Ne also und ich find das ist halt natürlich irgendwie mal so n so n bisschen schwierig, weil auf der einen Seite willst du halt unbedingt die Kontrolle logischerweise behalten, macht ja auch Sinn, also gerade auch über diese Technologie und auf der anderen Seite musst du halt gucken, dass du sie, dass dass die Technologie halt eben auch. Das bestimmte Dinge machen darf.
Ne also und ich find das ist halt ich find das ist halt irgendwie so genau diese die diese Schwierigkeit irgendwie zu sagen OK wir wollen diese Technik haben, wir wollen diesen Fortschritt haben und auf der anderen Seite zu sagen so ey aber halt Stopp mal jetzt nicht gleich schon wieder n Schritt weiter ich find halt zum Beispiel auch diese den den das Gedankenexperiment zu sagen weil es geht ja jetzt schon.
Deutlich mehr in eine gewisse Richtung, die, wie sage ich mal die, die man schon mal auch ich glaube der Nvidia Chef hat.
Das glaube ich auch mal gesagt, dass du irgendwann hast du keine Anwendungen mehr in dem Sinne wie wir sie kennen, sondern du sagst ich k. Ich möchte jetzt also so als Beispiel habe ich mir das vorgestellt, dass ich zum dass ich sage, ich möchte jetzt zum Beispiel Tino anrufen, ne und dann hast du aber nicht irgendwie n. Messenger, den du benutzt, damit ich dich anrufen kann, sondern das Modell hat n gewissen Kontext.
Weiß OK das bist du. Fabian der Tino von dem du redest wird wahrscheinlich der und der sein und den Ruf ich jetzt an. Ich werde eine Verbindung aufbauen und auf deinem Handy keine Ahnung baut sich. Irgendwie n Kanal auf den also, der kommt quasi sozusagen eigentlich schon emuliert am Ende, dass du halt quasi genau die Funktionalität bereitstellen kannst. Jetzt wird sozusagen diese App. On the Fly sozusagen aufgebaut. Genau so, so war das glaub ich in dem Interview.
Ne genau das ist auch ne völlig crazy Vorstellung, so aber auch irgendwie geil, also technisch gesehen irgendwie krass halt. Ne, ja genau, also und und und das mein ich also das ist halt ne super krasse Vorstellung, irgendwie fühlt sich das so n bisschen an, als würde dieses als würde es jetzt so so n bisschen so das so die ersten Schritte in die Richtung schon gehen weil halt eben. LLMS nicht nur für Antworten da sind, sondern auch zum Handeln dann sozusagen dienen mit diesem
MCP. Und es ist spannend, es ist super interessant und auf der anderen Seite birgt es irgendwie gefahren und auch gleichzeitig irgendwie finde ich so den, den so hat so n gewissen Touch oder so n gewisses Feeling von Kontrollverlust, dass man sagt so ja OK, du kannst übelst viel damit machen, du weißt aber gar nicht mehr wieso das passiert, so weißt du. Und deswegen find ich immer, und das ist so mein Take dazu, es ist immer unglaublich wichtig,
dass man irgendwie in in Softwareentwicklung einsteigt, dass man da irgendwie drin ist, dass man irgendwie so möglichst viel noch von diesem ganzen Kram versteht, weil wenn du es irgendwann überhaupt nicht mehr verstehst, so, dann weiß nicht. Dann dann ist die Frage, benutzt du die KI oder benutzt die KI
dich? Das ist ne absolut valide Frage, weil ja, also klar, du bist dann irgendwann irgendwo user, aber auch irgendwo Zuschauer am Ende ne, also dann lässt du es geschehen und hoffst, dass es gut ausgeht am Ende und man muss natürlich auch sagen, dass zu all den genannten Sicherheitsrisiken. Microsoft auch Lösungsansätze mitgeliefert hat. Ne klar haben Sie es so präsentiert, das Macht auch Sinn und ist ja auch gut so, dass sie da schon Konzepte haben oder Umsetzung.
Man weiß ja jetzt nicht wie weit das genau ist und da will ich nur auf eine Sache jetzt am Ende der Folge noch eingehen, dass sie ja so ne Art Proxy System für Windows 11 angekündigt haben, dass das integriert ist und zwar um genau solche Sachen wie. Tool Poisoning Command Injection zu kontrollieren ne, dass sie sagen, dass all diese Interaktion zwischen MCP Clients und Servern über ein Windows internen Proxy laufen ne ja und du dadurch ne zentrale Richtlinienkontrolle hast zum Beispiel.
Dass du ne einheitliche Authentifizierung hast und Autorisierung vor allem und das einfach transparent protokodiert ist sozusagen ne. Also du hast kannst halt Sicherheitslösung einbauen, das Halt vielleicht darin schon
erkannt wird. Hey nee warte mal, das sieht da was passiert da gerade, das sieht nicht gut aus so ne das das das blockieren wir sozusagen auch so ne Tool Autorisierung wie ich gerade angesprochen hab haben Sie natürlich genannt ne zu sagen ein Nutzer mussten Zugriff auf ein Tool auch
freigeben ja also. Wenn jetzt rauskommt, ey, ich würd jetzt gern Blender verwenden, zum Beispiel dann autorisierst du das OK. Du kannst auf meinem PC jetzt lokal Blender verwenden um dieses Modell, was hast du gesagt, Bugs Bunny Nee weiß ich nicht mehr, Donald Duck war es glaub ich zu zu modellieren so ne also da da muss natürlich auch ne gewisse Freigabe erfolgen.
Und ein Punkt, den ich auch spannend fand, ist, dass sie gesagt haben, es gibt da ne Windows Registry mit geprüften MCP Servern. Ja, dass du einfach auch gewährleisten kannst. OK, die sind sauber. Ja gut, sowas kennt man ja zum Beispiel auch von von Docker. Hattest du ja glaub ich vorhin auch genannt. Genau ne, dass man halt nee du, ich glaub du meinst Dropbox.
Aber aber also du hast ja genau, du hast ja auch genau, du kannst ja auch ne Menge Images da irgendwie finden die da irgendwie vorhanden sind, aber du weißt nicht, bei jedem ist es irgendwie sicher macht es Sinn, darf ich das, kann ich das ohne Bedenken benutzen? Ne und das ist ja im Endeffekt so ne so n Vergleich den man da ziehen kann, dass du halt sagst OK das sind authentifizierte oder ne geprüfte wie auch immer MCP Server die sauber sind so ne.
Ja, ja, Fabi genau. Also ja, was soll man sagen, Rap noch. Also es war vieles, war auch wirklich viel die Woche, wir haben uns auch noch nicht alles angeschaut, es gibt ja auch so Aufzeichnungen, wir werden auf jeden Fall noch weiter reinschauen, Liebe zuhören, Liebe zuhören, falls dich das Thema interessiert und du weitere Infos dazu haben möchtest, melde Dich auch gerne bei uns. Es ist wirklich ein spannender Bereich, aber. Also noch mal kurz
zusammengefasst. Co Pilot, der Agent ist sozusagen der neue KI Coding Kollege. Ja der jetzt produktiv mithilft und selbstständig arbeitet und MCP, was wir als zweites besprochen haben, scheint ja wirklich, auch wenn es noch wirklich im Anfangsstadium ist, aber so das Fundament für eine neue Ära zu sein, für Apps und Agenten im KI Bereich und das ist halt wirklich.
Das ist, das ist geil, das ist. Es hat seine Risiken, aber die technischen Möglichkeiten, die dahinter stecken oder die potenziell möglich wären, dadurch kann man nur sagen, ist
geil oder ja, definitiv. Also wie gesagt, das ist ja natürlich jetzt irgendwie so, der so ein so ein gewisser Schritt, dass KI nicht nur so eine Art reaktives, sondern eher auch so eine gewisse Art von Proaktivität dann mit sich bringt, aber natürlich immer noch unter einer gewissen Kontrolle. Beziehungsweise Benutzung des von uns und deswegen wie gesagt hab ich jetzt schon zweimal oder so in der Folge gesagt, aber ich finde es ist jetzt nicht ne Zeit
wo man sagt OK Entwickler zu werden ist so wie blöd bringt nichts mehr sondern ich finde es ist gerade wirklich ne sehr sehr spannende Zeitentwickler zu werden und es macht Sinn auch zu gucken oder entwicklerin es macht Sinn einfach Dinge zu verstehen. Und nicht nur an der Oberfläche zu kratzen, sondern auch tief einzusteigen.
Und wenn man sich das ganze Mal überlegt, von allem, was man jetzt hat, ich glaube so einfach Softwareentwicklung zu lernen, da einzusteigen, so einfach war es noch nie und gleichzeitig ist es natürlich aber auch irgendwo wichtig, da einzusteigen, also nicht nur Vibe Coding zu betreiben, sondern auch zu verstehen, wieso bestimmte Dinge passieren, wie sie passieren, also immer schön Dinge auch verstehen.
Und in dem Sinne würde ich sagen, Dino, das war's, glaube ich habe nichts mehr dazu zu sagen. Nee, ich auch nicht. Bin gespannt, wie es da weiter geht. Genau da werden wir natürlich alle mehr oder weniger zwangsweise auf dem Laufenden gehalten. Aber wir werden euch natürlich auch immer weiter auf dem Laufenden halten und ich würde sagen, damit war's das auch für diese Folge.
Wir hören uns auf jeden Fall beim nächsten Mal wieder und wenn dir die Folge der Podcast gefallen hat, lass auf jeden Fall mal eine Bewertung da und. Und wenn du sagst, Ey, das ist einfach ein cooler Content, ich, ich mag das gerne, kriege ich ja
alles hier auch umsonst. Aber ich möchte den beiden trotzdem noch mal was zurückgeben, dann könnt ihr auch mal eine kleine Spende da lassen und wie Tino gerade meinte, ihr könnt euch auch bei uns melden, mit uns quatschen auf dem Discord, was auch immer alle Links zu allen Sachen, die ich gerade genannt habe, sind auf jeden Fall in den Shownotes verlinkt und ansonsten guckt auch noch mal bei Microsoft Bild rein bei den Aufzeichnungen. Und spannende Themen, spannende
Themen. Sagt, was ihr darüber denkt und ansonsten bis zur nächsten Folge Eure Coding Bullys gemeinsam besser.