KI im Finanzbereich - podcast episode cover
Download Metacast podcast app
Listen to this episode in Metacast mobile app
Don't just listen to podcasts. Learn from them with transcripts, summaries, and chapters for every episode. Skim, search, and bookmark insights. Learn more

Episode description

In der aktuellen Episode des NORD/LB Podcasts "Investors Talk" diskutieren Host Marcel Leist und Ron Große mit Hans-Jörg von Mettenheim über die Rolle der Künstlichen Intelligenz im Finanzwesen. Schwerpunkt der Diskussion sind Large Language Modelle (LLMs) wie ChatGPT, die in den letzten Jahren stark an Bedeutung gewonnen haben. Gemeinsam beleuchten sie, welche Chancen und Risiken diese Technologie für etablierte Unternehmen und Start-ups mit sich bringt und wie LLMs tatsächlich in der Vermögensverwaltung eingesetzt werden können. Hype oder echte Revolution – das erfahren Sie in dieser spannenden Folge.

Transcript

Herzlich willkommen zum Investors Talk Impulse für Ihre Geldanlage. Hier hören Sie, was die Finanzwelt bewegt und wie Expertinnen und Experten der NordLB den Kapitalmarkt analysieren. Noch ein kurzer Hinweis, bevor es losgeht. Die in diesem Podcast besprochenen Aktien, Fonds und Finanzprodukte stellen keine Kauf- oder Anlageempfehlungen dar. Die NordLB haftet nicht für etwaige Verluste, die dadurch entstehen, dass im Podcast genannte Gedanken und Ideen ohne

individuelle Beratung und Empfehlung umgesetzt werden. Herzlich willkommen, liebe Zuhörerinnen und Zuhörer, zu einer neuen Folge unseres NordLB Podcast Investors Talk Impulse für Ihre Geldanlage. Ich bin Marcel Leist, Portfolium Manager aus dem Portfolium Generationenmanagement. Und ich habe mir heute natürlich wieder Gäste eingeladen. Zum einen ist es Ron Große, Leiter Portfolium Generationenmanagement. Und einen, auf den ich mich besonders heute freue, einen externen Gast,

den wir uns heute eingeladen haben. Das ist Hans Jörg von Mettenheim. Er ist Professor an der E-Pack Business School in Paris und leidet dort das Department für Ökonomie und Finance. Und unser Thema heute und passender kann es eigentlich gar nicht sein, soll sein künstliche Intelligenz und das Zusammenspiel mit dem Finanzmarkt, in dem Finanzbereich. Da wollen wir ein bisschen reingucken, zum einen, wie ist es eigentlich entstanden, wie ist da so die Historie, wie ist der heutige

Stand und auch ein Ausblickwagen zu diesem Themenbereich. Was geht da eigentlich, was kann man heute damit schon machen? Und wie gesagt, da haben wir die perfekten Gäste heute für hier im Podcast und wir starten dann auch ein Stück weit rein. Hans Jörg, magst du ein bisschen was zu deiner Person vielleicht am Anfang erzählen und dann einen Einblick darin geben zum Thema Historie, Künstliche Intelligenz im Finanzmarktbereich. Wie bist du vielleicht auch dazu gekommen? Und

wie hat sich das eigentlich in der Historie entwickelt zu dem Stand, wo wir heute sind? Das würde uns und unsere Zuhörerinnen und Zuhörer, glaube ich, brennen interessieren. Ja, Marcel, vielen Dank. Dann gehe ich erstmal, sag ich mal, auf meine eigene persönliche Historie ein. Also in der Tat mittlerweile beschäftige ich mich seit über 20 Jahren mit künstlicher Intelligenz und zwar bevorzugt mit der Methode der künstlichen neuronalen Netze, auch Artificial Neural Networks genannt

im Englischen. Dieses Stichwort findet man immer wieder mal und habe diesen Bereich mittlerweile in Forschung und Praxis aus vielen verschiedenen Perspektiven beleuchtet. Wenn man jetzt mal 20 Jahre zurück denkt, dann waren natürlich die Datensätze deutlich kleiner. Die Hardware, die man vielleicht dann auch als Masterstudierender oder als Doktorant zur Verfügung hatte, war natürlich

auch deutlich geringer ausgeprägt, als das, was einem heute so zur Verfügung steht. Algorithmen waren ein Stück weit schwieriger zu implementieren, sodass man sieht, da hat sich schon einiges getan.

Aber letztlich die Probleme, die wir uns anschauen, die sind irgendwie immer noch ähnlich. Also wir haben Finanzmarktdaten, das können beispielsweise Preise sein, das können fundamental Daten sein, das können auch, sag ich mal, vollkommen anders geartete Daten sein, sogenanntes Alternative Data, wie beispielsweise Satellitenbilder oder vielleicht auch News oder vielleicht auch Aufnahmen von Pressekonferenzen. Und diese Daten, die versuchen wir eben zu verarbeiten, um dann eine Aussage über

die Zukunft zu treffen. So, bevor wir uns da zu tief reinbegeben, klar, es ist schwer Aussagen über die Zukunft zu treffen, das ist, sag ich mal, ein Spruch, der ja in verschiedensten Varianten schon lange kursiert. Aber, sag ich mal, wir versuchen aus dem vorhandenen Daten und mit den entsprechenden zur Verfügung stehen Algorithmen das Beste zu machen. Und es ist natürlich sehr interessant, diese Bereiche einerseits aus der akademischen Forschung heraus zu

betrachten. Das gibt einem Freiraum, sag ich mal, in die verschiedensten Richtungen zu denken. Aber dann letztlich braucht es auch die Anwendung. Denn man kann natürlich in beliebig viele Richtungen denken, wenn man es jetzt nicht testet, wenn man das nicht an den Märkten ausprobiert oder diese Information, die man zusätzlich generiert, keinen Nutzen entfaltet, dann ist es natürlich

auch ein bisschen leer als Betätigung. So, insofern mag ich diese Mischung sehr gern einerseits der akademische Bereich an der E-Pack Business School in Paris jetzt, habe vorher an der Leibniz Universität in Hannover, war ich tätig und parallel dazu auch die Beratungspraxis, also wirklich solche Modelle einzuführen, zu nutzen und eben zu schauen, was bringt das an den Märkten da draußen. Und jetzt Marcel, hattest du ja auch die Historie der künstlichen Intelligenz

angesprochen. Und ich finde es auch für mich selbst immer wieder erstaunlich, zurückzuschauen, dass dieses Hype-Thema im Grunde genommen schon sehr alt ist. Und zwar durchaus 70 Jahre alt, wenn man an die ersten Versuche von Frank Rosenblatt, so hieß der Ingenieur und Forscher damals, zurückdenkt, der eben, naja, neuronale Netze, also schon durchaus die Struktur, die wir heute kennen, mit sehr einfachen, sehr primitiven Methoden modelliert hat in den 40er und 50er Jahren.

Und das aus meiner Sicht Interessante ist, dass das, was wir heute machen, gar nicht so unterschiedlich ist, im Vergleich zu dem, was vor 70 Jahren bereits geschah. Das heißt, wir verfügen über eine jahrzehntelange Erfahrung, über ein halbes Jahrhundert Erfahrung, Algorithmen, Methoden, wie neuronale Netze gebaut werden können. Und was sich heute geändert hat und vielleicht auch ein Stück weit der Grund für den Hype, den wir sehen, das ist im Prinzip die Weite verfügbar.

Und zwar verfügbarkeit auf mehreren Ebenen. Denken wir erstmal an die Datenmengen. Daten lassen sich heutzutage sehr leicht generieren. Es ist eher das Problem, dass wir zu viele Daten haben. Wir können ohne Probleme Dutzende von Terabyte an Daten generieren. Die Datenbanken, die wir nutzen, umfassen mittlerweile mehrere Peter-Bite. Man muss sich erst mal an diese Einheit gewöhnen, nicht? Also ein Peter-Bite, das sind 1000 Terabyte, nur für die Forschung. Das sind

also sehr, sehr große Datenmengen, aus denen wir letztlich auswählen müssen. Wir haben also eher die Qual der Wahl im Vergleich zur Zeit davor, wo es durchaus schwieriger war, an bestimmte Datensätze zu kommen. Das heißt, wir haben diesen Aspekt der Daten. Jeder kann heutzutage relativ leicht zu geringen Kosten oder vielleicht auch gratis an sehr interessante Daten kommen. Der zweite Aspekt, der sich geändert hat, ist die verfügbare Hardware. Das heißt, mit Grafikkarten, die jeder

in seinen Rechner stecken kann, können wir sehr, sehr interessante Modelle bauen. Auch das, was wir heutzutage als large Language-Modell kennen, was ChatGPT bekannt gemacht hat, das ist heutzutage für jeden verfügbar. Vielleicht nicht genau in dieser Leistungsfähigkeit, aber auch da werden entsprechende Fortschritte festgestellt. Aber das kann im Prinzip jeder machen. Das ist jetzt, man braucht da jetzt keinen Supercomputer mehr für 100.000 oder Millionen Euro. Hardware für einige 100

Euro, wenige 1.000 Euro steht uns zur Verfügung und ist vollkommen ausreichend dafür. Der dritte Punkt, vielleicht der Wichtigste sogar, ist die Software, der Fortschritt der Verfügbarkeit der Algorithmen. Es geht nicht so sehr darum, was wir da genau berechnen. Diese Algorithmen sind eigentlich schon ganz gut bekannt. Klar gibt es da auch Fortschritte, aber es geht insbesondere darum, dass diese Algorithmen in gut nutzbaren und optimierten Bibliotheken zur Verfügung stehen.

Das heißt, wenn ich auch einfach nur 20 Jahre zurückdenke, da wurde noch sehr viel von Hand kodiert. Da musste ich also wirklich einzelne Algorithmen Schritt für Schritt entwickeln. Und das ist natürlich auch sehr lehrreich und sehr interessant. Aber wenn ich jetzt einfach nur die Methode, das Verfahren nutzen möchte, dann ist es natürlich schon sehr interessant zu sehen, okay, ich kann das eben auch an einem Nachmittag einfach mal testen, ob dann die Ergebnisse so

toll sind. Das ist eine andere Frage, aber ich kann es sehr leicht testen. Ich muss nicht mehr Wochen oder Monate meiner Zeit investieren, sondern ein Nachmittag reicht aus. Ja, das ist vielleicht in der Nutschall so, dass was sich geändert hat und ein kurzer Rückblick auf die

Entwicklung. Ja, vielen Dank schon mal dafür. Und man kann natürlich auch festhalten, dass das Thema ja viel mehr auch medial, sage ich mal, den Vordergrund natürlich gerückt ist und die Verfügbarkeit sicherlich zugenommen hat für solche Modelle und dass ich eben auch mehr dafür interessiere, mehr damit beschäftigen. Hardware-Verfügbarkeit, das denke ich dann immer in Nvidia, an die ganz großen Rechner, die dann doch sehr, sehr teuer sind, aber dass man das eben

auch mit kleinerem Budget gut umsetzen kann. Auch das ist ja eine gute Erkenntnis und sollte auch dann für die weiteren Trends sicherlich hilfreich sein. Vielleicht kurze Frage an dich, Ron. Wir hatten ja gerade über die Historie gesprochen, wie das im Finanzmarktbereich entstanden ist und welche Möglichkeiten man heute hat im Vergleich zu früher. Wie hat das dann quasi im Finanzbereich vielleicht auch mehr Einfluss gewonnen, dieses Thema Künstler-Digenz und Datenmodelle? Magst

uns da vielleicht nochmal einen kurzen, kurzen Rückblick zu geben. Ja, vielen Dank Marcel. Vielen Dank, dass ich heute mit euch gemeinsam, mit dir gemeinsam und Hans Jörg mich mal über das Thema Künstler-Digenz und Historie-Entwicklung austauschen darf. Vielen Dank dafür. Das ist unglaublich spannend. Bevor ich da eine Frage beantworte, fällt mir eine Frage direkt an Hans Jörg nochmal ein. Nämlich, wie fühlt sich das eigentlich an, wenn man über 20 Jahre in diesem

Segment tätig ist und auf einmal spricht jeder von Large Language-Modellen. Was macht es mit dir? Ja, Ron. Vielen Dank für diese Frage. Also klar, das ist natürlich eine Bestätigung, dessen was man über Jahrzehnte so fabriziert hat, wenn das plötzlich in aller Munde ist, wenn dieses Thema also gehypt wird. Das ist also auch ein schönes Smalltalk-Thema. Man darf natürlich nicht vergessen, es ist nicht das erste Mal, dass künstliche Intelligenz so stark gehypt wird.

Das heißt, das sind im Prinzip so Phasen hin und wieder gibt es mal eine Anwendung, von der man auch vielleicht nicht wirklich sagen kann, wieso genau die diesen Hype auslöst. Das war jetzt bei den Large Language-Modellen ChatGPT. Es war dann auf einmal verfügbar, aber wir haben ähnliche Hypes im Bereich Machine Learning auch schon in der Vergangenheit erlebt. Das heißt, man muss da so

ein bisschen vorsichtig sein, auch würde ich sagen, denn der Hype der App auch wieder ab. Wir machen das durchgängig, ob Hype oder nicht und bleiben eben bei dieser Methodik, bei diesen sehr interessanten Verfahren unabhängig vom Hype. Das ist vielleicht auch etwas, was man im Kopf

behalten sollte. Ich kam deswegen auf die Frage, Hans Hürg, weil ich denke immer, wir waren ja relativ frühzeitig auch dran bei dem Thema und haben entdeckt, welche Möglichkeiten uns zur Verfügung stehen und wenn dann jeder redet davon, dann denkt man, verliert man irgendwie die Lust. Das ist aber nicht der Fall. Gott sei Dank, nicht der Fall. Wir sehen ja auch bei dem Thema, das nimmt ja auch richtig Fahrt auf. Das hatten wir auch in unserem Jahresausblick 2024 gesagt.

Wir stehen erst völlig am Anfang, weil wir das Thema künstliche Intelligenz im Grunde genommen in jede Branche jetzt oder in jeder Branche einzughält. Und das wird im Grunde genommen Volkswirtschaften verändern. Also wir sind da einen absoluten Strukturbruch im Moment drin, wenn man das global mal betrachtet.

Um auf deine Frage nochmal zurückzukommen Marcel, Hans Jürg und ich, wir wurden so ein bisschen verkuppelt 2017 von unserem Kollegen Tobias Basse in dessen Wohnzimmer wir heute im Grunde genommen sind und weil wir uns die Frage gestellt haben, wie können wir im Grunde genommen unsere Anlageentscheidungen und den Anlageerfolg für unsere Kundinnen und Kunden verbessern. Und uns fällt natürlich da immer einfach ein, wir müssten eigentlich noch disziplinierter sein in

der Anlageentscheidungen. Und mir fiel dann sofort ein, ich beschäftige mich ja mit dem Thema Behaviour Finance, also Börsenpsychologie schon seit vielen Jahren, seit über zwei Jahrzehnten

mittlerweile. Und da kommt KI dann in Spiel und Hans Jürg, weil ich gefragt habe mehr, wie könnten wir eigentlich die Behaviour Finance im Grunde genommen operationalisieren aus den vielen Daten, die wir haben, zum Beispiel aus Sentiment umfragen, wie können wir diese übertragen, zum Beispiel ins Portfoliomanagement und demnach eben auch den Anlageerfolg unserer Kundinnen

und Kunden verbessern. So sind wir mal zusammengekommen und haben dann eben versucht, das über das Risikomanagement Modelle zu entwickeln, um Anlageentscheidungen noch disziplinierter, noch besser zu machen. So, das ist erstmal die erste Sicht. So sind wir mal gestartet 2017 in unserem gemeinsamen Wirken und haben dann unter anderem eben Modelle zum Risikomanagement,

zur Absicherung von, sagen wir mal, Aktien, Quoten, Temporär, mal entwickelt. Wir haben gemeinsam Sentiment, Indicator Romeo entwickelt, der im Grunde genommen Sentiment Daten umfragen auswertet und dort auch ein Signal gibt, ob man jetzt investieren oder deinvestieren sollte als Investor. So und jetzt mit diesen Datenmengen und mit den zur Verfügung stehenden Mitteln,

haben wir eben die Gelegenheit, das auch gut auszuwerten. So sind wir im Grunde genommen zusammengekommen, das ist die eine Sicht und die andere Sicht ist aber nämlich welche Auswirkungen hat das auf das Investieren auf der einen Seite und auf die Investments auf der anderen Seite und da können wir im Grunde genommen uns jede Branche angucken. Also du hattest ja mal gesagt, im Grunde genommen, der erste Blick sind immer die Hardwarehersteller, also TSMC zum Beispiel oder im

Chiphersteller, Highlighterhersteller oder so Chip Designer wie Nvidia oder ARM. Das ist der erste Fokus und der zweite Fokus wird dann sein, wo hält KI, Künstliche Intelligenz im Grunde genommen, Einzug in der Branche und was verändert sich volkswirtschaftlich? Das sind spannende Themen, weil wir wissen, dass wir natürlich erst einmal Investitionen haben in KI, in Hardware, in Ausrüstung, die werden zunehmen und letztlich wird es dazu führen, dass im Grunde genommen Produktivität

gesteigert wird und die Effizienzen im Grunde genommen in Unternehmen geroben werden. Da kann man sich im Grunde genommen jede Branche angucken. Ja vielen Dank Ron, auch für deinen Einblick und für die Historie und ja wir sind ja schon mittendrin quasi im aktuellen Umfeld, wo wir uns bewegen, wo wir gerade sind. Jeder redet davon, Hype, viel schonmal das Wort. Ein spannendes, sehr sehr spannendes Thema wird auch sicherlich in vielen vielen Brongen schon einzugehalten.

Mal gucken, wann so ein, vielleicht ein Hype auch mal wieder abflacht. Das war, das ist richtig gestichwort. Meistens ist es ja tatsächlich so, dass das passieren wird. Aber das Thema der Datenzentren jetzt aufgebaut werden, das Thema, dass man diese Daten ja irgendwie nutzen will, dass man dafür

jetzt sehr viel Geld in die Hand nimmt, das investiert. Der Trend ist ja da und dann will es natürlich auch genutzt werden und dann versucht man natürlich auch alle Brongen in irgendeiner Weise damit mal zu bedienen und zu gucken, wo kann man eigentlich das Thema Künstlingeinsetzen. Da sind wir dabei im Thema, wo stehen wir heute und was ist eigentlich der,

hört doch der Ausblick nach vorne. Wie kann man diese KI-Modelle, diese großen Datenmengen nutzen, natürlich vor allen Dingen auch im Finanzmarktbereich, was ja unser Thema heute ist und zu sagen, was gibt es so auch vielleicht allgemein für Trends. Noch mal im Thema Künstlingeins Hans Jörg, da bist du ja tief drin und sicherlich am Puls der Zeit vielleicht magst du uns da einfach noch mal einen Einblick geben in das Thema. Ja, sehr gerne Marcel. Was man beobachtet,

wie du es gesagt hast, ist ein Hype mit überzogenen Erwartungen. Das heißt, ich möchte kurz skizzieren, was nicht eintritt. Also wir haben jetzt keine Weltbeherrschung durch die KI zu befürchten, so einer Matrix oder The Creator. Das steht uns nicht bevor. Das heißt, wir werden auch entsprechend Erwartungen haben, die enttäuscht werden. So jetzt muss man sich überlegen, was können denn diese Verfahren? Wohin sind die denn gut? Und was wir bislang hatten, war, dass wir, sag ich mal,

aus strukturierten Daten eigentlich schon ganz gut Informationen rausziehen können. Nicht, das sind so statistische Verfahren, neuronale Netze natürlich auch und auf strukturierten Daten ging das schon lange eigentlich ganz gut. Und was jetzt dazu kommt, ist durch die, sag ich mal, neueren Algorithmen, durch die Large Language Modelle, ist, dass wir immer besser darin werden,

Informationen auch aus unstrukturierten Daten herauszuziehen. Das heißt, diese Funktionen, dass wir einem Modell ein längeres Textdokument geben als Kontext beispielsweise und dann

Fragen im Kontext dieses Dokuments stellen können. Das ist neu, das ist also eine echte nützliche Funktionalität, vielleicht nicht weltbewegend, damit wird man wahrscheinlich die Welt nicht beherrschen können, aber es ist eine sehr interessante Funktionalität, weil es uns erlaubt, deutlich schneller zusammenzufassen und zwar sinnvoll zusammenzufassen, nicht nur zusammenzufassen, dass wir, sag ich mal, ein paar Sätze einfach ausschneiden und das ist dann die Zusammenfassung,

sondern im weitesten Sinne aus einem Dokument oder auch aus hunderten, tausenden Millionen von Dokumenten Informationen extrahieren und aggregieren. Und da wird es dann natürlich sehr

interessant, denn wir haben viele, viele Textdokumente. Wir denken mal an Jahresabstöße, wir denken an Bilanzen, die man sich ein Stück weit dann doch irgendwie durchlesen muss, also die man nicht nur komplett durch Zahlen erfassen kann, so schwache Signale das Rauschen zu entdecken, das ist ja im Prinzip auch so ein bisschen die Aufgabe eines Analysten und das

wird dadurch einfacher werden. Das heißt, es wird für uns deutlich einfacher werden, diese große Menge an unstrukturierten Daten, die wir haben, die ja täglich erzeugt werden, ja zu analysieren und da entsprechend auch Informationen rauszuziehen, die uns natürlich dann auch bei Investments entsprechend hilft. Also ich gebe einfach mal ein Beispiel, was man sich vorstellen könnte, das Erkennen von Trends, sage ich mal, im Farmerbereich. Was ist da los? Kann

ich das vielleicht irgendwie quantifizieren? Naja, ich könnte in die entsprechenden Datenbanken reingehen, in die entsprechenden Textdokumenten und einfach mal gucken, was wird da besonders häufig zitiert, was ist da los? Und das ist schon, sage ich mal, etwas, was nicht nur eine inkrementelle Verbesserung ist, sondern das ist wirklich neu und das werden wir in den nächsten Jahren immer stärker sehen und da vermute ich geht da Trend hin. Ja, Hans-Jürg, das ist unglaublich

spannend. Du merkst auch, wie wir an deinen Lippen hängen, ja, das ist großartig. Ich will noch ganz kurz auf ein Thema eingehen, nämlich du hast gesagt KI kann grundgernommen den Allerlisten unterstützen, bei der Analyse, Fundamentalanalyse, Geschäftsmodellanalyse, Trends frühzeitig auch zu erkennen und das sehen wir auch zum Beispiel bei einem ganzen Thema ESG. Wir glauben, dass ESG, also Nachhaltigkeit und KI ein unglaublich gutes Match sind, zum Beispiel in der Analyse von

Nachhaltigkeitsberichten. Also ich kann mit Maschinenlearning ansetzen, Nachhaltigkeitsberichte analysieren, kann also schauen, wo wird geschwafelt, auf der einen Seite, wo gibt es Redundanzen, wo gibt es Doppelung und das sind unglaublich spannende Themen, das heißt, da sehen wir, dass wir Effizienten steigern und Hans-Jürg, es wird in Zukunft viel viel wichtiger werden,

die richtigen Fragen zu stellen. Ja, vielen Dank Ron, für deine Ausführung. Noch mal eine Nachfrage zum ganzen Thema, wie kann man das Thema Künstlinigenz eigentlich dann konkret im Portfolio-Management einsetzen und was haben auch wir vielleicht konkret in diesem Bereich vor, das ist ja vorhin schon gesagt, wie wir das schon einsetzen, wie auch die Historie ist, aber vielleicht

kommt da ja noch mehr. Auf jeden Fall, vielen Dank Marcel. Also zum einen so wie ich es beschrieben hatte, das Thema Risikomanagement, also taktische Absicherung von zum Beispiel Aktienquoten in Portfolien, um einfach den Anlageabfolg noch besser zu machen auf der einen Seite und auf der anderen Seite ist das Thema ETF ja in aller Munde und die Frage, die sich natürlich viele Investoren stellen, wie geht es da eigentlich weiter und da haben wir natürlich auch überlegt,

macht es nicht Sinn auch ETF-Portfolien aktiv zu steuern und das machen wir unter anderem eben mit Hans Jürg, unserem Unternehmen Kinom, gemeinsam, dass wir die ETF, die einzelnen ETFs, die einzelnen Märkte gemeinsam sozusagen mit einem Algorithmus steuern. Das könnte vielleicht auch so ein Erfolgsfaktor in der Zukunft sein, wenn man nicht nur plump zum

Beispiel in den MSCI World oder in den S&P 500 investieren will. Ja vielen Dank auch dafür, dass du uns da nochmal einen Einblick gibst und wir sind näher in uns im Ende des Podcasts in großen Schritten und ich würde das Mikro zu mir nochmal kurz an Hans Jürg rüber geben, ich schaue ihn gerade an und würde einfach mal bitten um ein Schlusswort, ein kleines von dir, was zu erwarten ist, vielleicht nochmal ganz konzentriert zusammengefasst und wie wir auf

das Thema KI vielleicht in fünf Jahren gucken werden. Ja vielen Dank Marcel, sehr gerne auch. Ja also was wir auf jeden Fall sagen können, es bleibt sehr, sehr spannend, es macht Spaß zur Zeit im Bereich künstlicher Intelligenz, im Bereich neuronale Netze unterwegs zu bleiben, zu sein. Ich nehme das auf, was du gesagt hast, Ron, es wird immer wichtiger, die richtigen Fragen

zu stellen. Ja das glaube ich auch, also wenn es irgendeinen Skill gibt, den man sich jetzt aneignen sollte, ist es einem KI-Modell, einem Latch Language-Modell, die richtige Frage zu stellen, denn die Antwort, die wird kommen vielleicht noch nicht perfekt, aber sie wird mit immer besserer Genauigkeit aus auch unstrukturierten Daten herauszuziehen sein und das ist denke ich das, was in den nächsten fünf Jahren immer wichtiger werden wird, was wir auch beobachten

werden, dass sich keiner mehr hinter irgendwelchen Textwüsten verstecken kann, so wird das ja manchmal auch getan, man liefert erst mal 200 Seiten Text ab, weil man denkt, naja das versteht sowieso keiner, liest sich keiner durch, das wird sich reduzieren, das heißt wir werden schärfere und immer klare Informationen auch aus großem Textenmengen extrahieren können und das natürlich dann auch Portfoliomanagement und Imrisikomanagement uns zu Nutzen machen

können. Super, vielen Dank und damit sind wir jetzt auch am Ende unserer Podcasts. Vielen Dank fürs Zuhören, liebe Zuhörerinnen und Zuhörer und ja ich freue mich dann auf die nächste Folge mit Ihnen. Bis dahin wünsche ich Ihnen eine schöne Zeit. Investors Talk Impulse für Ihre Geldanlage ist ein Podcast der NordLB. Wir hoffen,

diese folgert Ihnen gefallen. Wenn Sie Feedback haben, freuen wir uns über Ihre Nachricht unter vermö[email protected] [Musik] [Musik] [Musik] [MUSIK]

Transcript source: Provided by creator in RSS feed: download file
For the best experience, listen in Metacast app for iOS or Android
Open in Metacast