S4#3 Deepfake-Jagd: Faktencheck mit KI (zu Gast Neuraforge) - podcast episode cover

S4#3 Deepfake-Jagd: Faktencheck mit KI (zu Gast Neuraforge)

Oct 28, 202431 min
--:--
--:--
Listen in podcast apps:
Metacast
Spotify
Youtube
RSS

Episode description

Deepfakes in Bildern, Videos und Audioformaten werden immer schwerer zu entlarven. Neuraforge, eine fortschrittliche KI, schafft Abhilfe, indem sie manipulierte und KI-generierte Fakes aufdeckt.

Transcript

Wir glauben auch, dass es super wichtig für die Demokratie ist, dass wir wieder zurückkommen in eine Form der kuratierten Medienrezeption. Durch Medienschaffende auch ermöglicht. Und auch da möchten wir uns einfach gerne einreihen mit unserem Tool. Echte Insights aus der Medienbranche. Hier sind deine Innovation-Minutes. Direkt aus dem Media Lab Bayern. Hallo, willkommen zurück. Wir haben eine Schnapszahl darauf erst mal post. Natürlich nur mit Wasser.

Wir sind bei Folge 33 der Innovation-Minutes. Und ich bin immer noch deine Host, Sabrina Harper. Wir haben ein paar Landtagswahlen hinter uns. Und die US-Wahl steht kurz bevor. Es ist jetzt schon ein paar Tage her, aber vielleicht erinnerst du dich noch an dieses Bild von Taylor Swift, das KI generiert war. Und auf diesem Bild hat es sich für die Republikaner ausgesprochen. Darauf hin, heißt es zumindest, hatte Taylor Swift das Bedürfnis, sich öffentlich zu äußern.

Und hat sich dann für die Demokraten ausgesprochen. Und eben dieses KI-Bild als "fake" entlarvt. Musste man nicht direkt entlarven. Man hat gesehen, dass es ein Fake ist. Es war offensichtlich mit KI erstellt. Ist aber nicht immer so. Und das ist genau mein Punkt. Bilder, Videos, das wird alles immer besser. Und die Fakes sind immer schwerer zu erkennen. Deshalb habe ich heute zwei Personen da, die sich damit auskennen. Und zwar Annika Gruner und Anatol Mayer sind bei mir zu Gast.

Sie sind auf Deep Fakes spezialisiert und haben mit Nora Forge eine KI entwickelt. Wieder eine KI, ja, aber diesmal, die gefälschtes Bildmaterial erkennt. Herzlich willkommen ihr zwei. Schön, dass ihr da seid. Ja, vielen Dank. Danke für die Einladung. Ich habe gerade schon ein Beispiel genannt. Das war ein ziemlich plattes Beispiel. Ich habe gesehen bei diesem Taylor Swift Bild, das war mit KI gemacht. Welche Deep Fakes sind euch denn zuletzt über den Weg gelaufen?

Es gibt immer wieder neue Modelle. Das heißt, die ganzen Deep Fakes und die KI-generierten Daten werden immer besser und immer schöner, wenn man das so ästhetisch sagen will. Und für mich ist in Erinnerung geblieben, das sogenannte Google Girl. Ich habe es so getauft. Das war ein Deep Fake von dem Modell Flux von Black Forest Labs. Und das ist quasi eigentlich eine Serie von Bildern von sogenannten Tat-X-Speakers, die original echte Menschen aussehen.

Und in dem Fall war das Google Girl halt das, was davon am bekanntesten wurde. Das war echt eine junge Frau mit einem Mikrofon, die da steht, die ein Lanyard um den Hals hat, wo auch Google drauf steht, also wo auch die ganzen Buchstaben richtig sind. Und das war schon ein sehr, sehr beeindruckendes Bild. Man muss sagen, Deep Fake ist ein schwieriger Begriff.

Ich würde jetzt einfach mal sagen KI-Fake, weil in dem Fall war es ein komplett KI-generiertes Bild und nicht jetzt eins, wo gemischt wurde zwischen echt und fake. Annika, nur kurz für alle, die das nicht so gut kennen. Also zum einen Black Forest Labs ist auch ein sehr gehyptes Startup aus dem Schwarzwald, was viel mit KI macht. Und warum du das so spannend fandest, wenn ich das richtig interpretiere ist. Also Tat-X ist sehr bekannte Konferenz.

Es ist ein Speakerformat, jeder, der dort war, wirbt damit. Also es ist wirklich ein großer Name. Und dann geht es dir, weil du eben gesagt hast, die Buchstaben auf dem Lanyard, auf dem Batch waren alle korrekt. Weil bei KI halt oft die Details dann doch ein bisschen mangelhaft sind. Wenn man bei den Bildern genau hinschaut, keine Ahnung. Zum Beispiel die Zähne sind nicht korrekt oder eben die Buchstaben vertauscht oder verwischt. Richtig, also habe ich das so richtig interpretiert?

Genau, richtig. Also es gibt so ein paar Grundsachen. Man kann sich alle Trainings, die man momentan machen kann, zum Thema kannst du erkennen oder nicht, spielen sich in die Richtung ab. Das bestimmte Themen in den aktuelleren generative KI nennt man das ja, wenn man quasi Bilder, Text zu wild generiert. Und eben da gibt es ein paar Themen, die man immer beachten kann. Zum Beispiel Symmetrien.

Also oft hat man zum Beispiel bei Schmuck auf der einen Seite im Haldenohring und auf der anderen Seite in den Ganzen. Oder man hat bestimmte Fehler im Bild bei den Proportionen, physikalische Themen und eben Schriften. Daran konnte man, kann man und konnte man, kann ich generierte Bilder noch unterscheiden? Das wird aber eben immer weniger, diese sogenannten Fehler im Bild. Und das ist eben auch das Thema. Da muss man eben in Zukunft andere Mittel und Lösungen finden.

Anathol, gibt es denn einen Fake, der dir so in letzter Zeit über den Weg gelaufen ist, wo du dachtest, ist das besonders gut oder besonders schlecht? Ja, also in letzter Zeit sind wir natürlich halt einige Fakes über den Weg gelaufen, wo ich jetzt sagen würde, weder das eine jetzt noch das andere im Sinne von gut oder schlecht, jedoch hängen geblieben bei mir. Das war jetzt halt, weil es in die politische Richtung ging.

Das war tatsächlich als Kamala Harris, als die neue Präsidentschaftskandidatin, der demokratenvorgestellt wurde, sind auf einmal dann halt auch Bilder aufgetaucht, die sie mit Harvey Weinstein zeigen auf dem roten Teppich, was halt eben auch dann gediebt faked wurde, was halt ursprünglich halt ein Bild mit ihrem Mann war, was aber halt in entsprechenden sozialen Medien dann sehr stark auch durch die Decke ging.

Das haben wir eben auch da, speziell jetzt auch dieses Bild, haben wir dann eben auch analysiert und das Ganze eben mitunter auch dann als Diebfake klassifizieren können, wobei das natürlich halt auch recht schnell, recht klar war, weil das halt politische Geschichte ist. Das war ein öffentlicher Raum, wo eben auch sehr viele Fotos von dem echten Event da waren. Deswegen ist jetzt auch nicht so schwer zu die Banken waren der Stelle.

Aber das ist tatsächlich halt hängen geblieben, wo ich jetzt sagen würde, was aktuell ich ein bisschen gruselig finde, tatsächlich sogar, was mir jetzt begegnet ist, sind die jetzt aber als Features kommen, als eigentlich halt sehr, sehr interessante Anwendungen für den Nutzer. Das sind eben Übersetzungs-Apps, beispielsweise wie, ich glaube, Hagen heißt eine aktuelle App.

Und zwar ist das eine, wenn wir so ein Videocall haben beispielsweise, wo ich jetzt auch französisch rede und die App übersetzt quasi meine Stimme ins Deutsche und gleichzeitig auch meine Lippenbewegungen, werden in dem Falle ja gedieft, weil die halt an die neue Sprache anwieglichen werden, was mittlerweile schon sehr, sehr echt ausschaut.

Wenn man jetzt die Sprache kennt, wie zum Beispiel von das Deutsche, dann würde man sagen, ja, es klingt noch ein bisschen höchst, aber die werden mittlerweile halt echt gut. Das ist jetzt nichts, wo man sagen würde, oh, da will jemand eine Desinformation streuen, aber die haben natürlich halt das Potenzial und die Qualität von sowas ist schon halt, wird immer besser. Da hast du jetzt einen Riesensprung gemacht.

Ich bin mit einem Bild eingestiegen und da sind wir jetzt schon bei Live-Veränderungen in einem Videocall. Das Beispiel, das du jetzt genannt hast, würde ich im ersten Augenblick als Chance, als positiv bewerten, Thema Inklusion, Thema Menschen, die nicht so gut hören. Gleichzeitig ist das ja aber auch wieder in Schritt Richtung Videofake, also, dass sich etwas eben noch mehr verändern kann. Also, es geht rasend schnell. Das merkt man jetzt, glaube ich, sehr an der Aussage.

Ihr nickt fleißig mit dem Kopf. Auf was ich hinaus möchte, ist, ihr habt ja auch eine KI entwickelt, die gefälschte Bilder und Videos erkennt. Wenn wir jetzt schon diesen Riesensprung machen und da drauf schauen, dann müsst ihr ja auch recht schnell in eurer Entwicklung sein, um wiederum diese Dinge erkennen zu können. Könnt ihr mir mal so ein bisschen Einblick geben, wie das mit eurer KI funktioniert und wie ihr eben mit so einem Fortschritt, mit so Neuerungen umgeht?

Grundsätzlich können wir eben Klassifikation machen. Also, wir können im Prinzip halt eine KI darauf trainieren, verschiedene Klassen zu erkennen. Diese Klassen können sein, das sind echte Bilder, das ist von dem Generator 1, Generator 2, Generator 3. Und wir versuchen von denen, deren spezifische Fingerabdrücke zu lernen, was diesen Generator eben ausmacht. Und dann können wir eben relativ gut darauf arbeiten.

Das heißt, wenn wir dann Bilder bekommen, können wir die dann eben diese Klassen einteilen. Das Problem, was wir dann eben bekommen, das nennt man eben im Fachbegriff "Open Set Recognition", ist halt, was passiert, wenn ich jetzt aber ein Jahr später ein Neuergenerator, ein Generator 4 auf den Markt kommt, dessen Fingerabdrücke ich noch nie gesehen habe.

Und das Problem ist, was dabei eben passiert ist, dass klassischerweise KI-Modelle dann halt eben sagen, ja, das ist aber weder der Fingerabdruck von Generator 1, noch 2, noch 3, also muss es echt sein. Das heißt, es kann eben passieren, dass das Modell dann sagt, das ist zu 99,9% echt, obwohl das halt eben von einem ganz neuen KI-Modell stammt, dessen Fingerabdrücke oder Spuren ich halt noch nie gesehen habe. Und das, was wir eben machen, ist halt spezielle Verfahren eben anwenden.

Da würde man eben sagen, probabilistische Verfahren, die eben in ihren Aussagen Unsicherheit ausdrücken können, sodass wir eben in genau diesen Bereichen sehr gut agieren können, wo zum Beispiel sehr unbekannte Spuren dann da sind. Und das Modell sagt, hey, so was hab ich noch nie gesehen. Ich bin mir da recht unsicher, weil das nichts ist, was bekannt vorkam, was wir irgendwie im Training halt bearbeitet haben.

Vielleicht füge ich noch an, weil der Begriff Generatoren ganz oft gefallen ist. Was meinen wir damit? Wenn man einen Text zu Bild, KI-Modell benutzt, dann ist es ein so genanter Generator. Das nennt man eben auch Gen AI, also generative KI-Modelle. Modelle, die eben in dem Fall Bilder generieren. Und zum Beispiel ein bekannter Generator wäre eben zum Beispiel Mit Journey. Das ist einer oder Dolly. Also das ist das, wovon wir die ganze Zeit reden, wenn wir von Generatoren sprechen.

Ah, vielen Dank. Aber das setzt also voraus, dass man jeden Generator kennen muss. Es ist ein bisschen wie bei IT-Security. Also wenn ich es jetzt vereinfacht darstellen müsste, würde ich sagen, das, was wir machen, ist vergleichbar mit dem, was die IT-Security beim Virus macht. Man möchte den Virus natürlich detektieren, bevor man ihn kennt.

Und das ist im Prinzip das, wo jetzt auch die aktuelle Forschung, aus der der Anatholie, die KI oder wir, die KI herausentwickelt haben, woran die auch arbeitet, eben nicht bekannte Dinge zu detektieren, die wir kennen, sondern eben auch die Möglichkeit zu haben, neue, noch unbekannte Modelle eben auch zu erkennen und eben da nicht fälschlicherweise davon auszugehen, dass ist sicher. Das ist eben wie beim Virus auch.

Wenn der böse Virus kommt und sieht aus wie ein freundliches Programm, dann sollte natürlich der Scanner trotzdem anschlagen. Wenn ich über Medien nachdenke, dann ist es da eben ein ganz, ganz großes Thema. Medienschaffende müssen schnell arbeiten. Dann muss man auch noch verifizieren. Und gerade, wenn das immer alles besser wird, kann das einem schnell durchrutschen. Wie schaffen es Medienschaffende, mit diesen Fakes gut umzugehen? Egal jetzt ob Bild oder Video.

Was würdet ihr sagen, sind das so eure wirklichen Must-Haves oder was sind die konkreten Tipps, wie ich da schnell vorankomme? Also ich würde kurz als erstes sagen, das Allerwichtigste ist verschließt nicht die Augen vor den Möglichkeiten der Technik, auch wenn es unangenehmes und auch wenn es vielleicht manchmal kompliziert erscheint, die Grundlagen, das Thema was ist eine generative E, was sind die potenziellen Fehler?

Da gibt es gute Möglichkeiten und da gibt es auch Initiativen, wo man sich Schulen lassen kann oder eben selber auch weiterbilden, um einfach so grundsätzlich mal die Fähigkeit zu haben, eben aufmerksam mit vatschel real umzugehen. Und das zweite wären dann die sogenannten Tools, die man benutzen kann. Da übergebe ich mal einen anderen Tool, der vielleicht noch mal ein paar Tipps geben kann, was für Tools es so gibt.

Grundsätzlich, was man als erstes eben machen kann, wenn das ein Fake ist, was sehr viral zum Beispiel halt geht, wie dein Eingangsbeispiel mit Taylor Swift, ist auf jeden Fall mal eine Google-Rückwärtssuche bemühen. Da würde man schon mal Ungereimtheiten wiederfinden, wenn das jetzt in verschiedenen Varianten eben da ist, zum Beispiel an der Stelle mit Banner, ohne Banner.

Dann hätte man schon mal so irgendwie ein "Aha", weil man gemerkt hat, okay, das stimmt halt schon mal irgendetwas nicht. Natürlich kann man auch versuchen, verschiedene, jetzt auch Detektionstools zu verwenden, wobei man da auch eben sagen muss, einzige Prozentangabe hilft einem vielleicht gar nicht mal so viel.

Da würde man jetzt vielleicht sagen, okay, gut, dann nehme ich jetzt mehrere zur Hand, um vielleicht Unsicherheiten auszuräumen, aber eben auch den selber Selbstständigkeit auch nennen, dass man einen scharfen Blick eben halt war. Also im politischen Sinne ist es halt eben so, dass man sich halt fragen muss, kann der das überhaupt gesagt haben?

Also wenn jetzt irgendwie ein Minister Lauterbach dann auf einmal über Werbung für Proteine macht oder so was, ist halt dann die Frage, okay, macht das überhaupt von dem gesagt nicht? Er singt, kann das überhaupt dann sein? Oder wird es höchstwahrscheinlich halt ein Liebfake sein?

Also auch da überhaupt Verständnis dafür haben, dass diese Technologie im Raum ist und dass heutzutage ich sehr, sehr wahrscheinlich über so ein Video steuern kann, indem ich jeder Person alles in den Mund legen kann und nicht grundsätzlich nur, weil etwas in dem Video gesagt wird, es auch eben als echt anzusehen ist.

Also das sind ja auch Tipps, die nicht nur für Medien schaffende gelten, sondern für jeden, der denkt, er muss auf WhatsApp eine Nachricht zum Beispiel weiterleiten oder auf Facebook etwas teilen, etc. Exakt effektiv für jeden Rezipienten von Medien, weil auch, also wir durch das Thema mit Social Media haben wir mittlerweile, werden wir ja geflutet von Medien. Also das, was ich auf Instagram oder auf TikTok an einem Tag durchsweipe, ist ja schon massiv.

Das heißt, ich kann auch sehr, sehr schwer, oder es wird für den Einzelnen auch immer schwieriger, bei jedem einzelnen Video, was mir das so angezeigt wird, irgendwo erst mal meine kritischen zehn Sekunden anzuwenden. Aber auch da ist es eben wichtig, immer wieder so eine kurze Schere im Kopf zu haben, so kann es überhaupt sein, was jetzt zum Beispiel der Mensch aus der Politik hier gerade irgendwie erzählt oder ist es irgendwie ein bisschen zu sehr weit hergeholt.

Und dann würde ich vielleicht dann entweder als Medien schaffender oder eben auch als ganz normaler Mediennutzer beispielsweise eben sagen, okay, ich mache jetzt so was wie eine Rückwärtssuche oder so was. Ich schau mal, ob das in diesem Kontext überhaupt woanders schon mal vorgekommen ist, jemand anderes vielleicht dann darüber berichtet oder so. Anath Odo, du hast jetzt oft die ... Politik angeführt als Beispiel. Das bringt mich zu einer naheliegenden Frage. Ich hatte es auch

eingangs schon erwähnt. Viele Wahlen liegen hinter uns, einige Wahlen liegen noch vor uns. Deepfakes und Demokratie. Was bedeutet denn Deepfake eben für unsere demokratische Gesellschaft? Deepfake und unsere demokratische Gesellschaft ist ein Spannungsfeld und unser größter Antrieb auch bei der Gründung dieses Start-ups und auch bei der Weiterentwicklung unserer Tools ist unser

Wunsch, dass wir wieder in Diskurs kommen, die faktenorientiert sind. Es wurde ja auch schon oft das postfaktische Zeitalter ausgerufen und diese Deepfakes beschleunigen diesen Prozess, der Individual timelines, die überall nur noch aus ganz also undurchsichtigen Informationen bestehen und unser Wunsch und wir glauben auch, dass es super wichtig für die Demokratie ist, dass wir wieder zurückkommen in eine Form der kuratierten Medienrezeption, vor allem bei den

Nutzer*innen und Nutzern durch Medien Schaffende auch ermöglicht und auch da möchten wir uns einfach gerne einreihen mit unseren Tools. Sei es jetzt das Deepfake Detection Tool, wo man eben bei schwierigen Fällen, wenn man keine Rückwärtssuche, wenn die nichts mehr bringt, dann kann man eben an uns nicht wenden und dann helfen wir, aber sei es auch mit vielleicht einfacheren Tools langfristig, wo man einfach auch mit Schulungen und so, wo wir alle die Wahrheit

wieder einzuschätzen oder einzufangen lernen und festhalten können. Wir glauben, das ist super wichtig. Thema Deepfakes und Demokratie, das sind zwei, glaube ich, sehr, sehr wichtige Faktoren in

unserer heutigen Zeit. Man muss es halt eben auch mittlerweile so sehen, dass Deepfakes auch eben ein sehr scharfes Schwert sind, um Desinformationskampagnen zu starten und es auch durchaus ein Mittel der Wahl ist, um eben taktische digitale Kriegsführung zu betreiben, genauso wie Hacking-Angriffe, genauso wie eben staatliche Akteure, die ja auch quasi an vielen bestimmten Fronten Cyberwarfare betreiben,

sind natürlich Deepfakes und falsche Informationen im Generellen. Also das müssen jetzt nicht nur unbedingt Deepfake-te Gesichter sein, sondern einfach Fake News im Allgemeinen extrem gutes Mittel, um Demokratien auch zu zersetzen. Es gibt ja auch verschiedene Dinge, die wir auch hier jetzt auch in Deutschland auch aufgedeckt wurden mit den Zwillingsnachrichtenseiten beispielsweise, wo jetzt das jetzt nicht unbedingt etwas mit Deepfakes zu tun hat, aber mit Fake News im Allgemeinen.

Das sind natürlich halt Deepfakes, wo ich heutzutage sehr, sehr gut entweder mir das Gesicht eines Politikers auflegen kann, Dinge sagen kann, was immer ich möchte oder eben auch die Stimme eines Politikers, einer Politikerin hernehmen. Und das ist natürlich halt bietet sehr viel Sprengstoff.

Ich würde noch mal kurz zusammenfassen, die Punkte, die so genannt wurden. Also was du zum einen angesprochen hast in diese Doppelgängerseiten, dass von bekannten Medienmarken quasi die Online-Auftritte geklont wurden und dann mit anderen Inhalten bespielt. Und da wird auch eine KI im Einsatz gewesen sein, weil von Menschenhand wäre das sehr, sehr viel Arbeit. Und das andere, was du genannt hattest, sind quasi Bot-Armeen zum Beispiel oder KI-getriebene Informationseinheiten,

die zur strategischen Kriegsführung benutzt werden. Also wenn es Cyberangriffe sind oder wenn eben gezielt durch Bots-Dinge überflutet werden. Hab ich das so richtig verstanden, Anathol? Ja genau, also zum einen eben in dem Case, aber halt eben auch um bestimmte politische Parteien entweder in einem Land zu treiben oder zu diffamieren. Und das kann natürlich auch über viele Jahre hinweggehen. Ich meine, das sehen wir in vielen Ländern in Europa, das sehen wir auch

halt bei uns. Der komplette Diskurs driftet halt auch immer weiter ins Extreme und funktioniert tatsächlich halt auch. Und an der Stelle sind auch sehr, sehr viele Unwahrheiten im Raum, vor allem halt in sozialen Medien. Also was bestimmte Parteien eben möchten, was bestimmte Parteien eben nicht möchten, was ich in den politischen Gegner in den Mund reinlege. Und es ist heutzutage so einfach wie doch nie. Man kann es aber auch positiv drehen. Also man kann auch sagen, dass Medienunternehmen

schon synthetische Stimmen einsetzen, um Vertrauen herzustellen. Also dass man zum Beispiel bekannte Nachrichtensprecher nimmt von einem Sender und das die dann nochmal für Online, Audiumaterial oder etc. zur Verfügung stellen, was auch synthetisiert ist. Also wir denken ja auch immer so ein bisschen an die Medienwelt und wie wir da auch was entlasten können. Also das wäre jetzt ein positiver Dreh. Annika, hast du auch noch einen positiven Dreh für uns? Also erst

mal habe ich einen kleinen Disclaimer. Es ist natürlich nicht legal, die Stimme von jemandem fremdes ohne dessen Zustimmung zu benutzen. Also bitte an dieser Stelle alle eine Hörerinnen und Hörer nicht ausprobieren und wenn dann bitte vor Eurer Fragen auch Eure Freunde. Und generell positiv, also meistens negativ gesehen, ich sehe es aber positiv, ist tatsächlich in dem Fall auch die EU mit dem AI-Act, weil die vielleicht auch es ist unbequem, auch das Thema GDPR, so Datenschutz

Grundverordnung ist unbequem. Aber am Ende des Tages haben wir einfach eine Chance durch Regulation auch eben wieder ein bisschen Kontrolle zurückzugewinnen beziehungsweise die guten und die bösen voneinander zu unterscheiden. Wir werden immer Identitätsbetrug haben. Es wird tatsächlich eine riesige Zahl. Weltweit wird der Schaden durch Identitätsbetrug, also jede Form,

auf fünf Billionen geschätzt. Das ist richtig viel Geld. Und diesen Schaden wollen wir alle zusammen eindämmen und dafür können eben generative Kain genauso helfen wie eben Detektoren, die wir bauen. Die ganze Technologie hilft wirklich auch dabei, dass vielleicht noch viel stärker einzudämmen, diese Fraud Attempts, diese böse Wichte, die versuchen mit dieser Technologie bis es eben zu tun. Annika, du hattest vorher auch erwähnt, dass die Stärkung der Demokratie ein Grund war,

euer Start-up zu gründen. Ihr arbeitet ja zum Beispiel auch mit Korrektiv zusammen. Das weiß ich und ich weiß auch, dass da drei verschiedene Tools im Einsatz sind. Zumindest weiß ich von drei, vielleicht sind es auch noch mehr und eines davon ist von euch. Wie kam es denn da zu dieser Zusammenarbeit und warum sind das mehrere Tools? Korrektiv haben wir kennengelernt, eben im Rahmen

unserer Medientour. Wir sind ja momentan im Media Lab Fellowship Programm und lernen eben auch viele Medienmacher*innen und Macher* kennen und haben eben auch mit Korrektiv gesprochen, haben unser Tool vorgestellt und dann kamen die Redakteuren in dem Fall bei einem Faktencheck auf uns zu und hat eben uns gebeten, hier unser Tool anzuwenden. Man muss dazu sagen, wir sind noch in der Entwicklung, deswegen ist das Tool noch nicht frei verfügbar. Also man kann uns ein E-Mail schreiben

und dann liefern wir eine Analyse, aber momentan gibt es eben noch kein Log-Dich hier ein. Das kommt, da sind wir gerade dran. In dem Fall hat sie eben uns gebeten, eine Einschätzung zu treffen, weil aber und das ist total verständlich, das ist gerade aktueller Stand der Forschung. Also auch unsere

Arbeiten bzw. unser Tool ist auf Basis einer peer-reviewed Forschungsarbeit vom Anatol, und es ist einfach so, dass der Markt noch nicht komplett fertig ist und es ist einfach verständlich als guter Faktenchecker, dass man sagt, momentan stütze ich mich auf mehrere Schultern, ich habe einfach auch die Verpflichtung, mehrere Quellen zu haben für meine Information,

deswegen werden momentan eben noch von Journalist*innen und Journalisten mehrere Tools eingesetzt. In dem Fall hat die Redakteur*innen ein frei verfügbares Online-Tool verwendet, mit einem Professor gesprochen, der Informatik und eben von uns eine Analyse angefordert. Wir glauben aber, dass langfristig es natürlich dann auch so ist, dass man das konsolidiert, also dass man irgendwann eben auch ein bestimmtes Siegel hat und sagt, guck mal, wenn die das gemacht haben, dann kann man

denen da auch vertrauen. Darauf zählen wir ab. Wer sich so ein bisschen mit KI beschäftigt, der kennt eben in der Zwischenzeit ChatGPT, vielleicht auch Anatol, du hast vorher auch erwähnt, Mid Journey so als Bildgenerierungstool und wir haben natürlich jetzt bei den ganzen Browsern und so weiter die großen Firmen, die KI-Assistenten, sag ich mal, einführen, also sowas wie Clippy früher nur mit KI. Wo würdest du sagen, sollte man den hinschauen, Anatol, für die KI, die auf uns

zukommt? Das sind jetzt alles schon Sachen, die sind so ein bisschen angekommen. Aber was sind denn so KI-Tools, wo du sagen würdest, das sollte man auf dem Schirm haben oder diese Anwendungsfälle sollte man auf dem Schirm haben? Ich würde nur kurz einhaken, was auf jeden Fall super wichtig

ist, ist Vertraue einfach keiner KI. Erst mal ganz wichtiges Thema, egal ob es ChatGPT ist oder ChatGPT 15.1 in 10 Jahren, vertraue deinem Gehirn und versuche dich nicht abhängig zu machen, vor allem dein Denken nicht abhängig zu machen von KI-Tools, es sind Werkzeuge. Finde ich total wichtig, was an was ich da denken muss, weil KI ist ja immer so ein bisschen schwer

greifbar. Früher gab es öfters diese Geschichten, dass Leute mit ihrem Auto in ein Wasser, in ein Fluss irgendwo reingefahren sind, weil sie nur auf Google Maps geguckt haben und nicht mehr auf

die Straße. Exakt gutes Beispiel tatsächlich. Es ist auch so, weil es halt ein blindes Vertrauen in der Technik ist, die zwar vieles gut macht, aber halt trotzdem halt nicht fehlerfrei ist und auch eben Modelle wie ChatGPT, die fast schon wirklich wie ein Mensch vielleicht wirken oder halt wirklich auch Sätze und Sprache auch sehr gut beherrschen und auch Inhalte wiedergeben können. Das wirkt fast menschlich, aber man darf immer nicht vergessen, das sind statistische Modelle.

Das heißt, was die unter der Haube immer berechnen, ist einfach nur basierend auf den Trainingsdaten, was halt immer mit einer Häufigkeit zu tun hat, sich anzuschauen, okay, jetzt habe ich hier das Wort Buch und was ist ganz, ganz häufig wurde im Zusammenhang bei den Texten, die ich gelernt habe, mit Buch öfter erwähnt, zum Beispiel Lesen und dann ist das quasi das wahrscheinlichste Wort, was da darauf hin folgen kann. Das heißt, es hat an sich nichts mit wirklich menschlicher

Intelligenz zu tun und auch eben auch nicht mit menschlichem Denken. Das ist einfach nur, was ist das statistisch Sinnvollste, was darauf folgen kann. Okay, dann würde ich diese Frage dich dir gestellt habe, damit beantworten, welches Tool man auf jeden Fall auf dem Schirm haben

sollte, ist das eigene Gehirn. Auf jeden Fall. Sehr, sehr gut. Ich hätte gerne auch eine Einschätzung von euch bezüglich Fake News, Deep Fakes, ob das zukünftig zunehmen wird und zwar möchte ich euch das fragen, den ich habe gelesen, dass immer mehr und mehr in Klammer gesetzt seriöse, also das meint seriöse und unseriöse Nachrichtenseiten auf jeden Fall eine Sperre reinmachen, dass

KI das nicht mehr crawlen kann online. Und die Folge davon sei, dass die KI natürlich auf immer schlechtere Datenquellen zurückgreifen kann und mit schlechteren Datenquellen quasi gefüttert wird und dadurch wieder der Output auch schlechter wäre und die Ableitung daraus wäre, ist jetzt kompliziert vielleicht, dass eben Deep Fakes, Fake News und so weiter zunehmen, weil du hattest ja vorher Anathol auch gesagt, dann soll man gucken, ob man mehrere andere Quellen findet, aber das

durch eben diese Konstellation von Sperre, dadurch minderwertige Informationen, dadurch werden die Trainingsdaten auch minderwertig und dadurch entsteht mehr Fakezeug und damit wird das Problem zunehmen. Ist das eine korrekte Ableitung? Das sind jetzt quasi tatsächlich mehrere Aspekte in einem. Das eine ist tatsächlich halt die Frage, wie qualitativ sind dann die Trainingsdaten und natürlich ist viel Text im Internet, aber wenig davon ist hochqualitativer, journalistischer,

grammatikalisch sinnvoll zusammengesetztes. Ob das einen direkten Zusammenhang haben wird oder haben kann zur Verbreitung von Desinformation oder Deep Fakes, kann ich jetzt so nicht unbedingt genau beantworten. Es kann durchaus einen Einfluss haben, aber ich würde da jetzt zumindest keine 1 zu 1 Korrelation sehen, dass aus dem einen das andere folgt, was wir aber sehen können ist.

Und heutzutage haben wir einfach nur eine Anmeldemaske, hinterlegt eine E-Mail, meldet dich an, nutzt das und das ist sehr, sehr einfach, weil ich kein technisches Verständnis mehr brauche. Also sowas macht es natürlich halt extrem leicht und extrem zugänglich, Deep Fakes zu verbreiten. Vielleicht würde ich eher da die Korrelation sehen, dass einfach die Zugänglichkeit deutlich, deutlich besser geworden ist oder deutlich einfacher geworden ist. Ich glaube, dass wir schon das Thema

Deep Fakes und das Thema Fake News, das ist jetzt ein dauerhaftes Thema. Das ist eben wie bei IT Security. Es ist hier to stay und wir können es bekämpfen, wir können damit arbeiten, wir werden das tun und wir alle können uns dafür einsetzen, dass es auch natürlich sich im Rahmen hat, so würde ich das sagen. Annika, Anatol, dann möchte ich mich an dieser Stelle bei euch bedanken für euren Einsatz und dass ihr die KI im guten Sinne der Macht verbessert, einsetzt und da mit

eurem Startup wirklich impact schafft. Vielen Dank, dass ihr hier im Podcast wart. Ja, vielen Dank, es hat uns sehr Spaß gemacht. Vielen Dank für die Einladung. Ihr habt es gehört. Mit KI kann man viel Schindluder treiben, man kann es aber auch sehr, sehr gut einsetzen und gerade wenn es um Deep Fakes geht, kann KI auch helfen, die zu identifizieren. Das war es für heute mit

den Innovation Minutes. Bitte folgt diesen Podcast, dann verpasst ihr auch keine neue Folger und ich habe euch natürlich alle relevanten älteren Folgen zum Thema KI auch noch mal in die Show Notes gepackt. Ich wünsche euch noch einen schönen Tag und wie immer viel Erfolg bei allem, was du tust. Das waren deine Innovation Minutes direkt aus dem Media Lab Bayern. Du willst mehr? Dann besuch uns auf media-lab.de und starte dein eigenes Projekt. Last but not least,

dieser Podcast ist möglich, weil wir tolle Unterstützer und Unterstützerinnen haben. Besondere Dank geht an die Staatskanzlei Bayern, die Bayerische Landeszentrale für neue Medien BLM und natürlich an meine Kollegen und Kolleginnen in der Medien Bayern. [Musik]

Transcript source: Provided by creator in RSS feed: download file
For the best experience, listen in Metacast app for iOS or Android
Open in Metacast