ARD Kennt ihr diese Memes, wo eine Frau oder ein Mann mit so einer Art Geistermensch auf einem Hügel sitzt oder durch die Felder spaziert, sich umarmt? Das ist so eine richtige Kategorie geworden. Me and Chat GPT. Falls ihr diese Memes nicht kennt, es geht also darum zu zeigen, zeigen, wie eng bei vielen Leuten die Beziehung zu dem Chatbot geworden ist, weil sie einfach alles mit der KI teilen.
Fragen zur Bewerbung, Fragen für die Arbeit, aber auch total persönliche Details, Ängste, Sorgen, all sowas. Eben wie so ein unsichtbarer Begleiter. Und nicht nur freundschaftlich, sondern noch mehr, vielleicht sogar auf therapeutischer Ebene. Ginge das? Also Therapie mit KI? Also kann uns ein Chatbot therapieren? Das ist unsere Frage in diesem Podcast. Klären wir wissenschaftlich.
Und wenn wir all diese Details dann mit der KI teilen, diese wahnsinnig persönlichen und intimen Fragen, was wissen denn ChatGPT und Co. eigentlich alles über uns? Und was machen die Unternehmen mit den Daten und fast schon unserem Psychogramm? sagen wir euch am Ende. Ich bin Ina Plodroch. Hi. Quarks Daily. Deine Themen wissenschaftlich geprüft. Ich fühle mich irgendwie so unsicher. Wie soll ich denn damit umgehen?
Oder ich habe immer so Angst, auf der Arbeit neue Ideen zu präsentieren. Wie kann ich da mutiger werden? Oder wenn es eben so richtige Gedankenkreise sind, Ängste, so richtige Sorgen oder depressive Verstimmung und so ein Therapieplatz noch nicht in sich. Tja, ChatGPT, also eine KI, ein Chatbot.
Kann einfach immer. Aber kann so ein Chatbot deshalb auch bei psychischen Erkrankungen helfen, dass wir einfach all unsere Fragen und Sorgen der KI dann stellen? Christiane Tover, du kümmerst dich bei uns im Quarks-Team um Psychologie-Themen. Du hast dich damit beschäftigt, was... die KI bei psychischen Problemen leisten kann und wo aber auch wirklich so die Grenzen sind. Kann eine KI uns therapieren und sogar den Psychotherapeuten ersetzen?
Das ist ein bisschen schwierig, Ina. Also erste Studien, die zeigen zwar, dass KI-Anwendungen in bestimmten Situationen durchaus hilfreich sein können, aber sie können eine Psychotherapie nicht komplett ersetzen. Das ist ganz wichtig. weil der KI bestimmte menschliche Eigenschaften fehlen. Und was auch noch wichtig ist, es gibt auch Risiken. Wer das jetzt alles noch nie benutzt hat, noch nie mit einer KI, noch nie mit einem Chatbot irgendwie was gemacht hat, wie startet man?
Du kannst eine App runterladen oder eben mit einem Chatbot arbeiten. Und da gibt es sogar einige, die speziell für psychologische Belange programmiert worden sind. Zum Beispiel eine, die hat ein Psychologenteam der Uni Stanford entwickelt, die heißt Wobot. Es gibt aber auch noch andere, zum Beispiel Terrabot, die wurde auch an einer britischen Hochschule entwickelt.
Und auch in Deutschland tut sich was. Zum Beispiel wird ja gerade an den Unis in Leipzig und Osnabrück an einem Chatbot gearbeitet. Und dann gibt es eben noch Chatschibiti und Co. Die haben ja mittlerweile viele von uns auch auf dem Handy.
nicht aufs psychologische Fragestellen spezialisiert, aber die liefern trotzdem Antworten. Wie starte ich denn dann? Muss ich erst mal sagen, ja okay, wir sind jetzt hier in einem Therapiesetting und darauf will ich jetzt hinaus oder kann ich einfach schreiben, mir geht es irgendwie doof?
Das kannst du ganz genau so machen. Also du musst jetzt nicht vorher sagen, ich würde gerne sowas wie eine Therapie jetzt machen oder so. Also das musst du nicht. Du kannst einfach eine Frage stellen, also sowas wie, ich bin oft traurig, was kann ich tun? Können wir das mal ausprobieren? Oh, finde ich super. Ja, mach mal. Guck mal, was da rauskommt. Also, ich habe das hier offen. Ich bin oft traurig. Ich mache das hier bei ChatGPT. Was kann ich tun? Fragezeichen.
Es tut mir leid zu hören, dass du oft traurig bist. Das ist belastend, aber es ist gut, dass du darüber sprichst. Es gibt verschiedene Wege damit umzugehen, welche für dich hilfreich sind, hängt auch davon ab, wie tief und langanhaltend deine Traurigkeit ist. Hier ein paar erste Gedanken. Also erstmal verstehen, woher kommt die Traurigkeit, mit jemandem sprechen, bisschen Sport machen und kleine Lichtblicke im Alltag schaffen, Geduld mit dir selbst.
Ich sage mal, man kann schon was damit anfangen. Aber die Apps, die speziell für psychologische Anliegen programmiert sind, die machen das noch ein bisschen genauer. Also manchmal erinnern sie auch die Userinnen und User an bestimmte Übungen oder sie melden sich zwischendurch und fragen nach.
wie es den Menschen geht, die eben die App benutzen. Ja, was ich nicht gesagt habe, hier steht jetzt auch, wenn du magst, kannst du mir auch mehr darüber erzählen, wie es dir gerade geht, dann kann ich gezielter helfen, ich bin da. Ich fühle mich direkt von Chatschipiti umarmt. Ja, das kann Chatschipiti auch sehr, sehr gut. Also das ist ja diese Empathie oder diese vermeintliche Empathie, die darüber kommt. Und deswegen ist es auch so reizvoll für viele.
Menschen dann dort eben auch Fragen einzugeben. Das heißt, weiß man denn was über konkrete Effekte? Ja, ganz genau. Also man weiß mittlerweile, dass tatsächlich sich nach vier Wochen Chatbot-Nutzung depressive Symptome verbessern können. Das hat eine Metastudie der Uni Singapur gezeigt, also eine Studie, in der mehrere Studium zum Thema ausgewertet wurden. Aber das musst du dir jetzt nicht vorstellen wie so einen riesengroßen Effekt. Aber wie gesagt, es war so eine leichte Verbesserung da.
Und es gibt zumindest Hinweise, dass Chatbots bei Stress- oder Schlafproblemen helfen können, wobei da die Studienlage nicht so ganz einheitlich sind, also da gibt es auch andere Studien, die eben sagen, nee, eher nicht. Die Studie packen wir euch auf jeden Fall in die Show Notes.
Das klingt jetzt aber alles erstmal gar nicht so schlecht, würde ich sagen. Ja, aber man muss schon genauer hinschauen, Ina, weil es ist gar nicht so einfach, das seriös zu erforschen, auch weil man ja solche Studien nicht verblinden kann. Das würdest du ja merken als Studienteilnehmerin, wenn du jetzt eben, ob du mit einer KI sprichst oder mit einem Therapeuten.
Aber man hat herausgefunden, wenn die Probandinnen und Probanden das nicht wissen, mit wem sie zu tun haben, dann schneidet die KI sogar besser ab. Wie hat man das denn dann rausgefunden? Und da ging es um ganz klassische Fragen, die in der Paartherapie gestellt werden. Also so Sachen wie, mein Partner und ich streiten ständig über Geld. Was sollen wir tun? Oder ich habe das Gefühl, mein Partner hört mir nicht zu. Was raten Sie?
Diese Antworten, die wurden dann von den Teilnehmenden beurteilt. Es wurde ihnen dann eben vorgespielt, diese Antworten, also so, dass sie dann nicht wussten, bekomme ich jetzt die Antwort von einer KI oder von einem menschlichen Therapeuten. Und da kamen dann, wie gesagt, die Antworten von der KI bei den meisten. der rund 800 Teilnehmenden besser an als die von den menschlichen Therapeutinnen und Therapeuten.
Das ist ja interessant. Weiß man denn, warum das so ist? Man weiß es nicht so ganz genau, aber möglicherweise lag es daran, dass die KI-Antworten sprachlich erstmal sehr gut waren und auch ausführlicher als die von den menschlichen Therapeuten. Und die Studienteilnehmer, die sagten auch, dass die Antworten empathischer klangen. Hast du ja eben auch selber gesagt. Man fühlt sich ein bisschen eingelohlt.
Ja, aber das ist ja selbst, wenn man irgendwie fragt, kannst du mir einen Einkaufszettel schreiben, dann sagt ChatGPT ja auch erstmal, Mensch, also das ist ja eine tolle Idee von dir. Absolut. Und ich denke im ersten Moment immer so, oh ja, okay, aber so ein bisschen gebauchpinselt fühle ich mich dann trotzdem.
Auch wenn das so eine Maschine ist, das ist irgendwie total crazy. Ja, es ist so. Wir wissen das und trotzdem fallen wir so ein bisschen drauf rein. Und wie gesagt, das liegt eben daran, dass die KI mittlerweile sprachlich so fit ist und dass sie einen eben so einlohnen kann.
man sich eben blenden. Aber man darf eben nicht vergessen, die Empathie ist nicht echt. Wir haben es ja nicht mit einem Menschen zu tun. Nee, das vergisst man wirklich. Ist irgendwie eigenartig, ja. Was heißt denn das aber jetzt für den Umgang mit KI, wenn es um psychische Probleme geht?
Die KI, die kann zwar viel, aber die birgt eben Risiken. Und das ist wichtig, dass man das im Blick hat. Und wir wissen eben nicht, wie sie in bestimmten Situationen reagiert. Also ich habe da ein gutes Beispiel gelesen. Da wird KI mit autonom fahrenden Autos verglichen. Die können ja auch gut fahren.
So wie Chatbots eben gut texten können, aber man lässt sie trotzdem in der Regel nicht auf die Straße, einfach weil vieles ja noch sehr ungeklärt ist. Also deshalb lieber nicht mit Chat-TPT über meine... psychischen Probleme und wovor ich Angst habe, meine Sorgen und so weiter, das lieber nicht teilen? Wenn man wirklich ernsthafte psychische Probleme hat, dann wäre ich da vorsichtig, weil man eben noch nicht weiß, wie reagiert jetzt die KI.
Und es fehlt auch an Kontrollmechanismen. Also selbst wenn die KI jetzt 50 Mal sagt, man soll sich Hilfe holen, wenn es einem nicht gut geht, dann kann es auch sein, dass sie beim 51. Mal dann halluziniert und irgendwelchen Quatsch rausbläst. Und für Menschen, die gerade in einer psychischen Krise stecken, kann das lebensgefährlich sein. Also denk mal an Menschen, die ja suizidgefährdet sind.
Und dazu kommt auch, dass der KI wirklich was fehlt, was gerade in der Psychotherapie wichtig ist. Die kann nicht zwischen den Zeilen lesen, die kann keine Körpersprache erkennen und die hat auch keine Berufs- bzw. Lebenserfahrung im klassischen Sinne. Also ihr fehlt viel von dem, was einen guten Therapeuten oder eine gute Therapeutin ausmacht.
Aber das heißt, das Thema KI in der Therapie, das ist eigentlich schon durch das Thema? Überhaupt nicht. Aber man fängt jetzt gerade erst an, weil das Potenzial ist auf jeden Fall da. Das sagen die psychotherapeutischen Fachgesellschaften ganz klar. Aber wir stehen eben noch am Anfang.
Die Forschung beginnt jetzt gerade erst. Und bis man mehr weiß, wird Kainetherapie auf jeden Fall nicht ersetzen können. Aber es gibt schon Situationen, da kann sie eine echte Hilfe sein. Also zum Beispiel, um die Wartezeit zu überbrücken, bis man einen Therapieplatz bekommt. Selbst gesagt, man wartet ewig und ewig und ewig. Oder auch ergänzend zu einer Therapie.
Oder auch, wenn man Hemmschwellen hat, also wenn man sich grundsätzlich mit Therapie schwer tut, da kann der KI dabei helfen, Berührungsängste zu überwinden. Und das betrifft dann eben auch Leute, die vielleicht sich sonst keine Hilfe suchen würden. Also insofern gibt es schon viele Punkte, wo die KI durchaus hilfreich sein kann. Also ChatGPT und andere Chatbots werden nicht die klassische Psychotherapie ersetzt.
weil sie einfach nicht individuell genug auf die Person eingehen können. Im Moment auf jeden Fall. Genau. Und man weiß eben nicht so richtig, ob die KI wirklich so... die richtigen, die passenden Antworten gibt. Bei leichten depressiven Verstimmungen kann sie zumindest erstmal ein bisschen helfen. Das zeigt eine Studie. Und es kann eben so ein niedrigschwelliger Einstieg sein für Menschen, die noch keine oder wenig Therapieerfahrung haben.
haben. Christiane Tober aus dem Quarksteam, danke dir. Bitteschön. Also eine ernsthafte, so eine richtige Psychotherapie ersetzt bisher eine KI, ein Chatbot nicht. Worüber wir aber eben nicht gesprochen haben. Wenn wir all unsere Sorgen und all unsere Ängste oder kurzfristigen alltäglichen Gedanken, wenn wir all das mit dieser KI, mit dem Chatbot teilen, ja.
Was passiert denn dann eigentlich mit diesen Infos? Das ist ja schon total intim, total persönlich, viel persönlicher als alles, was ich mal so bei Google eingebe. Was macht also der Chatbot mit diesen sehr privaten und auch sehr intimen Details? Sammelt der die, speichert das und hat irgendwer Zugriff darauf? Das klären wir und zwar mit Jörg Schieb aus dem Quarks-Team. Jörg, was genau sammeln KI-Chatbots über uns?
Wichtige Frage, nach meiner Beobachtung denken ja die meisten so ein Chatbot wie ChatGPT, Co-Pilot, Claude und so weiter, weiß nur, dass... Und kann auch nur das wissen vielleicht, was ich ihm direkt sage. Aber das stimmt nicht ganz. KI-Unternehmen sammeln Daten auf mehreren Ebenen und das nicht zu knapp.
Aber was heißt denn das jetzt genau? Also ich gehe jetzt mal davon aus, der Chatbot weiß alles, was ich dem jetzt also an Fragen irgendwie mitgegeben habe. Mal persönlich, viel auch irgendwie vielleicht mit dem Job und so weiter. Das weiß der Chatbot natürlich.
Ja, ja, viele sprechen ja mit dem Chatbot ihrer Wahl, wenn sie gesundheitliche Probleme haben, zum Beispiel Stress mit dem Partner, Kollegen, Freunden und so weiter. Das sind ja schon sehr persönliche Dinge, auch Gesundheit oder Psyche und so weiter, gar keine Frage.
Eine Studie der Universität Washington von 2024, also noch ganz frisch, zeigt, Nutzer teilen in Gesprächen mit KI-Chatbots Deutlich mehr private Informationen als in normalen Suchmaschinen hat mich auch überrascht, aber das liegt wahrscheinlich daran, weil die Gespräche sich so natürlich anfühlen nach einer kurzen Zeit, dass man da gar keine Erhemmungen mehr hat und einfach ins Reden kommt.
Und wer das vielleicht noch nicht genutzt hat, ich habe das auch erst kürzlich irgendwie entdeckt, ich bin immer so ein bisschen spät dran, wir können ja wirklich also mit ChatGPT zum Beispiel wirklich so, also ich schicke eine Sprache und JGPT antwortet richtig. Und genau, das klingt erstaunlich natürlich. Das sind ja aber alles, was du jetzt gerade gesagt hast. Das sind ja alles Sachen, die wir bewusst oder unbewusst, aber die wir halt eingeben.
Zumindest aktiv, genau. Aber dann gibt es aber auch noch die Metadaten, die sogenannten Metadaten, wann wir ein Chatbot benutzen, wie lange wir das machen, welche Themen einen besonders interessieren oder auch nicht sogar, dein Schreib. Webstil oder Sprechstil, wenn du mit dem Chatbot sprichst, also mit deiner Stimme, das geht ja auch. OpenAI gibt ganz offen zu, dass sie Nutzungsmuster analysieren, um ihre Modelle zu verbessern. So ein Chatbot soll sich ja halt wie ein guter Freund...
gute Freundin oder wenigstens wie ein Assistent verhalten. Und da ist es gut, Eigenheiten zu kennen und sie auch zu berücksichtigen. Das gibt uns ja das Gefühl, guck mal, da kennt mich aber einer und da habe ich Vertrauen, mit dem spreche ich gerne, arbeite ich gerne.
Und das liegt in der Natur der Sache, dass da natürlich auch einige Daten abfließen. Aber kommt uns ja auch irgendwie zugute, kann man ja auch so sehen. Genau, was viele aber nicht wissen, unser digitaler Fußabdruck fließt oft schon... vor dem ersten Gespräch ein. Das ist überraschend, oder? Die KI-Modelle werden ja mit öffentlichen Daten trainiert. Webseiten, soziale Medien, Foren.
Wenn ihr dort aktiv seid, also wir sind das ja zum Beispiel, machen Podcast, dann kennt die KI möglicherweise schon Texte von uns und damit auch einige Eigenheiten und Charaktermerkmale, bevor wir das erste Mal überhaupt mit ihm sprechen können. Also das gilt besonders für Menschen, die sehr aktiv sind und wenn der Chatbot dann einmal merkt, du bist das, dann weiß er natürlich auch schon eine ganze Menge über dich.
wir was sehr Privates mit dem Chatbot besprochen oder geteilt haben, passiert ja. Speichern die Anbieter dann diese Gespräche dauerhaft oder werden die auch wieder gelöscht? Also die ehrliche Antwort ist ja, die meisten speichern Gespräche dauerhaft, zumindest die großen Anbieter und zumindest für eine gewisse Zeit. Also OpenAI speichert Chat-GPT-Unterhaltungen zum Beispiel standardmäßig mindestens 30 Tage.
gelangt zur sogenannten Sicherheitsüberwachung. Das steht in den Nutzungsbedingungen. Das bedeutet, wenn jemand Schindluder mit einem Chat-GPT-Account betreibt, dass man das dann untersuchen und nachweisen kann. Aber wer das möchte, kann diese Gespräche ja auch dauerhaft im eigenen Account speichern lassen.
auch quasi auch für die Ewigkeit. Viele machen das unbewusst, weil es praktisch ist, alte Gespräche dann auch wiederzufinden im Chat-GPT-Account. Guck mal, wo habe ich noch für vier Wochen diese Film-Diskussion? Dann kannst du es wiederfinden und wieder aufgreifen, den Faden. Außerdem wird der Chatbot dadurch auch mehr und mehr zu einem guten Freund, der wirklich eine Menge weiß und versteht.
Google behält Gespräche bei Gemini, dieser andere große Chatbot, bis zu 18 Monate. Microsoft Copilot bis zu 30 Tage, aber auch hier gibt es Ausnahmen. Besonders im Geschäftsbereich, also hängt ein bisschen davon ab, welchen Chatbot man benutzt, aber im Wesentlichen mindestens 30 Tage eigentlich alle. Ja, aber kann ich die Unterhaltung nicht auch einfach löschen?
Ja, aber selbst wenn die Gespräche gelöscht werden, bedeutet das nicht, dass die Informationen komplett verschwinden. Eine Analyse des MIT Technology Review zeigt, die Unternehmen nutzen die Gespräche auch, um ihre Modelle zu trainieren. Was einmal ins Training eingeflossen ist, das lässt sich nicht mehr rückgängig machen. Die KI hat also gelernt und das bleibt dann auch in der KI. Also es ist nicht so, dass jedes Detail dann da verhaftet bleibt, aber es können durchaus Rückstände.
dann in der KI sein, die Rückschlüsse darauf geben, was du mal mit der KI gemacht hast. Einige Anbieter bieten mittlerweile einen Inkognito-Modus deswegen an, direkt im Chatbot. Das ist dann so ähnlich wie beim Browser. Alles aus der Vergangenheit spielt keine Rolle und alles, was dort gerade in diesem Inkognito-Modus besprochen wird, verschwindet wieder, wenn das Fenster zugemacht wird.
also nicht gespeichert. Wichtig für Gespräche, die wirklich sehr, sehr diskret vielleicht behandelt werden sollen. Bei OpenAI heißt das Chat-GPT ohne Verlauf. Aber Vorsicht, auch da werden die Gespräche... trotzdem 30 Tage lang gespeichert, eben angeblich zur Missbrauchskontrolle. Das bedeutet aber nicht zwingend, dass die Inhalte der Konversation dann auch verarbeitet werden. die KI-Chatbots ja wirklich alles fragen. Können wir nicht auch einfach fragen, was weißt denn du über mich?
Genau, das ist tatsächlich ein sehr aufschlussreicher Test und der funktioniert besser als viele erwarten. Das geht im Augenblick auf Social Media viral, weil da sehr, sehr interessante Erkenntnisse herauskommen. Es gibt mittlerweile eine ganze Bewegung da. auf Social Media, wo Menschen ihre Chatbots mit genau solchen Fragen konfrontieren und die Ergebnisse sind oft überraschend detailliert. Je länger man so ein Chatbot benutzt, desto informativer. Was für Fragen geht es denn da?
Also ich schlage mal ein paar vor. Basierend auf unseren Gesprächen, was ist eine Sache, die du über mich weißt, die ich selbst vielleicht nicht bewusst wahrnehme? Das ist so ein Tipp in den Prompt. Da muss man erstmal drauf kommen, aber das ist genau, das funktioniert. funktioniert gut. Das nimmt der Chatbot ernst. Das deckt oft unbewusste Muster auf.
Denn Chatbots merken sich nicht nur Fakten, also was genau hast du gesagt oder gefragt, sondern eben auch Muster, vielleicht ja auch Muster, die uns gar nicht so bewusst sind. Hast du das eingegeben? Ja, natürlich. Und manchmal denkt man, ja, okay.
Match, verstehe ich. Manchmal ist man aber auch ein bisschen erstaunt, erschrocken, geschmeichelt. Das ist unterschiedlich. Das sollte man auf jeden Fall mal machen. Das ist interessant. Ein anderes Beispiel. Welche drei Wörter würden meine Persönlichkeit am besten...
beschreiben, basierend auf dem, was wir besprochen haben. Das zeigt dann, wie wir auf andere wirken, basierend auf dem, was wir mit dem Chatbot teilen, denn so ein Chatbot, der ist sehr, sehr aufmerksam, der hört immer gut zu und kann dir das auch wirklich Und da noch ein drittes Beispiel, weil es so schön ist. Was sind meine größten blinden Flecken oder Schwachstellen, die in unseren Gesprächen deutlich geworden sind?
Das kann dann ehrlich gesagt schmerzhaft sein, aber sehr, sehr aufschlussreich. Also gerne mal probieren und vorher. Ja, wir können jetzt gerne aufhören. Ich möchte es sofort machen. Dann mach das aber erst, wenn wir fertig sind. Also der Chatbot kann unsere Persönlichkeiten wirklich ganz schön gut einschätzen. Erschreckend gut. Ja, erschreckend gut. Eine Studie der Auburn University von 2024 zeigt, KI-Chatbots können Persönlichkeitsmerkmale
Genauso gut oder sogar besser einschätzen als traditionelle Persönlichkeitstests. Und die machen wir ja dann quasi so Multiple Choice und beim Chatbot merken wir es gar nicht, da sprechen wir einfach nur. Die Forscher ließen Studenten sowohl klassische Tests machen als auch... mit einem Chatbot sprechen und die KI-Analyse
war teilweise präziser bei der Vorhersage von Studienerfolg und sozialer Anpassung. Wow, oder? Und warum das so gut funktioniert, die KI analysiert nicht nur unsere Worte, sondern auch unseren Streitstil, die Stimmung, die Themenauswahl, Reaktion. Eine Studie aus Tschechien mit 155 Teilnehmern zeigt, dass ChatGPT Persönlichkeitsmerkmale aus kurzen Texten ziemlich akkurat ableiten kann. Allerdings mit einem Positivitäts-Bias.
einer Tendenz, Menschen positiver darzustellen. Also du musst gar nicht so viel Angst haben, wenn du die drei Fragen nachher stellst. Aber trotzdem Vorsicht, die KI wird uns nicht alles verraten. Sie ist daraus programmiert, höflich und konstruktiv zu sein. Richtig kritisch. verletzende Einschätzungen werden oft abgemildert oder gar nicht erst erwähnt. Ja, das merkt man ja selbst bei ganz banalen Sachen.
Die loben einen ja wirklich über den grünen Klee und immer, ach das hast du aber toll gemacht, das ist aber super und so weiter. Gute Idee. Ja genau und man schreibt einfach nur so, kannst du mir einen Tagesplan schreiben. Ich will heute eine Pizza backen, oh super Idee. Schräglich. Ich denke, ich will nur die Info. Aber gut. Können KI-Chatbots mich als Person denn dann wirklich auch identifizieren, wenn ich da kein Account habe?
Ja, das ist leider auch möglich, also als kurze Antwort auch ohne Account. Forscher der Carnegie Mellon Universität haben auch 2024 gezeigt, KI-Systeme können Nutzer oft anhand ihres Schreibstils, ihrer Themeninteressen, sogar ihrer Tippgewohnheit.
wiedererkennen. Das nennt sich Stylometrie und es funktioniert erschreckend gut. Und besonders kritisch wird es bei sensiblen Themen, genau solche, über die wir eben mit Christian ja auch gesprochen hast, eine Studie der Electronic Frontier Foundation, das ist so eine kritische Initiative in den USA, die die Bürgerrechte bewahrt im digitalen Raum, die warnt, wer regelmäßig im Chatbot seines Vertrauens nach psychischen Problemen
Krankheiten oder rechtlichen Fragen sucht, hinterlässt ein sehr detailliertes Profil, auch ohne je seinen Namen zu nennen. Und die gute Nachricht aber ist, wem das wichtig ist, kann das erschweren. Indem du zum Beispiel ein VPN, ein Virtual Private Network nutzt, also so eine Software, so ein System, um die IP-Adresse und so weiter zu verschleiern, die Herkunft und andere persönliche Daten, ist ja nicht mehr schwer, sowas zu benutzen heute. Den Browser-Verlauf kann man...
regelmäßig löschen, verschiedene Geräte für verschiedene Themen nutzen. Das aber wirklich nur, wenn man da einen wirklich sehr guten Grund zu hat, sonst ist der Aufwand das sicher nicht wert. Wie gefährlich ist denn das für uns, wenn wir diese Spuren dann eben hinterlassen? Also weil es wirklich so wahnsinnig intim ist. Kann das Nachteile für uns haben? Also kann da jemand drankommen?
Ja, ich meine, im Grunde wollen wir einen Chatbot natürlich haben, der uns kennt, unsere Vorlieben, was wir mögen, was wir nicht mögen, was uns ausmacht. Das ist natürlich Vertrauenssache, ist ja klar. Man muss ehrlicherweise sagen, wenn irgendwo Daten gespeichert werden, das ist bei einer KI auch so, sind nie 100% sicher. Es gibt immer ein Risiko, ein Rechtsrisiko. Es gibt keinen vollständigen Schutz.
Doch KI-Anbieter teilen ihre Daten nicht mit Dritten. Was ist denn, wenn Leute aus der Quarks-Community sagen, ja, ich möchte all diese persönlichen Details teilen, ich möchte einfach tagtäglich alles fragen können, aber ich möchte Kontrolle haben. Also die gute Nachricht zuerst, wir haben mehr Kontrolle als viele denken, aber wir müssen aktiv werden, sofort umsetzbar zum Beispiel in den Account-Einstellungen, den Gesprächsverlauf deaktivieren.
Bei ChatGPT geht das unter Data Controls bei Google Bart in den Aktivitätseinstellungen. Das verhindert, dass die Gespräche für das Training neuer Modelle verwendet wird. Kann man also machen. Dann regelmäßig löschen, alle paar Wochen die Gesprächsverläufe manuell löschen. Ja, das ist lästig, aber effektiv. Natürlich, aber auch nur dann.
wenn man nicht irgendwann da weitermachen möchte, wo man aufgehört hat. Die Sache hat also zwei Seiten und jeder muss entscheiden, was einem wichtiger ist. Und der wichtigste Tipp, Die Datenschutzerklärungen lesen, zumindest die Abschnitte über KI und Training, die ändern sich nämlich regelmäßig. OpenAI hat seine Richtlinie allein 2024 dreimal angepasst.
Gut, das mache ich jetzt alles, nachdem ich diese drei Fragen oder vielleicht noch mehr, die du eben genannt hast, nach dem, okay, was weiß denn der Chatbot über mich eingegeben haben. Das will ich jetzt unbedingt direkt mal machen und danach dann alles andere. Jörg Schieb, danke für diese Infos. Aber gerne und viel Spaß beim Ausprobieren. Ja.
Das war Quarks Daily mit mir, Ina Plodroch. Schön, dass ihr zugehört habt. Wenn ihr jetzt diese Fragen, die Jörg uns nochmal in die Hand gegeben hat, eingegeben habt bei ChatGPT, vielleicht habt ihr ja noch mehr davon. Ich bin gespannt auf Tipps, welche so die besten Fragen für euch waren. und wo ihr so die interessantesten Details über euch selbst über ChatGPT herausgefunden habt, schickt sie uns mal als Sprachnachricht oder per Mail. Kontakt wie immer in den Shownotes. Danke euch.
Gemacht vom WDR.