Wir schreiben das Jahr 1843. Der britische Mathematiker Charles Babbage ist auf der Suche nach der Lösung für ein schwieriges Problem. In der Schifffahrt nutzen die Kapitäne zum Beispiel Sextanten, Chronometer und komplizierte nautische Tabellen, um ihre genaue Position zu berechnen. Dabei kommt es häufig zu Fehlern. Babbage arbeitet schon länger an der Idee einer mechanischen Rechenmaschine.
Der sogenannten Analytical Engine. Alle Daten hätten allerdings von Hand auf Lochkarten übertragen und dann in die Rechenmaschine eingegeben werden müssen. Ich möchte etwas in meiner Arbeit aufnehmen, nämlich wie eine mathematische Funktion von einer Maschine berechnet werden kann, ohne dass sie vorher von Menschenhand eingegeben worden ist, schreibt die Britin Ada Lovelace in einem Brief an Babbage.
Denn Lovelace hat eine revolutionäre Idee. Könnte nicht eine Rechenmaschine automatisch diese komplizierten Berechnungen durchführen? Sie müsste nur so konzipiert sein, dass sie weiß, wie sie rechnen soll. Lovelace überlegt sich eine ausgeklügelte Abfolge von Befehlen und zeichnet sie auf Papier auf. Der erste Algorithmus der Geschichte. Lovelace hat die Informatik um 100 Jahre vorausgedacht, in einer Zeit, als es noch gar keine Computer gab. Music.
Hallo und herzlich willkommen zu Terra X History, der Podcast. Ich bin Mirko Drotschmann, euer Reiseleiter durch die aufregendsten, verrücktesten und manchmal auch skurrilsten Ecken der Geschichte. Heute geht es um die Geschichte der künstlichen Intelligenz. Äh, halt mal, Moment mal, stopp, stopp, stopp. Die skurrilsten Ecken der Geschichte. Also, was ihr da gerade gehört habt, das war nicht ich, sowas würde ich nicht sagen. Das war eine künstliche Intelligenz, die meine Stimme geklont hat.
Aber hättet ihr das gemerkt? Wir haben einen Algorithmus trainiert und der hat dann versucht, meine Stimme nachzumachen. Und ich muss sagen, das klang ziemlich echt, oder? Zu Lebzeiten von Ada Lovelace wäre das kaum vorstellbar gewesen. Ganz zu schweigen von so etwas wie künstlicher Intelligenz. Ada Lovelace schrieb noch Mitte des 19. Jahrhunderts. Die Maschine erhebt nicht den geringsten Anspruch, irgendetwas hervorzubringen. Sie kann tun, was immer wir ihr auszuführen zu befehlen wissen.
Die Stimme von Ada Lovelace gerade kommt auch von einer KI. Diesmal haben wir sie aber nicht mit Original-Audios trainieren können, denn wir wissen nicht, wie sich Ada Lovelace angehört hat. Sie starb schon 1852 und die älteste erhaltene Tonaufnahme ist aus dem Jahr 1860. Aber hatte Lovelace damals wirklich recht? Ist künstliche Intelligenz nicht mittlerweile so schlau, dass sie eigene Sachen erfinden kann?
Oder führt der Algorithmus in der Maschine wirklich nur das aus, was wir Menschen ihm auftragen oder wofür wir ihn trainiert haben? Mal sehen, was unser KI-Mirko dazu sagt. Die Bandbreite von dem, was KIs heute können, ist riesig. Texte zu schreiben, Übersetzungen zu machen oder Sprache zu erkennen, sind nur ein kleiner Teil davon. Eine künstliche Intelligenz kann mittlerweile auch Gesichter erkennen und identifizieren, Bilder und Videos erstellen und Gesichter und Personen imitieren.
Wir sind in einer Zeit, in der unsere Enemies können sich das, wie jemand sagt etwas, an irgendwelche Zeit, wenn sie das nicht sagen würden. So, zum Beispiel, sie könnten mir sagen, wie... Dieses berühmte Deep-Fake-Video hat ein Wissenschaftler von Barack Obama erstellt. KIs sagen das Wetter voraus, helfen bei der Ernte, prognostizieren Aktienkurse und das Kaufverhalten von Kunden.
Sie erkennen Krankheiten, können Autos, Drohnen oder Schiffe steuern, modellieren Zukunftsszenarien wie Klimamodelle und es gibt KIs, die Menschen durch den Alltag begleiten in Form von Chatbots und Avataren. Es gibt sogar Therapie-Apps, wo KIs psychologische Unterstützung anbieten. Äh, danke, KI-Mirko. Wobei, muss ich mich eigentlich bei einer KI bedanken? Die hat ja gar kein Bewusstsein. Und da liegt auch das Problem. Verstehen wir Menschen wirklich, was KIs eigentlich alles können?
Was für Auswirkungen hat das Ganze auf unseren Alltag? Welche moralischen und ethischen Fragen stellen sich? Auch darüber werden wir in dieser Folge sprechen. Und was ist eigentlich eine KI? Was hat künstliche Intelligenz mit Programmierung und Computern zu tun? und seit wann gibt es überhaupt solche Maschinen? Ist die Idee, den Menschen künstlich zu kopieren, nicht schon uralt? Und wie stellten sich die Menschen solche Maschinen früher vor?
In der Antike, im Mittelalter oder in der Zeit der britischen Mathematikerin Ada Lovelace im 19. Jahrhundert? Hat man auch schon früher darüber nachgedacht, was künstliche Intelligenz eigentlich für unser Zusammenleben bedeuten könnte? Sommer 1956. Am Dartmouth College in den USA organisieren einige führende Mathematiker und Informatiker einen Workshop. Einer der Teilnehmer ist der amerikanische Informatiker John McCarthy. Er definiert zum ersten Mal, was er unter Artificial Intelligence,
also künstlicher Intelligenz, versteht. Die Untersuchung, wie Maschinen dazu gebracht werden können, Aufgaben auszuführen, die, wenn sie von Menschen ausgeführt würden, Intelligenz erfordern. Diese Konferenz gilt heute als die Geburtsstunde der Forschungen an künstlicher Intelligenz und John McCarthy als derjenige, der den Begriff KI prägte. Und das ist bis heute eigentlich das, was wir auch fast 70 Jahre nach diesem legendären Sommerseminar in Dartmouth unter KI verstehen.
Eine eindeutige Definition gibt es nicht. Aber vielleicht ein praktisches Beispiel aus unserem Alltag. Vielleicht habt ihr zu Hause einen Staubsaugerroboter. Ich habe keinen, aber ich hätte gern einen, denn ich finde die Dinger ganz schön praktisch. Trotzdem muss man sagen, die sind nicht sonderlich intelligent. Es ist halt ein älterer Roboter, der nach bestimmten Regeln programmiert ist. Der Staubsauger-Roboter, nennen wir ihn mal Robby, fährt einfach die Fläche
im Wohnzimmer ab, die ich ihm vorgebe und saugt dann dort gleichmäßig den Dreck weg. Mehr nicht. Das, was Robby macht, basiert auf einem sogenannten Algorithmus. Das ist eine Reihe von klaren Anweisungen und Regeln in Form von Computer-Codes, die ein Mensch, zum Beispiel eine Programmiererin, aufgeschrieben hat. Also schalte dich ein, fahre los, fahre unter Berücksichtigung von Systematik X von A nach B, komm wieder zurück, schalte dich aus.
Wäre unser Roboter aber ein neueres Modell und mit künstlicher Intelligenz ausgestattet, also mit Prozessoren, die in der Lage wären, Daten zu sammeln, dann könnte er lernen. Genau, und würde nur einmal am Teppichrand umkippen und dann nie wieder. Robby fährt ab sofort nicht mehr über die Teppichkante. Ja, sehr gut. Jetzt könnte man natürlich von einer künstlichen Intelligenz sprechen.
Das heißt, KI kann einen Roboter auch intelligent machen. Die Dartmouth-Konferenz war 1956 der Beginn, um genau dieses intelligente Verhalten von Computern oder anderen Maschinen zu erforschen. Eddard Lovelace trieb schon Mitte des 19. Jahrhunderts. In nahezu jeder Berechnung ist eine große Vielfalt von Anordnungen der Operationsabläufe möglich. Eines der Hauptziele besteht darin, die notwendige Zeit auf ein Minimum zu reduzieren.
Forscherinnen und Forscher glauben heute, Lovelace hätte damals schon vorausgesehen, dass der Computer-Code, also der Algorithmus, mit der Zeit immer besser wird und sich am Ende vielleicht selbst optimiert, also lernt. Im 19. Jahrhundert stellten sich die Menschen wie Lovelace aber schon vor, was mit Technik vielleicht eines Tages möglich sein könnte. Vor allem Schriftsteller und Schriftstellerinnen ließen ihrer Fantasie freien Lauf und erfanden in ihren Werken alles Mögliche.
Vor allem während der Zeit der Aufklärung und der Industrialisierung gibt es viele Bücher, die von menschenähnlichen Automaten erzählen. Wie E.T.A. Hoffmann in Der Sandmann, in der von einer lebenden Puppe namens Olympia die Rede ist. Oder in Mary Shelley's Roman Frankenstein, in dem ein künstlich geschaffener Mensch als Monster zur Schreckensvision wird. Der Begriff Roboter geht übrigens zurück auf den tschechischen Schriftsteller Karel Čapek und sein Theaterstück R.U.R.
So heißt in dem Stück ein Unternehmen, das sich auf die Konstruktion von künstlichen Sklaven spezialisiert hat. Sie verrichten anstelle von Menschen besonders langweilige Arbeit. Und in Also sprach Golem lässt der polnische Autor Stanislaw Lem seine intelligente Maschine sogar Vorlesungen halten, darüber wie dumm der Mensch doch eigentlich ist und wie überlegen die Maschine. Es gab mehr Freiheit als Vernunft. Ihr musstet ja all das, was Tiere von Geburt an können, für euch erfinden.
Im 20. und 21. Jahrhundert spielen Androiden und intelligente Roboter auch in Filmen und Serien eine große Rolle. Mal richtet sich die künstliche Intelligenz irgendwann gegen den Menschen, wie in den Terminator-Filmen, bei Battlestar Galactica oder als der smarte Computer Hel 9000 in Odyssee im Weltraum von Stanley Kubrick am Ende plant, die Raumschiff-Besatzung zu vernichten.
Die gute künstliche Intelligenz liebt dagegen die Menschen, wie etwa bei Pinocchio oder dem Androiden Data an Bord der Enterprise-D. Beide wollen unbedingt menschlich werden. Und das sind nur ein paar wenige Beispiele. Aber die Menschen haben auch schon vor der Erfindung des Buchdrucks und elektronischer Medien an künstliche Technologien gedacht, die Dinge können, die sonst nur Menschen möglich sind.
Vielleicht ist es der Traum der Menschen, selbst zum Schöpfer werden zu können oder vom ewigen Leben. Denn durch die Geschichte hindurch sind die künstlichen Geschöpfe, die sich die Menschen aussagten, natürlich unsterblich. Es sei denn, man zieht ihnen im übertragenen Sinn den Stecker, wie ihr gleich noch erfahren werdet. Jungfrauen stützten den Herrscher. Goldene, Lebenden gleich, mit jugendlich reizender Bildung. Schreibt Homer in der Ilias, um 730 v. Chr.
Er lässt Hephaistos, den griechischen Gott des Feuers und der Schmiedekunst in der Mythologie, künstliche Wesen erschaffen. Diese haben Verstand in der Brust und redende Stimme, haben Kraft und lernten auch Kunstarbeit von den Göttern. Doch Hephaestos kreiert neben diesen Dienerinnen auch Gegenstände, die sich bewegen und Aufgaben ausführen können.
Drei Füße bereitet er, 20 in allen. Goldene Räder befestigt er jeglichem unter den Boden, das sie von selbst annahten und dann zu ihrem Gemach heimkehrten. Homer bezeichnet diese Wesen und Gegenstände als Automatos, Automaten. Das sind eine Art imaginäre, mythische Prototypen von künstlichen Intelligenzen. Adrienne Mayer ist Althistorikerin an der Universität Stanford in Kalifornien. Sie hat sich mit Technikvorstellungen in antiken Mythologien beschäftigt.
Ich glaube, dass Menschen einfach diesen tiefen Drang haben, die Natur zu imitieren. Vielleicht, um selbst gottgleich zu werden. Und aus dieser Idee heraus entsteht dann der Wunsch, die Natur vielleicht sogar ein wenig zu verbessern. Und dann wollen wir oft auch die Natur übertreffen. Hephaestos soll auch ein roboterartiges Wesen namens Talos erschaffen haben. Ein Riese aus Bronze mit einer Art Lebensader vom Nacken bis zur Ferse.
Heute wäre ein solcher Blutkanal vermutlich ein Stromkabel. Talos lebte der Sage nach auf Kreta. Dazu programmiert, die Insel zu bewachen. Er sollte Schiffe vertreiben und Invasoren töten. Und das funktionierte auch so lange gut, bis die Agonauten mit der Zauberin Medea auftauchten, Tochter des Königs von Kolchis, und sie den Riesen Talos austricksten. Zunächst machte sie ihm Angst vor dem Sterben und sagte ihm, dass er verletzlich sei.
Er wusste ja nicht, was für ein Wesen er war. Und dann sagte sie ihm, ich kann dich unsterblich machen, aber nur, wenn du mir erlaubst, den bronzenen Bolzen an deinem Knöchel zu entfernen. Und damit war sein ganzes Innenleben, sein ganzes System versiegelt. Er stimmte also dem Vorschlag Medeas zu. Sie entfernte den Bolzen von Thalos Knöchel und dann fiel er rückwärts hin, rollte die Augen nach oben, die Augenhöhlen leerten sich und er wurde zerstört.
Und all of the Icor flows out and he is destroyed. Er hat also entschieden, als ob er ein Mensch wäre, also nichts, was man von einer KI oder einem Roboter erwartet. Schon die alten Griechen haben also über diese Fragen nachgedacht. Wie werden sich KI und Robotert verhalten? Und sie wurden tatsächlich zu einer Art Blackbox. Was und wie sie heute wirklich entscheiden, wissen auch die Hersteller und die Menschen, die sie einsetzen, nicht genau.
Und genau das ist mit Talos passiert. und die Leute, die sie verwendet haben. So, die Maker und die User-Alike sind, sie werden Black Boxen. Und das ist das mit Talos. Musik. Talos war ein reines Gedankenspiel. Aber in den folgenden Jahrhunderten entwickelten die Menschen tatsächlich verschiedene Konstrukte und Ideen als Vorläufer moderner
Rechensysteme und mechanischer Apparaturen. Im 12. Jahrhundert bautete Ingenieur Al-Jasari Wasseruhren und Automaten, die Bewegungen vollführten und sogar Musikinstrumente spielten. Er nutzte ausgeklügelte Mechanismen und Zahnräder, die es der Maschine ermöglichten, Bewegungen zu imitieren. Und er benutzte als erster den Begriff automatische Maschine. Da Vinci entwarf im 15. Jahrhundert den sogenannten Roboterritter.
Ein mechanisches Wesen, das Arme, Beine und sogar den Kopf bewegen und einen Menschen zur Begrüßung umarmen konnte. Die Erfindungen waren noch nicht intelligent im Sinne von dem, was John McCarthy 1956 definierte, definierte, aber sie legten die Basis für die spätere Erfindung des Computers. Übrigens, Mirko, falls du das nicht wusstest, der Begriff Computer ist schon ziemlich alt. Der britische Schriftsteller Richard Braithwaite hat den Begriff schon 1613 in einem Buch benutzt.
Als Computer wurden damals Menschen bezeichnet, die per Hand komplizierte Berechnungen durchführten. Das war also eine Berufsbezeichnung, die noch bis in die 1950ern bestand. Die Mathematikerin Catherine Johnson zum Beispiel wurde noch 1953 von der US-amerikanischen Raumfahrtbehörde NECA, der Vorgängerin der NASA, als Human Computer eingestellt.
Ja, gut, dass der KI mir kaum mehr weiß als ich. Wenn ihr euch übrigens fragt, woher solche Sprachsysteme ihre Informationen haben, von uns, ganz logisch. Sie trainieren mit dem, was wir ins Internet stellen. Und wir sprechen jetzt mit jemandem, der sich genau damit besonders gut auskennt, nämlich mit Richard Socher. Der KI-Experte ist gebürtiger Dresdner, lebt aber schon lange in den USA und er ist Spezialist für künstliche Intelligenz, für neuronale Netze und auch für Deep Learning.
Hallo Richard, schön, dass du Zeit für uns hast. Hallo, ich freue mich hier zu sein. Ich habe gelesen, dass man dich auch als KI-Wunderkind bezeichnet. Ich vermute mal, du selbst würdest das jetzt nicht unbedingt so wählen. Ich bin schon etwas zu alt jetzt, ja. Ja, aber auf jeden Fall ist da was dran. Du hast mit deiner Forschung den Grundstein gelegt für KI-Systeme wie ChatGPT. Ich muss sagen, ich selbst verstehe relativ wenig davon, was da im Hintergrund
funktioniert. Was fasziniert dich denn so an Algorithmen, an künstlichen Intelligenzen, an all dem, was damit zusammenhängt? Ja, das hat schon vor vielen Jahren angefangen. 2003, als ich fertig war am Gymnasium Dresden-Blauen, wollte ich linguistische Informatik studieren, was wir mittlerweile Sprachverarbeitung nennen. Das ist ein Teil der KI, also das fing schon sehr früh bei mir an. Und es begann damit, dass ich mich für Sprache interessiert habe und für Mathematik.
Und die überlappen sehr gut in der Informatik, wo wir mit Mathematik Sprache dem Computer verständlich machen wollen. Und das ist letztendlich meiner Meinung nach die Sprachverstehen, Sprachverständnis, ist die interessanteste Manifestation der menschlichen Intelligenz. Und letztendlich ist die menschliche Intelligenz das, was uns am meisten ausmacht als Spezie.
Und unser Meister unterscheidet von anderen Tieren. Das ist die Komplexität unserer Gedanken und die Komplexität unserer Sprache, die wir auch über Generationen dank der schriftlichen Sprache weiterführen können. Und letztendlich verstehen wir die Intelligenz besser, wenn wir sie nachvollziehen und kreieren können. Jetzt kann ich mir vorstellen, als du damit angefangen hast, haben vielleicht manche gedacht, oh, was ist denn das? Was macht er denn da? Warum macht er das?
Künstliche Intelligenz war vielleicht so in den 2010er Jahren noch nicht in der Breite angekommen. Heute ist das natürlich ganz anders. Warum hat sich das denn so gewandelt? Warum hat man vor einigen Jahren gar nicht daran geglaubt, dass sowas wie ChatGPT mal existieren könnte? Ja, in der Tat. Meine Eltern erzählen auch gerne die Storys, als ich gesagt habe, ich will linguistische Informatik studieren. Interessantes Orchideenfach, aber wird mal was aus dem Jungen.
In der Tat, für mich war das schon klar in den letzten paar Jahren. Die großen Durchbrüche hatten wir seit 2010. Es ging damit los, dass wir neuronale Netze nutzen für die Sprachverarbeitung, statt Linguistik-Experten zu fragen. Ob sie denn uns helfen könnten, gewisse Probleme in der Sprachverarbeitung selber zu verstehen und Experten darin zu sein.
Zum Beispiel, wenn ich so wissen will, ist das ein positiver oder ein negativer Satz, der da gesprochen wird über ein Produkt oder über eine Aktie oder eine Firma oder irgendwas, könnte man natürlich Experten fragen. Und wenn es dann natürlich darum geht, Sprache zu übersetzen, wird es sehr, sehr schwierig, alle Regeln der Übersetzung direkt aufzulisten und dann am Computer beizubringen. Und das ist letztendlich unmöglich. Das hat niemand geschafft.
Aber wenn wir neuronalen Netzen einfach nur die Rohdaten geben, sagen, das sind alle Übersetzer im Deutschen und jeder Satz hier ist so und so auf Englisch übersetzt, dann können neuronale Netze dasselbe feststellen.
Und das war so meine Forschungsidee seit 2010 und daran haben wir jahrelang geforscht und dann auch 2018 das Prompt Engineering erfunden, wo man also einem neuronalen Netz alle verschiedenen Fragen stellen kann und es gibt ja einfach immer eine Antwort, egal was die Frage ist und promptet also ein neuronales Netz und dem kann man dann halt Fragen stellen wie, was ist die Übersetzung, was ist die Zusammenfassung. Aber jetzt mal eine ganz blöde Frage.
Ist KI denn nicht eigentlich dumm? Ist die Antwort denn dann auch richtig? Denn so wie ich das verstanden habe, füttert sich ja so eine KI einfach mit den Inhalten, die sie findet. Wenn wir ChatGPT nehmen, da wird viel aus Netz zusammengetragen und dann gibt es da eine Antwort. Aber funktioniert eine KI auch, ohne dass man sie füttert?
Nein, eine KI muss immer trainiert werden. Also die Algorithmen sind sehr abstrakt und je nachdem, welche Daten man in sie einführt, lernen sie dann gewisse Zusammenhänge. Zum Beispiel kann man dem gleichen KI-Modell, dem man englische oder deutsche Sprache als Trainingsdaten gibt, dem kann man auch Proteinsequenzen, also Sequenzen von Aminosäuren geben und dann wird das ein Biologie-Modell. Und dann kann uns das auf einmal neue Proteine generieren.
Das haben wir auch in Laboren dann nachvollzogen und die auch kreiert und die funktionierten dann. Also so ein Sprachmodell, so ein neuronales Sequenzmodell konnte dann also auch die Sprache der Biologie verstehen. Man kann ja auch die Sprache der Musik als Trainingsdaten geben oder die Sprache von Pixeln und Filmen und so weiter. Also alle möglichen Sequenzen, die man so einer KI geben kann.
Auf die kann man sie jetzt trainieren und dann wird sie diese Sequenzen besser verstehen und neu kreieren können. Und das wird noch sehr, sehr viel passieren in den nächsten Jahren. Du hast mal gesagt, das Zeitalter der KI sei wie das Zeitalter der Aufklärung und das der Industrialisierung miteinander kombiniert. Was meinst du denn damit? Ja, wir haben noch nie so viele Forscher gehabt wie momentan in der Welt und wir haben auch noch nie so viel neues Wissen kreieren können wie momentan.
Und das ist eine ganz neue Art des Lernens und der Weltanschauung, die sich so verändert. Und so sehen wir das an vielen Stellen. Aber letztendlich wird sich jede Firma, wird so ein Innovators Dilemma haben in den nächsten Jahren. Insbesondere, wenn diese Firma sehr viele Wissensarbeiter, Knowledge Workers hat, die sehr viele repetitive Aufgaben machen.
Da werden wir sehr große Veränderungen sehen in der Gesellschaft und ähnlich wie in der Industriellen Revolution werden sich sehr, sehr viele Prozesse jetzt automatisieren. Vor 150 Jahren, vor Beginn der Industriellen Revolution, haben über 90 Prozent aller Menschen in der Landwirtschaft gearbeitet. Mittlerweile sind es nur noch 5 Prozent. Das heißt, wir haben einen unglaublichen Jobverlust gehabt.
War ja ganz schrecklich. Aber mittlerweile langfristig sind wir alle happy, denn wir müssen nicht mehr bei Wind und Wetter und in der Sonne, in der Hitze und in der Kälte und im Regen auf dem Feld schuften mit unseren Händen. Das machen jetzt Traktoren. Und so ähnlich werden wir in 150 Jahren auch zurückschauen auf unsere heutige Zeit und sagen, warum mussten jetzt die LKW-Fahrer jetzt den ganzen Tag alleine im LKW sitzen und auf der Autobahn fahren? Das kann doch eine KI auch machen.
Aber langfristig ist es cool, aber in den Momenten ist es natürlich auch ein bisschen angsteinflößend, weil sich viele Jobs verändern werden in den nächsten Jahrzehnten. Es dauert manchmal ein bisschen länger, als viele das denken, aber es kommt auf jeden Fall. Wir haben jetzt die ersten selbstfahrenden Autos hier in San Francisco, aber es hatte dann doch nochmal fünf, zehn Jahre länger gedauert, als die Menschen das dachten vor zehn Jahren.
Ja, Stichwort Wandel in der Berufswelt. Das ist vielleicht auch ein Stück weit ein Wandel in der Bildungslandschaft. Wenn ich an Schulen unterwegs bin, bekomme ich immer wieder mit, dass mir die Leute erzählen, meine Hausaufgaben, die mache ich inzwischen mit Chat-GPT oder erledige irgendwelche Referate damit. Was würdest du denn sagen, verlieren wir durch KI irgendwann unsere Fähigkeiten, unser Hirn selbst anzustrengen, kreativ zu sein? Im Gegenteil.
Ich glaube, wir werden alle auf einer höheren Stufe kreativ. Es ist ein bisschen ähnlich wie Taschenrechner. Wir sind jetzt vielleicht nicht mehr so gut, große Zahlen zu multiplizieren im Kopf, weil wir halt das vor allem an den Taschenrechner abgeben können, diese Fähigkeit.
Ich sehe es auch in jüngeren Menschen, die haben immer schwierigere Zeiten, sich mit einer normalen Karte so zu navigieren in der Welt, aber weil sie haben jetzt halt Navigationssysteme und das Handy ist immer mit dabei und Google Maps ist mit dabei und da kann man dann halt immer sagen, okay, wie komme ich jetzt von A nach B. Aber letztendlich haben junge Menschen halt neue Skills, die die Menschen vor 50 Jahren die Karte lesen konnten, auch dann nicht mehr haben.
Und auch manchmal Schwierigkeit haben, sich einzugewöhnen in diese neue digitale Welt. Und meiner Meinung nach muss sich in der Tat das Bildungswesen sehr verändern, das Forschungswesen auch. In der Forschung wird KI immer wichtiger, auch in den Naturwissenschaften, Physik, Chemie, Biologie.
Wir werden in den nächsten paar Jahrzehnten KI-Forscher kreieren, die unermüdlich 24 Stunden, sieben Tage die Woche durchgängig arbeiten werden und für uns forschen, um Krebs zu heilen, um das Klima besser vorhersagen zu können, vielleicht sogar positiv verändern zu können und so weiter. Und die Bildung muss sich dahingehend verändern, dass wenn ich jetzt testen will, wie jemand einen guten Aufsatz schreibt, muss er halt irgendwann mal dann den Aufsatz halt auch ohne Internet schreiben können.
Und man muss halt trainieren können, dass die Schüler ad hoc auch Diskussionen führen können, also debattieren können. Wo man halt auch nicht jedes Mal in der Mitte vom Gespräch erstmal sagen kann, oh, lass mich erstmal ChatGBT in meine Debatte und meine Hauptpunkte recherchieren, damit ich dir dann die Antwort geben kann. Und man muss auch den Schülern näher bringen, wie das alles funktioniert überhaupt.
Sie müssen programmieren lernen. Zweite Fremdsprache nach Englisch sollte idealerweise eine Programmiersprache sein wie Python. Und wir müssen auch das Curriculum so updaten, weil letztendlich sind Skills, die eine KI machen kann, sind halt weniger wichtig. Es war auch vor dem Internet zum Beispiel unglaublich hilfreich, mehr Wissen auswendig zu lernen.
Das ist jetzt auch nicht mehr so wichtig und dementsprechend muss man natürlich ein Mindestwissen haben, sonst kann man nicht kreativ in einem Gebiet nachdenken und forschen und das alles so Zusammenhänge verstehen. Aber sobald man so halbwegs das Grundwissen auswendig weiß, ist es dann auch okay, wenn man gewisse Details sich halt mit einem Computer und mit einer KI zusammen verbindet und dann noch komplexere Probleme lösen kann.
Eine Sache, die mich auch umtreibt und die ich immer wieder bei Vorträgen zu hören bekomme, ist, wie sieht es denn aus mit Fake News, mit Deepfakes und anderen Dingen, die erzeugt werden, um Menschen zu manipulieren im Netz? Das ist ja inzwischen mit KI sehr einfach möglich. Man kann bekannten Politikern irgendwelche Worte in den Mund legen, die sie nie gesagt haben.
Und ist es nicht auch eine ethische Frage, dass die Menschen, die solche Dinge möglich machen, die das entwickeln, auch gleichzeitig Werkzeuge entwickeln, um sowas zu entschlüsseln? In der Tat ist KI noch mehr als das Internet eine Omni-Use-Technologie. Also die kann man in alle verschiedenen Richtungen anwenden. Ich persönlich finde es super spannend, dass Menschen mit ihr lernen können,
mit ihr gutes Wissen finden können. Denn Deepfakes gab es wahrscheinlich seit ein, zwei Jahren, nachdem die Druckpresse erfunden wurde. Ich konnte auch schon vor vielen hundert Jahren ein Pamphlet ausdrucken und sagen, ja, das hat der so mal gesagt. Hier ist das Zitat. Aber hat er halt so nie gesagt. Also so Fake News gibt es wahrscheinlich so lange, wie es menschliche Sprache
gibt. Es ist natürlich mittlerweile so, dass man den Menschen nochmal erklären muss, dass man in der Tat nicht alles, was im Internet steht, glauben sollte. Das war auch schon vor zehn Jahren so und das wird auch mit der KI weiterhin so sein. Der große Unterschied ist, dass man jetzt halt nicht nur noch auf Photoshop schauen muss und sagen muss, okay, das Foto könnte ja auch Photoshop sein.
Man muss jetzt auch mittlerweile bei Videos aufpassen. Videos könnten auch Fake sein und da muss man in der Tat vielen Menschen neue Medienkompetenz bringen und denen erklären, ja, ich glaube nicht alles, was du im Internet liest, siehst oder auch hörst und schau dir an, wo die wirklichen Quellen herkommen und wo Qualität ist. Realitätsjournalismus passiert, der so wenig wie möglich Voreingenommenheit oder Bias hat. Also Medienkompetenz ist natürlich das große Thema. Absolut sehe ich genauso.
Dir ganz herzlichen Dank in die Einblicke und viel Erfolg weiter bei der Arbeit. Vielen Dank. Schönes Gespräch. Ja, was Computer heute alles können, ist das Ergebnis eines langen Prozesses. Erste Rechenmaschinen, die man als Vorformen heutiger Computer bezeichnen könnte, wurden schon im 17. Jahrhundert entwickelt. Der Franzose Blaise Pascal entwarf eine Maschine, die sechsstellige Zahlen addieren und substrahieren konnte. Übrigens, um seinen Vater zu entlasten, der als Steuereinnehmer arbeitete.
Ende des 17. Jahrhunderts war es dann Gottfried Wilhelm Leibniz, der das binäre Zahlensystem entwickelte. Also die Idee, dass jede Zahl nur durch 0 und 1 dargestellt werden kann. Ohne das Binärsystem könnten moderne Computer die Codes und Algorithmen, die Menschen entwickeln, gar nicht lesen. Im 19. Jahrhundert nahm diese Entwicklung dann Fahrt auf.
Immer mehr Wissenschaftler überlegten sich Entwürfe für Rechenmaschinen, bauten Prototypen und tüftelten an Befehlen, mit denen die Maschinen dann arbeiten könnten, also an Codes. Und in diese Zeit hinein geboren wurde Ada Lovelace, die uns durch diese Folge ja schon eine Weile begleitet. Augusta Ada Lovelace kommt am 10. Dezember 1815 in London zur Welt. Die Eltern sind wohlhabend und adelig.
Ada wächst bei ihrer Mutter auf. Schon mit vier Jahren wird sie in Mathematik unterrichtet und lernt verschiedene Sprachen. Sie entwickelt eine Leidenschaft für die Kunst und hat Spaß am Tüfteln und Werken. 1828, da ist Ada zwölf Jahre alt, entwirft sie einen Flugapparat. Ich bin sicher, mit ein bisschen Erfahrung und Übung kann ich die Kunst des Fliegens bald perfektionieren. Ich werde ein Buch darüber schreiben und vielleicht werde ich wirklich etwas erfinden, was Menschen fliegen lässt.
Adas Mutter ist davon überhaupt nicht begeistert und verbietet ihr solche Spinnereien. Sie schenkt Ada stattdessen ein Holzpferd. Am 5. Juni 1833 begegnet Ada auf einer Abendveranstaltung dem Mathematiker Charles Babbage. Der tüftelt schon länger an Maschinen, um komplizierte mathematische Berechnungen zu lösen. Ich glaube nicht, dass sie auch nur die Hälfte meiner Vorausahnungen besitzen und das Vermögen, alle möglichen Eventualitäten zu sehen.
Ada Lovelace erkennt früh, dass Maschinen mehr können werden, als nur Berechnungen auszuführen. Sie interessiert sich für Kunst und Kultur, entwickelt Ideen, wie Maschinen irgendwann vielleicht Sprache oder Musik verarbeiten können. Angenommen etwa die grundlegende Relation der Tonhöhen in Harmonie und Kompositionslehre könnten auf diese Art und Weise ausgedrückt und an die Maschine angepasst werden, so könnte sie ausgefeilte und allen Regeln der Kunst gehorchende Musikstücke komponieren.
1843 schreibt sie den ersten Code für die visionäre Analytical Engine von Babbage. Ihre Ideen sind für die damalige Zeit revolutionär. Ada Lovelace wird leider nicht sehr alt. Sie stirbt schon 1852 mit nur 36 Jahren an Gebärmutterhalskrebs. Ada Lovelace gilt als vermutlich erste Programmiererin der Geschichte. Heute ist die Geschichte der künstlichen Intelligenz zumindest scheinbar eine Welt, die von Männern beherrscht wird.
Denk nur an die Gründer der großen Tech-Konzerne wie Bill Gates oder Steve Jobs, wobei Steve Jobs ja selbst nie programmiert hat. Aber das war nicht immer so. Und Ada Lovelace und Katherine Johnson sind nicht die einzigen Frauen in der Geschichte der Computer, der Programmierung und der künstlichen Intelligenz, die eine herausragende Rolle gespielt haben. Und dazu forscht die US-amerikanische Historikerin Ma Hicks. Zu Beginn war das gesamte Feld der Computerprogrammierung eine Frauendomäne.
Frauen wurden sogar ausdrücklich rekrutiert, um in diesem Bereich zu arbeiten. Und sie haben hier auch wirklich die meiste Arbeit gemacht. Zunächst noch auf mechanischen Rechenmaschinen. Auch die kamen schon Ende des 19. Jahrhunderts vermehrt zum Einsatz. Die erste Lochkartenmaschine wurde 1890 von Hermann Holleritz entwickelt und kam im selben Jahr mit einer Volkszählung in den USA zum Einsatz. Der Beginn von Big Data, wenn man so will.
Den ersten frei programmierbaren, vollautomatischen Digitalrechner hat Konrad Zuse 1941 gebaut. Und schon 1943 gab es auch in Bletchley Park in England den ersten Digitalrechner mit dem Namen Colossus. Das war der Computer, der für das Entschlüsseln der deutschen Funksprüche während des Zweiten Weltkriegs da war. Übrigens, Mirko, der Krieg spielte eine entscheidende Rolle bei der Erfindung und Weiterentwicklung von Computern.
Viele Computerprojekte wurden nämlich von Regierungen finanziert, die sich durch die Rechner einen Vorteil erhofften. Ja, danke KI, Mirko. Aber wie sahen die frühen Computer eigentlich aus? Es waren Regale voller Elektronik und Vakuumröhren, die aussahen wie kleine Glühbirnen, die alle irgendwie aneinandergereiht waren. Und es war überhaupt nicht klar, wie man diese Maschinen zum Laufen bringen konnte. Man brauchte Papierstreifen, die sich unglaublich schnell drehten.
Colossus machte diese Bänder oft kaputt, weil sie zu schnell liefen. Und dann mussten die Frauen durch den Raum rennen, um diese kostbaren Datenbänder zu holen und sie buchstäblich mit Klebeband wieder zusammenkleben, um die Daten erneut durch die Maschine laufen zu lassen. Wenn wir heute an Bletchley Park und die ersten Computer denken, dann fällt oft der Name Alan Turing.
Der hat ein paar Jahre später den Turing-Test erfunden, also einen Test, mit dem man feststellen wollte, ob ein Computer tatsächlich über menschliche Fähigkeiten verfügt, von ihm selbst zunächst Imitation Game genannt. Als Turing in Bletchley Park forschte, war er nicht allein. Im Hintergrund haben vor allem Frauen gearbeitet. In Bletchley Park waren die Frauen unglaublich wichtig, aber sie arbeiteten im Verborgenen, als Operatorinnen oder Programmiererinnen.
Ihre Aufgabe war es, zu schauen, wie ein bestimmtes Problem so übersetzt werden konnte, dass der Computer es verstand. Diese Frauen wurden damals fast wie Heldinnen angesehen. Heute wissen wir über diese Heldinnen so gut wie gar nichts mehr. Sie waren es aber, die damals die Programme und Algorithmen geschrieben haben, die dabei mithelfen, die Nachrichten der deutschen Wehrmacht zu entschlüsseln. Auch das hat zum Ende des Zweiten Weltkriegs beigetragen.
Als der Zweite Weltkrieg endete, kehrten die Frauen in der Nachkriegszeit in die Büros und Industrien zurück und nahmen ihre Computerarbeit wieder auf. Diese Arbeit galt als etwas, was der Sekretariatsarbeit sehr ähnlich war, also etwas, was nicht besonders intellektuell war. Mit anderen Worten, die Maschine tat das, was du von ihr verlangt hast und übernahm damit einen Teil des Denkens. Aber das war eine vollkommen falsche Vorstellung von der Wirklichkeit.
In den 1960er Jahren hat sich diese Wahrnehmung dann allmählich verändert. Computer wurden immer wichtiger. Und auch in Großbritannien sah man in der Digitalisierung die Zukunft. Aber Frauen sollten nicht diejenigen sein, die mit ihrem Informatikwissen dann in leitende Positionen kommen. Die Programmiererinnen der ersten Stunde wurden also aus ihren Jobs verdrängt. Das Feld übernahmen jetzt Männer. Und das galt weltweit. Die großen Tech-Unternehmen sind bis heute in männlicher Hand.
Und auch der erste Chatbot der Geschichte wurde von einem Mann entwickelt. Männer sind alle gleich. Inwiefern? Sie wollen immer irgendwas von uns. Hast du ein Beispiel? Mein Freund hat mir gesagt, ich soll hierher kommen und mir dir reden. Dein Freund hat dich dazu gebracht, herzukommen. Er sagt, ich wäre die meiste Zeit depressiv.
Es tut mir leid zu hören, dass du depressiv bist. Der Informatiker Joseph Weizenbaum publizierte 1966 ELISA, ein Computerprogramm, das mit Menschen kommunizieren kann. Was genau hinter dieser Entwicklung steckt und wie die Erforschung und der Einsatz von ersten künstlichen Intelligenzen nach dem Zweiten Weltkrieg weiterging, genau darüber spreche ich jetzt mit Dina Pfau. Sie ist wissenschaftliche Mitarbeiterin am Deutschen Museum in Berlin. Hallo.
Hallo, vielen Dank für die Einladung. Der deutsche Autor Mark-Uwe Kling lässt in seinem Buch Quality Land einen seiner Protagonisten sagen, eine KI, die intelligent genug ist, den Turing-Test zu bestehen, könnte auch intelligent genug sein, ihn nicht zu bestehen. Die Frage ist, wie sinnvoll ist dieser Test denn tatsächlich, um festzustellen, ob ein Computer so denken kann wie ein Mensch? Ist das nicht schon ein Widerspruch?
Vorab, ich finde es ja ganz toll, dass du Mark-Uwe Kling erwähnst. Ich bin ein Riesenfan. Ich empfehle ihn immer als guten Einstieg in die Thematik, weil das auch so hervorragend recherchiert ist. und es kommt mit diesem klingtypischen Känguru-Humor. Ja, aber zu deiner Frage, wie sinnvoll ist dieser Test tatsächlich? Das ist eine gute Frage, denn diese Frage, ob Maschinen tatsächlich denken können, das sah Turing mit diesem Imitation-Game gar nicht richtig beantwortet.
Das wollte er aber auch nicht. Ihm reichte eigentlich die Möglichkeit, dass Computer menschliches Denken überzeugend imitieren könnten. Das wurde natürlich auch heftig diskutiert. Also einerseits ließ Turing alle körperlichen Prozesse, die so unser Denken beeinflussen könnten, außen vor. Also Hormone und alles, was wir heute noch diskutieren, was irgendwie Denken beeinflussen kann, bis zur Ernährung.
Und dann gab es so Leute wie diesen Philosophen John Searle, die kritisierten zudem, dass Imitation ja gar nicht gleichzusetzen sei mit Verstehen. Ich versuche das mal vereinfacht zu beschreiben. Wenn ich jetzt ein paar Sätze zum Beispiel in der chinesischen Sprache aussprechen lerne und mein Gegenüber davon überzeugen kann, dass ich fließend Chinesisch spreche. Heißt das ja immer noch nicht, dass ich das wirklich tue oder dass ich verstehe, was ich da sage.
Wir müssen auch sprechen über das Jahr 1958. Auch das spielt eine wichtige Rolle in der Geschichte der künstlichen Intelligenz. Und da geht es auch um das Perzeptron. Ich hoffe, ich habe das richtig ausgesprochen. Worum handelt es sich denn dabei? Das Perzeptron oder Perzeptron geht auf den Psychologen Frank Rosenblatt zurück. Und das war eigentlich ein System, das optische Muster erkennen können sollte. Dabei verglich Rosenblatt aktuelle technische Aufbauten, also Schaltkreise oder
auch Programme mit menschlicher Neurophysiologie. und das war aber auch nichts Unübliches für die Zeit. Das Perzeptron aber beruhte und das war was Neues auf einem statistischen Modell und auf der Idee, dass visuelle Wahrnehmung eigentlich so als, ich sag mal, als ein Prozess der Klassifizierung optischer Muster verstanden werden könne. Insofern und auch mit Blick auf die Mathematik, die dahinter stand, lässt sich das so als frühes künstliches neuronales Netz begreifen.
In einer Umsetzung, ich glaube, das war von 1961, scheint es sogar in der Lage gewesen sein, gedruckte Buchstaben unseres Alphabetes korrekt zuzuordnen. Das bedeutet dann, wenn wir jetzt eine Strichkombination haben, dass dann dieses Programm oder diese Maschine aus der Strichkombination heraus sehen konnte, dass das ein A ist oder so. Beworben und das finde ich sehr spannend, wurde das Ganze aber als Maschine, die sogar in der Lage sei, eigene Ideen zu entwickeln.
Das wiederum ist natürlich ausgemachter Unsinn. Wie müssen wir uns das denn vorstellen? Was konnten Computer in den 1950er Jahren? Wie wurden sie programmiert? Was konnte man damit machen? Also in den 1950er Jahren hatte man sich immerhin schon weitestgehend darauf geeinigt, was ein Computer ist und wie der aufgebaut ist. Also wir haben eine Eingabe, das wäre heute zum Beispiel die Tastatur oder eine Kamera, damals auch Lochkarten.
Wir haben einen Speicher, ein Rechenwerk, eine Programmsteuerung und eine Ausgabe. Daran hat sich bis heute gar nicht so viel geändert. Also wenn wir unsere Computer mal angucken. In den 1950er Jahren füllten diese Dinge aber ganze Räume aus. Die haben mehrere Tonnen gewogen, zum Teil im zweistelligen Bereich. Die haben sehr laute Geräusche gemacht und enorme Hitze abgegeben. Ich glaube, das kann man sich heute gar nicht mehr vorstellen.
Es konnte unerträglich heiß werden in solchen Computerräumen. Jetzt muss ich mal die ganz blöde Frage stellen. Kann man das überhaupt voneinander trennen, die Entwicklung von Computern und die Entwicklung von künstlicher Intelligenz? Das ist eine schwierige Frage, ob sich das wirklich trennen lässt und ich denke, da würden unterschiedliche Forscher und Forscherinnen auch unterschiedliche Antworten geben.
Es gibt Schaltkreise, die nicht Computer sind oder nicht der Computerarchitektur, die ich eben beschrieben habe, folgen, die man heute vielleicht so im Nachhinein als künstliche Intelligenz einordnen könnte.
Gleichzeitig passiert aber ganz viel oder korreliert mit dem Auftauchen von Computern, die natürlich einerseits so Fantasien angeregt haben von der Ähnlichkeit von Mensch und Maschine, gerade was das Denken angeht, und andererseits einfach ganz andere Möglichkeiten geliefert haben, als es bisherige Maschinen getan haben. Insofern würde ich sagen, ja, das hängt ganz eng miteinander zusammen.
Jetzt ist KI für uns als Laien, also ich würde mal sagen, zumindest für mich als Laie, immer dann besonders sichtbar, wenn man sie konkret nutzen kann. Chatbots sind so ein Beispiel dafür. Jetzt muss man sagen, Chatbots gibt es schon ganz schön lang. Der erste Chatbot wurde 1966 erfunden, der hieß ELISA. Welche Bedeutung hatte denn die Entwicklung von ELISA in den 60er Jahren und
wie ist die entstanden? Ja, ELISA, das ist ein Programm, das wurde von dem jüdischen Informatiker Josef Weizenbaum entwickelt. Er und seine Familie waren 1936 in die USA emigriert, also dort hat er dann auch seinen akademischen Werdegang bestritten. In den 1960er Jahren entwickelte er dann ELISA. Das war, heute könnte man wirklich sagen, eine Art Chatbot. Man gab da Text ein, dann durchsuchte das Programm diesen Text auf ganz bestimmte Stichworte und antwortete dann mit vorgefertigten Sätzen.
Also eigentlich aus heutiger Perspektive sehr einfach gestrickt. Damals natürlich was sehr Neues. Dabei sollte dieses Programm beispielsweise einen Psychotherapeuten oder auch eine Psychotherapeutin mimen. Und es scheint wohl so, dass die Reaktion der Öffentlichkeit Weizenbaum schockiert hat, weil die ganz schnell daran glaubte, dass man so ein Programm tatsächlich zu Therapiezwecken einsetzen könne. Das wollte er gar nicht beweisen damit.
Er wurde selbst daraufhin zu einem starken Kritiker von, ja ich sag mal so, technikzentrierten Lösungsansätzen. Eine große Sache bei der KI ist auch die Bilderkennung. Du hast das vorhin schon beschrieben. Das ist auch eines deiner Spezialthemen. Wann fing das denn in der Geschichte an und wie müssen wir uns das vorstellen? Für mich sind so die 1950er Jahre ausschlaggebend, nämlich genau auch, weil Computer sich wirklich zunehmend verbreiten.
Und es gibt viele Ansätze, die einfach die Computertechnik mit einbeziehen und sich darauf berufen. Zu dieser Zeit befasste man sich aber auch in der Biologie und der Biokybernetik mit der Frage, wie Lebewesen visuell wahrnehmen können und was so im Organismus passiert in dieser Wahrnehmung. Und gleichzeitig versuchten eben auch Ingenieure, Systeme zu bauen, die irgendwie optische Informationen verarbeiten können. Es gibt so ein Beispiel, das wäre das Unternehmen Standard Elektrik Gesellschaft.
Hier befasste man sich mit der Sortierung von Post und forschte in dem Zusammenhang am Einsatz von Systemen zur Zeichenerkennung. Die sollten dann die Postadressen lesen und die Briefe entsprechend leiten können. Das wurde damals aber nicht als KI bezeichnet.
Der Leiter des Forschungslabors dieses Unternehmens, das war Karl Steinbruch, der befasste sich in dieser Zeit ausführlich mit solchen Fragen der Zeichenerkennung und der entwickelte ein System, das war dann ein bisschen später, das dem Perzeptron auch ähnlich war. Und er nannte das Ganze die Lernmatrix, weil das auch auf so einem statistischen Ansatz beruhend erkennen, lernen können sollte.
Aus dieser Forschung ging aber auch eine Forschungsgruppe hervor, die vom Bundesministerium für Verteidigung gefördert wurde. Damit wurde Zeichenerkennung auch in den militärischen Zusammenhang gerückt. Insbesondere im Bereich der Fernerkundung war das ganz interessant. Und spätestens ab den 1960er Jahren setzte man sich in der Bundesrepublik auch zunehmend in der Medizin, in der Physik und in anderen Bereichen mit Verfahren der Bildverarbeitung auseinander.
Es gibt so ein schönes Beispiel, das ist in der Teilchenphysik. Hier ging es um die Auswertung von wirklich Millionen von Fotos, die in Experimenten entstanden waren. Und hier wollte man dann automatische Bildverarbeitung einsetzen, weil man sich erhoffte, dass das Ganze dann schneller ginge und natürlich damit auch kostengünstiger, aber auch präziser.
Jetzt ist KI-Forschung immer wieder auch in die Kritik geraten, weil Menschen Angst haben, Angst hatten, dass Arbeitsplätze dadurch wegfallen könnten, dass ganze Berufszweige wegfallen. Gab es das denn auch in der Vergangenheit schon ganz konkret? Haben sich da Menschen Sorgen gemacht, vielleicht auch protestiert? Das ist eigentlich ganz spannend. Also so in den 1950er Jahren hatten die meisten Menschen natürlich noch gar keine Vorstellung davon, was KI ist, geschweige denn jemals davon gehört.
Aber in der Öffentlichkeit wurden zu dieser Zeit viele Szenarien diskutiert, die mit Fragen der Automatisierung und dem Einsatz von Computern in der Industrie zusammenhingen. Und das hatte dann natürlich auch Schnittstellen mit dem, was wir unter KI verstehen. Man bewegte sich dabei zwischen so Lobreden der Technik, wo man dann versprach, dass die Fabriken effizienter und das Leben leichter gemacht werden könne und auch der Angst, dass dadurch massenweise Arbeitsplätze verloren gingen.
Also das Thema polarisierte schon ordentlich und erstaunlicherweise sind viele dieser Diskussionen damals den heutigen ganz ähnlich. Um nochmal diese Beispiele, die ich schon genannt habe, aufzugreifen, also die Teilchenphysik und die Postsortierung. Hier hoffte man sich tatsächlich neben der Erleichterung der Arbeit für die Angestellten auch, dass es einfach weniger Angestellte benötigte. Also die Idee war schon auch da, dass Automatisierung die benötigten Arbeitskräfte verringern würde.
Das betraf ganz häufig Berufe von Menschen, die prekär angestellt waren und keine große Lobby hatten. Also beispielsweise Frauen oder auch rassifizierte Menschen. Aber, und das muss dazu gesagt werden, in diesen konkreten Beispielen der Post- und der Teilchenphysik hat der Einsatz von solchen Systemen nicht dazu geführt, dass menschliche Arbeit überflüssig würde.
Dafür haben die einfach nicht gut genug funktioniert. Natürlich ist KI schon längst Teil unseres Alltags, ohne dass wir das vielleicht wissen. Wie würde denn unser Alltag aussehen, wenn es keine KI gäbe? Hast du da vielleicht mal ein oder zwei Beispiele? Boah, finde ich ganz schwierig. Ich habe keine Ausbildung als Orakel genossen.
Vielleicht anders. Ich versuche es mal so. Diese technischen Verfahren, die wir aktuell als KI bezeichnen, sind ja vereinfacht gesagt Verfahren, um große und von uns generierte Datenmengen zu verarbeiten und daraus Entscheidungen abzuleiten. Und ich muss ehrlich gestehen, ich bin kein großer Fan. Ich glaube, ich wäre ganz froh, wenn wir viel weniger damit machen würden.
Oft ärgere ich mich sogar darüber, wie, also ich würde sagen, wirklich blind wir dem Aufruf bisweilen folgen, gerade von großen Unternehmen. KI überall zu verwenden, wo es nur vorstellbar und meines Erachtens selten wirklich sinnvoll ist. Und das erschreckt mich aber noch viel mehr, wie viele Menschen auch und gerade in der Politik zu glauben scheinen, dass KI-Technologien geeignet seien zur Lösung sozialer und auch ökologischer Probleme.
Also bei jedem Einsatz von KI sollten wir uns im Privaten aber auch im Gesellschaftlichen die Frage stellen, ob das wirklich sinnvoll ist und ob es das wert ist. Ja, das ist sicher ein Aspekt, den viele gar nicht mitbedenken. Deshalb herzlichen Dank, dass du ihn hier mit eingebracht hast. Und danke auch für deine Expertise zur Geschichte der künstlichen Intelligenz, die schon viel länger existiert, als wir uns das vielleicht vorgestellt haben. Danke dir.
Ja, vielen Dank euch und auch schön, dass ihr euch diesem Thema widmet. Sehr wichtig in der Geschichte der Entwicklung von Computern und auch künstlicher Intelligenz ist übrigens Schach. Auch Alan Turing war ein begeisterter Schachspieler und hat schon Ende der 1940er Jahre mit anderen Forschern zusammen ein Schachprogramm geschrieben. Das war allerdings noch ziemlich umständlich. Es war ein sogenannter Einzuggenerator mit einer einfachen statistischen Bewertungsfunktion.
Also quasi guter Zug, schlechter Zug. Und Turing musste alle möglichen Züge auf Papier durchgehen und die entstehenden Stellen von Hand auswerten. Aber fragen wir mal die KI-Variante von Ada Lovelace, was sie dazu gesagt hätte. Also wenn ich von der Erfindung des Schachcomputers gehört hätte, hätte ich wahrscheinlich erkannt, dass die Technologie, die es der Maschine ermöglicht, Schach zu spielen, eine Erfüllung meiner Vision von Maschinen zur Mustererkennung und Entscheidungsfindung ist.
Schon in den 1950er Jahren begann die Entwicklung von Schachprogrammen in den USA, die dann per Computer gespielt werden konnten. Aber auch das war noch ziemlich simpel. 1956 wurde das sogenannte Los Alamos-Programm in der gleichnamigen Forschungseinrichtung entwickelt. Das funktionierte aber nur auf einem 6x6 Felder großen Schachbrett, auf dem es weder Läufer gab und auch keine Ruchade oder Doppelschritte von Bauern
möglich waren. Mit der Entwicklung immer leistungsfähigerer Computer wurden dann auch die Schachprogramme immer besser. Schon 1974 gab es die erste Computerschach-Weltmeisterschaft. 1980 mit MacHack, ein Schachprogramm, das schon der Spielstärke eines fortgeschrittenen Amateurs etwas entgegensetzen konnte. Und 1988 hat zum ersten Mal ein Schachcomputer gegen einen Großmeister eine
Turnierpartie gewonnen. Das war Deep Thought gegen den dänischen Großmeister Bent Larsen im kalifornischen Long Beach. Und wenige Jahre später passierte dann Folgendes. Aus der Traum für Garry Kasparov. Der Schachweltmeister aus Russland hat vergangene Nacht gegen einen Computer verloren. Und das gab es noch nie. Zwölf Jahre konnte niemand Superhirn Kasparov besiegen. Und das ist der Sieger. Die Blue heißt er. 15 Monate haben Programmierer an ihm getüftelt.
Jetzt ist er so schnell, dass er 200 Millionen Schachzüge in einer Sekunde durchprobieren kann. Das war 1996. Den Kampf Mensch gegen Maschine hatte zum ersten Mal eine Maschine für sich entschieden. Die New York Times titelte damals das letzte Gefecht des Gehirns. Aber besonders intelligent war auch Deep Blue nicht. Er musste programmiert werden und hatte einfach das bessere Gedächtnis als Kaspadov und konnte schneller kombinieren. Selbst lernen konnte Deep Blue noch nicht.
Das schaffte erst Alpha Zero im Jahr 2017. Dieses Programm brachte sich das Schachspielen selbst bei und wurde mithilfe von neuronalen Netzen trainiert und dadurch immer besser. Dabei ging es nicht mehr um Schnelligkeit, sondern um den klügsten nächsten Schachzug. Inzwischen gibt es eine ganze Reihe solcher KI-gestützter Schachprogramme. Zum Beispiel Stockfish 12. Das hat eine sogenannte Elo-Zahl, also die Zahl, wonach man die Klasse eines Schachspielers bewertet, von 3537.
Zum Vergleich, der chinesische Schachspieler Ding Li Ren, seit 2023 amtierender Schachweltmeister, kommt aktuell nur auf eine Elo-Zahl von 2728. In the stillness of the night, I hear the beat of the city's heart, the rhythm of the streets, the pulse of life, a symphony of chaos, a work of art. 2023 hat Chachi P.T. dieses Gedicht geschrieben. Im Stil des berühmten amerikanischen Dichters Allen Ginsberg.
Vor kurzem kam eine Studie heraus, in der Wissenschaftler untersucht haben, ob Menschen erkennen können, ob Gedichte von einer KI oder einem Menschen geschrieben wurden und welche Gedichte sie am Ende besser finden. Heraus kam, die meisten finden KI-Gedichte besser als die Werke von Dichtern. Auch wenn es sich um Berühmtheiten wie Shakespeare handelt. Dazu muss man allerdings sagen, die meisten konnten die echten und die KI-generierten Gedichte gar nicht unterscheiden.
Schreibt also ChatGPT demnächst Romane, die sich besser verkaufen als die Romane von Bestseller-Autorinnen und Autoren? Verfasst die KI demnächst unsere Podcast-Skripte und macht sie viel spannender als wir selbst? Das wäre die kreative Seite. Aber wie sieht es mit unseren Daten aus? Und was bedeutet es, dass die Möglichkeiten der KI-gestützten Gesichtserkennung immer ausgefeilter werden und zunehmend Anhänger finden?
Hier geht es darum auszutesten, ob die Treffsicherheit solcher öffentlichen Fahndungen durch neue Technik, besser wird. Und wenn sie besser wird, ohne dass wir zu einer zusätzlichen Speicherung unbescholtener kommen, dann ist es dringend geboten, eine solche Technik einzusetzen. Davon war Thomas de Maizière 2017 überzeugt.
Der damalige Bundesinnenminister warb für ein Pilotprojekt zur Gesichtserkennung am Bahnhof Südkreuz in Berlin. 300 Freiwillige ließen ihre Gesichter fotografieren und in einer Datenbank speichern. Das ist tatsächlich für mich persönlich ein Mittel, um einen gewissen Schutz und Sicherheit auch wieder herzustellen. Datenschützer sahen das naturgemäß ganz anders. Es ist eine Technik, die über alles hinausgeht, was wir bis jetzt gehabt haben bei der Aufnahme von persönlichen Daten.
Auch Menschen, die nichts zu verbergen haben, haben einen sehr, sehr tiefen Eingriff in ihre Bürgerrechte zu befürchten. Also das Recht, sich unbeobachtet durch eine Stadt zu bewegen, ist ein Verfassungsrecht. Dieser Test war der Beginn von heftigen Debatten über solche KI-gestützten Systeme. In Deutschland ist diese Art der Gesichtserkennung im öffentlichen Raum bisher verboten. Und auch bei Strafverfolgung ist sowas nur unter ganz bestimmten Bedingungen erlaubt.
Viele fürchten den totalen Überwachungsstaat, wie ihn George Orwell in seinem dystopischen Roman 1984, schon Ende der 1940er Jahre, beschrieben hat. Big Brother is watching you. Was die Möglichkeiten der Gesichtserkennung anbelangt, gibt es inzwischen fast keine Grenze mehr. Wir entsperren unser Smartphone per Face-ID. Unser Personalausweis ist maschinenlesbar und enthält biometrische Daten.
Der US-amerikanische KI-Experte Joseph Attick hat schon 2011 von einem perfekten Sturm gesprochen, der durch das Zusammenspiel von Smartphones, Social Media und künstlichen neuronalen Netzen auf uns zukommen könnte. Heute wird ein Foto im Wesentlichen als soziale Unterhaltung betrachtet. Diese Sichtweise muss sich langsam ändern. Fangen Sie an, Ihre Bilder so zu betrachten, wie Sie auch Ihre Gesundheitsdaten und Informationen über Ihre Finanzen betrachten würden.
Es handelt sich um personenbezogene Daten, die geschützt werden müssen. Das Problem besteht darin, dass das Netz völlig offen und voller Bilder ist, die abgegriffen werden können. Jeden Tag kommen neue Webcrawler und Suchmaschinen ins Netz, die jedes Bild aufspüren, das sie finden können. Und wenn es dann ein Identitätskennzeichen gibt, wird die Verbindung zwischen ihrer Identität und dem Gesichtsbild hergestellt.
Was wir brauchen, ist eine verantwortungsvolle Verpflichtung, dass diese Datenbanken nicht für allgemeine Identitätsabfragen zur Verfügung gestellt werden dürfen. Führend auf diesem Gebiet ist die Firma Clearview. Sie wirbt damit, rund drei Milliarden Fotos von Menschen in ihrer Datenbank zu haben und sie Behörden oder Unternehmen zur Verfügung zu stellen. Natürlich ohne, dass irgendjemand jemals dazu seine Einwilligung gegeben hätte. Davon konnte Woodrow Bledsoe 1964 nur träumen.
Die Gesichtserkennung wird dann schwierig, wenn der Kopf in eine andere Richtung gedreht wird, die Lichtverhältnisse unterschiedlich sind, der Aufnahmewinkel anders ist oder auch der Gesichtsausdruck. Der US-amerikanische Mathematiker und Informatiker Woodrow Bledsoe entwickelt gemeinsam mit Helen Chan und Charles Bisson in Palo Alto das erste Programm zur automatisierten Gesichtserkennung.
Ein Geheimauftrag der CIA. Wenn zum Beispiel ein und dieselbe Person den Kopf unterschiedlich hält, dann ist die Korrelation zwischen diesen beiden Bildern sehr gering. Bletzor und seine Kollegen müssen alle biometrischen Daten für jede fotografierte Person noch per Hand in den Computer eingeben. Als Vorbild dient ihnen ein Mess- und Beschreibungsverfahren des französischen
Kriminalisten Alphonse Bertillon. Der hatte dieses System zu Beginn der 1880er Jahre erfunden, um Wiederholungstäter einwandfrei identifizieren zu können. Wir haben dieses Projekt Mensch-Maschine genannt, weil Menschen noch die ganzen Koordinaten von den Fotos aufnehmen mussten, die dann vom Computer für die Gesichtserkennung verwendet wurden. Eine vollständig automatisierte Gesichtserkennung hatten Bladzo und seine Kollegen also noch nicht entwickelt.
Aber die sollte nicht lange auf sich warten lassen. Auf der Weltausstellung 1970 präsentierte die Nippon Electric Company eine neue Technologie der Videodatenverarbeitung. Eigentlich war das nur für die Unterhaltung gedacht. Wer wollte, konnte sein Gesicht elektronisch erfassen lassen und nahm dann ein Computerporträt von sich mit nach Hause.
Aber ein japanischer Informatiker namens Takeo Kanade entwickelte dieses System weiter und schrieb 1973 seine Doktorarbeit über das erste Verfahren zur Gesichtserkennung, das ohne menschliche Eingabehilfen auskam. Allerdings war das System noch fehleranfällig. Bei der digitalen Vermessung der Gesichter verwirrten Bärte, Brillen oder zu viele Falten im Gesicht regelmäßig das System. Es dauerte dann noch bis 1991, als der erste sogenannte Eigenface-Algorithmus entwickelt wurde.
Und zwar am Massachusetts Institute of Technology. Im US-amerikanischen Cambridge. Die beiden Forscher Matthew Turk und Alex Pentland hatten ein ganz neues Verfahren entwickelt. Lustigerweise ursprünglich gedacht, um Einschaltquoten elektronisch zu erfassen. Es basierte auf einer statistischen Auswertung von Helligkeitsverteilungen in großen Bilderdatenmengen.
Und was vor dem Fernseher funktionierte, entpuppte sich als Startschuss für jede Menge Verfahren zur Gesichtserkennung, die danach entwickelt wurden. Allerdings gab es keine einheitliche Bilderdatenbank, auf die diese unterschiedlichen Verfahren zurückgreifen konnten. Das änderte sich dann 1993 mit dem sogenannten Farret-Programm des US-Verteidigungsministeriums. Und dann ging es Schlag auf Schlag. Und spätestens seit den Anschlägen vom 11.
September 2001 wird Gesichtserkennung in den USA in vielen Bereichen eingesetzt. Die Grenzübergänge wurden zu Datensammelstellen. Allein bis 2012 sollen mehr als 130 Mio. Nicht-US-Bürgerinnen und Bürger in den Datenbanken des Heimatschutzministeriums erfasst worden sein. Die Daten werden dort 75 Jahre lang gespeichert. Aber die USA sind nur ein Beispiel. Wer etwa schon mal nach China gereist ist, muss dort, genau wie in den USA, seine Fingerabdrücke einscannen lassen und wird auch fotografiert.
Für Deutschland ist so etwas bislang noch undenkbar. Es gibt inzwischen viele Leitlinien, die den Einsatz von KI regeln, ob in Unternehmen oder bei Behörden. Im Mai 2024 hat das Europäische Parlament das weltweit erste KI-Gesetz verabschiedet. Darin wird nach Risikoklassen unterschieden. Eine KI, die inakzeptable Risiken birgt, etwa weil sie die Menschenwürde verletzt, ist in der EU verboten.
Zum Beispiel biometrische Kategorisierungssysteme, die Rückschlüsse auf Hautfarbe, politische Einstellungen oder sexuelle Orientierung erlauben. Die Meinungen zu dem neuen KI-Gesetz unter den EU-Abgeordneten gehen allerdings auseinander. Ich bin ganz ehrlich, ich hätte mir mehr Freude an Innovation im KI-Gesetz gewünscht und einen noch stärkeren Schutz von Bürgerrechten. Das Gesetz wäre vernünftig, wenn wir führend wären in der Welt, in der KI-Entwicklung. Das sind wir nicht.
Deshalb müssen wir aufpassen, dass wir den Anschluss hier nicht verlieren. Aber Forschung und Entwicklung von Innovationen ist das eine. Ethische Maßstäbe für den Einsatz von KI und Algorithmen sind das andere. Und genau dazu forscht der Philosoph und Medienethiker Christopher Koska. Wir brauchen eine Ethik der Algorithmen, weil algorithmische Systeme tief in unser Leben eingreifen und Entscheidungen beeinflussen, die erhebliche Konsequenzen für Individuen und die Gesellschaft haben.
Algorithmen analysieren Daten, strukturieren Wissen und steuern Prozesse. Von der Kreditvergabe über die medizinische Diagnose bis hin zur Moderation von Online-Inhalten. Dabei geht es eben nicht nur um technische Fragen, sondern auch um moralische, politische und soziale Aspekte. Man könnte sagen, dass die Vorstellung, dass man neutrale Technik hat, sich in den letzten zweieinhalbtausend Jahren in der Philosophie eben nicht bestätigt hat.
Das fängt an beim Höhlengleichnis von Platon und lässt sich durchziehen bis eben zu diesen Systemen der künstlichen Intelligenz, die uns das natürlich widerspiegeln. Weil was vorausgesetzt wird, wenn man sagt, dass Technik neutral ist, ist, dass man sozusagen eine Ground Truth hat oder einen Benchmark gegenüber. Man rechnen könnte, wie man eine Technologie dann bias-free, also diese Verzehrungen, rauszurechnen, wie das geschieht. Und das ist eigentlich nicht möglich.
Jede Form der Informationsvisualisierung, also ob Sie jetzt eine Liste haben, wo Sie verschiedene Ergebnisse bei einer Suchanfrage auflisten, setzt eine bestimmte Form eines Relevanzalgorithmus voraus. Also Sie müssen anfangen, bestimmte Kriterien positiv zu diskriminieren und andere negativ zu diskriminieren. Viel wichtiger ist es also, sich über diese Kriterien Gedanken zu machen und diese transparent zu machen.
Die größte Sorge von mir ist tatsächlich die Energiethematik, also wenn man sich anschaut, wie viel Energie das benötigt, um die Systeme am Laufen zu halten und wenn man sich anschaut, wie schwierig es ist, da ein Umdenken auf globaler Ebene hinzubekommen, die Energiethematik zu lösen, sehe ich das tatsächlich als die größte Herausforderung und die zweitgrößte Aufklärung, Kompetenz, Befähigung von den Menschen, die KI nutzen.
Oder eben auch entwickeln. Ja, dazu passt, dass Tech-Konzerne wie die Alphabet-Tochter Google auf Mini-Atomkraftwerke setzen wollen, um den ungeheuren Energiebedarf der KI-Systeme in Zukunft überhaupt noch decken zu können. Kein Scherz, denn KI gehört zu den Klimaschädlingen Nummer eins, wenn es um den CO2-Ausstoß geht und die Energie nicht aus erneuerbaren Quellen stammt. Eine Anfrage zum Beispiel bei ChatGPT verbraucht offenbar zehnmal so viel Energie wie eine Google-Suche.
Künstliche Intelligenz hilft uns inzwischen in sehr vielen Bereichen und macht vieles besser. Zum Beispiel in der Medizin. Aber es gibt eben auch viele verstörende Entwicklungen, die unser Leben für immer verändern werden. Und das ist nicht nur der enorme Energieverbrauch, der für KI benötigt wird. Es ist für jeden oder jede inzwischen ziemlich einfach, Fake News zu produzieren und sie in der ganzen Welt zu verbreiten.
Manche Dinge sind lustig, wenn man zum Beispiel Fotos von sich im Hawaii-Hemd am Strand von Zanzibar erstellt, Obwohl man nie dort gewesen ist. Oder wenn man ChatGPT fragt, ob er oder sie mal schnell einen guten Witz erzählen könnte. Wobei vor allem gut ja dann doch eher relativ ist. Klar, hier ist ein Witz. Warum können Geister so schlecht lügen? Weil man durch sie hindurchsehen kann? Die Welt der künstlichen Intelligenz ist spannend und schafft viele Möglichkeiten.
Wie zum Beispiel die KI-gestützte Gesichtserkennung zeigt, nicht alles muss positiv sein. Es ist ein bisschen so wie das, was wir schon in unserer vorherigen Folge zur Geschichte der Umweltzerstörung gesagt haben. Erst entwickelt der Mensch die Technologie, dann werden die Fragen nach Konsequenzen gestellt, wenn klar ist, dass nicht jede Entwicklung nur positive Auswirkungen hat. Für uns als Gesellschaft bedeutet das viele Fragen. Wollen wir den unregulierten
Einsatz von KI in allen Lebensbereichen? Was ist mit dem Datenschutz? Was, wenn KI Millionen Menschen arbeitslos macht? Und was hätte Edda Lovelace zu all dem gesagt? Ich bin mir der Grenzen von Maschinen bewusst. Die Maschine kann nichts tun, was nicht in ihr vorher schon programmiert wurde. Die Frage ist, wie viel echtes Denken steckt in einer Maschine? Kann sie wirklich verstehen? Ich glaube, es sind nur unglaublich komplexe Berechnungen, die uns wie intelligentes Verhalten erscheinen.
Okay, das war tatsächlich kein echtes Zitat von ihr. Euch vielen Dank, dass ihr heute beim Podcast zur Geschichte der künstlichen Intelligenz dabei wart. Ich hoffe, ihr habt spannende Einblicke in die Entwicklung dieser faszinierenden Technologie bekommen. Von den ersten Visionen über die frühen Maschinen bis hin zu den heutigen KI-Systemen. Es ist wirklich eine Reise durch die Zeit. Bleibt neugierig und denkt daran, die Geschichte der KI ist noch lange nicht
zu Ende. Und die spannendsten Kapitel warten noch darauf, geschrieben zu werden. Und jetzt übernehme ich nochmal, oder? Spricht jetzt die KI und war das eben meine natürliche Stimme? Also, diesen Podcast habe ich an vielen Stellen nicht selbst gesprochen. Vielleicht findet ihr ja raus, wo genau das war und schreibt uns. Ein paar Hilfestellungen habe ich euch ja gegeben. Alle Informationen von KI-Mirko haben wir nachrecherchiert und ihr könnt davon ausgehen, dass sie stimmen.
Denn letztlich ist eine KI nur so klug wie das, was sie im Netz finden kann. Also irgendjemand mal dort hochgeladen hat und da steht, wie ihr wisst, manchmal auch ganz schön viel Unsinn. Und das war es auch für heute mit dieser Podcast-Folge. Schreibt uns gerne per Mail auf Terra Existory bei Instagram oder aber ihr kommentiert diese Folge im Community-Tab bei YouTube auf dem Kanal Terra Existory. Wir freuen uns über eure Gedanken zur Folge, aber auch über neue Themenvorschläge.
Die könnt ihr gerne dort hinterlassen. Dieser Podcast hier ist eine Produktion von Objektiv Media im Auftrag des ZDF. Die Autorinnen waren wie immer Janine Funke und Andrea Kahrt. Sie sind verantwortlich für Buch und Regie. Für die technische Umsetzung und Gestaltung verantwortlich ist Sascha Schiemann. Redaktion im ZDF hatte Katharina Kolvenbach. Ich bin Mirko Drotschmann und sage. Music.