Tagesanbruch von t-online

Tagesanbruch von t-online

Täglich mehr wissen

Transkript

Zurück zur Episode

00:00:01: Lisa Fritsch: Hallo und herzlich willkommen zu Tagesanbruch die Diskussion für das Wochenende vom 1. Juni 2024. Ich bin Lisa Fritsch und moderiere diesen Podcast. Die Technologien rund um das Thema Künstliche Intelligenz schreiten immer weiter voran. Stimmen, Videos, Fotos alles lässt sich mittlerweile künstlich erstellen, sodass man kaum noch die Unterschiede zum Original erkennt. Gerade in dem Superwahljahr, an dem wir uns befinden, kann das gefährlich werden. Doch wie groß ist die Gefahr wirklich? Könnte KI zu einer Superintelligenz werden, die wir nicht mehr steuern können und die Menschheit auslöschen, so wie führende Forscher davor warnen?

00:00:42: Lisa Fritsch: Und für die Diskussion begrüße ich einen der führenden Klimaexperten Deutschlands, der Regierungsinstitutionen zu dem Thema berät, Bücher dazu schreibt und die Konferenz Rise of A organisiert. Fabian Westerheide Hallo Fabian, schön, dass du hier bist.

00:00:55: Fabian Westerheide: Herzlichen Dank für die Einladung.

00:00:57: Lisa Fritsch: Und außerdem begrüße ich den Chefredakteur von T Online, Florian Harms, der sich auch sehr für das Thema KI begeistert. Er war kürzlich in Kalifornien, um renommierte Tech Unternehmen und Startups zu besuchen und berichtet uns hoffentlich auch gleich darüber. Hi Florian.

00:01:10: Florian Harms: Ich werde es versuchen. Ich freue mich auf die Diskussion.

00:01:12: Lisa Fritsch: Wir wollen neben den Gefahren natürlich auch auf die Chancen von künstlicher Intelligenz schauen, zum Beispiel für den Arbeitsmarkt, die Medizintechnik und das Thema Bildung. Aber wir müssen mit der Warnung anfangen, Die sehr bekannte KI Forscher wie Jeffrey Hinten vergangene Woche in einer Wissenschaftszeitschrift ausgesprochen haben. Sie befürchten einen Kontrollverlust durch die voranschreitende Autonomisierung, Cyberattacken in großem Maßstab, gesellschaftliche Manipulation und sogar die Auslöschung der Menschheit. Wie groß ist denn diese Gefahr wirklich?

00:01:43: Fabian Westerheide: Das ist eine schwierige, tiefgehende Frage. Die Gefahr ist real, aber jetzt nicht zu 100 %. Ich würde sagen, die größte Gefahr ist der Mensch selber und die Menschheit selber die Kissen Werkzeug. Sie ist ein Ebenbild von uns. Sie ist Kultur bewahrend. Sie verstärkt uns, was Vorurteile angeht. Aber was auch sagen wir, Fortschritte in der Gesundheit angeht, in der Kriegsführung sehen wir es zum Beispiel Sie nimmt Menschenleben, aber nimmt wahrscheinlich weniger Menschenleben, als die Menschen vorher genommen haben. Also das Werkzeug ist eine Verstärkung von uns und die größte Gefahr sind die Menschen, die sie missbrauchen für Cyberangriffe, für Desinformation, für die Fakes, für Wahlkampf. Also die KI selber ist erst mal unschuldig bis zu dem Zeitpunkt, wo sie durch uns Menschen missbraucht wird.

00:02:27: Lisa Fritsch: Aber ist es nicht trotzdem möglich, dass irgendwann die KI sich verselbstständigt? Also diese Autonomisierung, vor denen hier die KI Forscher warnen?

00:02:34: Fabian Westerheide: Also die Automatisierung kommt und das wollen wir ja auch.

00:02:36: Lisa Fritsch: Wir haben Autonomisierung, so, dass sie wirklich autonom werden.

00:02:40: Fabian Westerheide: Wir wollen erst mal das automatisieren. Kreisen erster Linie Automatisierungswerkzeug, also, um uns Arbeit abzunehmen und sie schneller, effizienter zu erledigen. Dadurch braucht sie mehr Autonomie. Und diese Autonomie ist großartig, weil sie immer ich weiß, wie es am Anfang ganz begrenzt das Weltbild für eine KI gab und die jetzt in den letzten zehn Jahren immer größer geworden ist, dass sie versteht Immer mehr, mehr Kontext, mehr Menschen, mehr auch Bewegung und Handlung. Das sehen wir Robotik. Früher waren Roboter in dem Käfig, weil er sonst nach rechts und links geschwenkt hat und heute hat ein Roboter genug Sensoren, um zu verstehen. Es gibt Mensch, der versteht zwar nicht, was ein Mensch ist, aber da ist ein Objekt, das darf ich nicht berühren und kann so mit uns interagieren. Das heißt, wir können sie in der Pflege jetzt verwenden, was ganz, ganz wichtig ist. Natürlich gibt es das Risiko, das zu viel Autonomie ist und dass Katastrophen passieren. Ich rechne auch damit, dass die nächsten 10 bis 20 Jahren Katastrophen gehen. Wir können jetzt schon über reale Fehler reden, die jetzt Microsoft gerade gemacht hat, die er gerade gemacht hat. Google macht jede Menge Fehler. Also wir können jetzt schon darüber sprechen, wo schon Missbrauch passiert oder auch wirklich Kultur bewahrende Fehler, die Geschichts, ich nenne es mal Umschreibung bedeuten. Das ist heute schon so, Was in der Zukunft passiert, ist ganz schwierig zu sagen. Aber mit Angst lässt sich natürlich immer mehr Emotion erzeugen als mit Hoffnung. Und ich habe ja ein Buch geschrieben, das heißt zwischen Dystopie und Utopie. Also die Dystopie ist real und wir können über China reden, wo in Echtzeit null zu 84 schon umgesetzt wird. Komplettüberwachung in einer perfiden Art und Weise, die kein Buch so hingekriegt hat. Und dann reden wir die Utopie, wo es dafür sorgt, dass wir eigentlich weniger leben, also arbeiten müssen, mehr Wohlstand haben, mehr Gesundheit haben, mehr Familienzeit wieder haben.

00:04:18: Florian Harms: Ich hatte ein Schlüsselerlebnis, als ich gerade im Silicon Valley war, in Berkeley, an diesem "BAIR". Das ist eines der führenden Forschungs und Entwicklungsinstitute für künstliche Intelligenz weltweit. Hochinteressant, diese ganzen brillanten Köpfe da zu sehen. Der brillante Stehkopf ist Stuart Russell, ein führender Professor dort, Und er hat etwas gesagt, was mich sehr nachdenklich gemacht hat, nämlich sinngemäß zitiere ich ihn "Wir haben die KI nicht entwickelt, wir haben sie entdeckt bzw wir beginnen sie zu entdecken." Und das ist ein bisschen etwas anderes als das, was du gerade geschildert hast. Was ich bisher auch immer dachte, wir als Menschen sind eigentlich das Entscheidende bei diesem ganzen Prozess der Entwicklung der künstlichen Intelligenz, weil wir ja coden, weil wir die Algorithmen schreiben, weil wir bestimmen können, wie weit das gehen darf oder wie weit nicht. Selbst wenn wir es gegenwärtig nicht tun. Und das ist jetzt eine ganz andere Sichtweise, die dann sagt eigentlich ist die KI da und die ist genauso da wie Atome, die man auch für die Spaltung und für eine Atombombe verwenden kann. Wir verstehen gerade mal ansatzweise vielleicht wirklich nur die Spitze des Eisbergs dessen, was da in der Welt ist. Und das kann uns überrennen und es kann uns übermannen. Und das hat mich tatsächlich zum Nachdenken gebracht und passt dann doch wieder zu dem, was du gesagt hast, Fabian, dass es sowohl in eine Utopie als auch eine krasse Dystopie laufen kann, die wir überhaupt nicht mehr unter Kontrolle bekommen.

00:05:40: Fabian Westerheide: Ich würde dazu ergänzen, weil Jeffrey Hinton wurde erwähnt und der große Durchbruch war eigentlich so 2013 14, als das sogenannte Deep Learning wieder entdeckt wurde, eine Technologie, die wurde vom deutschen Professor Schmidhuber und Sepp Hochreiter entwickelt, in den 80er Jahren und aufgrund der Datengrundlage und der Rechenkapazität von den Videos, die wir heute haben, konnten wir sie zum erste Mal wirklich verwenden. Und der Durchbruch war: Vorher waren die KI-Expertensysteme, das heißt die waren vorgescriptet, hatten alle Antworten in einer riesigen Datenbank und haben die schneller rausgeholt. Durchs Deep Learning ist das angelehnt an die neuronalen Strukturen vom Gehirn, sich selbst Dinge beizubringen. Das waren die ersten Durchbruch. Das heißt, KIs haben gelernt zu lernen und das hat die Pandoras Box geöffnet. Ich habe immer mal Scherze gemacht. Was ist, wenn die KI das gesamte Internet versteht? Gibt es genug Filme wie das fünfte Element zum Beispiel, wo sich diese Elinka im Endeffekt das Wissen reinzieht und auf einmal anfängt zu weinen, weil die Menschheit aus Krieg und Verderben auch besteht. Und Schönheit. Das gehört beides in den Menschen rein. So, und jetzt lernt die KI, aber sie lernt wieder von uns und deswegen ist das sogenannte Training so wichtig. Ich würde gerne das Google Beispiel nehmen, was ja rauskam, wo der Bildgenerator, konnte man einfach prompten, also prompten heißt ich gebe einen Befehl oder ein Script was ich machen soll, zum Thema mach mir die Founding Fathers, aber divers, also die Gründungsväter der USA als Bild und was rauskam waren primär Frauen, Afroamerikaner, Native Americans, aber keine weißen alten Männer mehr. Fakt ist aber die USA wurde gegründet von weißen, alten Männern, die Sklavenbesitzer waren. Da war keine Diversität. Und jetzt generieren wir Bilder mit der KI, die eine Geschichte falsch wiedergibt, wie sie heute politisch korrekt empfinden, aber es faktisch falsch ist. Und das ist jetzt eine ganz für mich auch ganz spannende Diskussion. Was wollen wir denn? Wollen wir die Geschichte umschreiben und sagen Alles war mal gut? Oder wollen wir offen sagen, die Geschichte war nicht mehr richtig und heute ist sie besser.

00:07:28: Lisa Fritsch: Wo halt aktuell immer noch diese Grenze zwischen, die KI ist noch nicht ganz so schlau wie wir, besteht. Aber wenn wir jetzt mal in zehn 15 Jahren weiter schauen, wissen wir eben nicht, wie sich die KI entwickelt. Und jetzt, genau in dieser Zeit bestimmen wir eben die Vorkehrungen dafür. Und ich denke schon, dass wir das ernst nehmen müssen und da aufpassen müssen. Und ich möchte euch jetzt mal kurz einen Hörer Zuschrift zu dem Thema von einer sehr treuen Hörerin von uns, Ramona, vorlesen, denn die macht sich darüber auch große Gedanken. Ich zitiere Sie: "Mein ersten Gedanken liegt die Angst zugrunde, mich auf ein System einzulassen, dessen Anfang und Ende ich nicht kenne und dessen Bedeutung ich für mich als Individuum nicht annähernd abschätzen kann. Reduziert auf möglicherweise einen einzigen Knopfdruck, ein singuläres Ein und Aus." Und zum anderen schreibt sie auch hier, dass sie auch fasziniert ist von eben diesen Möglichkeiten. Die künstliche Intelligenz bringt, dass sie das Thema super spannend findet und stellt dann trotzdem folgende Frage "Was, wenn ich erkennen würde, dass ich nicht mehr folgen könnte? Intellektuell zum Beispiel, dass eine KI bessere Lösungen für die Gesellschaft hat, als ich sie mir je erdenken könnte. Kann der Mensch da mithalten? Was ist dann noch real? Und welche Bedeutung hat dann menschliche Intelligenz?"

00:08:38: Florian Harms: Da sind wir ja jetzt längst, Lisa, und zwar vielleicht nicht in der gemeinen Gesellschaft, so im Alltagsleben. Aber wenn man in Fabriken schaut, zum Beispiel, wie Autos gebaut werden, dann sind das längst KI Prozesse. Und das wird angewendet bei VW, das wird bei Siemens angewendet und geht gar nicht mehr ohne. Da ist Deutschland sogar mit führend bei diesen industriellen KI Prozessen. Das heißt, da ist schon was in unserem Leben und in unserem Wirtschaftsleben, was gar nicht alle verstehen, was genau das ist, was die Leserin beschreibt. Und jetzt hat aber sozusagen dieser große Schritt stattgefunden, natürlich mit dieser ChatGPT Revolution, dass das eine Anwendung ist, die in unserem Alltag, in unserer Kommunikation, auf unseren kleinen Geräten, die wir alle mit uns herumtragen, den Smartphones stattfindet. Ich hatte noch ein Schlüsselerlebnis, nämlich Jetzt ist ja die jüngste Version von ChatGPT veröffentlicht worden "4o" und da kann man mit der Sprachversion tatsächlich sich mit dem Gerät unterhalten wie mit einer Person. Und ich habe das mal gemacht. Ich habe gedacht, bereite mich auf den Podcast mit Lisa Fritsch vor. Das war die Ausgabe mit Frau Schwan zum Grundgesetz. Normalerweise versuche ich mich so ein bisschen einzulesen und habe gesagt dieses Mal geht das anders. Ich unterhalte mich mit ChatGPT und es war großartig. Besser als googeln und das hat mir eben gezeigt, das entwickelt sich so rasant. Und natürlich werden wir alle uns dran gewöhnen. Vor allem die Jüngeren, also die, die nicht so dran gewöhnt sind, vielleicht jetzt nur noch Text zu lesen und da wird KI künftig eine ganz andere Rolle im Alltag spielen. Ich vermute, dass es so kommen könnte, dass schon in absehbarer Zeit jeder von uns du, Fabian, du Lisa, eine persönliche KI hat, die uns durch den Alltag steuert, die uns informiert, die uns dabei hilft, ein gutes, bequemes Leben zu führen.

00:10:22: Fabian Westerheide: Und darauf freue ich mich und warte. Zwei Gedanken. Das eine ist ich habe einen frischen Sohn und der ist Generation Alpha. Aber wir haben es abgekürzt: Gen AI. Weil es die erste Generation sein wird, die nicht nur coden kann, die wird nicht nur lesen, die wird nur noch mit den KIs sprechen. Ich habe ja Siri, Alexa etc. im Haushalt integriert. Die Hörvariante wird wahrscheinlich auch irgendwo auftauchen und sobald er mit Geräten interagieren kann, wird das Sprache sein, bevor er irgendwas anderes macht. Und er wird damit aufwachsen mit seinen Vor- und Nachteilen. Und das andere ist die Hörerzuschrift von Ramona, da habe ich Gänsehaut gekriegt, weil sie mich an eine Kurzgeschichte erinnert, wo die Kammer beauftragt wurde, das Problem des Klimawandels in Griff zu nehmen und Überbevölkerung. Und dann springt das Buch und alles ist gut und die Menschheit wurde gerettet. Und rückwirkend stellt man fest die KI hat ein Unfruchtbarkeitsmittel entwickelt und das an den Menschen vorbei so eingeführt in die Menschheit, dass die sich natürlich nicht mehr mit 2 oder 2,5, sondern mit 1,5 und 1 reproduzierte. Und das hat alle Probleme gelöst und das ist diese Sache. Also eine KI hat da etwas gelöst, das wir nicht hätten lösen können, weil es zu komplex ist, weil es zu schwierig ist. Am Ende hat die Menschheit profitiert in dieser Kurzgeschichte und gleichzeitig es natürlich ein großer Schock gewesen, weil sie so massiven Einfluss genommen hat.

00:11:40: Lisa Fritsch: Ja, und da geht es auch um ethische Faktoren und Menschenleben am Ende.

00:11:44: Florian Harms: Und es geht um die Frage der Kontrolle: Wer trifft die Entscheidung? Treffen wir die als Menschen aus Fleisch und Blut? Oder trifft eine Maschine die Entscheidung? Und es geht zweitens um die Frage: Was ist Wahrheit? Was kann man eigentlich noch glauben? Das lese ich auch aus der Hörerzeitschrift raus. Worauf kann ich mich eigentlich noch verlassen? Denn im Moment ist es ja noch so, dass viele dieser Sprachmodelle wirklich noch halluzinieren. Die erzählen mir dann irgendeinen Kokolores, wenn ich eine Frage stelle. Das wird sich aber weitgehend lösen. Also die Fehlerquote sinkt immer weiter und die Dinger lernen ja unheimlich schnell. Trotzdem habe ich natürlich keine Garantie, dass das wirklich stimmt, was ich da erzählt bekomme. Und das ist genau der Punkt, wo dann Jüngere, vielleicht auch, die noch nicht einen ganzen großen Bildungshintergrund haben oder noch nicht so viel Lebenserfahrung haben, etwas bekommen als Input für ihr Leben, was vielleicht anderen Kriterien genügt, anderen Kriterien im Hinblick auf Wahrhaftigkeit.

00:12:37: Lisa Fritsch: Und Wahrheit spielt vor allen Dingen auch bei den Wahlen eine Rolle. Wir sind jetzt gerade kurz vor der Europawahl, dann stehen die Landtagswahlen im Osten an und auch noch das Superwahljahr in den USA im November. Da geht es halt auch viel um das Vertrauen. Und ich habe es vorhin in der Anmoderation gesagt, es wird immer einfacher, durch generative KI täuschend echte Fotos oder Videos zu erstellen. Wir haben das auch schon an einigen Beispielen auch mit Trump zum Beispiel gesehen. Inwieweit gefährdet denn künstliche Intelligenz das Vertrauen der Wähler?

00:13:06: Fabian Westerheide: Also erstens ist das kein Problem der KI, sondern überhaupt ein gesellschaftliches Thema. Die Welt entwickelt sich immer schneller, immer mehr Krisen, immer komplexer. Unsere Bundesregierung lebt in Krisenmodus und kommt nicht hinterher. Wir sehen es am Wählerklientel wie viele Protestwähler wir auch die wählen, aber im rechten und linken Spektrum haben, weil die Leute sich jetzt schon abgehängt fühlen, dass die noch nicht mal da KI. Das liegt an der beschleunigenden Kurve, die wir haben, die sich exponentielles Wachstum nennt. Und das hört nicht auf. Das wird weitergehen, weil die Alternative ist der Supergau, nämlich Strom weg, das Leben ohne Strom. Das ist, was ich auch meinem Buch im letzten Kapitel zitiere. Zurück in den Wald. Das ist übrigens für manche die Utopie. Wir werden wieder alle Bäume umarmen und uns selbst versorgen. Das ist die Alternative als entweder akzeptieren diese Technologie oder wir müssen komplett drauf verzichten, weil es gibt keinen richtigen Mittelweg mehr. Deswegen umso wichtiger ist, dass jeder KI versteht und es hinterfragen kann. Also die Anwendungsfelder für KIs Co-Pilots bei Entwicklern. 80 % aller Entwickler benutzen KI zum Programmieren.

00:14:04: Florian Harms: Entwickler, also die Leute die die Codes schreiben.

00:14:06: Fabian Westerheide: Software-Entwickler. System-Architekten etc. Wozu es geführt hat, ist, dass der CTO, also der Chef inzwischen weniger Mitarbeiter braucht, die den Code schreiben soll. Er schreibt den Code wieder selber, schreibt erste Zeile und der Copilot, alsoChatGPT schreibt die nächsten 100 Zeilen und er braucht nur genug technisches Verständnis, um das zu hinterfragen. Das heißt, ich brauche genug Verständnis vom Inhalt und lass den durch die KI generieren, dann kann ich die lügen und die lässt sehr schnell erkennen, Wenn ich ein Laie bin, der von dem Thema keine Ahnung hat, dann kann ich auch nicht den Inhalt überprüfen. Und dann kommen wir zu dem Thema Bildung. Erwachsene und Kinder müssen lernen Kunst zu hinterfragen und Inhalt. Also in Fragen, also Bildungssystem will ich sagen, schreib deine Hausaufgaben etc. etc. pp. Komm damit in die Schule und wir diskutieren und hinterfragen das kritisch. Welche politische Sichtweise hatte dieses Element, also dieses Foundation Model dahinter? Ist das heute rechts linksliberal?

00:14:53: Florian Harms: Aber damit da mal reingrätschen, weil da habe ich einen anderen Blick drauf. Es gibt einen Fall aus der Schweiz, da hat gerade ein Abiturient einen riesen rauschenden Erfolg gehabt bei seiner Matura, wie das Abitur in der Schweiz heißt. Und der inkriminierte Fall war ein Aufsatz über Goethes Faust. Und den hat er komplett recherchiert, mit getippt und auch quasi wiedergegeben mit ChatGPT und hat hinterher eingeräumt, er hat es überhaupt nicht verstanden, worum es eigentlich in diesem weltbewegenden Stück geht. Das heißt, er hat nichts gelernt. Da war der Bildungserfolg gleich Null. Was hat er gelernt? ChatGPT gut zu bedienen, einen guten Prompt, also einen Befehl für die KI zu schreiben. Und das kann es doch eigentlich nicht sein. Ich würde schon behaupten, wenn man eine Reifeprüfung ablegt, dann sollte man grundlegendes Verständnis haben von Geschichte, von Werken, die die Welt bewegt haben. Von Mathematik und vielem mehr. Es kann nicht nur sein, dass wir nur noch lernen, wie man einen Befehl schreibt.

00:15:46: Fabian Westerheide: Mündliche Nachprüfung, also mündliche Abfragen und von Wissen. Aber ich würde sagen, das Bildungssystem muss sich anpassen. Die Leute können dann halt ChatGPT, Google und Wikipedia benutzen. Wie kriege ich es hin das Bildungssystem so zu machen, dass das kritische Denken und das Teamplay und diese sozialen Skills, die ich brauche, dass die wirklich trainiert werden und nicht das Wissen von A nach B holen. Es gab früher Lehrer, die haben gesagt, du musst alles auswendig lernen. Andere haben gesagt, du kannst das Buch mit in die Klausur nehmen, weil ich frag dich ja nicht ab, dass du alles auswendig gelernt hast. Dann hast du verstanden, was drinsteht.

00:16:16: Lisa Fritsch: Aber es ist trotzdem immer noch so eine, finde ich Wunschvorstellung. Also ChatGPT als Hilfestellung zu nehmen und dann trotzdem aber diese Grenze zu kennen, wo es halt andere Kompetenzen dadurch verlernt werden.

00:16:27: Florian Harms: Und Lisa, das ist ja die Gefahr dieser Technologie, dass sie uns so bequem macht, auch über die Bildung hinaus im Alltag. Denn ich stimme dir zu die Utopie wird wahrscheinlich sein, dass unser Leben viel, viel angenehmer werden kann durch KI. Die kann uns ganz viel abnehmen von redundanten Tätigkeiten, von anstrengenden Tätigkeiten, von Dingen. Ach Gott, habe ich jetzt vergessen. Nee, nee, die KI steuert mich durch den Alltag. Die erinnert mich daran. Du musst heute deiner Frau gratulieren. Und Hochzeitstag. Übrigens, ich habe schon das Geschenk bestellt. Kummer sieht toll aus. Ist das, was sie sich wünscht? Das weiß ich aus ihren Daten. Und. Oh Gott. Oh, Gott. Oh Gott. Ja, aber im Moment. Wo bleibt denn mein Menschsein? Wo bleibt denn mein Ich, meine Persönlichkeit, die sagt das ist mir ein wichtiger Tag, ich merk mir das, ich bereite mich darauf vor und damit müssen wir umgehen. Und deshalb bin ich bei dir. Fabian, was du vorhin sagtest, es kommt darauf an, dass wir uns jetzt wirklich mit künstlicher Intelligenz beschäftigen und das nicht den Nerds überlassen und den verrückten Chefredakteuren, die sagen Ich fahr mal in Silicon Valley. Eigentlich muss das Bürgerpflicht sein, weil das so eine große Veränderung ist. Das wird so grundstürzend das gesamte Leben verändern, dass jeder in diesem Land sich damit beschäftigen sollte.

00:17:31: Fabian Westerheide: 50 % aller Jobs werden den nächsten zehn Jahren durch KI angereichert. Also keiner wird durch KI ersetzt, sondern durch Menschen, die KI benutzen. Der Wettbewerb ist der Mensch Maschine hingegen nur Maschine, nur Mensch. Und ich würde sagen, 20 Millionen Deutsche müssen sich um umschulen, Die müssen das lernen. Und das ist übrigens große Auftrag, dieses Bildungsprogramm loszustoßen. Also nicht nur in Kindergarten, Schule und Universitäten, sondern auch vor jedem, der vom Rechner sitzt. Jeder, der ein digitales Gerät hat und konsumiert. Und dann kommen wir zum Thema Superwahljahr. Was ich letztens gelesen habe Die Russen haben mit ChatGPT die großen Newsartikel aus den USA übersetzt und prompt schreib es antidemokratisch, antiwestlich, eins zu eins kopiert und haben teilweise den prompt vergessen. Und er stand da drin, Deswegen konnte man das recherchieren. Das heißt es gibt News Seiten New York Times, die sehen eins zu eins so aus, sind komplett umgeschrieben worden und das ist natürlich jetzt Desinformation. Ich sage immer Stellt euch vor, der gute Trump hat sein eigenes Foundation Modell. Fondation Modell sind die technischen Grundlagen, auf denen ChatGPT oder Alpha etc. laufen. Diese großen Datenbanken, die trainiert sind. So ein Trump macht das und dann ist das rechtsradikal. Und jeder der dann seine Medien konsumiert, die kriegen sein Weltbild. Es gibt nicht umsonst, dass Elon Musk sein eigenes Modell entwickelt hat, das antisemitisch zulässt. Und da fängt die Moral an Wir sagen Antisemitismus, no go, das zensieren wir. Die Chinesen zensieren ganz andere Themen und die Amerikaner zensieren andere Themen. Auf einmal kommen hier Modelle aufeinander, die eigene kulturelle Welten haben und das spielen, wie wir es in Deutschland nicht ausreichend mit.

00:19:00: Florian Harms: Und da ist wirklich ein ganz großes Problem. Ich habe eine Zahl mitgebracht, allein die großen Digitalkonzerne in Amerika, also Meta Alphabet mit Google, Amazon, wie sie alle heißen, haben angekündigt, in diesem Jahr 200 Milliarden Dollar in die Entwicklung von künstlicher Intelligenz zu investieren. Und da sehen wir Deutschland ganz klein aus. Ja, wir haben hier auch so eine KI Firma Aleph Alpha. Aber das ist doch überhaupt kein Vergleich und wir müssen uns wirklich lang machen. Wir müssen uns anstrengen, dass wir nicht abgehängt werden. Was nicht heißt und ich weiß, dass dir das auch ein Anliegen ist. Fabian Dass wir mehr investieren müssen, sondern wir müssen es verstehen. Wir müssen verstehen, worum es geht. Und das sehe ich eben bislang überhaupt nicht, sehe es nicht in der Bundesregierung. Ich sehe es aber auch nicht in den Wirtschaftsverbänden. Ich sehe es nicht in den Schulen, an den Universitäten hier und da, aber noch nicht als große gesellschaftliche Bewegung.

00:19:47: Fabian Westerheide: Der Bundesrechnungshof hat vor ein paar Tagen kritisiert, dass Deutschland zu wenig investiert. Also der Bundesrechnungshof sagt Gib mehr aus, investiere mehr.

00:19:56: Florian Harms: Die Leute, die aufs Geld achten.

00:19:56: Fabian Westerheide: Ja, und die haben euch gesagt, sie müssen mindestens 10 Milliarden investieren. Und da komme ich immer noch nicht an die 200 Milliarden, die aus privaten Geldern investiert werden, also von Privatkonzernen. Die Macht hat sich verschoben. Ich zitiere da gerne oder verweise auf den Film Blade Runner her. Die Zukunft gehört nicht mehr den Staaten, sondern Großkonzernen, die eigentlich viel dominanter und größer sind. Ich glaube in Bias fünf oder zehn größtes Land vom BIP heutzutage gemessen oder so abartig. Ich habe das Buch keiner Nation geschrieben, weil ich glaube, Deutschland muss zu einer Nation werden, um unsere Kultur zu bewahren und unsere Wirtschaft zu bewahren, unsere Industrie zu bewahren. Und mein Buch ist ein ganz großer Call to Action, also große Aufforderung zum Versteht das Thema. Guckt euch an, was Amerikaner Chinesen machen. Ich erkläre euch, was wir alles nicht machen. Ich gebe euch Handlungsvorschläge, was wir machen könnten und da müssen wir wirklich, wirklich handeln. Und habe das Buch geschrieben. Für jeden interessierten Laien, aber auch genauso gut für unsere Abgeordneten und Politiker, denen ich das teilweise persönlich in die Hand drücke und sage Lies das bitte, Du verspielt es gerade die Zukunft Deutschlands, indem du nichts tust.

00:20:56: Lisa Fritsch: Also ich hab jetzt schon die Bildung, die Schulen angesprochen, die Politiker. Dann hattest du auch das Stichwort Bürgerpflicht angesprochen. Wie könnte das aber konkret aussehen? Also jetzt nur zu sagen, ihr müsst alle KI lernen und den Stempel drauf zu drücken, so funktioniert es halt auch nicht.

00:21:12: Florian Harms: Man merkt ja schon, es gibt Zäsuren in der Entwicklung und Zäsuren in der Geschichte, und so was erleben wir immer wieder. Die Erfindung des Internets war sicherlich so eine Zäsur. Wir erinnern uns noch an den berühmten Werbefilm mit Boris Becker Oh, ich bin drin. Wo die Nation langsam gemerkt hat, da kommt was ganz Neues auf sie zu. Und man sollte sich vielleicht mal damit beschäftigen. Viele t-online Nutzer sind irgendwann zum Ersten Mal mit t-online, auch mit den Mails von Telekom damals noch ins Web gegangen. Jetzt kommt die nächste große Zäsur. Zwischenzeitlich war die zweite dann wahrscheinlich. Die Erfindung des Smartphones. Hat mittlerweile auch jeder. Jetzt kommt etwas, was wahrscheinlich noch hundertmal größer ist. Und dann sollte ich mich damit beschäftigen. Und zwar nicht nur, weil ich in einem Podcast mal zugehört habe, das erst jetzt irgendwie wichtig ist, sondern weil es um mich geht als Person. Weil es um meine Kinder geht, um meine Lieben, um meine Familie, um mein Land.

00:21:59: Fabian Westerheide: Und da also konkret Finnland hat schon vor ein paar Jahren einen kostenlosen Kikurs online angeboten und die haben zu dem Zeitpunkt nach ein paar Wochen schon 5 % aller Finnen gemacht gehabt, freiwillig.

00:22:12: Lisa Fritsch: Da leben aber nur 5 Millionen Menschen.

00:22:13: Fabian Westerheide: Finnland ja, aber immerhin 5 %.

00:22:15: Florian Harms: Na ja, das kann man ja hochrechnen.

00:22:16: Fabian Westerheide: Ist ja schon mal eine Handvoll von Leuten und die haben das gemacht, kostenlos. Das dauert ungefähr eine Stunde. Und danach hatten die Leute ein rudimentäres Verständnis dafür, weil sie durch Multiple Choice was beigebracht wurden und dann wiederum abgefragt wurden. Und dieses Land ist viel weiter als wir in der Digitalisierung in dem Bewusstsein, die wollen mit KI viel mehr schaffen, aber bilden ihre Bevölkerung gleichzeitig weiter. Ich spreche mal davon, wir müssen eigentlich eine Imagekampagne machen. Das ist vielleicht auch mal an den Mutterkonzern zu rufen. Ja, KI kann helfen. Keine Medizin ist gut, keine Bildung ist gut, KI im Verkehr gut. Ich meine, wer möchte heute ohne KI Autopilot noch fliegen? Oder jeder der Auto fährt findet das auch gar nicht so schlecht. Tempomat, Spurwechsel, Assistenz und vielleicht auch noch mal einen Stoppschild sehen. Bilderkennung von Geschwindigkeitzonen etc. sind ja großartige Werkzeuge. Also müssen wir auch mal positive Geschichten erzählen und nicht nur Angst machen.

00:23:03: Florian Harms: Ja, und auch damit rumspielen. Denn das geht mir auch so, wir haben das ja gesehen, als ChatGPT auf den Markt kam. Große Aufregung. Jeder hat mal diese Website aufgerufen, jetzt geht die Nutzung schon wieder runter. Und ich weiß, manche Branchen wie Entwickler zum Beispiel nutzen es intensiv. Wir im Newsroom nutzen sie intensiv. Viele andere da draußen, höre ich jetzt sagen sie dann Ja, die halluzinieren ja sowieso, die erzählen irgendwelchen Stuss. Im Gegenteil, Gerade jetzt muss man sich doch damit beschäftigen. Man muss das ausprobieren, auch die neuen, die neue Fassung, eben diese Sprachmodellen. Einfach mal durchspielen, lesen. Deshalb fand ich es gut, dass du dieses Buch geschrieben hast. Ich habe ja noch ein anderes Buch gelesen. Von Mustafa Süleyman habe ich auch am Tagesanbruch mal drüber geschrieben. Kann ich auch jedem empfehlen. Die nächste Welle heißt das, glaube ich, wo er auch herleitet, wie sich diese Entwicklung eigentlich über die Jahre vollzogen hat und was noch kommen kann. Du hast es ja auch angedeutet jetzt was, was kann da noch auf uns zukommen? Und da reden wir dann über Utopie oder Dystopie und die Gefahr einer Dystopie, also dass die KI Negatives macht, das böse Menschen mithilfe von künstlicher Intelligenz Superwaffen entwickeln, dass wir von einer Pandemie nach der anderen gejagt werden, weil alle diese Viren mittlerweile ganz schnell zu programmieren sind, Das ist schon relativ wahrscheinlich. Da muss man gewappnet sein. Und es reicht eben nicht, sich darauf zu verlassen, dass wir irgendwie eine tolle Bundesregierung haben und eine tolle Polizei und Geheimdienste. Nee, ich als Bürger muss mich damit auseinandersetzen, weil es wird auf mich vielleicht zukommen.

00:24:25: Fabian Westerheide: Und deswegen macht die Begrifflichkeit was wir bisher hatten war so eine Narrow AI, also enge KI genannt, Fachidioten. Die war sehr gut im Schachspielen, Go spielen. Ja, die war gut in Übersetzung, macht die faszinierend. Übrigens deutsche Firma Kudos für DeepL macht das sehr sehr gut. Jetzt in so einem Sprung zur sogenannten AGI, also die allgemeine KI, also eine die Welt versteht, ChatGPT so ein bisschen an der Richtung schon dran, mit der ich Menschen Level oder so über Menschen Level kommunizieren kann. Danach kommt die starke künstliche Intelligenz und dann kommt erst die Superintelligenz. Die Superintelligenz, dann sind wir weg. Also haben wir unseren eigenen Gott erschaffen oder Götter erschaffen. Dann hat die Menschheit sich selber überholt. Und wenn ich Schmidhuber nehme, der schon sehr lange darüber redet, sagt das Universum wurde eh von den Scheiß gebaut, erforscht und entwickelt. Die brauchen wir, weil wir biologisch ja sind wir limitiert auf diesem Planeten und wir kommen gar nicht so weit. Und wir brauchen eigentlich Maschinen, um das Universum vielleicht wieder zu erkennen Und alle anderen Formen von Intelligenzen, Fermi-Paradoxon zum Beispiel Ja, wenn wir da in diese Richtung gehen wollen.

00:25:24: Florian Harms: Musst du erklären, glaube ich.

00:25:25: Fabian Westerheide: Fermi-Paradoxon sage ich die Frage warum haben wir keine anderen Formen von Intelligenzen getroffen? Wenn das Universum so alt ist, warum ist nicht etwas anderes entstanden? Eine Antwort darauf ist jede Intelligenz Form kommt immer an so eine Decke dran, wo sie sich irgendwann selbst auslöscht. Oder die andere Antwort wäre irgendwann System-Maschinen, die es machen und haben ganz andere Signale und Kommunikation. Das heißt, wir können sie nicht mehr biologisch nachweisen. Aber vielleicht haben sie ja die Sternsysteme gebaut. Vielleicht gibt es ja Portale und schwarze Löcher und wir können sie nur nicht verstehen.

00:25:50: Florian Harms: Jetzt wird es ein bisschen esoterisch.

00:25:51: Fabian Westerheide: Ja, oder halt quantenphysikalisch. Also ich meine die wir Menschen haben ein ganz limitiertes Verständnis von der Welt und wir überschätzen uns massiv. Wir halten uns viel, viel zu intelligent. Dabei sind wir es nicht.

00:26:03: Florian Harms: Wir sind eigentlich arrogante Ameisen sind.

00:26:07: Fabian Westerheide: Und sagen wir mal ein intelligenter Mensch hat einen IQ von 125. 160. Aber so eine Superintelligenz, da vielleicht ein IQ von 1000 um waren, die wird ganz anders denken und Dinge machen können und dann haben wir die Kontrolle vielleicht verloren oder wir haben in die Kontrolle überreicht.

00:26:23: Lisa Fritsch: Also jetzt klingt es doch eher so, als wäre die Auslöschung der Menschheit doch möglich. Am Anfang hast du noch so ein bisschen dagegen gehalten

00:26:28: Fabian Westerheide: Warum ist denn die Auslöschung die Antwort?

00:26:30: Florian Harms: Muss nicht die Antwort sein, aber es ist eine Möglichkeit. Aber nicht erst die KI, also auch die Atomwaffen, die Wasserstoffbombe. Es ist alles da. Wir könnten uns längst auslöschen. Wir tun es aber nicht. Zum Glück.

00:26:40: Fabian Westerheide: Genau.

00:26:41: Lisa Fritsch: Aber ich glaube, dieser Gedanke, den du zwischendurch angesprochen hast, Fabian, mit dem Ich gehe in Wald und dann ist alles gut. Also dieses lieber zu sagen, Nee, jetzt nicht. Ist halt einfacher. Sich abzuschotten, ist im ersten Moment halt einfacher als zu sagen.

00:26:55: Fabian Westerheide: Und unbequem, also ich übe das seit ein paar Jahren. Ich habe ein Wald-Grundstück ich mache Permakultur, ich eigenes Gemüse an, ich hab ein Brunnen. Ich übe das, weil ich mich mit der Zukunft beschäftige, bereite ich mich auf die Zukunft vor, die ich nicht haben will. Also die Dystopie bereite ich vor, damit ich vorbereitet bin. Und gleichzeitig lebe ich natürlich und treibt die Utopie voran, indem wir darüber sprechen und aufklären. Wie viele Menschen sind der Lage, wenn der Strom weg ist, einfach mal für eine Woche zu überleben in einer Großstadt. Und das sollte sich jeder übrigens fragen, weil unsere Systeme sind so fragil geworden, wir werden immer abhängiger und die nächsten Kriege, die wir führen werden, ist Ich werde nicht russische Panzer in Berlin sehen. Die werden schon Jahre vorher einfach uns den Strom weggenommen haben oder punktuell den Strom weggenommen haben.

00:27:35: Florian Harms: Und sie fangen vielleicht damit an, dass sie unsere Knotenpunkte für das Bahnsystem torpedieren. Was wir auch gesehen haben schon. Oder dass sie unsere gesellschaftlichen Debatten vergiften, indem sie massenhaft Propaganda hier reinkippen. Das passiert ja alles.

00:27:49: Lisa Fritsch: Und dafür müssen wir gewappnet sein. Wir müssen leider schon zum Ende der Diskussion kommen. Die Zeit ist rum. Aber ich halte auf jeden Fall fest, dass ihr gesagt hat, dass auch die Verantwortung bei uns Menschen selbst liegt, in erster Linie. In zweiter Linie ist auch einfach die Bundesregierung in der Verantwortung. Und ich denke, wir haben alle drei festgestellt, dass da noch sehr viel Luft nach oben ist, aktuell, dass doch noch viel investiert werden könnte. Aber Robert Habeck hat diese Woche zum Beispiel auf der republica auch gesagt, dass das wahrscheinlich erst nächstes Jahr bei der nächsten Bundestagswahl möglich ist, dass die Schuldenbremse doch wieder gelockert wird.

00:28:21: Florian Harms: Das ist wieder so typisch deutsch alles so langsam.

00:28:24: Fabian Westerheide: Robert Habeck war auf der republica, aber noch nicht auf meiner Konferenz "Rise of AI". Wenn die Politiker zu mir kommen, haben sie KI verstanden.

00:28:32: Florian Harms: Das war jetzt ein bisschen Werbung für dich. Aber das ist die als Gast gestattet.

00:28:34: Lisa Fritsch: Aber dafür waren andere Minister da.

00:28:37: Fabian Westerheide: Ja, Volker Wissing.

00:28:38: Lisa Fritsch: Wissing und die Stark-Watzinger?

00:28:41: Fabian Westerheide: Aber dafür gabe es starke Kritik. Ehrlich gesagt, weil ich den Politiker mal sage Erzählt uns was Neues und predigt nicht zum Chor. Und stattdessen steht ein Minister da und sagt Ja, wir benutzen aber kein ChatGPT intern, wir sind noch offline. Ja, das ist leider noch die Realität. Unsere Politiker konsumieren selber nicht, die haben sich nicht hingesetzt und spielen und testen damit. Die haben eine Delegation aus Menschen. Sie müssen es selbst verwenden, um es zu verstehen.

00:29:04: Lisa Fritsch: Und darin liegt eben die Kritik an der Bundesregierung, die ich gerade auch noch mal aufgreifen wollte. Und damit bedanke ich mich ganz herzlich bei euch. Vielen Dank Fabian Westerheide, dass Du heute zu uns in den Podcast gekommen bist und auch bei Dir, Florian. Danke für die Anekdoten und Einschätzungen. Wir haben festgestellt, dass Schreckensszenarien einer KI Apokalypse der Auslöschung der Menschheit möglich sind und dass wir uns gerade deshalb damit beschäftigen müssen, auch wenn wir uns manchmal sträuben. Es dauert aber eigentlich auch gar nicht so lang. Man könnte einfach mal 5 bis 10 Minuten auf die Webseite von Openay und mal es wenigstens mal kurz probieren, dann hat man es schon mal ausprobiert.

00:29:38: Fabian Westerheide: Und ich empfehle Perplexity sich selbst googeln und was kein Google mehr ist Perplexity ist viel besser in sogenannten Reasoning, Argumente zusammenzusuchen.

00:29:47: Florian Harms: Und gibt die Quellen an.

00:29:47: Fabian Westerheide: Gibt die Quellen an, also Perplexity ist eine Empfehlung.

00:29:50: Lisa Fritsch: Okay, das nehmen wir noch mal mit. Ich hoffe Sie, liebe Hörerinnen und Hörer konnten noch viel mehr mitnehmen aus dieser Folge. Und wenn Sie noch eine Frage oder Anmerkung zum Thema haben, schreiben Sie uns gerne an Podcasts@t-online.de Und wenn Sie es noch nicht getan haben, abonnieren Sie den Tagesanbruch Podcast, um keine neuen Folgen unserer Wochenenddiskussion zu verpassen. Damit wünsche ich Ihnen ein innovatives Wochenende. Bedanke mich für das Zuhören. Bis zum nächsten Mal.

00:30:13: Fabian Westerheide: Danke schön fürs Zuhören und schönen Tag noch.

00:30:16: Florian Harms: Auch von mir Vielen Dank. Tschüss und bleiben Sie uns gewogen.

Über diesen Podcast

Der Nachrichtenpodcast von t-online zum Start in den Tag.

Im „Tagesanbruch“ ordnet t-online-Chefredakteur Florian Harms im Wechsel mit seinen Kolleginnen und Kollegen die wichtigsten Themen des Tages ein, analysiert und kommentiert – am Wochenende in einer tiefgründigeren Diskussion zu einem aktuellen Thema der Woche. Neue Folgen gibt es montags bis samstags ab 6 Uhr morgens.

Fragen, Anregungen und Kritik gerne an: podcasts@t-online.de

Den Tagesanbruch gibt es auch zum Nachlesen unter https://www.t-online.de/tagesanbruch

Wenn Ihnen der Podcast gefällt, lassen Sie gern eine Bewertung da.

von und mit Florian Harms

Abonnieren

Follow us