KI-Zukunft: Utopie oder Dystopie?
Wir erkunden zwei Extreme
24.04.2024 63 min
Zusammenfassung & Show Notes
Utopie und Dystopie treffen aufeinander – wir entdecken, wie künstliche Intelligenz unsere Zukunft formen könnte.
Wir erkunden sowohl die utopischen als auch die dystopischen Szenarien, die KI für unsere Zukunft bereithalten könnte – wie sie unser Leben beeinflussen kann, zum Guten wie zum Schlechten.
Freund Feind Multiplikator
Wir starten mit einer Einführung in die extremen Bilder von KI, die oft in Medien dargestellt werden – von hilfreichen bis hin zu zerstörerischen Szenarien.
Utopische Visionen
Stell dir vor, KI könnte uns in der Medizin revolutionieren oder uns im Alltag als persönlicher Assistent unterstützen. Wir sprechen über das Potenzial von KI, unser Leben zu verbessern.
Dystopische Befürchtungen
Was passiert, wenn KI falsch eingesetzt wird? Wir diskutieren die Risiken von Überwachungsstaaten und den Missbrauch von KI in der Politik und anderen Bereichen.
Bildung und KI
Wie können wir uns und insbesondere die nächste Generation auf eine Welt vorbereiten, in der KI eine zentrale Rolle spielt? Wir betonen die Wichtigkeit von Bildung und kritischem Denken.
Wir möchten, dass du nach dieser Episode ein differenzierteres Bild von KI hast und inspiriert bist, über deinen eigenen Umgang mit Technologie nachzudenken. Vielleicht möchtest du auch in deinem Umfeld Diskussionen anregen oder dich weiter informieren. Nutze KI als Werkzeug, das dir hilft, informierter, effizienter und vielleicht auch ein wenig weiser zu werden.
Seth Godin – Stop Stealing Dreams
https://www.youtube.com/watch?v=sXpbONjV1Jc
Ein inspirierender Talk und Essay, der hinterfragt, ob unser Bildungssystem wirklich auf die Herausforderungen der Zukunft vorbereitet. Mehr Details bei Interesse im gleichnamigen Essay (100 Seiten, kostenloses PDF): https://seths.blog/wp-content/uploads/2019/05/stop-stealing-dreams6print.pdf
Freund Feind Multiplikator
Wir starten mit einer Einführung in die extremen Bilder von KI, die oft in Medien dargestellt werden – von hilfreichen bis hin zu zerstörerischen Szenarien.
Utopische Visionen
Stell dir vor, KI könnte uns in der Medizin revolutionieren oder uns im Alltag als persönlicher Assistent unterstützen. Wir sprechen über das Potenzial von KI, unser Leben zu verbessern.
Dystopische Befürchtungen
Was passiert, wenn KI falsch eingesetzt wird? Wir diskutieren die Risiken von Überwachungsstaaten und den Missbrauch von KI in der Politik und anderen Bereichen.
Bildung und KI
Wie können wir uns und insbesondere die nächste Generation auf eine Welt vorbereiten, in der KI eine zentrale Rolle spielt? Wir betonen die Wichtigkeit von Bildung und kritischem Denken.
Wir möchten, dass du nach dieser Episode ein differenzierteres Bild von KI hast und inspiriert bist, über deinen eigenen Umgang mit Technologie nachzudenken. Vielleicht möchtest du auch in deinem Umfeld Diskussionen anregen oder dich weiter informieren. Nutze KI als Werkzeug, das dir hilft, informierter, effizienter und vielleicht auch ein wenig weiser zu werden.
Seth Godin – Stop Stealing Dreams
https://www.youtube.com/watch?v=sXpbONjV1Jc
Ein inspirierender Talk und Essay, der hinterfragt, ob unser Bildungssystem wirklich auf die Herausforderungen der Zukunft vorbereitet. Mehr Details bei Interesse im gleichnamigen Essay (100 Seiten, kostenloses PDF): https://seths.blog/wp-content/uploads/2019/05/stop-stealing-dreams6print.pdf
Transkript
Hey und herzlich willkommen bei der KI Show.
Ich bin Ruben und zusammen mit Benny tauchen wir praxisnah und im Detail in die Welt der künstlichen Intelligenz ein.
Egal ob du deine Träume schon von der KI interpretieren lässt oder Angst hast, dass übermorgen ein Roboter deinen Job wegnimmt, ich denke hier bist du genau richtig.
Benny, worüber philosophieren wir heute?
Ja, heute der Titel der heutigen Folge ist Utopie und Dystopie.
Das heißt, wir beschäftigen uns ein bisschen mit den Szenarien, die vorkommen könnten, philosophieren, was denn passieren könnte, im besten Falle, im schlechtesten Falle.
Ja, und da darüber sprechen wir ein bisschen.
Sehr schön.
Bevor wir da reingehen, habe ich ein kleines Minitema vorbereitet, heute mit dem Titel Freund Feind Multiplikator.
Die Idee ist, einen kleinen Gestankenanstoß zu geben für eine Perspektive auf diese ganze Utopie, Dystopie-Gedankenwelt zum Thema AI, die mir ebenso hilft.
Eine Perspektive.
Und zwar Menschen denken, gerade bei KI, aber auch anderen Sachen, oft in Extrem.
Wenn man zum Beispiel Bücher anguckt, Filme anguckt, da wird Künstliche Intelligenz auch eher auf der krassen Seite.
Eben, dass die Geschichte schon spannend ist.
Und das hat uns auch immer wieder sehr geprägt.
Zum Beispiel Freund, wer Star Trek kennt, kennt den Data.
Das ist so ein Android, der super nett ist, super hochintelligent, eigentlich immer gutartig.
Ich glaube, nur ein paar wenige Male wird er manipuliert und ist dann böse.
Aber sonst ist er grundsätzlich total nett und gut und will helfen.
Ich glaube, sein einziges Ziel ist, menschlicher zu werden und Emotionen zu verstehen.
Das ist auch nochmal so ein Lob an Menschheit im Grunde.
Dass Menschen so toll sind, sogar der Roboter müsste so sein wie wir.
Oder ich habe jetzt auch bei meiner Recherche gefunden, es gibt einen Roman, der heißt The Culture.
Und da gibt es eine KI, die nennt sich Mines und die nimmt so über alles, also die Verwaltung, den Schutz, Innovation, sogar Frieden mit Zivilisation auf anderen Planeten und guckt, dass die größtmögliche Anzahl von Menschen wirklich wunderbar geht.
Das ist so das eine Extrem.
Oder auf der anderen Seite Feind, wenn wir an Matrix denken, das sind Maschinen, die uns manipulieren, damit sie uns als Energiequelle nutzen können.
Und ich denke, dieses Freund-Feind-Bild, diese Extreme sind total einschränkend.
Und dabei wird auch diese Technologie sehr vermenschlicht, weil sie ein eigenes Ziel hat und eben ein Ziel ist, das gegen uns ist oder eben nur für uns.
Und ich finde, da verlieren wir Verantwortung.
Also wir geben Verantwortung ab und verlieren auch das Gefühl von Kontrolle, weil wir das eben so extrem, es ist mehr so ein Ich hoffe, dass es gut ausgeht, aber ansonsten lehne ich mich zurück und gucke zu.
Und ich finde es hilfreich, ihre Perspektive KI als Multiplikator zu sehen.
Wir wirklich sagen, hey, KI verstärkt uns Menschen in verschiedenen Bereichen und eben the good and the bad part.
Und das bedeutet dann auch gleichzeitig, dass wir die Verantwortung haben, wie wir damit umgehen, wie wir es einsetzen, wie wir Gesetze einführen, wie wir letzte Woche mit dem AI Act auch besprochen haben.
Und eben in verschiedenen Bereichen wird der Effekt ganz unterschiedlich sein.
Es wird Bereiche geben, da wird KI tolle, wunderbare Einflüsse haben und es wird super gut und es wird auch andere Bereiche geben.
Da wird es schlecht und es wird auch Menschen geben, die schlechte Interessen haben und dann multipliziert werden, mit dem was sie tun.
Aber ich denke, wenn man das eben sagt, als Multiplikatur sehen, dann gehen wir das ganze Thema ganz anders an.
Proaktiv suchen wir wirklich eine Lösung.
Und anstatt zu warten, hoffentlich wird es ein Freund oder ein Feind und uaaah.
Genau, das ist so mein Gedankenanstoß.
Bei dir dazu noch was ein?
Das ist sehr interessant.
Ich hab da ein bisschen auch drüber nachgedacht, wie die Verantwortung der Gesellschaft ein bisschen aussehen könnte.
Oder von dir, von mir, von denen, die wissen, vielleicht was kommen könnte, wie die Welt aussehen könnte in ein paar Jahren.
Aber es ist schwierig.
Es ist Verantwortung abzugeben, es ist immer leicht.
Es ist immer leicht zu sagen, die sind schuld, die sind schuld an meiner Misere, anstatt selbst irgendwie Aktion zu ergreifen und irgendwas besser zu machen.
Und dann auch noch bei einer Technologie, die keiner so richtig versteht und auch das Potenzial nicht richtig versteht.
Also das ist wieder so ein Ding.
Bildung wäre wahrscheinlich da das Wichtigste, dass die Leute einfach mal wissen, um was es geht und welches Potenzial das überhaupt hat.
Und dann ist es vielleicht schon wieder so eine Generationssache.
Die Jungen wachsen damit auf, die wissen, was das ist.
Die kennen das ein bisschen oder können es nutzen, sagen wir mal.
Aber die Zeit, die wir in den vorherigen Technologien hatten, dass die Generationen sich anpassen konnten, die haben wir mit KI, glaube ich, nicht.
Ich glaube, dass wir jetzt sogar die Ältersten irgendwie in irgendeiner Art schulen sollten, weil sogar 70-Jährige wahrscheinlich noch massiv getroffen sind von KI in den nächsten Jahren.
Hast du da schon mal irgendwie Gedanken gemacht, wie man bilden kann in der Gesellschaft?
Ja, da hatte ich auch eben jetzt auch im Zusammenhang mit der Folge und auch dem AI-Dilemma, was wir letzte Woche so als Hausaufgabe mitgegeben haben, darüber nachgedacht.
Ich denke, im Detail können wir da nachher noch mal eingehen.
Aber ich finde es einen ganz wichtigen Punkt, den du meinst.
Diese rasante Entwicklung, die ist anders.
Das ist neu und das stellt uns vor neue Herausforderungen, wo eben eine ganz breite Masse von Menschen betroffen sind und wo sowohl die Gesetze, die Gesellschaft und unsere Infrastruktur und die Netzwerke einfach nicht kommen.
Dann können wir schnell stolpern.
Sollen wir dann direkt in das Thema gehen, die AI-Dilemma?
Das noch ein bisschen mit Blick machen.
Genau, lass uns die Hausaufgabe besprechen.
Was siehst du denn so?
Was waren denn die Hauptaussage von den beiden?
Oder was hast du am ehesten mitgenommen?
Das ist interessant, die Hauptaussage.
Es gab so viele relevante Aussagen und ja, ich glaube, die Hauptaussage für mich wäre, immer weiter am Ball bleiben, was gerade passiert und welche Möglichkeiten AI uns bietet, sowohl positiv als auch negativ, für mich selbst und gesellschaftlich, das was wir glaube ich gerade gesagt haben.
Den Menschen, das wir ein bisschen näher bringen, die schulen und hoffen, dass es nicht wirklich so schnell geht, dass es uns überwältigt, sondern dass wir Zeit haben, unser Gehirn darauf anzupassen, unser Mind in die Richtung zu stupsen.
Was hast du somit genommen?
Ja, also auch den Punkt, auch was wir vorhin meinten, dass eben was so anders ist, dass es eben so schnell geht.
Und das kann eben auch angefeuert durch den kapitalistischen Hintergrund.
Jede große Firma versucht gerade als erstes an diesem Punkt dran zu sein, denn der Return für die Firmen ist extrem riesig, wer denn als erstes dran ist.
Und deswegen gibt es da so einen Rush und eben einen Rush, der womöglich schnell stolpern kann.
Und das fand ich super gut, dass man das sehr schön visualisiert und beschrieben hat.
Ein Punkt, der für mich so ein AHA-Effekt war, der für mich neu war, war die Idee von den Logs of Society, also den Sicherheitsschlössern der Gesellschaft.
Unsere sozialen Normen und Gesetze und die ethisch-richtigen kulturellen Praxen.
Sicherheitsmechanismen, wie zum Beispiel Stimme, kann man nicht kopieren.
Oder wenn du mich siehst, dann traust du, dass ich es bin.
Und viele andere Sachen.
Es gibt ja teilweise sogar noch Banken, die heute noch eine Authentifizierung übers Telefon per Stimme machen.
Und es ist jetzt heute schon möglich, mit 3 Sekunden Aufnahme von jemandem die Stimme zu klonen und dann tatsächlich sich darüber zu authentifizieren.
Und das fand ich spannend, die Überlegung, dass eben durch die rasante Entwicklung diese ganzen Sicherheitsschlösser in unserer Gesellschaft auf verschiedensten Ebenen ganz schnell einbrechen kann und das zu großen Problemen führen kann.
Und diese ganze Verlust von Vertrauen, das ist glaube ich ein extrem großes Thema.
Genau.
Wir müssen sicherstellen, also das was ja die EU auch irgendwie will, dass man zum Beispiel mitbekommt, was ist AI generiert und was nicht.
Dass es irgendwie ja so ein Watermark gibt oder was.
Ich weiß nicht, wie sie es auf die Beine stellen wollen.
Das ist glaube ich sehr schwierig, aber eine Lösung für sowas könnte natürlich auch die Blockchain sein.
Und ich glaube, dass die AI zusammen mit der Blockchain, dass die das regeln können, Identitäten zu verifizieren oder bzw.
Identitäten zu 100% zu authentifizieren.
Das wird glaube ich ein Riesenpunkt werden.
Ja, das glaube ich auch, dass Blockchain war bisher so ein bisschen uuuh, es wurde gehyped und jetzt am Ende war es nur für ein bisschen Geld sinnvoll und der Rest ist nicht so interessant.
Wenn ich immer noch glaube, dass da viel Potenzial und es gibt auch viele Firmen, die an tollen, spannenden Produkten arbeiten, da ist.
Aber ich denke auch, dass die Kombination aus KI und Blockchain super spannend ist und da können wir gerne mal eine zukünfte Folge machen.
Ich glaube auch, dass ich habe noch ein paar Punkte zu wie kann man damit umgehen und was sind mögliche Lösungen.
Vielleicht wollen wir vorher ein bisschen auf die Utopie und die Dystopie eingehen.
Also ein bisschen die extreme und die nahen Möglichkeiten beschreiben und dann so ein bisschen beschreiben, hey, wie kann man denn diese, wie kann man sich darauf vorbereiten, wie kann man gut darüber nachdenken, dass es einen nicht völlig einnimmt und dass man tatsächlich wirklich aktiv sein kann.
Gerne.
Wie wollen wir das strukturieren?
Fangen wir mit dem Guten an, fangen wir mit dem Schlechten an oder fangen wir einfach mal mit den Möglichkeiten an und kommen dann in eine Richtung?
Ich finde es cool mit Utopie anfangen und dann auf Dystopie.
Einfach einfach Utopie, ich habe zum Beispiel zwei Beispiele, vielleicht hast du ein paar Beispiele und dann ein bisschen Dystopie und dann auf die Lösung eingehen.
Utopie.
Das ist, glaube ich, das, wenn du dich ein bisschen mit AI beschäftigst, auch technologisch, und dann hast du ja irgendwann so einen, glaube ich, so einen Moment, wo du erkennst, welches Potenzial dahinter steckt.
Das liegt, glaube ich, ganz viel am Scaling oder wie schnell das geht.
Das heißt so, wir haben ja jetzt ChatGPD seit eineinhalb Jahren.
Und in diesen eineinhalb Jahren war der Fortschritt schon so rasant, wie man sich das vielleicht gar nicht vorgestellt hätte vorher.
Und dieser Fortschritt ist aber sehr jung.
Das ist eine Technologie, die ist jetzt relativ jung.
Und jetzt arbeitet die ganze Welt daran, diese zu Scalen.
Und nicht nur an einem Punkt, sondern an allen Punkten.
Das heißt, du könntest rein, wenn du die Hardware dafür machst, da irgendwie hunderttausendfach besser werden.
Wenn du bessere Daten hast, kannst du da hunderttausendfach besser werden.
Wenn du bessere Architekturen hast, wenn du besseres Reinforcement-Lernen hast, wenn neben den Transformers vielleicht noch eine bessere Architektur existiert, dann hast du tausend, tausend, tausend und irgendwann bist du irgendwo am Ziel.
Oder auch nicht.
Und dieses Scaling, wenn du das verstanden hast, oder wenn du das Potenzial des Scalings irgendwie dir gefasst hast, dann glaube ich, bist du an einem Punkt, wo du dir alles vorstellen kannst, dass jedes Sci-Fi Buch, jeder Sci-Fi Film, dass der irgendwie Realität werden könnte.
Und das ist neu und das hatte ja noch keiner in den 90ern oder in den 2000ern.
Wenn du da jemanden gesagt hast, ist das dann irgendwann möglich, dann hast du vielleicht gesagt, ja, vielleicht in tausend, zehntausend Jahren.
Mittlerweile ist es so, dass wir, also im Meinungskopf ist es so, dass wenn wir ein Ziel haben, etwas zu erreichen, dann könnten wir das mit Hilfe von AI wahrscheinlich in den nächsten 30, 50 Jahren erreichen, wenn nicht 10 Jahren.
Und das ist das, was ich am erstaunlichsten finde und wo ich den Anfang zu Utopie finde oder gefunden habe.
Wie war das bei dir?
So geht es mir genauso.
Und das haben die auch in die AI Dilemma so beschrieben.
Dieses exponentielle Wachstum, was ja auch während Covid ein großes Thema war für viele.
Es ist schwierig für uns Menschen, uns exponentiellen Wachstum vorzustellen.
Weil es eben so interessant und so stark.
Genau, richtig.
Und deswegen, auch wenn man sich mal beschäftigt und überlegt, wie könnten die Schritte sein, wie schnell könnte das gehen?
Dass es eben greifbar ist, ging mir genauso.
Und ich tendiere generell eher zum Positiven und zum Optimismus.
Deswegen bin ich auch sehr schnell in die Richtung Utopie gefallen.
Und mir überleg, wow, was ist alles möglich?
Zum einen eben, was können wir mit KI machen?
Und gleichzeitig, was könnte KI nochmal für Riesensprünge mit uns machen?
Ähnlich wie The Bicycle or the Car of the Mind, was ich glaube ich mal erwähnt hatte.
Ich kann auch gerne mal ein konkretes Beispiel sagen, was mir im Kopf schwirrt, was ich super spannend finde, ist das Thema Gesundheit.
Wenn du heute Doktor oder Doktorin gehst oder einem Hausarzt, der sieht dich vielleicht alle paar Monate mal, wenn du regelmäßig oder oft krank bist.
Wenn du nicht so oft krank bist, dann sieht er dich vielleicht alle zwei Jahre.
Und die Person schaut dich dann an, hat irgendwie fünf Minuten für dich, fragt was los ist und dann bist du sehr schnell in irgendeine Kategorie gepackt und das war's dann.
Und dann gehst du noch, wenn du richtig proaktiv bist, vielleicht zur Vorsorge, 35 plus bist, dann lässt du dir Sachen anschauen im Alter, aber vielleicht auch früher andere Sachen, dass du auch regelmäßig Sport machst und so weiter.
Also dieses ganze Gesundheitsthema ist extrem punktuell bei uns Menschen derzeit noch.
KI könnte den riesigen Unterschied machen, dass es nicht punktuell ist, sondern konstant.
Na KI könnte dich jeden Tag von morgens bis abends begleiten, alle Daten, die möglich sind aufzunehmen, von deinen Bewegungen, von deinem Essen und so weiter, alles das aufnehmen und mit dem Wissen von jedem medizinischen Bereich analysieren und dann gucken, dass du richtig vorbereitet bist.
Und dann glaube ich auch ganz viele Krankheiten extrem früh entdeckt werden können, viel eher geheilt werden können.
Also nur der Punkt, das Beobachten und analysieren würde schon einen riesen Unterschied machen.
Und dann natürlich auf der anderen Seite, dass Menschen mit KI noch ganz neue medizinische Forschung machen können, noch mehr den Menschen verstehen können und natürlich auch neue Medikamente entwickeln können.
Und das ist ein Bereich, den finde ich mega spannend.
Jetzt, wie du meintest, mit der neuesten KI-Welle ist das nicht mehr irgendwann Utopie in einem Buch 23050, sondern das fühlt sich an wie in Jahrzehnten.
Das finde ich extrem spannend.
Ja, die Medizin, wenn du vielleicht in den Raum werfen könntest, okay, mit KI könnten wir Krebs heilen.
Dann wäre das ein so ein Punkt, den wir schon echt lange versuchen.
Und jetzt haben wir die Möglichkeit vielleicht dazu.
Und das, was aber das möglich macht, diese medizinischen Durchbrüche, mal abgesehen von der Diagnostik, was er in manchen Sachen jetzt schon besser kann, dass er besser diagnostizieren kann als eben ein großer Teil der Ärzte.
Dass die medizinischen Durchbrüche dann so gelingen, ist dann, wenn die KI gelernt hat, empirisch zu forschen.
Meiner Meinung nach.
Das heißt, wenn die KI verstanden hat, diese Konzepte gibt es in diesem wissenschaftlichen Fachbereich.
Und ich kann mich jetzt kreativ auf die Suche nachmachen, nach neuen Theorien.
Können diese irgendwie prüfen?
Können diese irgendwie bestätigen sogar noch?
Dann fast zu dem Punkt, wo wir so eine komplexe, so einen komplexen Sachverhalt haben, den wir vielleicht gar nicht mehr verstehen, den wir aber dann anwenden.
Also ich kann mir vorstellen, dass die KI also hergeht und sagt, ok, die Aufgabe habe ich jetzt Krebs zu heilen.
Da muss ich natürlich mir auf die Suche machen, wie funktioniert das alles, welche Arten gibt es, wieso ist er noch nicht geheilt worden, und dann muss er forschen.
Und wenn er dann forscht und forscht und forscht und dann die Lösung findet, dann kann es sein, dass wir die Lösung gar nicht verstehen.
Dass wir das gar nicht nachvollziehen können, wie die Lösung funktioniert oder erstmal, wie die KI auf diese Lösung gekommen ist.
Und dann glaube ich, ist es utopisch so, dass wir eine Transition machen von wir machen alles selbst für uns, zu die KI forscht für uns, baut für uns, macht für uns und wir sind nur noch die Enduser von unserem eigenen Leben.
Das hört sich irgendwie dystopisch an, aber genau das ist ja dann auch die Utopie.
Wir wollen das zwar unter Kontrolle haben, aber ich glaube, um bestimmte Probleme zu lösen, braucht es Lösungen, die wir vielleicht gar nicht verstehen.
Erstmal, erstmal, bevor wir das dann Schritt für Schritt nacharbeiten.
Ja, unbedingt.
Und wie du meinst, es klingt vielleicht für manche dystopisch, so diese Verantwortung und die Entscheidungsgewalt einer künstlichen Intelligenz zu überlassen, aber das ist eben auch eins dieser Anstöße, die zurzeit sind, dass man sagt, hey, wir versuchen eine KI-Entwicklung hinzukriegen, die wirklich mit unseren Zielen übereinstimmt.
Und wenn wir dahin kommen, dann finde ich das auch, wie du meinst, utopisch.
Es ist ja auch jetzt schon so, dass wir ganz viel Verantwortung in unserem Leben abgeben.
Ich kaufe ein Auto.
Ich könnte selbst niemals ein Auto bauen.
Ich verstehe auch nicht, was da alles drin funktioniert und wie Benzin dann am Ende dazu versorgt.
Also theoretisch ja, aber praktisch könnte ich das niemals tun.
Aber ich vertraue darauf, ich gebe die Verantwortung ab und fahre dann das Auto.
Auch ganz viel von dem Essen, was ich esse oder im Laden kaufe, könnte ich selbst nie anbauen, weil ich die Details nicht kenne.
Und genauso, wenn ich mir ein Schmerzmittel in der Apotheke hole, ich verstehe es nicht, wie das funktioniert.
Ich habe es nicht erforscht, aber ich nehme es.
Ich vertraue eben zu diesen Nächsten.
So haben wir viele Abstraktionen, viele Verantwortungsebenen in unserem Leben, wo wir gegenseitig eben zusammen funktionieren.
Das ist ja auch dieses tolle Ding an Gesellschaft, dass wir zusammen so viel schaffen, was ein Einzelmensch niemals schaffen würde.
Da gibt es auch manche Beispiele, wenn ich jetzt versuchen würde, mein Leben komplett alleine zu leben und einfach nur ein Käsebrot morgens zu machen.
Was ich alles machen müsste, damit am Ende ich ein Käsebrot vor mir habe und was ich lernen müsste und so weiter.
Es gibt auch ein paar YouTube-Menschen, die allein eine halbe Stunde zeigen, wie man einen Seil webt, dass du am Ende zehn Meter Seil hast.
Und da sind wir eben als Gesellschaft so weit gekommen, weil wir zusammenarbeiten.
Und deswegen glaube ich, dass das mit der KI, wenn wir es schaffen, dass die eben mit unseren Zielen übereinstimmt, und einfach nur noch mal ein weiteres Verantwort abgeben an ein etwas, was dann eben durch die Möglichkeiten, die es hat, dadurch, dass es eben unsere Intelligenz übersteigt, ganz andere Lösungen bringen kann.
Und da finde ich auch, dass es eine sehr utopische und schöne Vorstellung ist.
Ich habe jetzt gerade gedacht, dass wir irgendwie geschafft haben.
Wir sind ja oder Menschen generell sind individuell intelligent.
Dann gibt es ja die Schwarmintelligenzen wie bei Ameisen oder bei Bienen.
Und irgendwie haben wir uns glaube ich ein System aufgebaut, das Schwarmintelligenz nachstellen soll.
Das ist die Globalisierung.
Irgendwie wollen wir schaffen, dass wir eine Schwarmintelligenz haben und dass alles funktioniert in diesem Schwarm.
Wenn wir jetzt einfach mal die ganze Welt sehen und jeder Mensch auf dieser Welt.
Und jetzt ist es ja so, dass bei Bienen oder so, wenn Gefahr herrscht, dann schütten die Hormone aus oder die vibrieren irgendwie komisch mit den Flügeln und schon weiß der ganze Bienenstock, ok, da ist Gefahr, jeder schwirrt dorthin und versucht die Gefahr zu beseitigen.
Wir haben jetzt so ein bisschen das Framework geschaffen, dass wir auch ganz schnell kommunizieren können über das Internet global.
Wir schaffen es vielleicht noch nicht ganz, dass wir wirklich das ernst nehmen, was andere kommunizieren und schaffen es vielleicht auch nicht gleich zu handeln als Schwarm.
Und ich glaube, dass das dann die AI übernehmen würde.
Also, du hast die Probleme im Keim ersticken.
Du merkst, es kommt ein neuer Virus und die AI tafft es, dadurch, dass sie den komplett Überblick hat, diesen Virus vielleicht schon im Keim zu ersticken, ohne dass es sich verbreitet.
Diese Schwarm-Intelligenz-Ulter ist Gefahr.
Hier auf diesem Punkt auf der Erde ist Gefahr.
Macht alles, dass diese Gefahr beseitigt wird.
Wie bei den Bienen.
Ja, genau.
Es gibt auch diese Forschungsfelder, die sich Collective Intelligence nennen.
Also, wo eben geguckt wird, was passiert, wenn viele Entitäten, unabhängig von Menschen, Tiere oder auch Computer zusammenkommen, welche Intelligenz da entsteht und wie kann die optimal sein oder wie kann die gebrochen werden und so weiter.
Ja, genau.
Und ich sehe auch da große Potenziale, auch wie wir letztes Mal, glaube ich, meinten, mit Logistik, wo die KI ganz viel helfen kann, unterstützen kann, automatisieren kann.
Ich glaube, das ist auch was dieses Minds macht in der Culture, was ich vorher erwähnt habe.
Ja, und da braucht es aber gleichzeitig ganz viel Vertrauen von uns Menschen in diese KI.
Und das ist auch wieder dieser Punkt, dass wir es eben als Multiplikatur sehen und nicht als Feind oder Freund, weil ansonsten sehen wir das eben nur in Extrem und machen da nichts.
Ein anderer Bereich, den ich mega spannend finde, ist Bildung.
Also neben Gesundheit, Bildung.
Das ist auch ein Punkt, wo ich ganz viel Potenzial bei der Künstlichen Intelligenz sehe.
Und dabei meine ich nicht nur die Kinder, die in die Grundschule weiterführen in die Schule gehen und dann vielleicht noch ein Studio machen, sondern lebenslanges Lernen.
Also wirklich eine KI, die dich immer begleitet.
Die komplett individuell auf dich eingeht, die kennt deine Stärken, deine Schwächen, weiß, wo du gerade noch einen Holperstein hast und dann kann sie dir wirklich da aushelfen und hat unendlich Geduld, um das dir näher zu bringen.
Und eben unabhängig von den...
Also wir als Menschen haben einfach so viele Limitationen, wodurch unser Schulsystem eben so und so aussieht.
Ein Lehrer oder Lehrerin steht vor 30 Kindern, kann eben nicht auf jeden einzelnen eingehen, sondern vielleicht hier 5 Minuten, da 5 Minuten, kriegt von dem Kind nicht viel mit und so weiter.
Oder dieses Kind interessiert sich in dem Jahr einfach null für das und das auf ein anderes Thema total.
Eine KI könnte voll darauf eingehen und sagen, okay, das andere Thema mit mit Geschichte und so lernen wir nächstes Jahr.
Und das wirklich fließende Übergänge machen.
Und da sehe ich riesige Möglichkeiten.
Und auch eben spät im Leben, wenn du sagst, hey, das interessiert mich jetzt nicht mehr.
Ich würde gerne mehr in die Richtung gehen.
Das ist auch irgendwie ein Jobwechsel oder so.
Was ist nicht so ein riesen Ding, wo du dann jetzt eine Weiterbildung machst oder so was.
Das ist einfach so fließende Übergänge, wo die KI dich mitnehmen und komplett auf dich eingeht.
Und das ist auch der Punkt.
Das ist keine Sache von Fiction.
Das ist etwas, was wir nächsten Jahr wahrscheinlich schon sehen werden in den Ansätzen und in zwei Jahrzehnten wahrscheinlich einfach Alltag ist.
Das Leben mit der KI als persönlicher Assistent, als Technologie, die Arbeit abnimmt, die du gar nicht machen willst vielleicht, die dich unterstützt und die dich auch gesund hält, weil sie vielleicht alle Probleme lösen könnte, die der Körper hat, die die Welt hat.
Genau, also das ist die Utopie dahinter, dass auch 3D-Druck noch in der Zukunft ein Riesending wird, weil wir zukünftig Sachen wie Kleidung drucken können und so was.
Und die KI kann dir das designen.
Du sagst, ok, ich will dieses Kleidungsstück oder es soll so funktional sein.
Und dann druckt dir das Designs dir maßgeschneidert und druckt dir das aus.
Und das ist die Utopie dahinter.
Dass wir selbst entscheiden können, was wir machen.
Dass wir uns so weiterbilden können, wie wir das wollen.
Viele befürchten ja, dass wenn die KI, oder falls die KI, jeglichen Job irgendwie eliminiert, dass der Mensch dann nichts zu tun hat.
Aber ich glaube nicht, dass der Mensch zum Arbeiten gebaut worden ist.
Also im Grunde sind wir natürlich diese Jäger und Sammler und strauchen durch die Natur.
Vielleicht machen wir das dann wieder.
Jetzt nicht jagen oder sammeln, aber wir strauchen wieder durch die Natur und sind kreativ und sind vielleicht ausgeglichen bis zum geht nicht mehr und haben nicht diesen Stress, den wir jetzt durch soziale Medien und den ganzen anderen Zeugs haben.
Vielleicht ist das die Utopie der KI.
Ja, da stimme ich dir komplett zu.
In unserer Gesellschaft kann man schnell reinrutschen in du bist deine Arbeit und Arbeit ist halt das Leben.
Aber wenn man einen Schritt zurück macht, merkt man, Arbeit ist Notwendigkeit in vielen Bereichen.
Es gibt viele Menschen, die Glück haben und einen Job haben, den sie lieben, wo sie was machen, was sie erfüllt und das richtig toll ist.
Aber gleichzeitig gibt es viele Menschen, die einfach unglücklich sind, die die Arbeit machen, die sie nicht mögen, die sie nicht erfüllt, die vielleicht auch nicht den Beitrag zur Gesellschaft bringen, den sie sich wünschen, den sie gerne machen würden.
Es gibt Menschen, ich kenne Menschen in meinem Namen ungefähr, die würden gerne einfach den ganzen Tag ältere Menschen pflegen.
Die würden sich gerne kümmern um andere Menschen.
Aber das wird so wenig bezahlt, dass sie dann stattdessen einen Job nehmen.
Ich hatte früher auch immer den Traum, Erzieher zu werden.
Gleichzeitig mich Technologie total interessiert und dann auch praktischen Gründen ist es auch einfach so, dass ich da im Moment zu wenig verdienen würde für eine vielköpfige Familie.
Und mit einem Technologiejob kann ich da eben auch momentan mehr verdienen.
Interessanterweise hatte ich auch so ein anderes Ziel.
Also ich wäre gern Tierpfleger geworden.
Das wäre so mein absoluter, ich glaube immer noch Wunschberuf.
Ich glaube, wenn ich jetzt finanziell unabhängig wäre, dann würde ich mir so ein kleines Tierheim basteln, auch zu Hause.
Oder ich würde irgendwie vielleicht irgendwie was mit Tieren machen.
Aber auch wie du gesagt hast, meine Perspektiven waren da nicht gegeben.
Und mit Technologie habe ich mich auch interessiert.
Und dann gehst du in diese Schiene.
Und auch Gott sei Dank hatte man dann doch die Möglichkeit, noch was anderes zu machen, was dich genauso interessiert.
Vielleicht nicht genauso, aber doch so.
Ja, jetzt sind wir hier und sprechen über KI.
Genau.
Aber ich möchte es nicht wegreden.
Wir haben gerade die zwei Extreme gehabt.
Oder diese extreme Utopie.
Und dann, was macht man eigentlich?
Oh, keinen Job mehr hat.
Da braucht man gar keinen Job mehr.
Und wenn die KI so einfach dieses Grundding erledigt alles und das so super stabil ist, dann kann das wirklich funktionieren, dass eben Menschen, da bin ich total sicher, da habe ich auch gestern ein Buch entdeckt, das können wir gerne in die Show Notes packen, wo es genau darum geht, was machen Menschen, wenn die komplette Utopie erreicht ist?
Und da werden wir eben andere erfüllende Kommunikation zusammen sein, Kreativität, wie du meinst und so weiter erreichen.
Aber es wird definitiv eine Übergangszeit geben.
Und die kann vielleicht in manchen Stellen auch wirklich hässlich sein.
Die kann schmerzhaft sein.
Ja, denn ich meine, es gibt eine Übergangsphase, da ist noch nicht die KI, die alles übernimmt, aber trotzdem verlieren Menschen ihren Job.
Und das ist real und das passiert auch.
Und da können wir auch später darauf eingehen, wie man da vielleicht darauf eingehen kann, wie man da sich vielleicht vorbereiten kann.
Aber erstmal lass uns richtig dark werden und über Dystopie reden.
Ich bin kreativ geworden und habe mir ein bisschen Gedanken gemacht, was könnte dann richtig Schlimmes passieren?
Ich habe auch ein bisschen recherchiert.
Was ist denn so deine größte Dystopie Idee oder Sorge vielleicht sogar?
Ich habe da zwei.
Zum einen das menschliche Versagen generell in der Entwicklung der KI und zum anderen diese Superintelligenz, falls die KI Bewusstsein bekommt und eigene Intentionen verfolgt.
Das sind so meine beiden größten.
Also das mit dem, dass die KI bewusst wird, das ist jetzt vielleicht noch ein bisschen weit weg.
Das kann passieren, darüber muss man sprechen und man muss auch ein bisschen gucken, was ist denn wirklich menschlich und was ist wirklich menschlich?
Kann die KI vielleicht Gefühle empfinden?
Wenn ja, wie wir diese Gefühle vielleicht einsetzen?
Also ganz theoretisch, philosophisch.
Weiter sind wir vielleicht noch nicht.
Oder haben wir jetzt erst die Ansätze?
Das ist ein bisschen weit weg.
Aber dieses menschliche Versagen, das haben wir immer.
Und das ist immer hier und es wird auch immer hier bleiben, weil der Mensch nicht perfekt ist.
Und dieses menschliche Versagen in der Entwicklung der KI, da finde ich, da gibt es dann verschiedene Äste, die wir durchgehen können.
Wie zum Beispiel, also wie eine dystopische Gesellschaft dann geformt werden kann.
Sei es durch, du gibst der KI eine Aufgabe, ein Problem zu lösen.
Und es bringt alle Menschen um, weil Menschen die Ursache aller Probleme sind.
Im Endeffekt.
Außer es ist irgendwie so Meteor oder so.
Oder du oder eine böse Entity, also eine kriminelle Organisation oder ein Land wie China oder so, die schaffen es, eine KI zu erstellen, um Menschen zu versklärfen oder sie zu 100% zu kontrollieren.
Das ist auch so das menschliche Versagen für dich.
Das ist am relevantesten und am aktuellsten.
Wie sieht das bei dir aus?
Ja, also im Versagen meinst du eben, dass das Negative multipliziert wird, dass schlechte Intentionen dann wirklich nochmal vervielfacht werden und das ganz schlimme Effekt haben.
Das war auch mein zweiter Punkt, Überwachungsstaat.
Also ganz konkret eben ein Staat wie Nordkorea oder China, die ja eher sehr überwachend arbeiten, mit KI das ins Extrem treiben können.
Und das sehe ich auch als große Gefahr und auch Dystopie für die Menschen, die dann in diesem Staat leben.
Und das Gefährliche, was ich daran vor allem sehe, ist es sehr, sehr subtil.
Noch viel subtiler als es vielleicht jetzt schon vorgeht.
Aber Verhaltenskontrolle, Analyse von deinem Verhalten und dann auch vorhersehen, was du als nächstes machst und dich dann nicht nur in einem Moment vielleicht zu manipulieren, sondern über Jahre hinweg ganz subtil in eine Richtung zu lenken.
Da kann es ja auch in die Richtung gehen, dass zum Beispiel eine Person Kontakt hat mit einem Freundeskreis und einer Community online und sich super unterhält.
Diese ganze Community und diese Freunde online sind komplett KI.
Und die dich aber über Jahre hinweg manipulieren in eine Richtung, die dieser Staat möchte.
Und das ist etwas, was ich ganz dystopisch finde und gleichzeitig eben leider auch Realität ist in unserer Welt im Moment und auch zeigen kann, dass es passiert.
Umso besser, wie wir uns ja selbst verstehen, weil im AI-Dilemma in dem Video war es ja auch so, dass oder Meta hat ja das geschafft, dass Gehirnströme ausgelesen werden können und das KI Bilder erstellt von dem, was du denkst.
Das heißt, Gedanken lesen.
Umso mehr, dass wir verstehen, wie wir funktionieren, sei es Gehirn oder auch die ganze Biologie unseres Körpers, umso mehr, glaube ich, ist auch das Potenzial da, dies zu manipulieren.
Das heißt, wenn die KI zu 100% versteht, wie wir als Mensch ticken, dann wäre das so, dass wir wissen, wie eine Ameise tickt.
Und dann könnte es uns zu 100% sehr subtil mit tausenden von Eindrücken dahin lenken, wo sie uns haben will.
Das, was du jetzt gerade meintest.
Ein weiterer sehr großer Aspekt ist, wir haben ja nicht nur diesen kapitalistischen Run of AI, wir haben ja auch diesen politischen Run of AI.
Denn der erste, das erste Land, der erste Vereinigung von Ländern, die es schafft, militärische KI, eine militärische KI zu bauen, der hat gewonnen.
Der könnte die ganze Welt auf schnellste Art und Weise wahrscheinlich einnehmen, wenn das so eine AGI ist, die militärisch einfach alles kann.
Und deswegen ist es so, so, so, so brisant, auch politisch.
Und China will's und USA will's und jeder will's irgendwie für sich, dass er dann am besten natürlich da steht am Ende.
Und es ist auch so, dass Sam Altman, der CEO von OpenEye, als der einen Deutschlandbesuch hatte, da hat er an der TU München gesprochen.
Bevor er an der TU angekommen ist, hatte er noch 15 Minuten ein Gespräch mit Olaf Scholz, mit dem Bundeskanzler.
Das heißt, da kommt ein Mann, das ist ein CEO von so einem Startup aus Amerika und spricht in Deutschland.
Und der Bundeskanzler höchstpersönlich hat ihn geladen.
Das ist aussagekräftig, wie politisch relevant das ist.
Ja, ich habe ein paar Überlegungen.
Vorhin meintest du noch, wegen dem Überwachungsstart, da wollte ich noch kurz sagen, wo du meintest, die KI will.
Das ist nochmal so eine Feindüberlegung.
Aber gleichzeitig muss es ja nicht um eine KI, die das will, sondern eine KI, die programmiert ist, das zu tun, von Menschen an der Spitze.
Und das ist auch noch so ein ganz großes Thema mit dem Machtungleichgewicht.
Wir haben ja jetzt schon eine Schere, die weit auseinandergeht und die könnte durch KI noch weiter auseinandergehen.
Bei denjenigen, die Zugriff und Kontrolle über die Technologie haben, deutlich mehr Macht bekommen können, als Menschen, die nicht Zugriff drauf haben.
Und wir haben ja auch jetzt schon eine Welt, in der wir reden gerade online, es passiert viel online, und die KI und so weiter, es gibt Menschen auf dieser Welt, die haben noch nie einen Computer gesehen, die sind nicht online.
Ein großer Teil der Menschheit ist noch nicht online.
Und diese Menschen sind da noch mal weit hinterher und die werden natürlich mit KI noch mal weiter hinterher hängen.
Und da hab ich auch große Sorge eben vor, eine Machtungleichheit, das passieren kann.
Und wie du auch gerade meintest, Militär ist auch ein riesen Thema.
Militär plus KI, das ist erschreckend.
Und da braucht es auch etwas, wie wir vor, nicht wir, aber die Menschheit vor vielen Jahren es geschafft hat, mit Atommachen, Waffen einigermaßen vernünftig umzugehen.
Viele Länder sich abgestimmt haben und Unglaubliches erreicht haben, dass wir uns nicht gegenseitig kaputtbomben, müssten wir auch eben mit der KI hinbekommen.
Jetzt stell dir mal vor, du bist Russland oder China.
Ich möchte jetzt nicht so auf einen Haufen schweißen, das Ganze.
Aber stell dir vor, du bist auf deren Seite.
Und du siehst, dass zum Beispiel USA, eine AGI oder OpenAI oder eine Firma in USA eine AGI hinbekommen hat, die sich selbst improved und binnen Stunden, Wochen Intelligenz erreicht und alles machen kann, was irgendwie möglich ist.
Wie handelst du?
Du weißt, die könnten uns jetzt wahrscheinlich binnen Wochen, Monaten irgendwie überlaufen.
Die könnten uns mit ihrer AI, die können alles hacken von uns.
Die können uns zu 100% kontrollieren, weil die eine super intelligente Maschine haben.
Was machst du?
Greifst du nicht vielleicht zum roten Knopf?
Ja, das ist definitiv eine große Dystopie.
Diese Angst, oh nein, die anderen haben viel mehr Macht als wir.
Wir müssen uns rechtzeitig wehren, bevor sie diese Macht ausüben.
Dieser typische Wettkampf um eben, wer hat mehr Macht, wer hat mehr Kontrolle allein auf militärischer Ebene.
Oder politischer Ebene.
Ich lass mir da nix aufdrücken.
Der eigene Stolz, der sowohl im Westen als auch im Osten, jeder meint, dass sein Weg der bessere ist.
Dass er auch menschlich ist.
Aber das führt zu diesem Konflikt.
Und keiner von den Atommächten würde sich unterjochen lassen, einfach so von den Gegnern.
Deswegen ist das für mich schon ein sehr realistisches, dystopisches Szenario.
Das wir aber hinbekommen können, wenn wir kommunizieren, wenn wir als Gesellschaft sagen, hey, vielleicht ein bisschen langsam machen.
Na gut, wenn wir sagen langsam machen, dann heißt das nicht, dass die nicht im Hinterkästchen natürlich was brauen.
Ich weiß nicht, was wir dagegen machen können.
Ich glaube, wir können nichts dagegen machen.
Weil China forscht dran im Keller und USA forscht dran im Keller.
Ich weiß nicht, ich glaube, wir können nichts dagegen machen.
Ja, also ich glaube auch nicht, dass wir solche Mächte irgendwie ihnen helfen können zu verstehen, dass das nicht sinnvoll ist und so weiter.
Ich glaube, das wird passieren.
Es ist ja auch im Gespräch gerade.
Große Firmen, die KI entwickeln, die können das noch einigermaßen regulierend machen.
Aber dann gibt es noch Open Source, was ich gerade auch schade finde, weil Open Source nur so ein bisschen in eine böse Ecke gesteckt wird, als wäre das was Schlimmes, weil ganz viele drauf Zugriff haben.
Und ich kann auch verstehen, dass viele Angst haben, dadurch, dass KI dezentralisiert wird, einem die Kontrolle aus den Händen fließt.
Das wäre bestimmt mal auch ein Thema für eine zukünfte Folge.
Open Source, AI und eben der Umgang damit.
Aber ich glaube auch, diese Staaten haben ja auch einen Wunsch der Selbstexistenzerhaltung.
Und das ist auch das, was eben passiert, eben dass bisher noch nie ein Land ein anderes so heftig angegriffen hat, weil eben die Sorge ist, dass da dann was zurückkommt.
Deswegen glaube ich, dass wir da schon eine Stabilität haben.
Meine Hoffnung ist, dass wir in dieser Übergangsphase durch KI mehr Verständnis füreinander haben.
Ich sehe das auch bei jüngeren Generationen, die deutlich weltoffener und weniger mit gedanklichen Schranken herumlaufen.
Und wenn KI da nochmal in dem Fall ein Multiplikatus, ich weiß, wir sind gerade bei Dystopie, aber weil wir eben das so tief gerade haben, würde ich gerne noch ein bisschen hochheben im Sinne von KI könnte uns helfen, uns noch mehr gegenseitig zu verstehen, Verständnis füreinander zu haben.
Und dann schaffen wir es aus diesem Tal heraus und nicht abzustürzen.
Ja, ich glaube auch.
Dass wir nichts machen können, das stimmt nicht.
Wir können immer was machen.
Und ich glaube auch, vielleicht liegt der Schlüssel daran, dass wir als gemeines Volk uns mit diesen anderen gemeinen Völkern irgendwie interconnecten, dass wir uns mit denen austauschen, dass wir realisieren, das sind auch nur Menschen, die genauso sind wie wir, nur halt in einem anderen Land.
Und dass keiner will, dass keiner irgendwie will, dass irgendwie Krieg ist oder Dystopie ist.
Es will keiner.
Und die einzige Gruppe an Menschen, die ein totalitäres System stürzen kann, ist die eigene Bevölkerung.
Und auf das müssten wir wahrscheinlich erarbeiten, dass wir Gefahren ausmerzen oder dass die Bevölkerung an sich aufsteht.
Und da hab ich auch ein paar Punkte, die ich jetzt am letzten Themenpunkt gerne mit dem, wir wollen über den gesunden Umgang darüber sprechen.
Was kann man da eben tun?
Bevor wir da reingehen, würde ich gerne noch einen für dieses Jahr extrem wichtigen Punkt in Richtung Dystopie ansprechen, ist Wahlen.
Das ist auch ein Thema, wo viele jetzt Sorge haben von Fake News, Missinformationen, was ist, wenn auf einmal so viel per KI und sehr realistisch generierte Bilder von den PolitikerInnen in der Welt rumschwirren, dass du am Ende nichts mehr glaubst, was ist, auch wenn es tatsächlich, du siehst gerade ein echtes Video von einem Politiker und du hast einfach kein Vertrauen, dass das der echte ist, weil du hast schon so viel aus TikTok und Facebook und Instagram und sonst wo gesehen, dass du einfach nur, dass du einen Vertrauensverlust so weit hast, dass wirklich wir Probleme haben bei Wahlen.
Und das ist so das Nahe für dieses Jahr.
Aber es gibt eben auch die Überlegung, was ich gerade auch meine mit dem Überwachungsstaat.
Es kann sein, dass Menschen überlegen, hey, ich möchte gerne in sechs Jahren gewählt werden.
Jetzt baue ich eine KI, die sechs Jahre Menschen manipuliert, subtil, Freundschaften aufbaut.
Also ich meine, es gibt jetzt schon KI, die unglaubliche Leute sagen, oh, ich rede jeden Tag mit der KI und das ist mein Freund oder ich habe mich verliebt in diese KI, weil das einfach geht so auf mich ein, ist so empathisch und das ist ja auch unglaublich.
Aber was ist, wenn der KI nicht das Ziel hat, dein bester Freund zu sein, sondern die KI hat das Ziel dich zu manipulieren und das ist eben jetzt schon möglich, aber eben auf einer kleinen Ebene.
Du kannst nicht als Politiker sagen, ich bezahle jetzt 100.000 Menschen, die andere 100.000 Menschen jeden Tag manipulieren in der Richtung.
Das ist nicht möglich.
Du könntest aber genug KI-Agents aufsetzen, die ganz viele Menschen über Jahre hinweg in eine Richtung lenken, die positiv ist für dich.
Und das sind so zwei Sachen, die ich auch in Richtung Dystopie sehe.
Definitiv.
Und das hängt ja ganz viel mit diesem Social Dilemma auch zusammen.
Dieser Vergleich auch von dem AI Dilemma.
Die globale Kommunikation läuft über Social Media.
Und wenn du es schaffst, die globale Kommunikation oder auch die nationale Kommunikation irgendwie zu torpedieren, irgendwie zu beeinflussen.
Und das auch noch High Quality.
Du kannst es so machen, dass das automatisch generiert wird, aber es ist nicht erkennbar, ob das real ist oder von der KI gemacht ist.
Du könntest dir einen politischen Influencer basteln, der auf Twitter nicht 100.000 Follower bekommt, weil er generierte Sachen tweetet.
Auf politische Art und Weise, nicht irgendwelche Memes, nicht irgendwie was anderes, sondern wirklich politisch.
Und das ist jetzt an der Mache.
Es ist nicht so, dass das kommen könnte, das kommt jetzt.
Oder ein Influencer online, oder durch das Globale und das Internet haben wir auch Freundschaften, Beziehungen, Kontakte, die erst mal nur digital stattfinden.
Ich bin aufgewachsen mit dem Internet.
Und ich hatte viele Freundschaften.
Da habe ich jahrelang nur digital kommuniziert.
Das war so das naive Internet, wo man noch wirklich glauben konnte, was da passiert.
Und dann irgendwann Jahre später haben wir uns mal getroffen.
Aber weil der Abstand so weit ist, hat man sich alle zwei, drei Jahre mal getroffen.
Und das ist heute ja noch extremer.
Und wenn ich dann einen Online-Freundeskreis habe, der aber an sich tatsächlich aus KI besteht, gleiche, was ich vorher meinte, aber nicht mit dem Ziel, dich zu überwachen und die Staatinteressen zu verfolgen, sondern tatsächlich so ein bisschen deine Meinung stetig in eine Richtung zu lenken, dass du am Ende die Person wählst statt die andere oder in diese extreme Gruppe und deren Welt an sich vertrittst anstatt eine andere.
Und das sehe ich auch als große Gefahr.
Da kann man gerne auch direkt in mögliche Lösungen und wie kann man da drüber nachdenken gehen.
Ich denke, nach dem allem, was wir gesagt haben, ist ein riesiger Punkt auf jeden Fall die Bildung oder das Wissen um die Möglichkeiten von KI.
Wie du ganz am Anfang meintest, nicht nur die Menschen, die dran arbeiten, sondern die komplette Gesellschaft von den Kindern, die gerade in die Grundschule gehen, bis zu den Menschen, die jetzt im Altersheim sitzen, aber trotzdem Fernsehen und Internet Zugang haben.
Und diese komplette Gesellschaftsschichten müssten informiert werden, sobald wie möglich, was KI kann.
In dem Moment, wo du weißt, eine KI kann im Moment Sprache und Bild usw.
generieren.
Und im Moment kann man es auch manchmal noch erkennen, was denn fake ist oder was nicht.
Und wenn die meisten Menschen da gebildet sind, ist schon mal viel geworden.
Das wäre so ein perfekter Übergang zu einem Sponsor, wenn wir einen hätten.
Der heutige Sponsor ist Die KI Show.
Ich finde auch Bildung ist die Essenz.
Das Problem ist halt, dass wir es sogar versäumt haben, Web 2 Digitalisierung zu bilden.
Wir haben es versäumt, dass wir den Kindern schon mitgeben, was kannst du glauben im Internet, was darfst du niemals tun im Internet, sondern wir haben sie frei drauf losgelassen.
Oder wir wurden auch frei drauf losgelassen, sagen wir es mal so.
Weil sie ja dann noch ein bisschen älter war und sentimentärer.
Und das haben wir versäumt.
Ich versuch das irgendwie auch immer den Kids mitzugeben.
Hey, das kannst du machen, das kannst du nicht machen.
Pass da auf, pass da auf.
Aber im Endeffekt operieren die wie so ein kleiner Roboter am Handy.
Und du kannst natürlich nicht alles kontrollieren, was die machen.
Und die glauben dann, die haben Idole.
Und diese Idole, die glauben dann das Gleiche wie diese Idole.
Die haben einen ganzen Feed von Influencern, denen sie irgendwie Vertrauen schenken und glauben.
Und das wird aber immer noch nicht irgendwie gelehrt an der Schule.
Das heißt, diesen ersten Step, den wir machen müssen, bevor wir überhaupt die AI verstehen können und lernen können, was die alles kann und welche Gefahren auf uns zukommt, den haben wir noch gar nicht geschafft.
Ja, für dieses Technologieverständnis, was wir jetzt bei dieser rasanten Entwicklung der KI brauchen, ist schwierig mitzuteilen, wie du meintest, in so einer Gesellschaft, die gerade völlig enttangelt verwebt ist in dieses Social Media und Co-Problem.
Das ist auch im AI-Dilemma, was sie sagen.
Da sind wir schon so tief drin und es ist so vernetzt in unsere Gesellschaft, dass es schwierig ist, das noch zu lösen.
Mit KI stehen wir jetzt noch vor der Vernetzung.
Die KI ist noch nicht so tief drin in der Gesellschaft und jetzt müssen wir rechtzeitig reagieren.
Aber wie du meintest, das ist nicht leicht.
Nachrichtenportalen, die sehr laut und extrem Freund-Feind-Bilder produzieren, damit du ihn zuhörst, damit du am Ende ihre Werbung guckst.
Oder Influencer, die das Ziel haben, ihre Follower-Anzahl zu erhöhen, anstatt das Ziel haben, was Positives in der Gesellschaft und in ihrer Community zu bewirken.
Wir haben auf jeden Fall einen Handicap, mit dem wir hier arbeiten.
Vielleicht können wir die KI nutzen, um uns eher zu helfen, dieses Technologieverständnis früher hinzukriegen, als wir es ohne hinzubekommen.
Ich bin ja schon ein bisschen so ein Fan von Generationswissenschaften oder sich eine Generation angucken und welche Attribute diese Generation hat.
Das ist natürlich alles ein bisschen Quatsch, weil alle Menschen sind individuell.
Es geht ja mehr darum, wie die Welt ausgesehen hat zu dem Zeitpunkt, wo du geboren bist, anstatt wie du bist, weil die anderen auch so sind oder weil du da geboren worden bist.
Aber es ist halt so, dass jegliche Generation dieses Problem hat, sich beeinflussen zu lassen.
Das ist keine Krankheit der Kinder, wo man jetzt sagt, die hängen den ganzen Tag vor TikTok und die werden manipuliert und beeinflusst.
Es ist so, dass die Plattformen, wahrscheinlich Facebook und X, die Plattformen, wo die ältesten User auch drauf sind, dass dort am meisten manipuliert wird, dass dort am meisten geguckt wird, wir können unsere politischen Interessen da durchsetzen.
Wie können wir die Menschen aufpusten?
Wie können wir polarisieren?
Deswegen, wie vorhin gesagt, es ist ein ganzheitliches Problem.
Wir müssen die komplette Gesellschaft holen.
Definitiv.
Und das fände ich auch schön, wenn wir das in diesem Podcast immer mal wesentlich hinbekommen würden, so ein paar Perspektiven und Wissen um die KI, was im Moment möglich ist und was in Zukunft möglich ist und wie man sich darauf gut vorbereiten, dass wir das immer mal wieder machen.
Alle, die zuhören, ich denke, wenn man sich gut mit KI beschäftigt, und das werden wahrscheinlich die meisten sein, die einen KI Podcast hören, können sich ja auf die Pane schreiben, in ihrer nahen Umgebung, Familie, Freunde, Community, vielleicht auch mal bei der VRS einen Vortrag machen und so weiter, einfach so grassroots-mäßig der nahen Umgebung helfen, KI zu verstehen.
Wie kann man damit umgehen?
Was sind gerade die Möglichkeiten, dass eben die Menschen sensibilisiert werden?
Ich glaube, das ist der erste wichtige Schritt, den wir brauchen.
Ich habe noch ein paar Überlegungen zu jeder einzelnen Person.
Was kann man denn so überlegen, was man für sich selbst oder wenn man Kinder hat, den Kindern mitgeben?
Und ich denke, ein wichtiger Punkt ist auf jeden Fall emotionale Intelligenz.
Dass man sich damit beschäftigt, dass man sich da einfach stärkt.
In der Zukunft werden wir wahrscheinlich vor allem mehr lenken, statt selbst machen.
Statt den Blogpost selbst zu schreiben, kooperiere ich mit einer KI und schreibe den Blogpost.
Oder mach den anderen Job oder das und das.
Also viele Jobs werden wir erstmal nicht ersetzt, aber wir gehen eine Ebene zurück, wo wir eher kontrollieren und kooperieren mit einer KI.
Und wenn man diese Perspektive hat, kann man sich auch darauf vorbereiten und überlegen, hey, ich schaue mir mal die aktuelle KI an und experimentiere ein bisschen damit.
Wie kann ich denn ChatGPD ein bisschen Texte generieren, mal eine E-Mail generieren oder sowas.
Also erst mal einfach in diese Gewohnheit kommt, diese Perspektive, dieses Mindset.
Das KI wird mich nicht ersetzen, aber ich werde mit der KI kooperieren und produktiv sein.
Definitiv, ja.
Das ist dann Teil der Schulung, dass wir eben damit lernen, mit der KI zu arbeiten.
Weil es lässt dich ja sowieso auch nicht mehr aufhalten.
Wenn du am Ball bleiben möchtest, dann musst du dich zwangsweise damit beschäftigen.
Jeder Beruf wird in den nächsten Jahren spezielle Programme bekommen, die ein bisschen KI-gestützt ist.
Die vielleicht viel KI-gestützt ist, vielleicht ein bisschen weniger manchmal.
Aber jeder muss irgendwie lernen, damit umzugehen und diese für sich und für seine Interessen und für seinen Beruf zu nutzen.
Also ich glaube, dass es nicht reicht, dass du auf Chat-GPT gehst und dann lässt du dir eine E-Mail raus und dann sagst du, ja, geiles Tool, das kann ich für E-Mails hernehmen.
Sondern du solltest, glaube ich, immer gucken, was kann das alles für dich machen.
Jetzt schon.
Wahrscheinlich nicht viel.
Wahrscheinlich kannst du dein Leben nicht ersetzen.
Aber was kann es für kleine, mini Teilbereiche in deines Lebens, kann es dir dann helfen, wie beim Brainstormen.
Du hast eine Idee, du gibst es der KI.
Du sprichst mit ihr drüber.
Ja, stimme ich total zu.
Das habe ich auch bei mir selber bemerkt.
Am Anfang, als ich KI Tools und auch Chat-GPT verwendet habe, war das erst mal so ein sehr einfaches Denken, was ich einfach bei anderen beobachte habe.
Kommt da ein Text zurück oder so was?
Aber je mehr man sich damit beschäftigt, je mehr merkt man, was alles möglich ist.
Einfach für das eigene Leben, für meinen Beruf, für privat und so weiter.
Und das kann man alles eben erst entdecken, wenn man sich damit beschäftigt und experimentiert.
Deswegen würde ich auf jeden Fall die Leute motivieren.
Probiert es aus, auch im Beruf, GeschäftsführerInnen, gebt euren MitarbeiterInnen Tools, Zugriff, dass sie experimentieren, dass sie schauen, wie können sie ihren konkreten Beruf, ihre Tasks, die sie jeden Tag haben, teilweise automatisieren können, teilweise in Kooperation mit KI.
Und was bleibt denn eigentlich noch übrig, was im Moment einfach nur der Mensch kann?
Also ich glaube, das ist ganz wichtig, da reinzuspringen, mutig zu experimentieren und da Sachen rauszufinden.
Ich finde auch, sowohl du als ich, wir haben ja irgendwie Verantwortung, dass wir kleine Menschen sicher zu großen Menschen machen, die in der Gesellschaft klarkommen.
Wir haben beide die Herausforderung.
Und dann stellt sich natürlich so, wenn du diese Herausforderung hast, die Frage, wie bereitest du die Kinder darauf vor?
Wenn du dir selber denkst, ok, in 20 Jahren gibt es vielleicht keine normalen Berufe mehr, wie willst du deinen Kinder darauf vorbereiten?
Dann ist es, glaube ich, wie du gesagt hast, dann gehen wir eher ein bisschen auf die menschliche Schiene.
Und Digitalisierung.
So, wär nicht alles, was im Internet steht, leg dein Handy weg, lass uns sprechen, lass uns über Gefühle sprechen, lass uns über das sprechen, was uns ausmacht.
Gehen wir raus in die Natur, gehen wir in den Wald, machen uns ein schönes Wochenende.
Attention mit den Kids und denen einfach die menschlichen Seiten immer noch näher bringen.
Und halt dann natürlich die digitale Aufklärung, die nicht genau so wichtig ist, aber immer relevanter wird.
Deswegen Bildungsinstitutionen, Eltern aller Welt bringt den Kindern bei, wie sie sich im Internet zu verhalten haben, wie im Internet agiert wird und welche Gefahren im Internet herrschen.
Ja, und auch eben im Zusammenhang, welche Möglichkeiten hat KI?
Wie kann ich das erkennen?
Wie kann ich das für mich selber nutzen?
Und auch kritisches Denken, wie kann ich das hinterfragen?
Nicht alles glauben, was irgendwo steht, sondern wirklich selbst nochmal denken.
Wenn ich was lese, vielleicht mal selber recherchieren und dann auch erfahren, was sind denn eben vertrauensvolle Quellen?
Was sind weniger vertrauensvolle Quellen?
Und so tatsächlich selbst einfach auch einen Gegencheck machen.
Hey, ist das jetzt Fake oder ist das Fakten?
Und wenn man das eben hinbekommt als Mindset, eben auch den Kindern mitzugeben, ist das glaube ich unglaublich wertvoll.
Sowieso für unseren Alltag, aber auch eben für die Zukunft.
Und eben auch stärken die Fähigkeit, Probleme zu lösen, für die keine klaren Lösungen da sind.
Da ist ja oft dieses Beispiel von einem Lego, das früher hast du eine Box gekauft, das war einfach ein bunter Mischmasch, und da hast du irgendwas gebaut.
Da war die Herausforderung halt, was baust du?
Es gibt viele Möglichkeiten, was daraus zu machen, aber es gibt auch viele Möglichkeiten, dass nichts daraus wird.
Und mit diesem Kontrast, mit diesem Gefühl umzugehen, ist unglaublich wichtig für Problemlösungen.
Und heute kaufst du vor allem ein Lego Set, das ein klares Ziel hat.
Da steht außen auf der Verpackung ein Bild, wie es aussehen soll.
Vielleicht gibt es auch drei Varianten, das ist dann nochmal krasser.
Und dann hast du eine Anleitung, die dir jeden Baustein Schritt für Schritt zeigt.
Ich finde das nicht schlecht.
Also ich habe auch gesehen, dass Kinder damit gerne umgehen können, aber ich finde es ganz wichtig, dass man den Kindern hilft, dann daraus auszubrechen.
Und sie lernen dann, okay, jetzt habe ich das gebaut in der Anleitung, jetzt mache ich das mal kaputt und baue was komplett Eigenes.
Oder ich habe ein Problem und ich versuche das zu lösen, obwohl ich die Antwort noch nicht weiß.
Und wenn man diese Fähigkeit den Kindern mitgibt, was glaube ich in der Schule leider noch nicht so richtig mitgegeben wird, hat man, glaube ich, die Kinder sehr gut schon mal vorbereitet.
Ich denke auch, dass das ein Schlüssel ist zum gesunden Umgang mit Technologie und mit KI.
Das fällt uns ja immer schwerer.
Du lebst in TikTok-Zeiten, ein Video dauert drei Sekunden und dann sagt dir irgendwas und irgendwie nimmst du das auf und glaubst das vielleicht, ohne da nachzugucken.
Ich meine, das ist ja nicht nur bei den Kindern, das ist ja bei uns auch so.
Wir haben was gehört und dann sagen wir, okay, wir haben das gehört.
Ich glaube, ein großer Punkt könnte auch sein, dass wir das gesellschaftlich versuchen, nicht mehr zu akzeptieren, einfach alles zu glauben.
Wenn jetzt zum Beispiel eine junge Generation von TikTok-Usern, wenn es in dieser Popkultur, wenn es da cringe wäre, einfach alles zu glauben, anstatt nochmal nachzugucken, ob das wirklich stimmt, dann würde das auf einmal kein junger Mensch mehr machen, weil es gesellschaftlich nicht anerkannt ist, einfach alles zu glauben, was man sieht.
Vielleicht müssen wir auch, da können wir da auch ein bisschen was drehen, dass wir sagen, hey, das ist echt uncool.
Das ist gut, ja.
Ähnlich wie Zigaretten, die früher unglaublich cool waren und heute, nach meinem Eindruck zumindest, nicht mehr so cool in der Gesellschaft sind und dadurch dann auch nicht mehr so magnetisch ist für Kinder und Menschen generell.
Einen wichtigen Punkt finde ich noch ganz wichtig und das überspannt im Grunde auch die ganze Folge ist, bei den ganzen Dystopien, die wir besprochen haben und auch eben dieses Thema Kinder, wenn sie was sehen, kann ich das glauben oder nicht, KI wird uns natürlich auch an der Seite stehen, da eine bessere Perspektive zu geben.
Also wenn ich zum Beispiel etwas sehe im Fernsehen oder bei TikTok, kann es sein, dass meine persönliche KI mithört und dann mir gleich einen Faktencheck gibt und mir das in Relation bringt, zum einen das, was ich kenne und auch zusammen an, was ich gerade gehört habe.
Oder auch eben, wenn es die einen Daten gibt, die in der KI basteln, die andere hackt, gibt es natürlich die andere KI, die die Systeme sicherer macht, hacks früher erkennt, Sicherheitslücken schneller schließt und so weiter.
Also wir werden definitiv auch Unterstützung gegen diese ganzen dystopischen Probleme haben durch KI.
Und da gibt es viele, viele tolle Menschen, die an tollen Projekten arbeiten.
Genau.
Und ich hoffe, dass von den Universitäten dann auch der Anstoß kommt, dass wir wirklich KI Modelle haben, die eigentlich empirisch drauf gucken, ob das jetzt stimmt oder nicht.
Also anhand von wissenschaftlichen Studien, empirischen Studien.
Ja, das ist sehr wichtig.
Das ist ja mittlerweile auch schon so.
Das ganze Studienlandschaft ist ja mittlerweile auch schon überschwemmt vielleicht von mehr oder weniger Pseudowissenschaftlern, die einfach eine Studie rausbringen, dass sie eine Studie rausgebracht haben und damit argumentieren können, ohne Gegenprüfung, ohne dass es wirklich empirisch bewiesen wurde.
Und dass man da auch die Abgrenzung findet und wirklich Programme hat, die wirklich nur reale Fakten uns präsentieren können.
Und wenn wir sowas mal haben und dagegen fragen können, dann ist uns schon sehr geholfen.
Und auch neben dieses, wie du meinst, einmal harte Fakten, die es in dieser Welt gibt und die eine KI kommunizieren kann, und dann eine Sicht auf die Welt, die jeder für sich bastelt, wo eben aber trotzdem der KI helfen kann, dir ein gutes Bild zu schaffen.
Wo du eben nicht jahrelang nur aus einer Richtung Informationen hörst und dann das einfach hinnimmst, sondern dass du eben, da gibt es auch, wenn letzten Wahlen gab es so Versuche, dass du eine App hast, die dir nicht nur eine Information gibt, wenn du nach was suchst von den Demokraten, sondern dass du Demokraten und Republikaner Informationen hast, oder News aus drei Newsportalen, die sich teilweise widersprechen, aber dadurch hast du ein breites Bild.
Und ich finde auch, dass KI helfen kann, dann eben dir eine einige Meinung zu bilden, was ich total wichtig finde, aber eine begründete Meinung, die offen ist und ohne polarisieren in eine Richtung.
Dann können wir sehr gerne schon die nächste Folge an teasern und dann habe ich auch noch eine kleine Hausaufgabe, eine Idee, einen Anstoß.
Und zwar nächste Woche wollen wir gerne über die Überlegung sprechen.
Was soll ich denn eigentlich noch lernen, wenn es KI überall gibt?
Der Taschenrechner rechnet mir heute schon ganz viel aus.
Ich mache da wenig von komplexen mathematischen Sachen selber.
Und dann ist natürlich die Frage, wenn wir in KI gehen, ist es natürlich viel krasser.
Ich kann die KI alles fragen, die kann sogar interaktiv mit mir dabei sein.
Die nimmt mir vielleicht große Teile von Jobs weg.
Was soll ich denn überhaupt noch lernen?
Einmal als Erwachsener in meinem Job und natürlich auch, was sollen meine Kinder in der Grundschule noch lernen oder was kann ich ihnen mitgeben neben der Grundschule, was einfach noch relevant ist für ihre Zukunft?
Ich kann mir gut vorstellen, mir geht es so, anderen Eltern, wenn sie überlegen in 20, 30 Jahren, wenn mein Kind erwachsen ist und eine eigene Familie hat, wie kann es da noch wie du meinst sicher und glücklich leben?
Und das wollen wir nächste Woche besprechen.
Und wer Lust hat, kann da einen kleinen Talk von Seth Godin anschauen.
Der hat den Titel Stop Stealing Dreams.
Also er hat einmal diesen Talk und er hat aber auch noch einen Essay geschrieben mit einem 100 Seiten PDF.
Also wer in das ins Detail gehen möchte, kann sich das auch angucken.
Packen wir beides in die Show Notes.
Und er spricht im Grunde drüber, wie unser Bildungssystem, also er hat einen amerikanischen Fokus, aber es gilt den meisten Sachen, die er anspricht, auch für uns hier, wie das nicht die richtigen Ziele verfolgt und unsere Kinder nicht für die Probleme, die sie später erleben, vorbereitet.
Wir haben Systeme aufgebaut in unserem Bildungssystem, die in sich irgendwie funktionieren und die wir alle als gegeben hinnehmen.
Aber da stellt die zentrale Frage, wofür ist eigentlich Schule?
Wenn wir uns darüber Gedanken machen, dann merken wir vielleicht, dass die Schule, so wie sie gerade gebaut ist und funktioniert, nicht das erreicht, was wir uns wünschen.
Ich freue mich.
Ich auch.
Dann sehen wir uns schon nächste Woche.
Tschüss.
Benny
00:00:26
Ruben
00:00:47
Benny
00:04:01
Ruben
00:05:34
Benny
00:06:22
Ruben
00:06:25
Benny
00:06:30
Ruben
00:07:25
Benny
00:09:08
Ruben
00:09:48
Benny
00:10:42
Ruben
00:10:54
Benny
00:11:06
Ruben
00:13:17
Benny
00:16:07
Ruben
00:18:27
Benny
00:20:41
Ruben
00:22:20
Benny
00:24:52
Ruben
00:26:31
Benny
00:27:34
Ruben
00:28:16
Benny
00:29:37
Ruben
00:31:27
Benny
00:33:06
Ruben
00:35:07
Benny
00:36:37
Ruben
00:37:24
Benny
00:37:44
Ruben
00:38:38
Benny
00:40:13
Ruben
00:41:04
Benny
00:43:05
Ruben
00:44:03
Benny
00:45:55
Ruben
00:47:23
Benny
00:48:34
Ruben
00:49:44
Benny
00:51:36
Ruben
00:52:37
Benny
00:53:42
Ruben
00:55:00
Benny
00:56:55
Ruben
00:57:50
Benny
00:59:02
Ruben
00:59:18
Benny
00:59:20
Ruben
00:59:53
Benny
01:02:53
Ruben
01:02:54
Feedback geben
Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!