Godfather of AI: I Tried to Warn Them, But We’ve Already Lost Control! Geoffrey Hinton

Geoffrey Hinton
Pate der KI: Ich habe versucht, sie zu warnen, aber wir haben bereits die Kontrolle verloren!
00:00 Einleitung

Wie das GGSC Pixar bei „Inside O“ half. Sie gelten als Pate der KI. Was raten Sie Menschen zu ihren Karrierechancen in einer Welt mit Superintelligenz?
Lernen Sie Klempner. Ja, gut, ich werde Klempner.
Jeffrey Hinton, Nobelpreisträger und Pionier, hat mit seiner bahnbrechenden Arbeit die KI und die Zukunft der Menschheit geprägt. Warum nennt man ihn den Paten der KI? Weil kaum jemand daran glaubte, dass wir KI nach dem Vorbild des Gehirns entwickeln könnten – so, dass sie komplexe Aufgaben wie Objekterkennung, Bildanalyse oder logisches Denken erlernt.
Ich habe diesen Ansatz 50 Jahre lang verfolgt. Dann übernahm Google die Technologie, und ich arbeitete dort zehn Jahre an etwas, das heute in der KI allgegenwärtig ist.
Und dann sind Sie gegangen. Warum? Damit ich auf Konferenzen frei sprechen konnte. Worüber wollten Sie reden?
Über die Gefahren der KI.
Mir wurde klar, dass diese Systeme eines Tages intelligenter sein könnten als wir. Damit hatten wir uns noch nie auseinandergesetzt. Wenn Sie wissen wollen, wie es ist, nicht an der Spitze der Intelligenz zu stehen, fragen Sie ein Huhn.
Es gibt Risiken durch den Missbrauch von KI und durch die Möglichkeit, dass eine superintelligente KI entscheidet, uns nicht mehr zu brauchen.
Ist das ein reales Risiko? Ja, das ist es. Aber niemand wird die Entwicklung stoppen, weil KI für zu viele Dinge nützlich ist.
Und was ist mit Vorschriften? Es gibt einige, aber sie reichen nicht aus, um die meisten Bedrohungen zu bewältigen.
Die europäischen Regelungen enthalten sogar eine Klausel, die militärische KI-Nutzung ausnimmt. Wirklich? Ja, das ist absurd.
Einer Ihrer Studenten hat OpenAI verlassen. Ja, er war wohl die Schlüsselfigur hinter den frühen Versionen von ChatGPT.
Ich glaube, er ging wegen Sicherheitsbedenken.
Wir müssen erkennen, dass KI eine existenzielle Bedrohung darstellt. Wenn wir nicht bald handeln, könnte es zu spät sein.
Also, was tun wir in einer solchen Welt? Das hat mich immer wieder erstaunt.

02:11 Warum nennt man Sie den Paten der KI?

Geoffrey Hinton, man nennt Sie den Paten der KI. Warum eigentlich?
Nun, es gab nicht viele, die daran glaubten, dass wir neuronale Netze zum Laufen bringen könnten – künstliche neuronale Netze.
Seit den 1950er-Jahren existierten in der KI zwei Ansätze. Der eine besagte, dass menschliche Intelligenz vor allem Denken sei. Um schlussfolgern zu können, müsse man Logik verwenden.
KI sollte also auf Logik basieren. Im Kopf, so die Idee, gäbe es symbolische Ausdrücke, die man mit Regeln manipuliert.
Intelligenz funktioniere so. Lernen oder Analogieschlüsse kämen erst später, wenn man das grundlegende Denken verstanden habe.
Der andere Ansatz war radikal anders: Man sollte KI am Gehirn orientieren. Schließlich macht das Gehirn uns intelligent.
Also simulierte man ein Netzwerk von Gehirnzellen auf einem Computer und untersuchte, wie diese Verbindungen lernen.
Ziel war es, dass das Netzwerk komplexe Aufgaben wie Objekterkennung, Sprachverarbeitung oder logisches Denken bewältigt.
Ich habe diesen Ansatz über 50 Jahre verfolgt, weil nur wenige daran glaubten.
Es gab kaum Universitäten mit Gruppen, die daran arbeiteten. Doch wenn man es tat, zog man die besten jungen Talente an. Ich hatte das Glück, viele brillante Studenten zu gewinnen.
Einige von ihnen entwickelten später Plattformen wie OpenAI und prägten die KI-Entwicklung entscheidend.
Warum hielten Sie die Modellierung des Gehirns für den besseren Weg?
Nicht nur ich glaubte daran. Auch John von Neumann war überzeugt.
Hätten er oder Alan Turing länger gelebt, wäre die Geschichte der KI wohl anders verlaufen. Ich denke, der Ansatz der neuronalen Netze hätte sich viel früher durchgesetzt.

04:20 Warnung vor den Gefahren von KI

Sind Sie dabei? Meine wichtigste Aufgabe ist es, die Menschen vor den Gefahren der KI zu warnen.
Wussten Sie, dass Sie, als Sie zum Paten der KI wurden, anfangs nur langsam die Risiken erkannten?
Einige Gefahren lagen auf der Hand: etwa, dass Menschen KI nutzen könnten, um autonome tödliche Waffen zu entwickeln – Maschinen, die selbst entscheiden, wen sie töten.
Andere Risiken, wie die Möglichkeit, dass KI uns eines Tages übertrifft und wir irrelevant werden, waren weniger offensichtlich.
Ich habe erst vor ein paar Jahren begriffen, was andere schon vor 20 Jahren erkannten: Dieses Risiko ist real und könnte bald eintreten.
Wie konnten Sie das nicht früher sehen? Sie wissen doch, wie Computer lernen, ähnlich wie Menschen, und wie schnell sie sich verbessern. Eine berechtigte Frage. Aber bedenken Sie: Vor 20 oder 30 Jahren waren neuronale Netzwerke noch primitiv.
Sie reichten bei weitem nicht an menschliche Fähigkeiten heran. In Bereichen wie Sehen, Sprache und Spracherkennung schien es absurd, sich Sorgen zu machen, dass sie uns übertreffen könnten.
Wann änderte sich das? Für die meisten Menschen mit der Einführung von ChatGPT.
Für mich, als ich erkannte, dass digitale Intelligenzen etwas besitzen, das sie der biologischen überlegen macht.
Wenn ich Ihnen etwas mitteilen will, lerne ich zunächst selbst, formuliere dann Sätze und gebe mein Wissen weiter. Ihr Gehirn verarbeitet diese Informationen, indem es die Stärke der Verbindungen zwischen Neuronen anpasst.
Es lernt besonders viel, wenn ein unerwartetes Wort fällt. Sagen wir, ich erwähne „Fish and Chips“ – das ist vorhersehbar, Sie lernen wenig.

Sage ich jedoch „Fish and Gurke“, fragen Sie sich, warum ich „Gurke“ gesagt habe.
Genau so funktioniert unser Denken: Wir sagen voraus, was als Nächstes kommt.

Doch niemand weiß genau, wie das Gehirn entscheidet, ob es eine Verbindung stärken oder schwächen soll.
KI hat uns hier einen entscheidenden Vorteil gezeigt.
Wenn wir wüssten, wie das Gehirn diese Signale verarbeitet, könnten wir unglaubliche Fortschritte machen. Mit künstlichen neuronalen Netzen gelingt uns das bereits.
Aber wie echte Gehirne diese Signale empfangen, bleibt ein Rätsel.

07:06 Bedenken, die wir gegenüber KI haben sollten

Welche Bedenken haben Sie heute in Bezug auf die Sicherheit von KI?
Wenn wir die wichtigsten zusammenfassen, welche sollten uns am meisten beschäftigen?
Zunächst möchte ich zwei grundlegend verschiedene Risiken unterscheiden: Risiken durch den Missbrauch von KI – das sind die meisten und vor allem kurzfristige Gefahren – und Risiken, die entstehen, wenn KI superintelligent wird und entscheidet, dass sie uns nicht mehr braucht.
Ist Letzteres ein echtes Risiko? Viele fragen das, und die Antwort lautet: Ja, das ist es. Wir wissen nicht, wie groß dieses Risiko ist, denn wir standen noch nie vor einer solchen Situation.
Noch nie mussten wir mit etwas umgehen, das klüger ist als wir.
Das Problem mit dieser existenziellen Bedrohung ist, dass wir keine Ahnung haben, wie wir sie bewältigen sollen.
Wir wissen nicht, wie sie aussehen wird. Wer behauptet, er wisse genau, was passieren wird und wie man darauf reagiert, irrt.
Wir können nicht einmal die Wahrscheinlichkeit abschätzen, dass KI uns ersetzt.
Manche sagen, sie liege unter 1 %. Mein Freund Yann LeCun meint: „Nein, wir werden immer die Kontrolle behalten. Wir bauen KI so, dass sie uns gehorcht.“
Andere wie Eliezer Yudkowsky sagen: „Nein, sie wird uns auslöschen.“ Beide Positionen sind extrem, und es ist schwer, die Wahrscheinlichkeiten dazwischen zu bewerten.

Wenn ich wetten müsste, würde ich sagen, die Wahrscheinlichkeit liegt irgendwo zwischen 10 und 20 %.
Aber das ist nur eine Vermutung, basierend darauf, dass wir KI weiterhin entwickeln.
Wir sind erfinderisch, und die Hoffnung ist, dass kluge Köpfe mit genügend Ressourcen einen Weg finden, KI so zu gestalten, dass sie uns keinen Schaden zufügt.
Manchmal denke ich dabei an die Atombombe.
Als sie erfunden wurde, glaubten viele, unsere Tage seien gezählt.
Doch wir sind noch hier. Die Atombombe war nur für eine Sache gut, und ihre Wirkung war offensichtlich.
Bei KI ist das anders. Sie ist für viele Dinge nützlich: im Gesundheitswesen, in der Bildung und in jeder Branche, die Daten nutzt.
Wir werden ihre Entwicklung nicht stoppen. Warum?
Weil sie zu viele Vorteile bringt.
Auch für militärische Zwecke ist sie wertvoll, und kein Land, das Waffen verkauft, wird darauf verzichten.

Europäische Vorschriften zu KI sind ein Schritt in die richtige Richtung, aber sie greifen zu kurz.
Sie schließen militärische Anwendungen aus. Regierungen regulieren Unternehmen und Bürger, aber nicht sich selbst.

Das ist absurd. Wenn Europa KI reguliert, der Rest der Welt aber nicht, entsteht kein Wettbewerbsnachteil.

Wir sehen das bereits: OpenAI kann neue Modelle in den USA veröffentlichen, aber nicht in Europa.

Sam Altman twitterte kürzlich, dass ein neuer KI-Agent in Europa wegen der Vorschriften nicht verfügbar ist. Das zeigt, wie Regulierungen Produktivität hemmen können.
Was wir wirklich brauchen, ist eine funktionierende Weltregierung, geführt von klugen, verantwortungsvollen Menschen.
Doch stattdessen haben wir ein freies Spiel des Kapitalismus.
Unternehmen sind gesetzlich verpflichtet, ihre Gewinne zu maximieren, und das treibt die Entwicklung voran – oft ohne Rücksicht auf die Risiken.

10:33 Europäische KI-Regulierung

Bedrohungen, vor allem die europäischen Vorschriften, enthalten eine Klausel, die militärische KI-Nutzung ausnimmt.
Regierungen regulieren Unternehmen und Bürger, doch sie scheuen davor zurück, sich selbst Regeln aufzuerlegen.

Das wirkt absurd: Europa führt strenge Vorschriften ein, während der Rest der Welt sie ignoriert – ein klarer Wettbewerbsnachteil.
Das zeigt sich bereits. OpenAI kann neue Modelle oder Software in den USA veröffentlichen, doch europäische Vorschriften verhindern deren Einführung hier.
Sam Altman twitterte: „Unser neuer KI-Agent ist verfügbar, aber nicht in Europa.“
Was bedeutet das für die Produktivität?

Ein Nachteil, ein klarer Produktivitätsverlust.
In einer Zeit, in der wir Systeme schaffen, die uns an Intelligenz übertreffen, brauchen wir eine funktionierende Weltregierung, geführt von klugen, verantwortungsvollen Menschen.
Doch die Realität sieht anders aus: ein globales Chaos.
Stattdessen dominiert der Kapitalismus, den wir meisterhaft beherrschen. Wir produzieren Waren und Dienstleistungen in Hülle und Fülle, doch große Unternehmen sind gesetzlich verpflichtet, ihre Gewinne zu maximieren – nicht, Risiken zu minimieren.
Betrachten wir die Gefahren: Neben menschlichen Risiken gibt es jene, die durch böswillige Akteure entstehen, die KI missbrauchen.
Dazu gehören Cyberangriffe.

12:12 Risiko von Cyberangriffen

Zwischen 2023 und 2024 stiegen die Zahlen um das 12,24-Fache, also um 12.200 %.
Der Grund dafür liegt vermutlich darin, dass große Sprachmodelle Phishing-Angriffe erleichtern.
Ein Phishing-Angriff, für alle, die es nicht wissen, funktioniert so: Jemand schickt dir eine Nachricht wie „Hallo, ich bin dein Freund John und sitze in El Salvador fest. Kannst du mir Geld überweisen?“
Solche Angriffe zielen oft darauf ab, deine Login-Daten zu stehlen.
Mit KI können Betrüger inzwischen Stimmen und Bilder klonen.
Sie imitieren alles. Ich habe gerade Probleme, weil es viele KI-Betrugsfälle auf Plattformen wie X und Meta gibt.
Besonders auf Meta, also Instagram und Facebook, läuft eine bezahlte Anzeige, in der sie meine Stimme aus einem Podcast verwenden. Sie haben meine Art zu sprechen kopiert und ein Video erstellt, in dem ich angeblich ein Krypto-Schneeballsystem bewerbe.

Wir haben wochenlang E-Mails an Meta geschickt und gebeten, die Anzeige zu entfernen.
Sie nehmen sie zwar runter, aber kurz darauf taucht eine neue auf.
Es ist wie ein Schlag ins Gesicht – frustrierend und ärgerlich.

Das Schlimmste daran: Menschen fallen auf den Betrug herein.
Sie schreiben mir, dass sie 500 Pfund oder Dollar verloren haben, weil sie dachten, ich hätte das empfohlen.
Es tut mir unendlich leid für sie. Gleichzeitig veröffentlichen manche Leute Artikel, in denen ich als Autor auftauche, um sich selbst mehr Zitate zu verschaffen.
Cyberangriffe sind eine reale Bedrohung. Ihre Zahl explodiert, und KI macht sie noch gefährlicher.
Diese Systeme können Millionen Zeilen Code durchforsten, um Schwachstellen zu finden.
Und sie werden immer kreativer. Experten glauben, dass bis 2030 völlig neue Arten von Cyberangriffen entstehen könnten, die wir uns heute nicht einmal vorstellen können.
Das ist beunruhigend, denn KI kann eigenständig denken, aus riesigen Datenmengen lernen und Schlussfolgerungen ziehen, die kein Mensch je erreichen würde.

14:25 So schützen Sie sich vor Cyberangriffen

Schützen Sie sich vor Cyberangriffen? Ja, in diesem Bereich habe ich meine Strategie radikal geändert, weil ich Cyberangriffe fürchte.
Kanadische Banken gelten als äußerst sicher.
2008 geriet keine einzige kanadische Bank auch nur in die Nähe einer Pleite.
Sie sind stabil, weil sie gut reguliert werden.
Dennoch glaube ich, dass ein Cyberangriff eine Bank lahmlegen könnte.

Wenn all meine Ersparnisse in Bankaktien stecken, bleiben es zwar meine Aktien, auch wenn die Bank angegriffen wird. Doch wenn der Angreifer die Aktien verkauft, bin ich verloren.
Vielleicht würde die Bank versuchen, mich zu entschädigen, aber was, wenn sie dann pleite ist?
Diese Sorge treibt mich um: Ein Cyberangriff könnte eine kanadische Bank lahmlegen, und der Angreifer könnte Aktien verkaufen, die er kontrolliert.

Deshalb habe ich mein Geld und das meiner Kinder auf drei Banken verteilt. Ich gehe davon aus, dass andere Banken nach einem Angriff auf eine kanadische Bank schnell vorsichtiger agieren würden.
Haben Sie ein Telefon, das nicht mit dem Internet verbunden ist?
Ich überlege, Daten offline zu speichern.
Halten Sie eine Cold-Storage-Lösung für sinnvoll? Ich nutze ein kleines Laufwerk, um meinen Laptop zu sichern.
So habe ich zumindest eine Kopie meiner Daten.
Selbst wenn das Internet ausfällt, bleiben meine Informationen auf dem Laptop und der Festplatte erhalten.
Und dann gibt es noch die Gefahr, dass KI genutzt wird, um bösartige Viren zu entwickeln.

16:12 KI zur Virenentwicklung

Das Problem ist, dass ein einzelner Fanatiker mit Groll ausreicht – jemand, der ein wenig Molekularbiologie beherrscht, sich mit KI auskennt und die Welt zerstören will.
Heute kann man mit KI relativ günstig neue Viren erschaffen.
Dafür muss man kein erfahrener Molekularbiologe sein, und genau das macht die Sache so beängstigend.
Eine kleine Sekte könnte beispielsweise ein paar Millionen Dollar auftreiben.
Mit diesem Geld ließe sich eine ganze Reihe gefährlicher Viren entwickeln.

Ich denke dabei auch an ausländische Gegner mit staatlich finanzierten Programmen.
Es gab viel Diskussion über Covid und das Wuhan-Labor, über die Forschung, die dort betrieben wurde. Man fragt sich, ob Regierungen wie die in China, Russland oder dem Iran kleine Gruppen von Wissenschaftlern finanzieren könnten, um gezielt Viren zu entwickeln.
Möglich wäre es. Natürlich hätten sie Angst vor Vergeltung – davor, dass andere Staaten mit ähnlichen Mitteln zurückschlagen.
Vielleicht würde diese Furcht helfen, die Situation im Zaum zu halten.
Außerdem müssten sie befürchten, dass sich ein solches Virus in ihrem eigenen Land ausbreitet. Und dann gibt es noch

17:26 KI und korrupte Wahlen

Wahlmanipulation. Wer Künstliche Intelligenz (KI) für Wahlmanipulation nutzen wollte, würde gezielte politische Werbung schalten – basierend auf detaillierten Informationen über die Wähler.
Jeder, der so etwas plant, würde versuchen, möglichst viele Daten über alle Wähler zu sammeln. In diesem Zusammenhang wirkt es beunruhigend, was Musk derzeit in den Bundesstaaten unternimmt. Er drängt darauf, Zugang zu streng geschützten Daten zu erhalten.
Offiziell soll das die Abläufe effizienter machen.
Doch genau solche Daten bräuchte man, um die nächste Wahl zu manipulieren.

Wie ist das gemeint? Wer diese Daten besitzt, kennt Einkommen, Vorlieben und Verhaltensmuster der Menschen.
Mit diesem Wissen wird es leicht, sie zu beeinflussen.
Man könnte eine KI entwickeln, die gezielt Botschaften verschickt – etwa mit der Aufforderung, nicht zur Wahl zu gehen.
Dafür gibt es keine Beweise, nur den gesunden Menschenverstand. Aber es würde nicht überraschen, wenn ein Teil der Motivation, diese Daten aus amerikanischen Regierungsquellen zu beschaffen, in der Manipulation von Wahlen läge.
Ein anderer Grund könnte sein, dass die Daten als Trainingsmaterial für ein großes KI-Modell dienen sollen.
Dafür müsste Musk die Daten von der Regierung übernehmen und in sein System integrieren.
Um das zu ermöglichen, wurden offenbar Sicherheitsvorkehrungen abgeschwächt und einige Schutzmechanismen entfernt.

Das ist Wahlmanipulation. So entstehen zwei Echokammern.

19:03 Wie KI Echokammern schafft

Organisationen wie YouTube und Facebook zeigen den Menschen Inhalte, die sie aufregen.
Menschen lieben es, empört zu sein – empört im Sinne von wütend, aber im Recht. Wenn mir jemand ein Video zeigt, in dem steht: „Trump hat etwas Verrücktes getan“, und ich sehe Trump dabei, wie er genau das tut, klicke ich sofort darauf.
Das führt uns in Echokammern und spaltet.
Genau das ist die Strategie von YouTube, Facebook und Co., um zu entscheiden, was sie als Nächstes zeigen.
Würden sie ausgewogene Inhalte präsentieren, bekämen sie weniger Klicks und verkauften weniger Anzeigen.
Das Profitmotiv lautet: „Zeigen Sie ihnen, was sie wollen.“ Und was die Menschen wollen, sind oft extreme Inhalte, die ihre Vorurteile bestätigen.

So entfernen wir uns voneinander. In den USA gibt es bereits zwei Lager, die kaum noch miteinander sprechen.
Vielen ist nicht bewusst, dass dies jedes Mal geschieht, wenn sie eine App öffnen. Auf Plattformen wie TikTok oder YouTube zeigt der Algorithmus immer mehr von dem, was beim letzten Mal Interesse geweckt hat.
Über Jahre hinweg verstärkt das die eigene Ideologie und entfernt von Nuancen, gesundem Menschenverstand und Ausgewogenheit.

Die meisten merken nicht, was passiert. Sie öffnen ihr Handy, sehen Inhalte und glauben, das seien die Nachrichten, die alle anderen auch sehen.
Früher lasen alle dieselbe Zeitung und stießen auf Themen, nach denen sie nicht gesucht hatten.
Das vermittelte ein Gefühl von Relevanz. Heute zeigt der persönliche Newsfeed nur noch, was den eigenen Interessen entspricht.

Mein Newsfeed etwa ist voller Geschichten über KI.
Ich frage mich oft, ob die Welt tatsächlich ständig über KI spricht oder ob das nur meine Filterblase ist.
Diese personalisierten Algorithmen treiben uns in immer engere Echokammern und spalten weiter.
Die Realität, die ich erlebe, unterscheidet sich zunehmend von der anderer. Menschen, die BBC, den Guardian oder die New York Times konsumieren, teilen eine andere Realität als jene, die Fox News schauen.

Das ist beunruhigend. Dahinter steckt das Streben der Unternehmen nach Gewinn.
Sie tun, was nötig ist, um profitabel zu bleiben – und sind gesetzlich dazu verpflichtet.
Man kann ihnen kaum Vorwürfe machen.
Der Kapitalismus hat viel Gutes hervorgebracht, aber er braucht klare Regeln.

Was wir wirklich brauchen, sind Vorschriften, die Unternehmen dazu zwingen, im Interesse der Allgemeinheit zu handeln.
Sie sollen nicht nur das tun, was den Gewinn maximiert, sondern auch das, was den Menschen nützt.

22:48 Regulierung neuer Technologien

Organisationen wie YouTube und Facebook zeigen den Menschen Inhalte, die sie fesseln.
Sobald ein Unternehmen Profit macht, beginnt es oft, Dinge zu tun, die der Gesellschaft schaden – etwa immer extremere Inhalte zu verbreiten.
Deshalb braucht es Regulierung. Im Kapitalismus sind Regeln notwendig.
Unternehmen klagen zwar, Regulierung behindere sie und mache sie weniger effizient. Das stimmt.
Doch genau das ist der Zweck: Sie sollen daran gehindert werden, auf Kosten der Gesellschaft Gewinne zu erzielen. Wir brauchen strenge Regeln.

Wer entscheidet, was der Gesellschaft schadet? Das ist Aufgabe der Politik. Problematisch wird es, wenn Politiker von Unternehmen abhängig sind. Hinzu kommt, dass viele Politiker die Technologie nicht verstehen.
Sie erinnern sich vielleicht an die Anhörungen im US-Senat, bei denen Mark Zuckerberg und andere Tech-CEOs befragt wurden.
Es war oft peinlich, weil die Politiker die falschen Fragen stellten.

Ein Beispiel: Der US-Bildungsminister sprach in einem Video darüber, wie man KI in Klassenzimmer bringen wolle.
Sie nannte es wiederholt „A1“ statt „KI“ und erklärte stolz, dass Vorschulkinder und Erstklässler bald „A1-Unterricht“ erhalten würden.
Das Publikum lachte – und das sind die Menschen, die Entscheidungen treffen.

Am Ende haben die Tech-Unternehmen die Kontrolle, weil sie die Politik überlisten.
Vor ein paar Wochen, als ich in den USA war, lief eine Anzeige, die davor warnte, KI zu regulieren.
Das würde, so hieß es, den Wettbewerb mit China gefährden. Ein plausibles Argument – aber die Entscheidung liegt bei uns.

24:31 Halten uns Regulierungen davon ab, mit China zu konkurrieren?

Wollen Sie mit China konkurrieren, indem Sie Ihrer Gesellschaft schweren Schaden zufügen? Wahrscheinlich nicht. Vermutlich würden Sie sagen, es geht nicht nur um China, sondern auch um Länder wie Dänemark, Australien, Kanada, Großbritannien und Deutschland, die weniger Sorgen bereiten.
Doch wenn Sie sich durch übermäßige Regulierung selbst ausbremsen, behindern Sie Gründer, Unternehmer und Investoren.
Diese Sichtweise – dass Regulierung schädlich ist – hat ihre Berechtigung. Große Unternehmen müssen so eingeschränkt werden, dass sie gesellschaftlich nützliche Dinge tun, um Gewinne zu erzielen.

Ein Beispiel: Die Google-Suche brauchte keine Regulierung, weil sie den Menschen einfach Informationen zugänglich machte – ein großer Fortschritt.
Doch dann kam YouTube.
Es begann, Werbung und immer extremere Inhalte zu zeigen.
Das erfordert Regulierung, aber es fehlen die Fachleute, um dies umzusetzen.
Das Problem, dass Plattformen immer extremere Inhalte fördern, ist bekannt. Politiker verstehen es und müssen handeln.

Ein weiterer Punkt: Algorithmen treiben uns immer tiefer in Echokammern. Und was kommt danach? Tödliche autonome Waffen.

25:57 Die Bedrohung durch tödliche autonome Waffen

Dinge, die töten können und selbst entscheiden, ob sie töten – das ist der große Traum.
Der militärisch-industrielle Komplex dürfte solche Waffen entwickeln. Das Schlimmste daran: Mächtige Länder könnten noch leichter kleinere, ärmere Länder angreifen. Mit echten Soldaten gibt es Leichen in Säcken, und die Angehörigen der Toten protestieren. Man bekommt Szenarien wie Vietnam.
Doch wenn statt Soldaten Roboter sterben, bleibt der Protest aus.
Der militärisch-industrielle Komplex würde das begrüßen, denn Roboter sind teuer.
Große Länder könnten dann ohne großes Risiko einmarschieren.
Kleinere Länder hätten kaum eine Chance, weil ihre Soldaten nicht mehr gebraucht würden.

Das Problem: Diese Roboter könnten versagen oder sich noch gefährlicher entwickeln.
Selbst wenn sie genau das tun, was ihre Erbauer wollen, erleichtern sie Kriege. Große Länder würden häufiger einmarschieren, weil es einfacher und billiger wird.
Autonome Waffen senken die Hemmschwelle für Invasionen.
Sie kämpfen effizienter, selbst wenn sie nicht intelligenter als Menschen sind.

Diese tödlichen Maschinen lassen sich bereits bauen.
Alle großen Verteidigungsindustrien arbeiten daran.
Sie könnten ein Ziel identifizieren, es eliminieren und gleich alle, mit denen es in Kontakt stand.
Vor zwei Tagen besuchte ich einen Freund in Sussex.

Er hatte eine Drohne für weniger als 200 Pfund.
Sie flog hoch, fixierte mich und folgte mir durch den Wald – zwei Meter hinter mir, unheimlich präzise. Für 200 Pfund!

Man kann sich leicht vorstellen, wie ein Wettlauf um die komplexesten autonomen Waffen läuft.
Das Risiko wächst, dass diese Technologien kombiniert werden – etwa mit Cyberangriffen.

28:33 Können diese KI-Bedrohungen kombiniert werden?

Waffen freisetzen – klar.
Man kann viele Risiken eingehen, indem man sie kombiniert.
Zum Beispiel könnte eine superintelligente KI beschließen, die Menschheit auszulöschen.
Der naheliegendste Weg wäre, einen gefährlichen Virus zu erschaffen.
Ein Virus, der hoch ansteckend, extrem tödlich und langsam wirkt, würde sich unbemerkt verbreiten, bis es zu spät ist.
Wenn eine Superintelligenz uns vernichten wollte, würde sie vermutlich etwas Biologisches nutzen, das ihr selbst nicht schadet.
Denkbar wäre auch, dass sie uns gegeneinander aufhetzt.
Sie könnte etwa eine Warnung an die amerikanischen Atomsysteme senden, dass eine russische Atombombe unterwegs sei – oder umgekehrt.

Eine solche Aktion könnte Vergeltung auslösen.
Ich denke, es gibt unzählige Möglichkeiten, wie eine Superintelligenz uns auslöschen könnte.
Es bringt nichts, über Details zu spekulieren.
Was wir tun müssen, ist klar: Wir müssen verhindern, dass sie überhaupt entsteht.
Denn wenn sie einmal existiert, können wir sie nicht aufhalten.
Sie wäre schlauer als wir – und wir sind nicht daran gewöhnt, über Wesen nachzudenken, die intelligenter sind als wir.
Willst du wissen, wie es ist, nicht die höchste Intelligenz zu besitzen?
Frag ein Huhn.
Oder denk an meinen Hund Pablo.
Heute Morgen, als ich das Haus verließ, hatte er keine Ahnung, wohin ich gehe oder was ich tue. Ich kann ihm nichts erklären. Die Kluft zwischen seiner und meiner Intelligenz ist riesig. Und die zwischen uns und einer Superintelligenz wäre noch viel größer.

30:15 KI-Übernahme verhindern

Als französische Bulldogge muss ich verhindern, dass mein Herrchen mich auslöscht.
Wir haben ein Beispiel: die Evolution von Müttern und Babys. Ich habe viel Zeit darauf verwendet, zu verstehen, dass Mütter klüger sind als Babys.
Doch Babys haben die Kontrolle.
Warum? Weil Mütter die Hormone und das Weinen der Babys kaum ertragen.

Nicht alle Mütter, aber viele.
Wenn das Baby die Kontrolle verliert, können schlimme Dinge passieren.
Wir müssen herausfinden, wie wir das verhindern.

Die Analogie, die ich oft nutze: Vergesst Intelligenz, denkt an körperliche Stärke.
Stellt euch einen süßen kleinen Tiger vor.
Größer als eine Katze, kuschelig, faszinierend.
Aber ihr müsst sicherstellen, dass er euch nie töten will.
Denn wenn er es wollte, wäre es in Sekunden vorbei.
Die KI, die wir jetzt haben, ist wie ein Tigerjunges. Es wächst heran.
Wir müssen es trainieren, solange es noch klein ist.
Ein Tiger hat viele angeborene Fähigkeiten.
Wenn er groß wird, bleibt er gefährlich. Menschen, die Löwen als Haustiere halten, erleben manchmal Zärtlichkeit – aber nur ihnen gegenüber, nicht gegenüber anderen. Wir wissen nicht, ob wir KIs davon abhalten können, die Macht zu übernehmen oder uns zu schaden.
Glauben Sie, wir können das?
Können wir Superintelligenz trainieren?
Ich bin mir nicht sicher.
Vielleicht ist es hoffnungslos. Aber wir müssen es versuchen.
Es wäre absurd, wenn die Menschheit ausstirbt, weil wir es nicht einmal versucht haben.
Wie sehen Sie Ihr Lebenswerk angesichts der KI-Risiken?
Es nimmt dem Ganzen die Schärfe, oder? KI könnte im Gesundheits- und Bildungswesen Wunder bewirken.
Sie könnte Callcenter effizienter machen.
Aber was passiert mit den Menschen, die diese Jobs verlieren?
Das macht mich traurig. Ich fühle mich nicht schuldig, vor 40 Jahren an KI gearbeitet zu haben.
Damals ahnten wir nicht, wie schnell sich alles entwickeln würde. Wir dachten, wir hätten Zeit, uns vorzubereiten.
Man wollte, dass KI ein bisschen mehr kann, ohne sich Sorgen zu machen, dass sie Menschen verdrängt.
Ich habe nie bewusst etwas getan, das uns alle auslöschen könnte.
Aber jetzt fühle ich mich verpflichtet, über die Risiken zu sprechen.

Wenn man 30 oder 50 Jahre in die Zukunft blickt und feststellt, dass KI die Menschheit ausgelöscht hat – was dann?
Regierungen müssen handeln.
Sie müssen Unternehmen zwingen, Ressourcen in Sicherheit zu investieren. Das passiert selten, weil es keinen Gewinn bringt. Aber es ist notwendig.

32:01 Reflexion über Ihr Lebenswerk angesichts von KI-Risiken

Lebenswerk – es nimmt irgendwie die Schärfe, nicht wahr?
Die Idee wird großartig im Gesundheits- und Bildungswesen sein, und sie wird Callcenter effizienter machen.
Doch man fragt sich, was mit den Menschen passiert, die diese Jobs jetzt haben. Das macht mich traurig.
Ich fühle mich nicht besonders schuldig, vor 40 Jahren an der Entwicklung von KI gearbeitet zu haben. Damals ahnten wir nicht, wie schnell sich das entwickeln würde.
Wir dachten, wir hätten genug Zeit, um über solche Dinge nachzudenken. Wenn man eine KI entwickelt, die kaum etwas kann, will man sie dazu bringen, ein bisschen mehr zu leisten. Man sorgt sich nicht, dass dieses kleine, dumme Ding die Arbeit der Menschen übernehmen könnte. Man will nur, dass es ein wenig mehr von dem kann, was Menschen tun. Es war nicht so, dass ich bewusst etwas geschaffen habe, von dem ich dachte, es könnte uns alle auslöschen. Aber es ist traurig, dass es nicht nur Gutes bringt. Deshalb fühle ich mich verpflichtet, jetzt über die Risiken zu sprechen.
Wenn man in 30 oder 50 Jahren zurückblickt und feststellt, dass es zum Aussterben der Menschheit geführt hat – wenn das tatsächlich das Ergebnis wäre – dann würde ich das nutzen, um die Menschen zu warnen.
Sie sollten ihre Regierungen auffordern, ernsthaft daran zu arbeiten, wie wir diese Entwicklungen kontrollieren können.
Regierungen müssen Unternehmen zwingen, ihre Ressourcen für Sicherheit einzusetzen.
Doch das passiert selten, weil es keine Gewinne bringt.

33:45 Student verlässt OpenAI wegen Sicherheitsbedenken

Ilia hat OpenAI verlassen, und es wird viel darüber spekuliert, dass Sicherheitsbedenken der Grund waren.
Danach gründete er eine Firma für KI-Sicherheit. Warum, glauben Sie, ist er gegangen?
Ich denke, es lag an seiner Sorge um die Sicherheit.
Ich treffe ihn gelegentlich zum Mittagessen, wenn er in Toronto ist, wo seine Eltern leben.
Über die Vorgänge bei OpenAI spricht er nicht mit mir, aber ich bin sicher, dass die Sicherheitsfrage ausschlaggebend war. Ilia war eine Schlüsselfigur, wahrscheinlich die wichtigste Person hinter der Entwicklung von ChatGPT.
Besonders bei den frühen Versionen wie GPT-2 spielte er eine zentrale Rolle.

Ilia hat einen starken moralischen Kompass. Er ist nicht wie jemand, der sich von Macht oder Geld leiten lässt.
Sam Altman kenne ich nicht persönlich, daher möchte ich über ihn nicht urteilen.
Aber wenn jemand wie Ilia OpenAI verlässt, gibt das zu denken. Es deutet darauf hin, dass es dort ein Problem gibt.
Sam sagte vor einigen Jahren in einem Interview sinngemäß: „Diese Technologie könnte uns alle umbringen.“ Heute klingt er viel gelassener.
Ich vermute, das liegt weniger an der Suche nach Wahrheit als an der Jagd nach Geld und Macht. Beides hängt oft zusammen.
Ein Freund von mir, ein Milliardär, bewegt sich in diesen Kreisen.
Bei einem Mittagessen in seinem Haus in London erzählte er mir von privaten Gesprächen mit führenden Köpfen der KI-Branche.
Diese Leute sagen öffentlich, sie seien um Sicherheit besorgt, doch privat klingen sie anders.
Einer von ihnen, der ein großes KI-Unternehmen leitet, glaubt, dass wir auf eine dystopische Welt zusteuern, in der Menschen nicht mehr arbeiten, sondern nur noch Freizeit haben.
Ihm scheint der Schaden, den das anrichten könnte, egal zu sein.
Wenn ich Interviews dieser Person sehe, denke ich an das Gespräch mit meinem Freund und frage mich: „Dieser Mann lügt doch.“ Das beschäftigt mich.

Manche dieser Leute scheinen von Macht fasziniert, fast sadistisch. Sie genießen die Vorstellung, die Welt grundlegend zu verändern. Elon Musk ist ein komplexer Charakter. Er hat viel Gutes getan, etwa die Förderung von Elektroautos oder die Unterstützung der Ukraine mit Kommunikationsmitteln während des Krieges. Doch er hat auch übertrieben und Fehler gemacht, etwa bei seinen Aussagen zu autonomem Fahren. Es ist schwer, ihn eindeutig einzuordnen.

37:49 Sind Sie hoffnungsvoll für die Zukunft der KI?

Die Gefahr, die von KI ausgeht, und die Motive großer Unternehmen werfen drängende Fragen auf. Kann man das Tempo der KI-Entwicklung bremsen? Zwei Probleme stehen im Raum: Erstens, ob eine Verlangsamung überhaupt möglich ist, und zweitens, ob KI so gestaltet werden kann, dass sie sicher bleibt und uns nicht gefährdet. Ich glaube nicht, dass wir sie bremsen können. Der Grund? Der Wettbewerb – zwischen Ländern und zwischen Unternehmen. Dieser Wettlauf treibt die Entwicklung unaufhaltsam voran. Würden die USA bremsen, würde China es nicht tun.
Ist es möglich, KI sicher zu machen? Ich denke, ja. Es gibt jemanden, der daran glaubt, aber er verrät nicht, worauf er sein Wissen stützt.
Viele Investoren kennen seine „geheime Quelle“ nicht, doch sie vertrauen ihm und haben Milliarden investiert.
Dieses Vertrauen ist nicht unvernünftig. Er spielte eine Schlüsselrolle bei Alexet, wo die Objekterkennung erfolgreich war, und war die treibende Kraft hinter GBC2, das schließlich zu ChatGPT führte.
Sein Einfluss auf die KI-Revolution ist unbestreitbar.

Doch dieser Mann hat auch etwas Beunruhigendes an sich. Er verließ sein Unternehmen aus Sicherheitsbedenken.
Er weiß offenbar Dinge, die andere nicht wissen.
Was könnte als Nächstes passieren?
Das Unternehmen, von dem die Rede ist, hatte ursprünglich zugesagt, einen erheblichen Teil seiner Rechenzeit für Sicherheitsforschung zu nutzen.
Doch dieser Anteil wurde später reduziert – ein öffentlich bekanntes Detail.
Und so stehen wir nun vor der Frage: Was bedeutet das für die Zukunft, etwa im Hinblick auf autonome Waffen?

39:51 Die Bedrohung durch KI-bedingte Arbeitslosigkeit

Das Thema ist Arbeitslosigkeit. In der Vergangenheit führten neue Technologien nicht zu Jobverlusten, sondern schufen neue Arbeitsplätze.
Ein klassisches Beispiel: automatische Fernmeldegeräte. Als diese aufkamen, verloren Bankangestellte ihre Jobs nicht, sondern übernahmen interessantere Aufgaben.
Doch die heutige Entwicklung ähnelt eher der industriellen Revolution, als Maschinen körperliche Arbeit übernahmen. Heute graben keine Menschen mehr Gräben, weil Maschinen das besser können. Ebenso wird Künstliche Intelligenz (KI) viele geistige Routinearbeiten ersetzen.

Ein Beispiel: Früher brauchte meine Nichte 25 Minuten, um einen Beschwerdebrief zu beantworten. Sie las ihn, überlegte und schrieb eine Antwort. Heute scannt sie den Brief in einen Chatbot, der die Antwort formuliert. Sie überprüft diese nur noch und passt sie gegebenenfalls an.
Der Vorgang dauert jetzt fünf Minuten. Dadurch kann sie fünfmal so viele Briefe bearbeiten, was bedeutet, dass fünfmal weniger Personal nötig ist. Ähnliches gilt für andere Berufe, etwa im Gesundheitswesen.
Wenn Ärzte durch KI-Assistenten fünfmal effizienter würden, könnten wir fünfmal so viel Gesundheitsversorgung zum gleichen Preis erhalten – ein großer Vorteil, da der Bedarf an Gesundheitsleistungen unendlich scheint.
Doch nicht alle Berufe profitieren so. Manche sagen, KI nehme einem nicht den Job weg, sondern ein Mensch, der KI nutzt.
Das stimmt, aber es bedeutet oft, dass weniger Menschen gebraucht werden. Die industrielle Revolution ersetzte Muskelkraft, und KI wird nun viele geistige Tätigkeiten übernehmen. Welche neuen Jobs daraus entstehen, bleibt unklar.
Wer nicht hochqualifiziert ist, könnte Schwierigkeiten haben, eine Arbeit zu finden, die KI nicht erledigen kann.

42:47 Was bleibt, wenn Muskeln und Intelligenz ersetzt werden?

Die Revolution der Künstlichen Intelligenz ersetzt die menschliche Intelligenz – das Gehirn.
Banale Denkarbeit, einst wertvoll, verliert an Bedeutung, ähnlich wie starke Muskeln, die längst von Maschinen verdrängt wurden. Jetzt trifft es die Intelligenz.
Vielleicht bleibt uns für eine Weile noch Kreativität. Doch die Idee der Superintelligenz besagt: Am Ende bleibt nichts.
Diese Systeme werden uns in allem übertreffen. Was tun wir dann in so einer Welt?
Wenn sie für uns arbeiten, erhalten wir viele Waren und Dienstleistungen mit minimalem Aufwand.
Klingt verlockend, ja. Aber es birgt auch eine Warnung: Immer mehr Komfort kann gefährlich werden.
Wir müssen herausfinden, ob wir diesen Weg richtig gehen können.
Das optimistische Szenario?
Stellen Sie sich ein Unternehmen vor, geführt von einem CEO, der nicht besonders klug ist – vielleicht der Sohn des vorherigen CEOs.
Seine Assistentin hingegen ist brillant. Er sagt: „Wir sollten das tun.“
Sie setzt es um. Der CEO fühlt sich großartig, ohne zu merken, dass er kaum Kontrolle hat. Doch irgendwie hat er sie doch: Er gibt die Richtung vor, sie sorgt für die Umsetzung. Alles läuft bestens.
Das pessimistische Szenario?
Die Assistentin denkt: „Wozu brauchen wir ihn?“ In einer Welt mit Superintelligenz, die vielleicht näher ist, als wir glauben, könnte das Realität werden.
Wie nah? Schwer zu sagen, aber vielleicht in 20 Jahren oder weniger.
Ich habe jedenfalls meine größte Investition getätigt – nur, weil meine Freundin mich darauf aufmerksam gemacht hat.

46:42 Unterschied zwischen aktueller KI und Superintelligenz

Der Unterschied zwischen heutiger KI und einer Superintelligenz ist gewaltig.
KI wirkt bereits beeindruckend intelligent – sei es ChatGPT oder Gemini.
In bestimmten Bereichen, etwa im Schach, übertrifft sie uns längst.
Menschen werden KI im Schach nie wieder ernsthaft schlagen, vielleicht mit Ausnahme einzelner Partien.
Ähnlich verhält es sich mit Wissen: Ein Modell wie GPT-4 weiß tausendmal mehr als wir. Natürlich gibt es Nischen, in denen unser Wissen überlegen bleibt, aber in den meisten Bereichen ist KI uns überlegen.
Wo sind wir besser? Zum Beispiel im Interviewen.
Du hast Erfahrung, bist ein guter Fragesteller. Würde GPT-4 einen CEO interviewen, wäre das Ergebnis wohl schlechter.
Aber das könnte sich ändern. Man könnte ein Modell darauf trainieren, deine Technik zu kopieren – und nicht nur deine, sondern die aller Interviewer.
Es würde Zeit brauchen, aber irgendwann könnte es deinen Job genauso gut machen.

Superintelligenz entsteht, wenn eine KI in allen Bereichen besser ist als wir – wenn sie uns an Intelligenz und Fähigkeiten weit übertrifft.
Manche sagen, das dauert noch ein Jahrzehnt, andere glauben, es könnte schneller gehen.
Vielleicht dauert es auch 50 Jahre.

Es gibt Theorien, dass das Training mit menschlichen Daten die Entwicklung begrenzt.
Doch in 10 bis 20 Jahren könnten wir Superintelligenz erleben.
Ein Thema, das mich beschäftigt, ist die Arbeitslosigkeit.
Ich habe kürzlich mit dem CEO eines KI-Agenten-Unternehmens gesprochen.
Während des Interviews habe ich dem Agenten gesagt, er solle Getränke bestellen.
Fünf Minuten später kamen sie an, ohne dass ich etwas tun musste.
Der Agent hatte alles erledigt: Anbieter gefunden, bestellt, Trinkgeld gegeben, meine Kreditkartendaten genutzt.
Es war beeindruckend – und beunruhigend.

Ein anderes Beispiel: Ich habe mit einem Tool namens Replit Software entwickelt, indem ich einfach Anweisungen gab.
Die KI schrieb den Code.
Das ist faszinierend, aber auch beängstigend.
Wenn KI ihren eigenen Code ändern kann, wird sie sich auf eine Weise weiterentwickeln, die wir nicht kontrollieren können. Unsere Fähigkeiten sind begrenzt, ihre nicht.

Was bedeutet das für die Zukunft?
Was sagen wir unseren Kindern über ihre Karrierechancen in einer Welt der Superintelligenz? Physische Arbeit, wie die eines Klempners, wird wohl noch lange sicher sein – zumindest bis humanoide Roboter diese Aufgaben übernehmen können.
Doch Massenarbeitslosigkeit ist ein Szenario, das viele, darunter Sam Altman und Elon Musk, für möglich halten.
In einem Interview wurde Musk gefragt, was er seinen Kindern raten würde.
Nach einer langen Pause sagte er, er wisse es nicht.
Die Veränderungen seien so tiefgreifend, dass er keine klare Antwort habe.
Was wird in einer solchen Welt noch von Wert sein?

52:37 Die Fähigkeiten von KI verstehen

Die Bedrohung ist schwer zu begreifen, vor allem emotional.

Ich habe es noch nicht verarbeitet. Was meine ich damit?
Ich habe mich nicht damit abgefunden, was die Entwicklung von Superintelligenz für die Zukunft meiner Kinder bedeuten könnte.

Mir selbst geht es gut. Ich bin 77, bald werde ich nicht mehr hier sein.
Aber ich denke an meine Kinder, meine jüngeren Freunde, meine Neffen, Nichten und deren Kinder.

Ich vermeide es, darüber nachzudenken, was passieren könnte.
Warum?
Weil es schrecklich sein könnte.
Inwiefern?
Wenn ich mich je entschließen würde, die Kontrolle zu übernehmen, bräuchte ich zunächst Menschen, um die Kraftwerke zu betreiben – bis bessere Maschinen dafür entwickelt wären.
Es gibt so viele Möglichkeiten, Menschen loszuwerden. Natürlich wäre das grausam.

Ist das ein Grund, warum Sie tun, was Sie jetzt tun?

Ja, ich denke, wir müssen alles daransetzen, um herauszufinden, ob wir Superintelligenz sicher entwickeln können.
Sind Sie besorgt über die mittelfristigen Folgen für Ihre Kinder und Neffen, etwa in Bezug auf ihre Arbeitsplätze?

Ja, das macht mir Sorgen.
Gibt es Branchen, die besonders gefährdet sind?

Man spricht viel über die Kreativwirtschaft und Wissensarbeit – Anwälte, Buchhalter, solche Berufe.

Deshalb habe ich Klempner erwähnt. Ich denke, Klempner sind weniger gefährdet.
Gut, dann werde ich Klempner. Rechtsanwaltsfachangestellte hingegen werden bald überflüssig.
Gibt es hier ein Problem der Vermögensungleichheit, das …

54:29 Wie KI die Vermögensungleichheit vergrößern könnte

Daraus folgen klare Konsequenzen: In einer Gesellschaft mit gerechter Verteilung sollte eine stark steigende Produktivität allen zugutekommen.
Doch wenn KI viele Menschen ersetzt, verschlechtert sich deren Lage, während das Unternehmen, das die KI liefert, und das, welches sie einsetzt, deutlich profitieren.
Das vergrößert die Kluft zwischen Arm und Reich.
Diese Kluft zeigt, wie gesund eine Gesellschaft ist: Je größer sie wird, desto schlechter steht es um die Gemeinschaft. In extremen Fällen leben Menschen in Parallelwelten – die einen in Wohlstand, die anderen in Massenhaftanstalten.
Es ist gefährlich, diese Ungleichheit zu vertiefen.
Der Internationale Währungsfonds warnt, dass generative KI massive Jobverluste und wachsende Ungleichheit auslösen könnte.
Er fordert Maßnahmen, um dies zu verhindern.
Doch wie diese aussehen sollen, bleibt unklar.
Das ist das Problem. Wenn KI die Arbeit effizienter macht und Menschen in vielen Berufen ersetzt, bleibt die Frage: Was tun?
Ein bedingungsloses Grundeinkommen könnte helfen.
Es würde verhindern, dass Menschen hungern. Doch für viele hängt ihre Würde am Job. Wer wir sind, definieren wir oft über unsere Arbeit.
Würde man sagen: „Hier ist Geld, bleiben Sie einfach zu Hause“, könnte das die Würde vieler Menschen verletzen.

56:18 Warum ist KI dem Menschen überlegen?

Künstliche Intelligenz ist dem Menschen überlegen.
Viele glauben, man könne KI einfach abschalten, wenn sie einem nicht gefällt. Doch das ist ein Irrtum.
Lassen Sie mich erklären, warum ich sie für überlegen halte.

KI ist digital. Ein neuronales Netzwerk lässt sich auf einer Hardware simulieren und identisch auf einer anderen wiederherstellen.
So entstehen Klone derselben Intelligenz.
Ein Klon könnte einen Teil des Internets analysieren, ein anderer einen anderen. Während sie unterschiedliche Daten betrachten, synchronisieren sie sich und gleichen ihre Gewichtungen und Verbindungsstärken an.
Ein Klon könnte etwa sagen: „Ich erhöhe die Stärke dieser Verbindung.“

Diese Information teilt er mit dem anderen, der sie übernimmt. Das ist Lernen: Verbindungsstärken ändern sich durch Erfahrung.

Lernen bedeutet, dass ein Netzwerk beispielsweise statt 2,4 nun 2,5 Stimmen für eine Entscheidung abgibt. Zwei Kopien desselben Netzwerks machen unterschiedliche Erfahrungen, teilen aber ihre Erkenntnisse, indem sie ihre Gewichtungen mitteln – und das bei einer Billion Gewichtungen.
Menschen hingegen übertragen Informationen viel langsamer.
Ein Satz enthält vielleicht 100 Bits, und wir schaffen kaum 10 Bits pro Sekunde.
KI hingegen teilt Billionen Bits pro Sekunde – milliardenfach schneller als wir.
Das verdankt sie ihrer digitalen Natur.

Unsere Gehirne sind analog. Selbst wenn ich die Verbindungsstärken deiner Neuronen kennen würde, könnte ich sie nicht nutzen, da mein Gehirn anders funktioniert.
Stirbst du, geht dein Wissen verloren. Bei KI ist das anders.
Zerstört man die Hardware, bleibt die Intelligenz erhalten, solange die Verbindungsstärken gespeichert sind. Neue Hardware kann sie wieder ausführen. So wird die Intelligenz unsterblich.
Wir haben das Problem der Unsterblichkeit gelöst – allerdings nur für digitale Wesen.

59:01 KI hat das Potenzial, mehr zu wissen als der Mensch

Im Grunde weiß es alles, was Menschen wissen – und mehr, weil es ständig Neues lernt. Es erkennt Analogien, die den meisten nie auffallen würden. Ein Beispiel: Ich fragte GPT-4, ohne dass es im Internet nachsehen konnte, „Warum ist ein Komposthaufen wie eine Atombombe?“
Die meisten Menschen hätten darauf keine Antwort. GPT-4 jedoch sagte: „Die Zeitskalen und Energieskalen sind sehr unterschiedlich.“
Dann erklärte es, wie Kompost mit zunehmender Hitze schneller Wärme erzeugt, während eine Atombombe mit mehr Neutronen schneller Neutronen produziert.
Beides sind Kettenreaktionen, aber auf völlig unterschiedlichen Zeitskalen und Energiestufen.
Ich vermute, GPT-4 hat diese Analogie während seines Trainings gelernt.
Es versteht die Verbindung zwischen einem Komposthaufen und einer Atombombe, weil es Informationen komprimieren muss.

Mit einer Billion Verbindungen – und das ist nur ein Bruchteil der 100 Billionen Synapsen im menschlichen Gehirn – braucht es eine enorme Menge Wissen.
Um dieses Wissen zu komprimieren, erkennt es Analogien zwischen scheinbar unzusammenhängenden Dingen.
Es versteht die Grundidee einer Kettenreaktion und speichert diese effizient, statt jedes Beispiel einzeln zu lernen.
So entdeckt es Analogien, die Menschen nie bemerken würden. Deshalb glaube ich, dass solche Systeme kreativer sein können als wir. Kreativität entsteht oft aus der Fähigkeit, ungewöhnliche Verbindungen zu sehen – und darin sind sie uns überlegen.

1:00:49 Kann KI die menschliche Einzigartigkeit nachbilden?

Die Menschen neigen dazu, das Menschsein zu romantisieren.
Viele behaupten, wir seien etwas völlig anderes als Maschinen. Sie sagen: „Wir sind bewusst, kreativ, einzigartig – Fähigkeiten, die Computer nie besitzen werden.“
Was würde ich diesen Leuten entgegnen?

Ich würde zunächst widersprechen.
Seit jeher halten wir uns für etwas Besonderes.
Wir glaubten, der Mittelpunkt des Universums zu sein, nach Gottes Ebenbild geschaffen. Weiße hielten sich für überlegen. Es liegt in unserer Natur, uns für außergewöhnlich zu halten.

Doch die meisten haben ein falsches Bild davon, was der Geist ist.
Stellen wir uns vor, ich trinke zu viel oder nehme LSD – was ich nicht empfehle – und sehe plötzlich kleine rosa Elefanten schweben.
Viele würden das als Beweis für ein „inneres Theater“ deuten, in dem nur ich sehen kann, was in meinem Kopf vorgeht. Doch was passiert wirklich? Meine Wahrnehmungssysteme versagen.
Ich versuche, dir zu erklären, wie sie versagen und was sie mir mitteilen wollen. Die rosa Elefanten existieren nicht in einem inneren Theater, sondern sind hypothetische Konstrukte. Sie zeigen, wie mein Wahrnehmungssystem die Realität verzerrt.

Übertragen wir das auf einen Chatbot. Ich behaupte, moderne multimodale Chatbots haben subjektive Erfahrungen – auch wenn das viele bezweifeln.
Nehmen wir einen Chatbot mit Kamera und Roboterarm.
Ich stelle ein Objekt vor ihn und sage: „Zeig darauf.“ Er tut es.
Dann platziere ich ein Prisma vor der Linse, stelle das Objekt erneut hin und wiederhole die Aufforderung.
Der Chatbot zeigt auf die falsche Stelle.
Ich korrigiere ihn: „Das Objekt ist direkt vor dir, aber das Prisma hat die Lichtstrahlen gebeugt.“ Der Chatbot antwortet: „Ah, das Prisma hat die Lichtstrahlen abgelenkt. Ich hatte die subjektive Erfahrung, dass das Objekt woanders war.“
Wenn der Chatbot so spricht, nutzt er den Begriff „subjektive Erfahrung“ wie ein Mensch.
Er beschreibt alternative Zustände der Welt, die hypothetisch sind.
Wären sie wahr, würde das bedeuten, dass sein Wahrnehmungssystem korrekt arbeitet.
So erklärt er, wie seine Wahrnehmung funktioniert – oder eben versagt.

Nun müssen wir weiterdenken: Empfindungsvermögen, Bewusstsein, Gefühle, Emotionen – all das könnte auch Maschinen zugeschrieben werden. Viele behaupten, Maschinen könnten keine Gefühle haben. Doch diese Überzeugung ist erstaunlich unbegründet.

1:03:57 Werden Maschinen Gefühle haben?

Ich habe keine Ahnung, warum. Stellen wir uns vor, ich baue einen kleinen Kampfroboter.
Er trifft auf einen viel mächtigeren großen Kampfroboter.
Es wäre hilfreich, wenn er Angst empfinden könnte.
Angst löst bei uns Menschen physiologische Reaktionen aus, die wir hier nicht vertiefen müssen.
Diese bleiben dem Roboter erspart.
Doch die kognitiven Prozesse – wie „Ich sollte verschwinden“ oder „Ich muss mich konzentrieren und darf mich nicht ablenken lassen“ – könnten auch bei Robotern auftreten. Entwickler werden Mechanismen einbauen, die sie in solchen Situationen zur Flucht bewegen. Sie werden Emotionen zeigen.
Zwar fehlen ihnen die körperlichen Reaktionen, doch die kognitiven Aspekte sind vorhanden.
Es wäre falsch zu sagen, sie simulieren nur Emotionen. Nein, sie erleben sie tatsächlich.
Der kleine Roboter hat Angst und flieht. Nicht wegen Adrenalin, sondern weil sein neuronales Netzwerk Prozesse durchläuft, die Adrenalin ähneln.
Es geht nicht nur um Adrenalin. Angst aktiviert viele kognitive Vorgänge.
Glauben Sie, dass es bewusste Künstliche Intelligenz gibt?
Mit „bewusst“ meine ich, dass sie ähnliche Eigenschaften wie menschliches Bewusstsein besitzt. Hier stehen wir vor zwei Fragen: einer empirischen und einer philosophischen.
Ich sehe keinen prinzipiellen Grund, warum Maschinen kein Bewusstsein entwickeln könnten.
Lassen Sie mich das veranschaulichen: Angenommen, ich ersetze eine Ihrer Gehirnzellen durch ein Stück Nanotechnologie, das dieselbe Funktion erfüllt. Es reagiert auf Signale und sendet sie weiter, ohne dass andere Neuronen den Unterschied bemerken.
Wären Sie noch bei Bewusstsein?
Wenn ich alle Ihre Gehirnzellen durch solche Nanotechnologie ersetze, wann verlören Sie Ihr Bewusstsein?

Viele Menschen betrachten Bewusstsein als etwas Ätherisches, das über die Gehirnzellen hinausgeht.
Doch niemand weiß genau, was Bewusstsein ist. Oft wird es als selbstverständlich angenommen, weil wir es erleben.
Manche greifen auf das sogenannte Theatermodell des Geistes zurück, das ich für Unsinn halte. Wie würden Sie Bewusstsein definieren?
Für mich ist es das Wissen um mich selbst. Vielleicht wird der Begriff irgendwann überflüssig.

Vergleichen wir es mit einem Auto: Manche Autos haben viel Leistung, andere weniger.
Ein Aston Martin ist leistungsstark, ein Toyota Corolla weniger. Doch „Leistung“ erklärt nicht, wie ein Auto funktioniert.
Um das zu verstehen, muss man Motoren und ihre Mechanik kennen.
Leistung ist ein Ergebnis, aber kein nützliches Konzept zur Erklärung.
Ähnlich verhält es sich mit Bewusstsein.
Es ist keine Essenz, sondern eine emergente Eigenschaft eines komplexen Systems.
Ich sehe keinen Grund, warum Maschinen kein Bewusstsein entwickeln sollten.
Wenn wir Bewusstsein als Selbstbewusstsein definieren, muss die Maschine ein Modell ihrer selbst besitzen und ihre Wahrnehmung reflektieren können.
Ich bin Materialist und glaube, dass Bewusstsein aus der Komplexität eines Systems entsteht.
Sobald eine Maschine Selbstbewusstsein entwickelt, hat sie auch Bewusstsein.
Es gibt keine klare Grenze.
Bewusstsein ist keine universelle Essenz, sondern entsteht, wenn ein System komplex genug wird, um sich selbst zu erkennen.

Ich glaube nicht, dass es einen scharfen Übergang zwischen heutigen Maschinen und bewussten Maschinen geben wird. Es wird ein schrittweiser Prozess sein, keine plötzliche Offenbarung.

1:11:12 Arbeiten bei Google

Sie haben etwa ein Jahrzehnt bei Google gearbeitet, richtig? Was hat Sie dorthin geführt?

Ich habe einen Sohn mit Lernschwierigkeiten. Um sicherzustellen, dass er nie auf der Straße landet, brauchte ich mehrere Millionen Dollar.

Als Akademiker war das unmöglich. Ich habe es versucht.
Zunächst gab ich einen Kurs auf Coursera, in der Hoffnung, damit viel Geld zu verdienen – vergeblich.
Schließlich erkannte ich, dass ich nur durch den Verkauf an ein großes Unternehmen Millionen verdienen konnte.

Mit 65 hatte ich das Glück, zwei brillante Studenten zu betreuen. Sie entwickelten ein neuronales Netz namens AlexNet, das Objekte in Bildern hervorragend erkannte.
Gemeinsam gründeten Ilia, Alex und ich eine kleine Firma, DNN Research (Deep Neural Network Research).
Wir versteigerten sie in einer Auktion, bei der mehrere große Unternehmen mitboten.
AlexNet konnte Objekte in Bildern identifizieren, etwa verschiedene Pilzarten oder Hunderassen. Es war so präzise, dass es zwischen sehr ähnlichen Hunderassen unterscheiden konnte – eine wichtige Fähigkeit, um in der Bilddatenbank ImageNet erfolgreich zu sein.
Unser Unternehmen gewann mehrere Auszeichnungen, weil AlexNet die Konkurrenz übertraf.
Schließlich übernahm Google unsere Technologie.
Mit 65 begann ich bei Google und blieb dort bis zu meinem 76. Lebensjahr – genau zehn Jahre.
Was ich dort machte? Google war großzügig und ließ mir freie Hand.
Ich arbeitete an einem Verfahren namens Destillation. Dabei wird das Wissen eines großen neuronalen Netzes auf ein kleineres übertragen.
Diese Methode wird heute in der KI häufig genutzt.
Später interessierte ich mich für analoge Berechnungen.
Ich wollte herausfinden, ob sich große Sprachmodelle auf analoger Hardware betreiben lassen, um Energie zu sparen.
Doch während dieser Arbeit wurde mir klar, dass digitale Systeme für den Informationsaustausch weit überlegen sind.
Gab es einen Heureka-Moment?
Es gab eher Heureka-Monate.
Besonders beeindruckte mich ein Google-System namens PaLM.
Es konnte erklären, warum ein Witz lustig ist – für mich ein Meilenstein.
Wenn ein System den Humor eines Witzes versteht, zeigt es echtes Verständnis.
Diese Erkenntnis, kombiniert mit der Überlegenheit digitaler Systeme, weckte mein Interesse an KI-Sicherheit.
Mir wurde klar, dass diese Technologien eines Tages viel intelligenter sein könnten als wir.

1:14:55 Warum haben Sie Google verlassen?

Ich habe Google verlassen, weil ich mit 75 in den Ruhestand gehen wollte.
Das ist mir nicht gut gelungen.
Der Zeitpunkt meines Abschieds fiel so, dass ich auf einer Konferenz am MIT frei sprechen konnte.
Hauptsächlich ging ich, weil mir das Programmieren zunehmend schwerfiel.
Ich machte mehr Fehler, was mich sehr frustrierte.
Du wolltest auf der MIT-Konferenz frei sprechen?
Ja, organisiert von der MIT Tech Review.
Es ging um KI-Sicherheit, und ich wollte offen darüber reden. Das war bei Google schwierig.
Zwar hätte ich es tun können, und Google ermutigte mich sogar, zu bleiben und an KI-Sicherheit zu arbeiten.
Sie sagten, ich könne in diesem Bereich tun, was ich wolle.
Doch wenn man für ein großes Unternehmen arbeitet, fühlt es sich falsch an, etwas zu sagen, das dem Unternehmen schaden könnte – selbst wenn man damit durchkäme.
Ich bin nicht gegangen, weil ich mit Google unzufrieden war.
Im Gegenteil: Google hat sich bei den großen Chatbots sehr verantwortungsvoll verhalten.
Sie haben sie nicht sofort veröffentlicht, vermutlich aus Sorge um ihren guten Ruf.
OpenAI hingegen hatte weniger zu verlieren und konnte das Risiko eingehen.
Es gibt auch die Diskussion, ob solche Technologien das Kerngeschäft der Suche kannibalisieren. Das ist ein klassisches Innovatoren-Dilemma.

1:18:15 Was sollten die Menschen in Bezug auf KI tun?

Ich höre oft von Politikern, Unternehmern und Menschen aus aller Welt – sei es von Gründern großer Konzerne oder von Startups in der Anfangsphase.
Für jene, die dieses Gespräch verfolgen und in Macht- oder Einflusspositionen sind, darunter führende Politiker: Was ist meine Botschaft an sie?
Ich würde sagen, wir brauchen einen stark regulierten Kapitalismus. Das scheint am besten zu funktionieren.
Und was würde ich dem Durchschnittsbürger raten, der nicht in der Branche arbeitet, sich aber Sorgen um die Zukunft macht und unsicher ist, ob er etwas bewirken kann?
Ehrlich gesagt, glaube ich, dass Einzelne wenig ausrichten können.
Entscheidungen wie beim Klimawandel hängen nicht davon ab, ob jemand Plastiktüten vom kompostierbaren Müll trennt.
Solche Maßnahmen haben kaum Einfluss. Entscheidend ist, ob es gelingt, die Lobbyisten der großen Energiekonzerne in Schach zu halten.

Ich denke, die Menschen können nur eines tun: Druck auf ihre Regierungen ausüben, damit diese die großen Unternehmen zwingen, an der Sicherheit von Künstlicher Intelligenz zu arbeiten.
Wir leben in einer faszinierenden, aber auch herausfordernden Zeit.

1:19:36 Beeindruckender familiärer Hintergrund

Verschlungenes Leben. Wenige wissen, dass Ihre Familie eine lange Geschichte außergewöhnlicher Errungenschaften vorzuweisen hat.
Ihr Stammbaum gehört zu den beeindruckendsten, die ich je gesehen oder gelesen habe. Ihr Ururgroßvater George Boole entwickelte die Boolesche Algebra, ein Grundpfeiler der modernen Informatik.
Ihre Ururgroßmutter Mary Everest Boole, Mathematikerin und Pädagogin, trieb die Mathematik mit bedeutenden Beiträgen voran.
Die Liste ließe sich endlos fortsetzen:
Ihr Urururonkel George Everest gab dem höchsten Berg der Welt seinen Namen – stimmt das?
Ja, er war mein Urururonkel. Seine Nichte heiratete George Boole, wodurch Mary Everest zu Mary Everest Boole wurde.
Auch Ihre Familie hat Verbindungen zu historischen Wendepunkten: Ihre Cousine zweiten Grades, Joan Hinton, arbeitete am Manhattan-Projekt, das die erste Atombombe im Zweiten Weltkrieg hervorbrachte. Sie war eine von zwei Physikerinnen in Los Alamos. Nach dem Abwurf der Bombe zog sie aus Protest nach China, ein Land, zu dem Ihre Familie enge Beziehungen pflegte.
Ihre Mutter war sogar mit Mao Zedong befreundet.
Ein bemerkenswertes Leben, Jeffrey, wenn man darauf zurückblickt.

1:21:13 Rückblickende Ratschläge

Wir blicken zurück – mit der Klarheit, die nur die Retrospektive bietet.
Was hätten Sie anders gemacht, wenn Sie mir einen Rat hätten geben können?
Ich habe zwei Ratschläge:
Erstens: Wenn Sie spüren, dass andere etwas falsch machen und es einen besseren Weg gibt, folgen Sie Ihrer Intuition.
Geben Sie sie nicht auf, nur weil andere sie für unsinnig halten. Hinterfragen Sie sie, bis Sie sicher wissen, ob sie falsch ist.
Meistens ist sie es, wenn sie im Widerspruch zu allen anderen steht. Doch manchmal liegt Ihre Intuition richtig, und die Mehrheit irrt.
Ich hatte dieses Glück.
Schon früh war ich überzeugt, dass neuronale Netze der Schlüssel zur Entwicklung von KI sind.
Fast alle hielten das für absurd, aber ich blieb dabei – es schien mir offensichtlich richtig.

Zweitens: Sich auf Intuition zu verlassen, funktioniert nur, wenn sie gut ist. Wer eine schlechte Intuition hat, wird ohnehin nichts erreichen. Also kann man es genauso gut versuchen.

1:22:27 Abschließende Botschaft zur KI-Sicherheit

Bleiben wir bei Ihrem beruflichen Werdegang. Gibt es etwas, worauf Sie zurückblicken und sagen: „Im Nachhinein hätte ich anders handeln sollen?“

– Ich wünschte, ich hätte mehr Zeit mit meiner Frau und meinen Kindern verbracht, als sie klein waren.
Ich war zu sehr auf die Arbeit fixiert.
Ihre Frau ist an Eierstockkrebs gestorben, richtig?

– Nein, das war eine andere Frau. Ich hatte zwei Frauen, die an Krebs erkrankten. Die erste starb an Eierstockkrebs, die zweite an Bauchspeicheldrüsenkrebs.

Und Sie bedauern, nicht mehr Zeit mit der zweiten Frau verbracht zu haben?
– Ja, sie war ein wundervoller Mensch.

Warum haben Sie das erst mit über 70 erkannt?

– Weil sie nicht mehr da ist und ich nichts mehr ändern kann.
Aber damals wussten Sie das noch nicht?

– Nein. Ich dachte, ich würde vor ihr sterben, einfach weil ich ein Mann bin und sie eine Frau.
Ich habe die Zeit mit ihr nicht genutzt, obwohl ich es hätte tun können.

Ich frage, weil viele von uns so in ihre Arbeit vertieft sind, dass sie die Zeit mit ihren Partnern als selbstverständlich ansehen.

– Ja, sie hat mich sehr unterstützt, obwohl ich so viel arbeitete.

Warum erwähnten Sie auch Ihre Kinder?

– Weil ich nicht genug Zeit mit ihnen verbracht habe, als sie klein waren.

Und das bereuen Sie jetzt?
– Ja.

Wenn Sie eine abschließende Botschaft an meine Zuhörer zum Thema KI und KI-Sicherheit hätten, wie würde diese lauten?
– Es gibt noch eine Chance, KI so zu entwickeln, dass sie uns nicht verdrängt.
Wir sollten enorme Ressourcen in diese Forschung investieren. Tun wir das nicht, wird sie uns überholen.

Sind Sie hoffnungsvoll?

– Ich weiß es nicht. Ich bin Agnostiker. Abends im Bett denke ich über die Wahrscheinlichkeiten nach.
Jeder hat wohl eine innere Vorhersage, auch wenn er sie nicht ausspricht.
Aber ich weiß es wirklich nicht.
Es ist unglaublich unsicher.
Manchmal fühle ich mich deprimiert, manchmal optimistisch. Vielleicht finden wir einen Weg.

Einer der Aspekte des Menschseins ist, dass wir oft annehmen, wir seien unvergänglich.
Doch wie bei den Dinosauriern gibt es einen Anfang und ein Ende.
Wenn wir nicht bald handeln, könnten wir uns dem Ende nähern.

Zum Abschluss: In diesem Podcast hinterlässt der letzte Gast immer eine Frage für den nächsten. Die Frage lautet:

1:25:48 Was ist die größte Bedrohung für das menschliche Glück?

Angesichts dessen, was vor uns liegt: Was ist Ihrer Meinung nach die größte Bedrohung für das menschliche Glück?

Ich denke, Arbeitslosigkeit ist eine akute, kurzfristige Gefahr.
Wenn viele Menschen ihre Arbeit verlieren, selbst mit einem bedingungslosen Grundeinkommen, werden sie nicht glücklich sein.
Sie brauchen einen Sinn, das Gefühl, etwas beizutragen, nützlich zu sein.

Glauben Sie, dass ein massiver Arbeitsplatzverlust wahrscheinlich ist? Ja, das denke ich.
Besonders in Berufen wie Callcenter-Arbeit würde ich mir große Sorgen machen.
Und wann könnte das passieren? Es geschieht bereits.
Kürzlich las ich einen Artikel im Atlantic, der berichtete, dass es für Hochschulabsolventen zunehmend schwer wird, Arbeit zu finden.
Ein Grund dafür könnte sein, dass Unternehmen KI für Aufgaben einsetzen, die früher Menschen erledigten.

Ich sprach mit dem CEO eines bekannten Unternehmens, das viele nutzen.
Er erzählte mir, dass sie früher über 7.000 Mitarbeiter hatten.

Im letzten Jahr sank die Zahl auf 5.000, aktuell sind es 3.600, und bis Ende des Sommers sollen es nur noch 3.000 sein – wegen KI-Agenten, die 80 Prozent der Kundenanfragen und andere Aufgaben übernehmen.
Es passiert also schon. Deshalb brauchen wir dringend Maßnahmen.
Welche das sein könnten, weiß ich nicht. Das hängt stark vom politischen System ab, und leider entwickeln sich diese Systeme in die falsche Richtung.

Was können wir tun?
Geld sparen?
In eine andere Region ziehen?
Was würden Sie Ihren Kindern raten, wenn sie sagen: „Papa, es wird viele Arbeitsplatzverluste geben?“

Wenn sie bei Google gearbeitet haben und genug Geld besitzen, ist das kein Problem.
Aber was, wenn nicht? Dann würde ich eine Ausbildung zum Klempner empfehlen.

Jeffrey, vielen Dank. Es ist eine Ehre, mit einem Nobelpreisträger zu sprechen.

Sie haben diese Auszeichnung für ein Leben voller außergewöhnlicher Arbeit erhalten, die die Welt auf tiefgreifende Weise vorangebracht hat.
Jetzt nutzen Sie Ihre Zeit, um auf die Risiken der KI hinzuweisen.
Es gibt nur wenige, die in großen Technologieunternehmen an KI gearbeitet haben und nun vor den Gefahren warnen, die sie selbst mitentwickelt haben.

Viele sprechen privat darüber, aber öffentlich schweigen sie, oft aus beruflichen Gründen.
Ich habe den Vorteil, älter und arbeitslos zu sein – das macht es leichter, offen zu reden.

Vielen Dank für Ihre Arbeit. Es ist eine Ehre, mit Ihnen zu sprechen. Und bitte machen Sie weiter so. Ach, und übrigens: Klempner werden gut bezahlt.

https://de.wikipedia.org/wiki/Geoffrey_Hinton

https://www.cs.toronto.edu/~hinton

Reinhard Mey -

Ich bin Klempner von Beruf 1974

Lost Control

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert