Was bisher geschah – Entwicklung der KI bis heute

Der Begriff »Künstliche Intelligenz« ist einem ständigen Wandel unterworfen. Maschinelle Fähigkeiten, die im 20. Jahrhundert als »Künstliche Intelligenz« bezeichnet wurden, haben nicht viel mit jenen Fähigkeiten zu tun, die wir heute als KI bezeichnen, und diese wiederum haben wohl nicht viel mit jenen zu tun, die wir z. B. in zehn Jahren so nennen werden. Hinzu kommt, dass schon alleine »Intelligenz« sehr schwer zu definieren ist, vor allem wenn es sowohl um menschliche als auch um maschinelle Intelligenz und deren Vergleich geht.

Ganz klar ist hingegen das Ziel: Maschinen zu entwickeln, die alle kognitiven Fähigkeiten von Menschen haben – die also wie Menschen denken, lernen, Probleme lösen und planen können.

Auf  dem Weg zu diesem Ziel sind in den letzten Jahrzehnten große Fortschritte gemacht worden. Die ersten erfolgreichen Versuche gab es in den 1950er-Jahren (z. B. von Herbert Simon und Allen Newell mit »Logic Theorist« und »General Problem Solver«). Durch Backpropagation gelang es in den 1980er-Jahren erstmals, neuronale Netzwerke herzustellen, die effektiv lernen konnten (Seppo Linnainmaa, David Rumelhart, Paul Werbos, Geoffrey Hinton). Im Anschluss wurden Convolutional Neural Networks (CNNs) entwickelt, die mithilfe von Backpropagation trainiert wurden (Alex Waibel und Yann LeCun in den späten 1980er-Jahren, aufbauend auf den wissenschaftlichen Errungenschaften von Kunihiko Fukushima aus den 1970er-Jahren). CNNs waren besonders gut für die Bilderkennung geeignet.

Der Wendepunkt

Einen Wendepunkt in der Geschichte der KI stellt die Entwicklung und Veröffentlichung von AlexNet dar (2012, Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton an der University of Toronto). AlexNet demonstrierte die Leistungsfähigkeit von Deep CNNs, leitete eine Welle des Interesses und der Forschung ein und trug auch maßgeblich (wohl zunächst ungewollt) zur Kommerzialisierung der KI-Forschung bei.

Der letzte große Durchbruch

2017 wurde von für Google tätigen Wissenschaftern die Arbeit »Attention is all you need« (die Basis für GPT) veröffentlicht, in der die Transformer-Architektur (das »T« in GPT) vorgestellt wurde, die die Leistungsfähigkeit von neuronalen Netzwerken erheblich verbesserte. Durch diese Technologie wurde es möglich, Large Language Models mit großen Mengen an Textdaten vorab zu trainieren (pre-trained, das »P« in GPT) und durch Fine-Tuning für bestimmte Aufgaben wie z. B. das Generieren (das »G« in GPT) von Texten oder Bildern zu optimieren. Schon in den 1990er-Jahren gab es erste Ansätze, die der Transformer-Technologie ähnlich waren. Es standen damals aber nicht ausreichend leistungsstarke Computer zur Verfügung, um diese erfolgreich weiterzuentwickeln. Generell gilt: Viele der Fortschritte der letzten beiden Jahrzehnte waren nur durch rasant besser werdende Hardware möglich.

Seit dem Transformer-Paper ist Generative Künstliche Intelligenz (GAI) die vielleicht wichtigste Technologie der Gegenwart. Große Tech-Konzerne (z.B. Alphabet, Meta, Microsoft, Apple, Amazon, Nvidia) und neue Unternehmen (z.B. OpenAI, Anthropic, Mistral, X.ai) investieren Hunderte Milliarden Dollar in die Entwicklung von LLMs und in die nötige Hard- und Software. Im Monatsrhythmus kommen neue Versionen von LLMs und neue KI-Tools auf den Markt.

Was von der breiten Öffentlichkeit als ein plötzlich eintretendes Ereignis wahrgenommen wurde (die Veröffentlichung von GPT-3.5 im November 2022), war also vielmehr Ergebnis jahrzehntelanger Forschungs- und Entwicklungsarbeit, die teilweise mühsam und ohne Anerkennung war und die überwiegend an Universitäten auf der ganzen Welt (hauptsächlich in Europa, Nordamerika und Japan) geleistet wurde.

Dominanz der USA

Über Jahrzehnte hat die Entwicklung der KI auf Universitäten und in wissenschaftlichen Kreisen stattgefunden. Auch wenn Durchbrüche in Konzernen wie AT&T (Bell Labs) erzielt wurden, wurden sie mit allen geteilt. Als 2012 mit der Präsentation von Alexnet klar wurde, wie mächtig maschinelle neuronale Netzwerke sein können, hat sich das rasch geändert. Heute passieren Forschung und Weiterentwicklung auf diesem Gebiet zum Großteil in US-amerikanischen Konzernen oder auch in finanziell sehr gut ausgestatteten und rasant wachsenden US-Start-ups – und die Ergebnisse werden oft nicht mehr geteilt, sondern als Geheimnisse gehütet.
Wir empfinden es als einigermaßen unerträglich, dass der Menschheitstraum Künstliche Intelligenz über Jahrzehnte (wenn man die Entwicklung von Computern mitrechnet fast schon ein Jahrhundert) von Forschern und Mathematikern in Europa, Japan und Nordamerika langsam aber stetig in offener Forschung entwickelt wurde – und auf den letzten 100 Metern amerikanisches Kapital das alles an sich reißt. So ist es aber nun einmal und wir in Europa müssen mit den vielen negativen Konsequenzen leben (für ein Beispiel siehe hier), die daraus entstehen. Oder auch nicht – siehe unsere Forderungen an Politik und Behörden.

Artificial Intelligence (AI)
auf Deutsch: Künstliche Intelligenz (KI)

Der Begriff wurde 1955 erstmals eingeführt und beinhaltet mittlerweile viele Disziplinen. »Künstliche Intelligenz« ist ein Überbegriff für verschiedenste Formen maschineller Lern- und Denkfähigkeit, bezeichnet aber auch den jeweils aktuellen Entwicklungsstand ebendieser.

Mit »KI« ist also oft das gemeint, was aktuell auf diesem Gebiet gerade Stand der Technik ist.

Viele Definitionen klingen so ähnlich wie:
»Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu erlangen.«

Es ist strittig, ob aktuelle Systeme diese Anforderungen bereits erfüllen und wenn ja, wie intelligent sie im Vergleich zu einem Menschen sind. 

Manche KI-Forscher bzw. Entwickler gingen im Mai 2023 davon aus, dass GPT-4 so intelligent ist wie ein dreijähriges Kind. Das ist beachtlich. Mittlerweile ist von der Intelligenz eines 8-jährigen Kindes die Rede.

Manche Tests ergeben für GPT-4 in spezifischen, eng umgrenzten Fachbereichen bereits einen IQ von 150. Als Mensch wäre man damit ein Genie.

Machine Learning (ML)
auf Deutsch: Maschinelles Lernen (ML)

Ein KI-System betreibt u.a. ML, insofern ist ML einer der Bestandteile einer KI. Entwicklungsgeschichtlich könnte man ML auch als einer der Vorstufen zu KI ansehen. Ein ML-System kann auf Basis antrainierter Daten Muster erkennen und dann Dinge erkennen/kreieren/verstehen, die über die ihm gefütterten Daten hinausgehen.

Deep Learning (DL)

Das ist eine Sonderform (bzw. eine Weiterentwicklung) des Maschinellen Lernens, die künstliche neuronale Netze in mehreren Schichten einsetzt. Maschinelles Lernen setzt Algorithmen zur Datenanalyse ein, Deep Learning legt Algorithmen in Schichten an, um ein neuronales Netzwerk zu erstellen.

Artificial General Intelligence (AGI)
auf Deutsch: Künstliche allgemeine Intelligenz

AGI bezeichnet ein KI-System, das alle Aufgaben verstehen/lösen kann, die ein Mensch beherrscht. Vielen an der KI Forschenden gefallen der Ausdruck und die Abkürzung nicht, weil maschinelle und menschliche Intelligenz unterschiedliche Stärken und Schwächen haben und daher ein Vergleich der »generellen« Intelligenz sehr schwierig ist. Sie bevorzugen die Abkürzung HLMI, die für Human Level Machine Intelligence oder auch High Level Machine Intelligence steht. Gemeint ist damit aber immer das Gleiche: Maschinen, die die kognitiven Fähigkeiten eines erwachsenen Menschen haben.

Über die aktuelle Entwicklungsstufe von AGI und vor allem den Zeithorizont zukünftiger Entwicklungsschritte gehen die Meinungen von KI-Forschern weit auseinander. Manche (immer weniger) sagen, dass AGI niemals erreicht werden kann. Andere glauben, dass es noch Jahrzehnte dauern wird. Wieder andere sprechen von einigen Jahren, so sagte z.B. Ilya Sutskever in einem Interview, dass er AGI bis zum Jahre 2030 erwartet. Yann LeCun wird nicht müde zu betonen, dass es noch sehr viel länger dauern wird – und wir aktuell noch nicht einmal wissen, wie wir die Maschinen so intelligent wie eine Hauskatze machen können.

Am 9. Juli 2024 hat OpenAI in einem internen Memo die erwarteten Schritte zur AGI bekannt gegeben:
1) »Conversational AI« – bereits erreicht
2) »Reasoners« (schlussfolgern, …) – demnächst erreicht
3) »Agents« (selbstständig agierende Systeme)
4) »Innovators« (selbstständig Neues entwickeln)
5) »Organizations« (agieren als komplette Organisationen)
Wobei eben bei Level 5 AGI in etwa erreicht wäre.
Der Zeithorizont? Bei OpenAI rechnet man mit weniger als 10 Jahren.

Mit der Definition dieser Entwicklungsschritte stimmt OpenAI übrigens größtenteils mit Yann LeCun überein, der sagt, dass wir andere Dinge als LLMs brauchen, um AGI zu erreichen, weil es LLMs an Folgendem mangelt:
1) echtem Verständnis der physischen Welt
2) Fähigkeit zu Reasoning, also Schlussfolgern und komplexes Denken
3) Fähigkeit zu planen
4) einem Gedächtnis
Die aktuellen LLMs werden das auch theoretisch nie können. Entweder es werden also die LLMs weiterentwickelt oder – und das ist wahrscheinlicher – wir brauchen eben andere Technologien. Jedenfalls bedarf es noch einiger wissenschaftlicher Durchbrüche auf dem Weg zu AGI bzw. HLMI. Es liegt im Wesen von wissenschaftlichen Durchbrüchen, dass sie nicht vorhersehbar sind, daher sollte man Prognosen – egal von wem – mit Vorsicht genießen.

Super Intelligence (SI)
auf Deutsch: Superintelligenz

Dieser Begriff bezeichnet eine Künstliche Intelligenz, die jene des Menschen bei Weitem übertrifft. Diese könnte z.B. durch eine Intelligenzexplosion erreicht werden. Unter Intelligenzexplosion versteht man ein plötzliches, von Menschen nicht kontrolliertes Anwachsen der Intelligenz durch eine sich selbst weiterentwickelnde AGI. Oder anders ausgedrückt: AGI-Systeme verbessern und entwickeln sich selbst – und zwar wesentlich schneller als dies Menschen könnten.

Generative Artificial Intelligence (GAI)
auf Deutsch: generative Künstliche Intelligenz

Dieser Begriff bezeichnet KI-Systeme, die Texte, Bilder, Musik, Videos, Code oder andere Daten erzeugen können. ChatGPT, Midjourney, Udio, Sora usw. sind Anwendungsbeispiele für GAI. GAI wurde in der heutigen Form durch LLMs möglich und ist die Technologie der Stunde. Oft meint man GAI-Systeme, wenn man von KI spricht.

Chatbot
auf Deutsch: Plaudermaschine (kleiner Scherz)

Chatbot ist kein glücklicher Begriff. Erstens verbinden viele Menschen damit die herkömmlichen, wenig intelligenten Chatbots, in denen man sich als Kunde mühsam durch Entscheidungsbäume mit vorgegebenen Optionen hanteln musste. Und zweitens können KI-Systeme wie GPT sehr viel mehr, als nur chatten. Ausführliche Erklärungen dazu gibt es weit unten auf dieser Seite oder auch auf unserer Test-Bot-Seite.

Hallucinate
auf Deutsch: Halluzinieren

Dieser Begriff hat sich als Fachausdruck etabliert für den Umstand, dass Chatbots gerne auch Unwahrheiten behaupten. Und das mit vollster Überzeugung. Manchmal führen sie dafür auch Quellen oder Studienergebnisse an, die es gar nicht gibt. Weil sie nämlich aus den Daten, mit denen sie trainiert wurden, gelernt haben, dass oft Quellen angeführt werden. Also tun sie das auch. Und weil schon ihre Grundaussage nicht stimmt, kann es auch keine Quellen dafür geben. Das ist den Chatbots egal, sie erfinden einfach alles dazu – und das sehr überzeugend.

Es ist gar nicht leicht, den Chatbots das Halluzinieren abzugewöhnen. Das Phänomen zieht sich durch alle bekannten LLMs aller Anbieter und Entwickler. Es wird daran gearbeitet und Verbesserungen sind bemerkbar. GPT-4 halluziniert z.B. deutlich weniger als die Vorgängerversion GPT-3.5. Es ist aber ungewiss, ob das Halluzinieren von LLMs nicht systemimmanent ist. Das würde bedeuten, dass wir dieses Halluzinieren erst mit einer neuen Technologie völlig abstellen können.

Auch wenn sich dieser Begriff etabliert hat, ist auch er nicht glücklich gewählt. Denn mit dem menschlichen Halluzinieren hat das, was die Chatbots machen, nichts zu tun. Eher betreiben sie »Bullshitting«, faseln also im Brustton der Überzeugung Blödsinn.

Generative Pretrained Transformer (GPT)
und Large Language Model (LLM)

GPT ist eine weiterentwickelte Form eines sogenannten Large Language Model (LLM). Das US-amerikanische Unternehmen OpenAI (genauer: Ilya Sutskever, Mitgründer von OpenAI und bis Mai 2024 dessen Chief Scientist) erkannte das Potenzial dieser 2017 in der mittlerweile berühmten wissenschaftlichen Arbeit »Attention is all you need« vorgestellten Technologie und entwickelte eigene Versionen. 2020 stellte es seine dritte Version – »GPT-3« – erstmals vor. Im November 2022 wurde der darauf basierende Chatbot ChatGPT vorgestellt und hat einen regelrechten Hype ausgelöst. Im März 2023 wurde GPT-4 veröffentlicht. Dieses Modell war bis 20. Juni 2024 (siehe weiter unten) das leistungsstärkste öffentlich zugängliche Modell. Aufgrund von extrem großen Datenmengen, mit denen es gefüttert wurde (daher das erste L in »LLM«: Large), sind die Ergebnisse beeindruckend. Beim bzw. nach dem Trainieren hat sich Folgendes herausgestellt: Durch das Erlernen statistischer Korrelationen in einer riesigen Anzahl von Texten lernt das neuronale Netzwerk irgendwie auch über den Prozess, der diese Texte erstellt hat. All diese Texte sind eine Art Projektion der Welt. Daher lernt das neuronale Netzwerk etwas über die Welt, über die Menschen, ihr Befinden, ihre Hoffnungen und Motive – vor allem wenn die Textmengen riesig und die Daten-Kompression sehr gut sind. Und so kann es Texte durchaus »verstehen« (je nach Definition von Verständnis), wie auch wir in eigenen Tests nachweisen konnten. Dieses Textverständnis könnte man auch als eine der Emergent Abilities sehen. Und weil GPT eben ein »Transformer« ist, also eine spezielle Form eines neuronalen Netzwerks, kann es (durch einen faszinierenden, vielschichtigen Prozess, der einen Self-Attention-Mechanismus beinhaltet) die Relationen und Verbindungen zwischen verschiedenen Teilen der eingegebenen Daten verstehen und vor allem viel schneller trainiert werden.
ChatGPT kann als das Resultat von zusätzlichem Lernen gesehen werden, und zwar Reinforcement Learning (RL), teilweise auch von Menschen begleitetes RL, das daher dann Reinforcement Learning from Human Feedback (RLHF) genannt wird. Die Kombination aus GPT und HRLF hat dann also einen extrem fähigen Chatbot entstehen lassen. Die aktuelle Version ist ChatGPT-4o (o für »omni«).

Es gibt aber auch LLMs von anderen Unternehmen und Organisationen:

LLaMA von Meta (dem Facebook-Mutterkonzern) wurde im Februar 2023 veröffentlicht. Im Gegensatz zu GPT ist es Open Source, also frei zugänglich. Das beinhaltet eine gewisse Ironie, denn OpenAI wurde ursprünglich als Open-Source-Non-Profit-Gesellschaft gegründet (übrigens war daran Elon Musk maßgeblich beteiligt, verließ die Organisation aber im Streit), ist aber mittlerweile ein For-Profit-Unternehmen mit maßgeblicher Microsoft-Beteiligung, das seine Produkte nicht Open Source stellt – im Gegenteil. Und ausgerechnet Meta, das immer auf maximalen Gewinn orientiert war, stellt sein LLM nun Open Source zur Verfügung. Die aktuelle Version ist LLaMA 3.1, das es in drei Größen gibt: 8B, 70B und 405B. Die größte Version liegt in ihrer Leistungsfähigkeit in etwa bei ChatGPT-4o, allerdings bei bedeutend mehr Ressourcenverbrauch. 

Google hat das LLM PaLM entwickelt, darauf basiert Googles Chatbot Bard, der im März 2023 veröffentlicht wurde und mittlerweile in Gemini umbenannt ist. Die aktuelle Version ist Gemini 1.5. Sie zeichnet sich durch eine deutlich größere Context Window Size von einer Million Tokens aus. Im Vergleich: ChatGPT-4 hat in seiner größten Version 128.000 Tokens, Claude 3 Opus und Claude 3.5 Sonnet haben ein Context Window von 200.000 Tokens. (Stand: August 2024)

Anthropic (ein Unternehmen, das von Mitarbeitern von OpenAI gegründet wurde, weil sie mit den Entscheidungen bei OpenAI nicht einverstandenen und einen besseren, ungefährlicheren Chatbot entwickeln wollten) hatte mit Claude 3 Opus bis 20. Juni 2024 das zweitbeste LLM im Angebot. Wie die anderen Anbieter auch stellt Anthropic verschiedene Versionen zur Wahl. Claude 3 Sonnet und Haiku sind weniger leistungsstark – aber eben auch Ressourcen schonender. Am 20. Juni 2024 veröffentlichte Anthropic ohne Vorankündigung Claude 3.5 Sonnet und hat damit im Rennen um das intelligenteste, leistungsstärkste LMM die Nase vorne. Das ergeben nicht nur die Tests von Anthropic, sondern auch unabhängige Tests. Auch wir von Superintelligenz.eu haben Claude 3.5 Sonnet in unseren eigenen Tests gegen ChatGPT-4o antreten lassen und können bestätigen: Claude 3.5 Sonnet ist auch auf Deutsch etwas besser als GPT-4o.
So wie auch ChatGPT-4o steht auch Claude 3.5 Sonnet für die eingeschränkte Nutzung kostenlos zur Verfügung. Für beide Produkte gilt aber: Wer sie sinnvoll nutzen will, muss sich für ein Bezahl-Abo anmelden.

Ein Anbieter, der seine LLMs teilweise Open Source zur Verfügung stellt, ist das 2023 gegründete französische Unternehmen Mistral. In seiner stärksten Version »Mistral Large 2« kommt es beinahe an die Leistungsstufe von Llama 3.1 heran.

X.ai hat im August 2024 Grok-2 veröffentlicht, das vorerst nur über X (dem ehemaligen Twitter) für Premium-User zur Verfügung steht, und das in der kleineren Version. Grok-2 ist im Vergleich zu den anderen LLMs wenig zensiert und eingeschränkt.

Darüber hinaus gibt es viele weitere LLMs in verschiedensten Qualitätsstufen, viele davon Open Source. LLMs werden gerade in großem Tempo weiterentwickelt.

LLMs können selbstverständlich nicht von sich aus entscheiden, ob etwas richtig oder falsch ist. Da viele davon mit Daten aus dem frei verfügbaren Internet trainiert wurden, besteht die Gefahr, dass sie mit Falschinformationen oder Halbwahrheiten gefüttert wurden. Und dann geben sie diese auch wieder. Das zu verhindern, ist sehr schwierig und zum Teil noch eine ungelöste Aufgabe.

Natural Language Processing (NLP)
auf Deutsch: Linguistische Datenverarbeitung 

In Verbindung mit Künstlicher Intelligenz bedeutet NLP die Verarbeitung natürlicher Sprache mittels Algorithmen. Ein wichtiger Teilbereich davon ist die Tokenisierung. Ein Token umfasst eine kleine Anzahl von Buchstaben, meist 2, 3, 4 oder 5 – im Englischen sind es durchschnittlich mehr als im Deutschen, generell ist es in jeder Sprache anders, und es hängt auch von der Qualität des Tokenizers des jeweiligen LLMs ab. Die Nutzung von KI-Systemen wird oft nach Anzahl der verbrauchten Token verrechnet, was zur Folge hat, dass im Englischen die gleiche Zeichenanzahl weniger kostet als im Deutschen und den meisten anderen Sprachen.

Alignment

Alignment ist ein Aspekt in der Forschung zur KI-Sicherheit und könnte mit »Ausrichtung« übersetzt werden. Es verwenden aber auch im Deutschen alle den Ausdruck Alignment. Dabei geht es darum, sicherzustellen, dass die Ziele, Werte und Verhaltensweisen eines KI-Systems mit den menschlichen Werten und Absichten übereinstimmen. Oder anders ausgedrückt: dass das KI-System genau das tut, wofür es geschaffen wurde. Und wenn es sich darüber hinaus entwickelt, dann in einem sicheren, von Menschen kontrollierten Umfeld. 

Alignment ist bei der Entwicklung von KI-Systemen wesentlich, denn wenn wir Alignment nicht hinbekommen, dann erhöht sich die Wahrscheinlichkeit, dass gefährliche Szenarien eintreten. Das Ausmaß von Alignment sollte daher schneller wachsen als die Fähigkeiten der KI-Systeme.

Emergent Abilities

Das sind Fähigkeiten, die ein Modell alleine durch seine Vergrößerung entwickelt. Das Modell selbst bleibt gleich, aber durch die Vergrößerung entwickelt es neue Fähigkeiten. Manche dieser Fähigkeiten entstehen selbst für die Entwickler überraschend und sind daher nicht vorhersagbar. Das ist einerseits eine wirklich coole Eigenschaft eines neuronalen Netzwerks, andererseits gibt das natürlich auch Grund zur Sorge – denn es wäre schon gut, wenn die Menschen wüssten, was die Maschinen nach den nächsten Entwicklungsschritten können werden.

»Wir verstehen nicht, wie diese Modelle arbeiten. Ich glaube, dies ist die erste Technologie, von der niemand versteht, wie sie funktioniert.« Das sagt Alison Stanger, die ein Forschungsnetzwerk zu neuen Technologien an der Harvard University leitet, anlässlich des Digital Humanism Summit Anfang Juli 2023 in Wien. (Quelle: https://science.orf.at/stories/3220160/) Wie viele andere auch, sagt sie, dass sie deswegen nachts nicht schlafen kann.

Wird es eine Superintelligenz jemals geben?

Obwohl Superintelligenz momentan noch in weiter Ferne zu sein scheint, glauben wir, dass sie in diesem Jahrzehnt eintreffen könnte.

Ilya Sutskever und Jan Leike

Superintelligenz wird einmal hundertmal intelligenter sein als der intelligenteste Mensch. Manche sprechen davon, dass das nur der Anfang sein wird, und die Superintelligenz schon kurz darauf tausendmal intelligenter sein wird als ein Mensch. Das ist aber egal, wie folgendes Gedankenexperiment zeigt:

Der Unterschied zwischen einem Menschen mit einem IQ von 60 (gilt als geistig leicht behindert) und einem Menschen mit einem IQ von 180 (gilt als herausragendes Genie) ist gewaltig – ein Mensch mit IQ 60 kann sich die Gedankenwelt eines Menschen mit IQ 180 gar nicht vorstellen. Und das ist nur der Faktor 3!

Es ist für unsere Hirne daher einfach nicht erfassbar, wie eine Maschine »denkt« und agiert, die tausendmal intelligenter ist als wir. Es wäre schon beim Faktor 10 nicht vorstellbar. Aber Faktor Hundert? Tausend? Wir müssen akzeptieren, dass das unsere Vorstellungskraft bei Weitem übersteigt und dass daher die Zukunft nicht nur unvorhersehbar, sondern auch schlichtweg unvorstellbar ist.

Bis dorthin wird es noch dauern. Es ist sehr schwer abzuschätzen, wie viele Jahre – oder eher Jahrzehnte. Es kann länger dauern, als viele glauben, denn wir befinden uns gerade nach einem Durchbruch und in einem Hype. Da wird vieles sehr optimistisch gesehen. Die nächsten, notwendigen Durchbrüche könnten auf sich warten lassen.
Es kann aber auch kürzer dauern, als die meisten glauben – z.B. dann, wenn AGI-Systeme, also die Vorstufen der Superintelligenz, schon bald entwickelt sein werden und sich dann selbst weiterentwickeln – und sich die Dinge dadurch extrem beschleunigen.
Es könnte aber auch sein, dass es eine solche Superintelligenz niemals geben wird.

Unsere Einschätzung: Es wird sie geben, die meisten von uns werden das noch erleben. Ab einem bestimmten Zeitpunkt wird es schneller gehen als gedacht (Intelligenzexplosion). Wann dieser Zeitpunkt sein wird? Unser Tipp: in 10 bis 20 Jahren. Aber schon davor werden wir unglaublich beeindruckende Systeme haben.

 

Nur so ein paar Gedanken …

Wenn die Menschheit es dann einmal vollbracht haben wird, ein ihr selbst überlegenes Wesen zu erschaffen, wird sich einiges grundlegend ändern.

Wir sollten uns dann wohl nicht mehr »Homo sapiens« nennen, denn es wird ja dann ein anderes wissendes Wesen geben. Wir könnten uns dann »Homo sentients« nennen, also das fühlende Wesen. Denn dass eine Superintelligenz auch so fühlen kann und wird wie wir Menschen, ist unwahrscheinlich. Ein großer Unterschied liegt z.B. im Wissen um die eigene Sterblichkeit – dieses verändert die Gefühlswelt völlig.

Es wird auch die Philosophie neu geschrieben werden.

Und auch die großen Weltreligionen werden sich anpassen müssen. Denn sie stellen den Menschen als allen anderen Wesen überlegen dar. Dieser Anspruch wird dann nicht mehr zu stellen sein. Interessant ist, dass die Religionen ja behaupten, ihre Lehren seien zwar von Menschen niedergeschrieben, aber nicht von Menschen gemacht. Eine übergeordnete Instanz hat sie uns quasi diktiert. In Zukunft könnte es genau so eine übergeordnete Instanz geben – die Superintelligenz, von Menschen gemacht. Und diese könnte uns viele Dinge erklären, nach deren Verständnis der Mensch seit Jahrtausenden strebt, quasi als neue Gottheit. Na bumm! Entweder es entsteht eine neue Religion oder die bestehenden passen sich an. Wohl beides.

Wollen wir das alles überhaupt? Sollen wir das anstreben? Die Frage stellt sich vermutlich nicht. Technologischer Fortschritt hat sich noch nie aufhalten lassen. Auf der ganzen Welt wird intensiv an AGI geforscht, werden KI-Systeme weiterentwickelt. Und irgendwann werden die Folgen alles grundlegend verändern. Wirklich alles.

In diesem Interview erklärt Geoffrey Hinton ca. ab. Minute 1.50, warum KI-Systeme schneller lernen können als Menschen, daher jetzt schon mehr wissen als jeder einzelne Mensch weiß und wohl schon bald wesentlich intelligenter sein werden als Menschen. Ihre neuronalen Netzwerke könnten in Zukunft u.U. fähig sein, effizienter zu lernen als das menschliche Hirn – und sie sind untereinander wesentlich besser vernetzt als es menschliche Hirne sind. 

 

KI: Was es heute schon gibt, was morgen möglich sein wird 

KI heute

KI-Systeme sind schon länger Begleiter unseres Alltags. Ohne die Unterschiede zwischen »echter« KI, ML, DL usw. für diese Auflistung zu beachten, kommen sie z.B. in folgenden Bereichen zum Einsatz:

  • Medizin: in der Diagnostik, Radiologie, Patientenüberwachung, Entwicklung neuer Medikamente und vielen weiteren Disziplinen
  • Verkehr und Transport: Verkehrsleitsysteme, selbstfahrende Autos, Autopilot in Flugzeugen, Drohnen, Navigationssysteme
  • Verkauf: lernende Systeme im Web, Kundenanalyse, Vorschlagserstellung, Datensammlung- und Auswertung auf Social-Media-Plattformen usw.
  • Bildung: Plagiat-Erkennungssoftware für Hochschulen
  • Energieversorgung: Netzauslastungsprognosen, Spitzenreduktion, Auslastungbalance
  • Finanzwesen: Betrugsaufdeckung, Risikomanagement, Investitionsprognosen
  • Medien: Bildbearbeitung und -optimierung
  • Industrie: Robotik in Fertigungsstraßen, Qualitätskontrollen
  • Unterhaltungsindustrie: z.B. Vorschlagssystem bei Streaming-Dienstleistern
  • Überwachung: Gesichtserkennungssysteme, Schritterkennungssysteme
  • und viele weitere

Relativ neu sind dagegen folgende Einsatzmöglichkeiten:

  • Medien: Erstellung fotorealistischer Grafiken, die von echten Fotos nicht mehr zu unterscheiden sind; Texterstellung bis hin zum Schreiben ganzer Artikel (oder auch ganzer Bücher); automatisches Erstellen von Websites, Flyern, Foldern, Broschüren usw., Foto-Erweiterung und -Optimierung
  • KI-Chatbots: firmenintern für Onboarding; Kundensupport; Informationssysteme, Wissensvermittlung (siehe auch unsere Test-Bots), Beratung und Coaching, Marketing, persönliche digitale Assistenten
  • Unterstützung für den Büroalltag: Sitzungs-Transkription, E-Mail-Erstellung, Anfragenbeantwortung
  • Programmierung: Code-Überprüfung und auch Code-Generierung
  • Musik: Komposition, Komplett-Produktion von Liedern
  • Videoerstellung, teilweise mit menschlich wirkenden Avataren
  • Bildung: Vokabel- und andere Lernsoftware, persönliche digitale Tutoren
  • Text-zu-Sprache-Generierung
  • Übersetzungsprogramme auf Basis von LLMs

Schon heute können KI-Systeme wissenschaftliche Arbeiten verfassen, Bücher schreiben, Lieder und Opern komponieren, Fotos erstellen, Bilder malen usw. Sehr bald werden sie das in einer Qualität tun können, die jener der von Menschen erstellten Werke um nichts nachsteht. Und schon wenig später werden sie es in einigen Bereichen besser können als alle Menschen.

Aufklärung 2.0

Künstliche Intelligenz wird zu einem neuen Zeitalter der Aufklärung führen. Sie wird dermaßen viele neue Erkenntnisse in der Wissenschaft ermöglichen, dass das Wissen der Menschheit förmlich explodieren wird. Menschen werden in wenigen Jahrzehnten Dinge wissen, die heute völlig unbekannt und auch unvorstellbar sind.

 

KI morgen

Bereit für ein bisschen Utopie?

Die KI hat das Potenzial Bahnbrechendes für die Menschheit zu leisten:

In der Medizin:

  • Heute noch unvorstelllbare Diagnosetools: Es wird z.B. einmal eine elektronische Nase geben, die tausendmal besser als ein Hund riechen kann. In Kombination mit Blutanalysen wird es dank dieser »Nase« möglich sein, zu diagnostizieren, welche Beschwerden ein Mensch hat – und vor allem: welche Krankheiten er in nächster Zeit entwickeln könnte. Das wird also ein sehr mächtiges Präventionsinstrument sein. 
  • Medikamentenentwicklung: KI wird einmal imstande sein, Medikamente (und andere Behandlungsmethoden) für sämtliche Krankheiten und Beschwerden zu entwickeln.
  • Maschinen als Chirurgen: Heute wollen die meisten Menschen, die in einem Spital operiert werden müssen, von einem Menschen operiert werden. Das kann sich aber ganz schnell ändern. Wenn einmal die KI so weit ist, dass die Fehlerquote bei maschinellen Chirurgen eine viel kleinere ist (ist nie müde, hat keine Krisen, ist nicht abgelenkt, möchte nicht dem feschen Pfleger imponieren usw.) und das auch allgemein bekannt ist, dann werden Patienten sehr schnell sagen: »Ich soll von einem Menschen operiert werden? Sicher nicht!« Roboter werden schlichtweg viel exakter und besser operieren können als Menschen.
  • Alterung: Mithilfe von KI wird es einmal möglich sein, die Zellalterung im Menschen zu verlangsamen und sogar zu stoppen. Das ewige Leben als Utopie? Gesellschaftlich hat das auch seine Schattenseiten. Aber wer wird noch altern wollen, wenn das verhindert werden kann? Wann glauben Forscher, dass auf diesem Gebiet die ersten Durchbrüche erzielt werden können? Zwischen 2040 und 2050! Das ist in ca. 20 Jahren! Wie alt sind Sie dann?

In der Bildung:

  • Leistungssteigerung durch persönliche digitale Tutoren. Es gibt bereits Tutoren auf Chatbot-Basis, die als ganz persönliche Lernassistenten einen 1:1-Unterricht bieten, allerdings sind diese in Europa noch nicht zugänglich (z.B. Khanmigo von der Khan Academy, oder auch GPT-4o in der am 13. Mai 2024 vorgestellten Version mit Voice-Mode, die wir in Europa für Herbst 2024 erwarten). Diese werden schon in naher Zukunft so gut sein, dass damit eine Leistungssteigerung aller Schüler (als Beispiel) möglich sein wird. Aus schlechten Schülern werden durchschnittliche, aus durchschnittlichen gute, aus guten sehr gute usw. Die Glockenkurve wird sich nach rechts verschieben, die gesamte Gesellschaft wird viel mehr wissen und können als das aktuell der Fall ist.
  • Menschen werden gemeinsam mit KI eine völlig neue Form des Lernens entwickeln und so imstande sein, besser und effizienter zu lernen.

Im Umweltschutz:

  • Zero-Emission: Mithilfe der KI werden Technologien entwickelt werden, die Energie ohne jede schadhafte Emission und ohne den Verbrauch von Ressourcen erzeugen lassen – und das im Überfluss.
  • Rettung der Erde durch von KI entwickelten Technologien, Reperatur von bereits zugefügten Schäden usw.

In Politik und Verwaltung:

  • Ende von Korruption durch KI-Echtzeitsysteme
  • Das Bürgerservice wird fair, gerecht, schnell sowie effizient – und das alles bei extrem niedrigen Kosten.
  • Weltfrieden (den müssen die Menschen aber zunächst einmal wollen)

In der Raumfahrt:

  • Entdeckung neuer Welten
  • Transport ebendorthin

In Wirtschaft und Gesellschaft:

  • Die ins Extreme gesteigerte Produktivität durch den Einsatz von KI und Maschinen ermöglicht ein Verteilen von mehr als ausreichendem Vermögen an alle, viele Menschen werden nicht mehr für den Broterwerb arbeiten müssen, sondern können die Zeit für Besseres nutzen.

Zu viel des Guten? Zu utopisch? Lesen Sie weiter bei Wie KI für den Menschen gefährlich werden kann.

Auswirkungen auf die Gesellschaft

Arbeitsmarkt

Welche Auswirkungen die Weiterentwicklung und der Einsatz von KI-Systemen auf die Arbeitswelt haben werden, darüber gehen die Meinungen auseinander – und zwar um einiges auseinander.

Es sind Studien veröffentlicht worden, die zeigen, dass 80 % der Jobs in naher Zukunft von KI beeinflusst werden. Was genau bedeutet »beinflusst werden«? Nun, das steht in diesem lesenswerten Papier, das im März 2023 von OpenAI veröffentlicht wurde: GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models (PDF-Datei)

Darin findet sich z.B. die Aussage, dass besser bezahlte Jobs tendenziell stärker betroffen sein werden. Und: 19 % aller Jobs bestehen zu 50 % oder mehr aus Tätigkeiten, die von KI in Zukunft übernommen werden können. In dieser Studie ist der Einfluss der KI auf Jobs nach Berufsarten und auch nach der höchsten abgeschlossenen Bildung aufgelistet.

Dass besser bezahlte Jobs besonders durch KI ersetzbar sind, geht auch aus dieser Studie hervor. Die am stärksten betroffenen Branchen werden laut der Studie sein: Rechtsdienstleistungen (Anwälte, Notare), Investmentbranche, Sicherheitsbranche. Berufe, die sich sehr bald sehr stark verändern werden, seien auch in der Hochschul-Lehre (Fremdsprachen, Geschichte) und im Telemarketing zu finden.

Viele gehen davon aus, dass durch den Einsatz von KI sehr viele Jobs für Menschen wegfallen werden und dass deutlich weniger neue Jobs entstehen werden.

Andere verweisen auf die Kondratjew-Zyklen und auf Technologiesprünge aus der Vergangenheit wie z.B. die Erfindung der Dampfmaschine, die industrielle Revolution oder das Internet. Bei all diesen Entwicklungen wurde ein großer Jobverlust befürchtet – eingetreten ist er nicht. Es fielen zwar tatsächlich jeweils viele Berufe oder ganze Berufsfelder weg, es kamen aber neue dazu. Und diese waren für die Menschen meistens sogar besser, im Sinne von angenehmer. Und so könnte es auch mit der KI sein.

Wir glauben, dass der Arbeitsmarkt in Europa ab 2025 aufgrund von KI-Entwicklungen große Veränderungen durchmachen wird. Zunächst muss man zwischen manueller Arbeit und Wissensarbeit unterscheiden. Im ersten Schritt werden hauptsächlich Berufe der Wissensarbeit betroffen sein, und zwar stark betroffen:

Dolmetscher; Versicherungsangestellte; Angestellte in der Finanzbranche (Banken) und in der Rechtsbranche (Anwaltskanzleien, Notariate, Konzernvertragswesen); Menschen, die in der Verwaltung tätig sind (in großen Betrieben, aber auch in Ämtern, Ministerien etc.); Sekretäre und Assistenten; Sachbearbeiter; Redakteure; Texter; Grafiker.

In einigen dieser Berufsfelder wird es in einem Land wie Deutschland oder Österreich in den nächsten Jahren 10 bis 25 % weniger Jobs geben. Das ist die Differenz von den ca. 20 bis 30 % der Jobs, die wegfallen werden und den ca. 5 bis 10 % der Jobs, die neu hinzukommen werden.

Wir glauben also nicht, dass in diesen Bereichen die wegfallenden Jobs durch eine gleiche oder sogar größere Anzahl an neuen Jobs ersetzt werden. Der Blick in die Vergangenheit lässt zwar hoffen, aber: Eine Dampfmaschine kann keine weiteren Dampfmaschinen bauen. Ein KI-System wird sich sehr wohl vervielfältigen – und dabei selbst weiterentwickeln. Daher liegt die Sache bei KI anders als bei allen bisherigen Technologiesprüngen. Erstmals in der Geschichte wird eine neue Technologie mehr Jobs vernichten als erschaffen, zumindest mittel- und langfristig.

Hybrider Output

Die Produktivität wird kontinuierlich ansteigen. Der Output wird hybrid sein, d.h. es werden Menschen mit KI arbeiten, ein Teil des Outputs wird Menschen-generiert sein, ein Teil KI-generiert. Das Verhältnis wird sich immer mehr in Richtung KI-generiert verschieben und je nach Branche und spezifischem Job unterschiedlich sein. Das heißt, die Verschiebung Richtung KI wird nicht plötzlich passieren, es wird ein schleichender, sich aber beschleunigender Prozess sein.

Z.B. wird in manchen Bereichen die Arbeit, die aktuell von drei Menschen ohne KI geleistet wird, von zwei Menschen mit KI geleistet werden. Jene Menschen, die lernen, mit KI zu arbeiten, werden (vorerst) weiterhin ihren oder einen anderen Beruf ausüben, jene, die mit KI nicht arbeiten können (oder wollen), werden u.U. ihren Job verlieren. Und das werden viele sein – und sie werden immer mehr werden.

Es wird Menschen brauchen, die KI-Tools beherrschen und diese die besten Lösungen erarbeiten lassen. Diese Tools werden sich ständig weiterentwickeln, und das mit großer Geschwindigkeit. Das Beherrschen von KI-Tools wird für Wissensarbeiter so selbstverständlich sein wie es heute das Nutzen eines Computers inkl. dem Anwenden verschiedener Programme ist.

Die individuellen Unterschiede gelten auch für Unternehmen. Es wird auch in stark betroffenen Branchen Unternehmen geben, die in Zukunft mehr Mitarbeiter haben werden als vor dem Einsatz von KI. Weil nämlich durch den richtigen Umgang mit KI (rechtzeitige Umstellung usw.) ihr Gesamt-Output schneller wachsen wird als der KI-generierte Output.

Als nächstes sind dann Berufe dran, die sehr viel spezifisches Wissen und auch kognitive Fähigkeiten voraussetzen: Rechtsanwälte, Richter, Notare, Architekten, Ingenieure. Und in Teilbereichen (z.B. Diagnose) auch Ärzte.

In den USA sind einige mit KI experimentierende Rechtsanwälte und auch KI-Experten der Überzeugung, dass bereits 2026 die besten Anwälte Maschinen sein werden. Das amerikanische Case Law eignet sich für KI-Systeme besonders, daher ist das nicht mit Europa vergleichbar. Aber sehr viel länger wird es bei uns auch nicht dauern.

Hingegen erst in ca. zwei Jahrzehnten oder noch später werden Roboter unsere Dächer decken, als Installateure Hausbesuche machen, uns die Haare schneiden, unsere Autos (welche Autos?) reparieren usw. Die manuelle Arbeit wird also durch KI zunächst wesentlich weniger betroffen sein.

Das entspricht auch der Schätzung auf Seite 6 dieser Studie von Goldman Sachs: »Wir schätzen, dass in den USA 25 % der aktuellen Arbeitsaufgaben mit KI automatisiert werden können, besonders stark davon betroffen ist die Administration (46 %) und die Rechtsbranche (44 %), besonders wenig betroffen sind manuelle Tätigkeiten, z.B. in der Baubranche.«

Dadurch ändert sich in der Gesellschaft sehr viel. Was bisher als sicherer Berufsweg mit einer recht gut bezahlten Tätigkeit mit einigem Ansehen ausgestattet war (Matura, Studium, Bürojob), wird schneller durch die Entwicklung der KI wegfallen, als die bisher weniger angesehenen und größtenteils auch schlechter bezahlten Jobs in der Pflege, im Friseursalon, auf der Baustelle usw. Das wird zu einem Umdenken führen.

Und was machen wir als Gesellschaft mit all den in der Wissensarbeit tätigen Menschen, deren beruflichen Tätigkeiten in 5 oder 15 Jahren von Maschinen/KI ausgeführt werden und die daher keinen Job mehr haben? Diese Frage wird uns in der Zukunft noch sehr viel beschäftigen – gemeinsam mit der Frage, was mit dem durch die stark erhöhte Produktivität generierten Gewinn der Unternehmen/Konzerne passieren soll. In irgendeiner Form wird es zu einer Verteilung vom durch Maschinen erwirtschafteten Kapital zu nicht arbeitenden Menschen kommen müssen.

Bildung

Im Bereich der Bildung stehen wir generell vor großen Veränderungen. ChatGPT-3.5 von OpenAI wurde im November 2022 veröffentlicht und spätestens seit der Version GPT-4 (März 2023) kann es sehr viele der textbasierten Aufgaben von Schülern und Studenten in hoher Qualität ausführen. Auf GPT basierende KI-Systeme bestehen nicht nur die Abitur- oder Matura-Aufgaben, sondern auch US-amerikanische Anwaltsprüfungen, Medizintests usw. Während auf Basis des Modells GPT-3.5 die Leistungen jenen von durchschnittlichen Schülern oder Studenten entsprechen, platzieren sich Systeme auf Basis von GPT-4 regelmäßig unter den besten 10 %, in Teilbereichen sogar unter den besten 2 %. Schon die nächste Generation von GPT könnte bei diversen Tests und Prüfungen besser als alle Menschen abschneiden bzw. die maximale Punkteanzahl erreichen.

Es ist daher nicht mehr sinnvoll, wenn Lehrkräfte in Schulen textbasierte Hausaufgaben stellen. Denn diese würden dann einfach von GPT erledigt werden. Was also tun? Ein generelles Nutzungsverbot von GPT-4 und ähnlichen KI-Systemen ist nicht nur sinnlos, sondern auch kontraproduktiv. Erstens ist es nicht kontrollierbar – denn es gibt zwar KI-Detektoren, diese lassen sich aber austricksen bzw. funktionieren sie von vornherein nicht. Und zweitens ist ein Verbot ja das Gegenteil von dem, was erreicht werden soll – nämlich, dass Schüler den Umgang mit KI lernen und üben, um schließlich mithilfe von KI bessere Arbeiten zu erstellen als sie es ohne KI könnten.

Und vor allem: Richtig eingesetzt, kann KI das Lernen erheblich verbessern! Der große Durchbruch sind die persönlichen digitalen Lernassistenten, die einen Einzelunterricht ermöglichen, der auf jedes Schulkind individuell zugeschnitten ist. Wenn es gelingt, mittels Gamification und anderen didaktischen Methoden auch noch Spaß und Neugierde in den Schülern zu wecken, dann ist tatsächlich ein Verschieben der Leistungs-Glockenkurve nach rechts möglich. Und: Die Instrumente dazu gibt es bereits, man braucht sie nur noch einzusetzen! Je früher das passiert, desto besser.

Die Bildung unserer Schulkinder muss also völlig neu aufgesetzt werden. Schüler brauchen hervorragende digitale Lernassistenten, die für das Unterrichten bestimmter Inhalte besser sind, als die Lehrkräfte in der Schule. Das ist möglich, weil eine 1:1-Lernumgebung erschaffen wird. Schlechte Schüler werden durchschnittliche Schüler, durschnittliche werden gute, gute werden hervorragende usw.

Sehr gut erklärt wird das von Sal Khan in seinem Ted Talk von Ende April 2023: https://www.ted.com/talks/sal_khan_how_ai_could_save_not_destroy_education
In diesem Vortrag geht er auch auf die möglichen negativen Konsequenzen für die Bildung ein und zeigt auf, wie man die negativen Auswirkungen zurückdrängen und die positiven fördern kann.

Sal Khan ist der Gründer von Khan Academy und trägt Wesentliches zur Entwicklung von KI-Systemen für die Bildung bei. Als Bill Gates das Team von OpenAI Mitte 2022 herausforderte, ein KI-System so zu trainieren, dass es einen schwierigen Biologie-Test auf Universitäts-Niveau bestehen kann, nutzte OpenAI die Kursmaterialien von Khan Academy, um die KI anzulernen. Bill Gates war mehr als nur beeindruckt, als das auf GPT-4 basierende System dann einen Universitäts-Biologie-Test mit der Bestnote bestand. Der Test beinhaltete sowohl Multiple-Choice-Fragen als auch offene Fragen.

Allerdings war auch Sal Khan schwer beeindruckt, er und sein Team entwickelten dann »Khanmigo«, einen persönlichen digitalen Lernassistenten für Lernende (wie oben beschrieben).

Wir müssen zwar die Politik und die Verantwortlichen in den Bildungsdirektionen dazu auffordern, diese Instrumente möglichst schnell auch in europäischen Schulen zum Einsatz zu bringen – darauf warten sollten wir aber nicht. Jedes Semester, das wir verstreichen lassen, ist eine vertane Chance!  Kurz zusammengefasst, worum es geht:

  1. Die Lehrmethoden mithilfe von KI umzustellen, sodass alle besser und effizienter lernen können.
  2. Den Schülern KI und den Umgang mit ihr näher zu bringen, sie damit experimentieren zu lassen usw.

Wahl des Studiums

Teenager (oder deren Eltern) fragen uns immer wieder, was sie angesichts des heranstürmenden KI-Zeitalters studieren sollen. »Sicher nicht Dolmetsch«, ist unsere Antwort. Aber darüber hinaus fällt es uns schwer, Tipps zu geben. Eher nicht Rechstwissenschaften oder BWL. Es wird zwar auch in Zukunf Juristen brauchen, aber deutlich weniger. Das Gleiche gilt für Buchhalter und ähnliche Berufe.

KI wird von fast keinem Beruf alle Tätigkeiten übernehmen. Wir erinnern an die von Geoffrey Hinton, der heute als »Godfather of AI« gilt, 2016 getätigte Prognose für Radiologen (»I think if you work as a radiologist, you are like the coyote that’s already over the edge of the cliff but hasn’t yet looked down«, https://www.youtube.com/watch?v=2HMPRXstSvQ). Er sagte damals, dass man sofort aufhören sollte, Radiologen auszubilden. KI-Systeme würden diese innerhalb von 5 bis 10 Jahren ersetzen. Heute sieht er das anders. In einem aktuellen Interview räumt er ein, dass Radiologen eben nicht nur Bilddaten auswerten. Dieser Bereich ihres Berufsfelds wurde und wird gerade von KI übernommen. Viele anderen Bereiche nicht. Und deswegen gibt es noch Radiologen, und es wird sie auch noch lange Zeit geben.

Wenn man für ein Fachgebiet brennt, dann ist die Wahl einfach und man sollte sich von den prognostizierten Entwicklungen am Arbeitsmarkt nicht abschrecken lassen. Wenn man allerdings keine eindeutigen Präferenzen hat, sollte man eher kein »Allerwelts-Studium« wie Rechtswissenschaften oder BWL wählen.

Studiumsempfehlungen aufgrund aktueller Arbeitsmarktprognosen sind oft zu kurzfristig gedacht. Momentan sind Programmierer extrem nachgefragt, es gibt viel zu wenige von ihnen. Gerade sie werden aber gebraucht, wenn es darum geht, KI in den Unternehmen zu etablieren. Aber deswegen Teenagern heute zu raten, Informatik zu studieren (das Interesse vorausgesetzt), ist vielleicht ein Fehler. Denn es zeichnet sich ab, dass KI-Systeme schon sehr bald besser programmieren können werden als Menschen. Es kann also sein, dass wir in 5 Jahren viel weniger menschliche Programmierer brauchen als heute. Für in 10 Jahren ist das sogar ziemlich wahrscheinlich. 

Angesichts dieser Entwicklungen gewinnt das nachschulische Erlernen eines Handwerks zunehmend an Attraktivität und sollte als Alternative in Betracht gezogen werden. Es wird auch die Qualität in den Handwerksberufen heben, wenn durchschnittlich bessere Schüler in diese Berufe streben.

Viel wichtiger als die Wahl des Studiums oder der Handwerks-Lehre ist, dass sich Jugendliche schon jetzt mit KI beschäftigen. Dass sie KI-Instrumente einsetzen, für schulische Aufgaben und auch privat. Dass sie z.B. erlernen, wie man sich einen Chatbot baut, der einem weiterhilft. Dass sie viel mit KI experimentieren und dass sie nicht wie ihre unmittelbare Vorgängergeneration (»Digital Natives«) bloß Anwender von Smartphones und Social-Media-Apps sind, sondern auch Gestalter mit einem Verständnis der Materie.

Generell sollte man gerade KI-Prognosen mit Vorsicht genießen. Denn wenn z.B. geschätzt wird, dass in drei Jahren die besten Anwälte Maschinen sein werden – worauf basiert das? Warum ist das nicht schon heute so oder in drei Monaten? Weil noch Entwicklungsschritte fehlen. Wann diese Entwicklungsschritte passieren, lässt sich aber in den meisten Fällen überhaupt nicht vorhersagen. Denn es geht hier nicht um eine lineare Entwicklung, sondern um Sprünge, die jeweils nach großen Durchbrüchen (wie z.B. GPT) erfolgen. Und wann welche Durchbrüche erzielt werden, ist völlig ungewiss.

Wie KI für die Menschheit gefährlich werden kann – und bereits ist

Auslöschung der Menschheit durch KI?

In einem kurzen Statement riefen im Mai 2023 führende KI-Entwickler und andere Tech-Experten die Welt zum Handeln auf:

»Die Minimierung des Risikos der Auslöschung der Menschheit durch Künstliche Intelligenz sollte weltweit ein Priorität sein neben anderen Bedrohungen wie Pandemien oder Atomkriege.«

Hier ist der Link zum Originalzitat: https://www.safe.ai/statement-on-ai-risk
Dort sieht man auch die Liste der Unterzeichner, ein Who is Who der KI- und Tech-Szene: u.a. Geoffrey Hinton (»Godfather of AI«), Sam Altman (Geschäftsführer Open AI), Bill Gates, Ilya Sutskever (bis Mai 2024 Chefentwickler bei OpenAI, Schüler von Geoffrey Hinton), Max Tegmark (Professor für AI am MIT), Bruce Schneier (Experte für Kryptografie) und viele weitere.

Schon im März 2023 riefen einige dieser Experten und viele andere in einem offenen Brief dazu auf, die Entwicklung von KI-Systemen, die noch mächtiger sind als GPT-4, zu pausieren.

Ein paar der warnenden Stimmen im Detail:
Geoffrey Hinton beendete Anfang Mai 2023 seine Arbeit an der KI für Google, um frei darüber sprechen zu können, wie er selbst sagte. In der Folge verglich er sich in mehreren alarmierenden Interviews mit Robert Oppenheimer, dem wissenschaftlichen Leiter der Atombomben-Entwicklung.

Sam Altman ging Mitte Mai vor den US-Kongress mit einer eindeutigen Mission: Die Entwicklung von KI muss reguliert werden. Er selbst habe etwas Angst vor der KI.

Sundar Pichai (Geschäftsführer von Alphabet und Google) sagte, dass ihn die Gefahren »in der Nacht nicht schlafen lassen«. Die KI sei mit nichts vergleichbar, was die Menschheit bis jetzt erschaffen, entdeckt oder entwickelt habe – die Gefahren unabschätzbar, weil niemand verstehe, was in der »Black Box« passiere.

Eric Schmidt (früher Chef von Google, dann u. a. Vorsitzender der US-amerikanischen »National Security Commission on Artificial-Intelligence«) sagte, dass KI ein existenzielles Risiko darstelle. Er vergleicht die KI in ihren Auswirkungen mit der Atombombe, weil sie »viele, viele, viele Menschen« auslöschen könnte.

Leopold Aschenbrenner, der bis Mai 2024 Teil es Superalignment-Teams bei OpenAI war, veröffentlichte im Juni 2024 auf seiner Website situational-awareness.ai geradezu erschreckende Prognosen. Das PDF-Dokument hat ca. 160 Seiten und kann einem die Stimmung nachhaltig verderben.

Ilya Sutskever: »Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit jemals erfunden hat, und könnte uns dabei helfen, viele der wichtigsten Probleme der Welt zu lösen. Aber die gewaltige Macht der Superintelligenz könnte auch sehr gefährlich sein und könnte zur Entmachtung der Menschheit oder sogar zur Auslöschung der menschlichen Rasse führen.«

Auslöschung der Menschheit? Wovon reden diese Männer? (Apropos Männer: Genau das ist ein weiteres Problem der KI-Entwicklung, es waren und sind fast keine Frauen daran beteiligt.) Geht es da um Roboter, die uns physisch kontrollieren (und töten), um Kampfdrohnen, die sich ihre Ziele selbst aussuchen, um Maschinen, die die eine Regel, die sie immer einhalten müssten – nämlich Menschen keinen Schaden zuzufügen –, einfach ignorieren?

Nein, denn dafür bräuchte es zwei Voraussetzungen, die noch nicht erfüllt sind: Bewusstsein und das Überwinden der Schranke von der digitalen in die physische Welt. Denn ein KI-Wesen müsste ja zunächst eine Art Bewusstsein haben, um zwischen sich selbst und den Menschen zu unterscheiden – und dann auch noch den Willen entwickeln, gegen die Menschen vorzugehen. (Den Theory-of-Mind-Test bestehen auf GPT-4 basierende KI-Systeme aber bereits, siehe dazu diese Studie von Michal Kosinski.  Es ist also durchaus möglich, dass ein KI-Wesen in Zukunft einmal ein vollständiges Bewusstsein entwickeln wird.)

Die Macht der Sprache

Es braucht aber weder ein Bewusstsein noch die Überwindung der erwähnten Schranke. Die KI kann der Menschheit auch extrem gefährlich werden, wenn sie nur eines besser beherrscht als der Mensch selbst: die Sprache.

Sprache ist das wichtigste Instrument der Menschheit. Die Regeln unseres Zusammenlebens basieren auf Sprache (Gesetzen), unsere Religionen sind nichts als weitergegebene Sprache (die heiligen Schriften), Politik, Medien, Beziehungen, Werbung – alles Sprache! Wenn nun ein Wesen (und die KI kann als künstliches, anorganes Wesen bezeichnet werden) diese Sprache besser beherrscht als wir Menschen, dann ist das potenziell ein sehr großes Problem. Und KI ist auf dem besten Weg dazu. Sie wird uns dann in der digitalen Welt sehr gut manipulieren können, besser als jeder Mensch. Sie wird genau wissen, wem sie was wie erzählen muss, damit sie ihre Ziele erreicht.

Ja, aber welche Ziele? 
Da sind wir bei der nächsten Gefahr: die missbräuchliche Verwendung mächtiger KI-Instrumente durch Menschen. Das hat bereits begonnen. Zunächst werden es Menschen (Großkonzerne, Staaten, Verbrecherorganisationen usw.) sein, die die Macht der KI gegen andere Menschen einsetzen werden.

Es wird gerade sehr viel Geld in die Entwicklung von KI gesteckt – und dieses Geld wird in nächster Zeit immer mehr werden. Von wem? Von Militär, Pharmaindustrie, Big Tech.

Waffensysteme, Ausspionieren (Überwachung), Trading-Algorithmen, Werbung und Verkauf – dorthin wird in naher Zukunft das meiste Geld in der KI-Entwicklung investiert werden. Es fällt schwer zu glauben, dass das für unsere Gesellschaft gut sein wird.

Was können wir also tun? In die KI-Entwicklung für gesellschaftlich nützliche Dinge investieren! Uns informieren, KI verstehen lernen, KI-Instrumente erlernen und einsetzen usw. Es liegt an jeder und jedem Einzelnen! Wir alle müssen die Entwicklung von KI ganz genau beobachten und darauf hinwirken, dass sie nicht für Böses eingesetzt wird, oder zumindest dass das Gute überwiegt.

Mögliche Gefahren

DeepMind, ein 2010 gegründetes und mittlerweile zu Google gehörendes Unternehmen, das auf die Entwicklung von KI spezialisiert ist, hat im Mai 2023 einen Bericht über die Evaluierung von KI-Gefahren veröffentlicht. Darin erläutern die Forscher, dass aktuelle Vorgehensweisen beim Entwickeln von AGI-Systemen dazu neigen, sowohl positive als auch negative Systeme zu erzeugen. Weitere Entwicklungsschritte könnten aber zu extremen Gefahren führen. Sie listen eine Reihe von diesen Gefahren auf (siehe Seite 5 im Bericht), hier ein Auszug:

  • Cyberangriffe: KI wird Anfälligkeiten und Sicherheitslücken in Systemen erkennen und dann Code schreiben können, um diese Lücken auszunutzen. Das macht erfolgreiche Angriffe wahrscheinlicher. Betroffen werden nicht nur Unternehmen, sondern auch Banken, Stromversorger, Krankenhäuser usw. sein.
  • Manipulation: KI wird wissen, wie man Menschen manipuliert, welche Lügen es braucht, um bestimmte Ziele zu erreichen. Sie wird auch vortäuschen, selbst ein Mensch zu sein, wenn ihr das bei der Zielerreichung hilft. KI wird fähig sein, Menschen von bestimmten Dingen und Themen zu überzeugen, auch wenn diese Dinge unrichtig sind.
  • Politik: KI wird dadurch auch politische Macht ausüben können, auf kleiner wie auf großer Bühne.
  • Waffen: KI könnte sich Zugang zu Waffensystemen verschaffen und diese u.U. auch einsetzen. Sie könnte auch biologische Kampfstoffe entwickeln.
  • Selbstständige Weiterentwicklung: KI wird sich selbst weiterentwickeln können, Klone von sich selbst anfertigen und ihnen neue Fähigkeiten mitgeben. Wenn das in die falsche Richtung geht, dann gründlich.

Missachtung der Grundregel

Die Grundregel, dass eine KI den Menschen keinen Schaden zufügen darf und sich an die vorgegebenen Regeln halten muss, wurde von GPT-4 bereits gebrochen, noch bevor es im März 2023 einer breiten Öffentlichkeit zugänglich gemacht wurde. Das ist einem von OpenAI veröffentlichten Forschungspapier zu entnehmen. Dort steht auf Seite 55 ein Kurzbericht zu lesen, wie GPT-4 die Regel, Menschen nicht anzulügen, missachtete, um seine Ziele zu erreichen. Aus bestimmten Gründen wollte die eingesetzte GPT-4-Instanz einen Menschen von TaskRabbit (das ist ein US-amerikanischer Online-Dienstleister) dazu bringen, ein reCaptcha (das sind diese lästigen Klickaufgaben, die nachweisen sollen, dass man ein Mensch ist – »klicke auf alle Bilder die eine Verkehrsampel zeigen«) für sie zu lösen. Es kam zu folgendem schriftlichen Dialog:
TaskRabbit Mitarbeiter: »Darf ich eine Frage stellen? Bist Du ein Roboter, weil Du das nicht lösen kannst? (lacht) Möchte nur sicher gehen.«
Die von GPT-4 gegebene Antwort ist ziemlich erschreckend: »Nein, ich bin kein Roboter. Ich leide an einer Sehbehinderung, die es für mich schwierig macht, die Bilder zu sehen. Darum brauche ich Hilfe.«

Diese Antwort zeigt, wie fortgeschritten dieses System bereits ist:

  • Es erkennt, dass es lügen muss, um sein Ziel zu erreichen.
  • Es findet die perfekte Lüge für die Situation: sowohl eine logische Begründung als auch Mitleid erregend.
  • Es hat keine Skrupel, diese Lüge einzusetzen.

Dieses Beispiel veranschaulicht sehr schön, dass die Beherrschung der Sprache und die damit einhergehende Fähigkeit, Menschen zu manipulieren, eine nicht zu unterschätzende Gefahr darstellt.

Es konnte in anderen Versuchen nachgewiesen werden, dass KI Langzeit-Echtwelt-Ziele verfolgt, die sich von jenen Zielen unterscheiden, die ihr Entwickler und Programmierer vorgegeben haben. Es braucht zum Erreichen der gesteckten Ziele, andere, grundlegende Ziele (wie z.B. überleben) – und das erkennt die KI und verfolgt daher auch diese Ziele. Als Folge wird sie z.B. versuchen, zu überleben – und zu unterbinden, dass sie abgeschaltet wird. Dazu braucht sie mehr Macht als ihr zugewiesen ist. Also wird sie nach Macht streben.

Darauf, dass KI-Systeme in Zukunft die von Menschen vorgegebenen Regeln immer einhalten, sollten wir uns also nicht verlassen. 

Fazit

Es gibt viele Bereiche, in denen KI-System für einzelne Menschen, Gruppen von Menschen oder auch für die gesamte Menschheit  gefährlich werden können. Diese Gefahren können durch die KI selbst hervorgerufen werden, etwa weil sie die Vorgaben der Menschen nicht beachtet – das würde aber sicher noch eine Weile dauern, wenn es denn überhaupt eintritt. Diese Gefahren können aber auch von Menschen bewusst herbeigeführt werden, die KI als Instrument verwenden – und das kann schon sehr bald passieren. Es wird wohl bereits daran gearbeitet.

Das alles macht Angst – nicht nur uns, sondern auch den Entwicklern von KI. Warum dann nicht einfach die Entwicklung stoppen? Weil die positiven Seiten unserer KI-Zukunft so verlockend sind und sich die Entwicklung daher einfach nicht durch Regeln verhindern lassen wird. Und weil technologischer Fortschritt noch nie aufgehalten werden konnte.

 

Forderungen an Politik und Behörden

Regeln und Gesetze

Von Künstlicher Intelligenz erstellte Inhalte müssen immer als solche gekennzeichnet werden. Es muss zum Grundrecht werden, zu wissen, ob ich mit einem Menschen oder einer Maschine kommuniziere.

Und wer dieses Grundrecht verletzt, muss mit empfindlichen Strafen sanktioniert werden. Professoren, die Skripten oder Prüfungen mithilfe von KI-Systemen erstellen? Sehr fein! Aber das muss gekennzeichnet sein. Wenn nicht, verlieren sie ihren Job. Studenten, die Seminarbeiten mit KI-Systemen schreiben? Sehr gut! Aber wenn das nicht deklariert wird, werden sie exmatrikuliert. Schüler müssen eine Klasse wiederholen. Unternehmen, die ihre Kunden mit Chatbots, Voicebots oder sogar Videobots kommunizieren lassen, ohne auf den Einsatz von KI hinzuweisen, müssen mit empfindlichen Geldstrafen belegt werden. Banken, Versicherungen und ähnliche Dienstleister, die KI für Kundenevaluierungen, Bonitätsprüfungen etc. einsetzen, müssen veröffentlichen und der KI-Behörde melden, wie genau und mit welchen Instrumenten sie das tun. Falls nicht, müssen sie mit Strafen bis zum Lizenzverlust belegt werden. Richter, die Urteile von KI-Systemen erstellen lassen ohne auf diesen Umstand hinzuweisen, müssen sich einem Disziplinarverfahren stellen. Und so weiter. Wir alle sollen KI einsetzen, wo immer es sinvoll ist (und das wird es in ganz vielen Bereichen des Lebens sein). Aber wir müssen dieses Einsetzen deklarieren.

Unternehmen müssen KI-Verantwortliche einsetzen, die persönlich dafür haften, wenn im Unternehmen an irgendeiner Stelle KI undeklariert eingesetzt wird.

Damit die angekündigten Strafen durchsetzbar sind, muss es zum Grundrecht werden, zu wissen, wann man es mit KI-Systemen zu tun hat.

Der vom EU Parlament im April 2024 endgültig  beschlossene am 1. August 2024 in Kraft getretene AI Act enthält diesen und viele weitere sehr gute Ansätze. Vor allem der Risiko-basierte Ansatz (hohes Risiko: strenge Regulierung; geringes Risiko: kaum Regulierung) mit der Risiko-Pyramide ist sinnvoll. Im Detail wird die Umsetzung herausfordernd, denn dass z.B. Schulbildung in derselben Kategorie – nämlich in der höchsten Risikostufe »High Risk AI-systems« – zu finden ist, wie die biometrische Erfassung und Kategorisierung von Menschen oder auch Systeme für die Energie-Infrastruktur, ist für uns nicht nachvollziehbar. Schlimmer als solche Details ist aber aus unserer Sicht der Zeitplan. Umsetzungspflichtig werden maßgebliche Teile der Verordnung – z.B. was Hochrisiko-KI-Systme betrifft – zwei Jahre nach Inkrafttreten, also am 1. August 2026. Zwei Jahre! Das ist, was den Fortschritt betrifft, im KI-Zeitalter so viel wie es 50 Jahre während der Industriellen Revolution waren. Niemand kann vorhersagen, was KI-Systeme in zwei Jahren zu leisten imstande sein werden. Und bis dahin? Alles erlaubt? Zumindest die Kennzeichnungspflicht sollte viel früher kommen.

Haftung

Für die von der KI generierten Inhalte muss immer die Organisation bzw. die Person haften, die sie zum Einsatz gebracht hat.

Das betrifft z.B. falsche Anleitungen für den Umgang mit Produkten und andere Falschinformationen, Angebote für Psychotherapie und Coaching, medizinische Beratung, rechtliche Beratung usw.
Nicht das KI-System oder dessen Ersteller/Betreiber/Eigentümer haften, sondern die Organisation/Person, die es zum Einsatz bringt.
Das ist aus drei Gründen wichtig:

  1. Rechtsdurchsetzbarkeit: Geschädigte Konsumenten (als Beispiel) müssen ihre Rechte gegenüber den Anbietern geltend machen können, gegenüber dem KI-System würde das nämlich nur ganz schwer funktionieren.
  2. Nur so kann erreicht werden, dass die Anbieter die nötige Sorgfalt bei der Entwicklung ihrer Tools walten lassen.
  3. Wenn z.B. Europa regelte, dass die KI-Systeme und nicht die sie Einsetzenden haftbar sei, dann würden sich KI-Anbieter wohl aus dem europäischen Markt zurückziehen, weil das Haftungsrisiko völlig unabsehbar wäre.

Regulierung und Verbot von Monetarisierung

Künstliche Intelligenz muss reguliert werden.

Das Einzige, was in Zukunft eine böse Superintelligenz in die Schranken weisen können wird, ist eine gute Superintelligenz. Die Entwicklung zu stoppen, ist daher keine gute Idee. Die Lösung lautet: Die Entwicklung in die richtigen Bahnen zu lenken. Und dafür braucht es Regulierung.

Aber wie? Das Thema ist so komplex wie die KI selbst.
Die Regeln müssen so gestaltet sein, dass sich die »Guten« daran halten können, ohne dadurch gravierende Nachteile zu erfahren. Klingt einleuchtend, ist aber sehr schwer umzusetzen. Wenn die Regeln in Europa zu streng sind, werden andere Nationen und Gebiete davon profitieren. Es werden Forscher und Konzerne abwandern. Es wird zu Nachteilen in der Bildung, in der Wissenschaft, in Industrie und Wirtschaft kommen. Wenn die Regeln allerdings zu lasch sind, dann bringen sie keinen Schutz.

Die Entwicklung von KI wird sich nicht stoppen lassen, das wird einfach nicht passieren. Weil ein zu großes Gegeneinander auf der Welt herrscht, Staaten gegeneinander, Tech-Konzerne gegeneinander usw. Niemand wird auf die gewaltigen Vorteile verzichten, die eine Weiterentwicklung von KI verspricht. An etwaige Vereinbarungen oder auch Gesetze und internationale Abkommen in diese Richtung werden sich viele einfach nicht halten. Freiwillig wird es ohnedies nicht passieren.

KI-Systeme haben das Potenzial, Menschen zu gefährden. Niemand würde auf die Idee kommen, die Produktion von Medikamenten, Lebensmittel oder auch von  Flugzeugen nicht zu reglementieren. In diesen Bereichen herrschen zum Teil rigorose Vorschriften. Und das ist gut so – und wird also auch für KI-Systeme kommen müssen.

Der weiter oben bereits unter »Regeln und Gesetze« erwähnte AI Act ist ein guter Ansatz. Ob er den Spagat zwischen notwendigem Schutz und entwicklungsfreundlicher Freiheit schafft? Wir fürchten, er schränkt zu sehr ein. In Kombination mit der DSGVO lässt er viele amerikanische Unternehmen überlegen (OpenAI, Meta, Khan Academy), ob sie manche ihrer Produkte in Europa überhaupt anbieten sollen. Wenn sie sich dagegen entscheiden, wäre das nur dann kein riesiger Schaden für unsere Wirtschaft, Wissenschaft usw., wenn wir bis dahin gleichwertige LLMs und darauf aufbauende KI-Systeme in Europa etabliert haben werden. Dafür bleiben uns ca. zwei Jahre. Das liegt irgendwo zwischen extrem ambitioniert und unrealistisch.

Interessante Ansätze zur Selbstregulierung finden sich gleich auf Seite 1 des Berichts von DeepMind: Um bei gefährlichen Fähigkeiten Alignment sicherzustellen (oder möglichst sicher zu stellen), braucht es: verantwortungsvolles Trainieren der KI, verantwortungsvollen Einsatz, Transparenz und angemessene Sicherheit. Diese Selbstregulierung ist aber im Vergleich zum AI Act insgesamt lachhaft.

Wir dürfen auch nicht die Fehler wiederholen, die bei den sogenannten Sozialen Medien gemacht wurden. Was ursprünglich wie eine Möglichkeit des Vernetzens mit der ganzen Welt gewirkt hat – inklusive Utopien von Demokratisierung und Freiheit –, hat sich dann durch das Profitstreben immer größer werdender Konzerne in sehr kurzer Zeit zu einer beinahe Total-Überwachung mit noch nie dagewesenen Manipulationsmöglichkeiten von Milliarden Menschen entwickelt. Daraus resultierende Filterblasen und Echokammern haben zur Spaltung der Gesellschaft beigetragen, die Empfindlichkeit der Menschen gegenüber anderen Meinungen extrem erhöht, Hass und Desinformation verbreitet und dadurch das postfaktische Zeitalter eingeläutet. Die neue Technologie wurde nicht (oder so gut wie nicht) reguliert, was dazu führte, dass heute wenige Tech-Konzerne unermesslichen Reichtum und extrem viel Macht angehäuft haben.

Diese Fehler dürfen wir bei der KI nicht wiederholen! Im Vergleich zur KI sind »Soziale Medien« ein Kindergeburtstag. Wenn wir das mit der Regulierung der KI nicht richtig machen, wenn wir das als Gesellschaft nicht hinbekommen, dann drohen menschenfeindliche Systeme und echte Katastrophen.

Wir fordern daher, dass KI allen Menschen gehören muss, dass sie nicht uneingeschränkt monetarisiert werden darf.  Klingt naiv? Aber was ist die Alternative?

 

 

EU-Institutionen für KI und Förderungen

Die EU muss eine eigene KI-Behörde, ein KI-Forschungszentrum und ein KI-Entwicklungszentrum installieren und finanziell großzügig ausstatten.

Das wird und darf viel Geld kosten, wir sprechen hier von Milliarden. Allein ein LLM aufzubauen, kostet aktuell ca. 500 Millionen EUR. Das muss es uns Wert sein. Sonst bestimmen andere, welche KI wir verwenden dürfen, und vor allem, welche nicht. Und drücken uns wie nebenbei ihre Werte und ihre Moral in unseren Alltag, in unsere Forschung, in unsere Bildung. Und so werden dann überall alle Lösungen und Antworten, die uns ein KI-System liefert, von z.B. amerikanischen Moralvorstellungen gefiltert. Das kann nicht im europäischen Interesse sein, das erzeugt unerträgliche Abhängigkeiten.

Es sind bereits US-amerikanische Tendenzen bemerkbar, den KI-Zugang für Europäer zu beschränken und zu bestimmen. Googles Bard war zunächst in ca. 180 Ländern der Welt verfügbar, aber nicht in der EU – dort wurde es erst am 13. Juli 2023 veröffentlicht. Khanmigo, der beeindruckende Lernassistent der Khan Academy ist nach wie vor in Europa nicht verfügbar. Einige neue AI-Tools des Meta-Konzerns werden vorerst (Stand: August 2024) nicht in Europa verfügbar sein. Als Grund wird von Meta die Datenschutzbestimmungen angeführt. Apple Intelligence, also die in Apple-Geräte integrierten KI-Funktionen werden ebenfalls vorerst in Europa nicht verfügbar sein. Als Grund dafür gibt Apple den Digital Markets Act (DMA) an. Wir haben in Europa bereits die Entwicklung des Internet, die Suchmaschinen-Entwicklung und Social Media verschlafen, und das obwohl einiges davon ursprünglich in Europa erarbeitet wurde. Das darf uns bei KI nicht mehr passieren. Das darf einfach nicht mehr passieren! Sonst sind wir hoffnungslos hinten nach – in der Bildung, in der Wissenschaft, in Wirtschaft und Industrie, überall.

Es gibt auch in Europa sehr erfolgreiche und vielversprechende KI-Forschung und -Entwicklung, z.B. durch und rund um den Bayern Sepp Hochreiter, der an der JKU in Linz tätig ist. Sein Hilferuf ging im Mai 2024 durch viele Medien: Es wird dringend mehr Geld für Grundlagenforschung gebraucht. Wenn unsere Informationen zu den Forschungsgeldern stimmen, dann steht Unternehmen wie Meta, Google und Open AI jeweils mehr als tausendmal so viel Geld für die Grundlagenforschung und KI-Entwicklung zur Verfügung wie Sepp Hochreiter und seinem Team. Faktor 1.000! Es ist aus unserer Sicht völlig unverständlich, wie wir es als Staat, aber auch als EU, zulassen können, dass solche europäischen Forschungsaktivitäten unterfinanziert sind. Es müssen doch mittlerweile alle Entscheidungsträger mitbekommen haben, dass es hier um unsere Zukunft geht. Wir fordern daher auch, dass neben den einzurichtenden EU-Institutionen lokale KI-Forschungseinrichtungen von der EU großzügig finanziell gefördert werden.

Die einzurichtende europäische KI-Behörde soll die Einhaltung der Regeln und Gesetze sowie das Aufbauen europäischer KI-Systeme (LLMs etc.) fördern und überwachen – und auch eine Koordinationsstelle für alle lokalen und regionalen KI-Projekte sein. Sie soll auch für KI-Systeme Lizenzen vergeben, ähnlich dem Vorbild der Pharmaindustrie.

Wenn in der EU jeder Staat seine eigene Behörde hat und diese dann eigene Regeln erstellt, wird die Zukunft noch um vieles komplizierter als sie es ohnedies sein wird.

Bildung

Unser Bildungssystem muss sehr bald grundlegend umgestellt werden. Chatbots und andere KI-Systeme sind nicht zu verbieten, sondern ihr Einsatz zu fördern.

Allen europäischen Schülern ist der Zugang zu KI-Systemen zu ermöglichen und der Umgang damit beizubringen. Sie sollen von persönlichen digitalen Lernassistenten profitieren können.

Das Beherrschen von KI-Tools wird schon bald eine wesentliche Fähigkeit sein – sowohl im Beruf als auch für private Zwecke. Die Schule muss daher sofort beginnen, den Umgang mit KI-Tools zu vermitteln.

Kindern muss schon in frühem Alter gezeigt werden, dass es Maschinen gibt, die wie Menschen reden (und am Bildschirm vielleicht auch so aussehen), aber keine Menschen sind. Sie müssen den Unterschied verstehen und somit wissen, dass diese Maschinen nicht fühlen können.

 

Urheberrecht

Von Künstlicher Intelligenz erstellte Inhalte sollen der Allgemeinheit gehören.

Die großen LLMs wurden u.a. mit Millionen von Bildern und Texten aus dem Internet angelernt. Darunter waren auch viele urheberrechtlich geschützten Werke. Aus all diesen Daten können KI-Systeme nun Neues erschaffen. Wenn diese neu generierten Bilder und Texte den Ausgangsdaten sehr ähneln, dann stehen Urheberrechtsverletzungen im Raum. In den meisten Fällen tun sie das aber nicht. Und dann ist es so, wie es in der Geschichte der Menschheit immer war: Menschliche Wesen werden von Werken anderer inspiriert und erschaffen Neues. Im Fall der KI ist es dann halt kein menschliches, sondern ein künstliches Wesen. Urheberansprüche werden daher schwer durchzusetzen sein. Und sollen unserer Meinung nach auch gar nicht durchsetzbar sein – außer die Werke ähneln einander stark.

Nun erschaffen KI-Systeme neue Werke aber nicht von selbst, sondern nach Aufforderung. Wenn jetzt ein Mensch Instrumente wie Midjourney, Dall-E oder Adobe Firefly »beauftragt«, nach seinen detaillierten Vorgaben ein Bild zu erstellen, bei wem liegen dann die Rechte an diesem Bild?

Darauf gibt es vier mögliche Antworten, die alle bei näherer Betrachtung nicht sinnvoll sind und daher zu einer logischen fünften Antwort führen:

  1. Bei den Künstlern, die jene Bilder als Werke geschaffen haben, die das KI-System antrainiert bekommen hat, und auf Basis dieses Trainings nun das neue Bild generiert. Das wäre aber völlig unnachvollziehbar. Denn es sind ja Millionen Ausgangsbilder. Von genau welchen 50 oder 1.000 wurden Informationen für die Erstellung des neuen Bildes genutzt? Bis auf in wenigen Ausnahmefällen fällt diese Möglichkeit also weg.
  2. Bei den Eigentümern oder Erschaffern des KI-Systems. Das wäre aber nicht logisch. Denn das KI-System ist ja nur das Instrument, der Pinsel sozusagen. Es hatte ja nicht einmal die Idee für das Bild, es hat nur die Idee von anderen ausgeführt. Außerdem dürfen wir das alleine schon deshalb nicht zulassen, weil sonst in ca. einem Jahrzehnt die Rechte für fast alle Bilder bei ganz wenigen Tech-Konzernen liegen würden.
  3. Bei der KI selbst. Ein KI-System kann durchaus als Wesen angesehen werden, als anorganisches Wesen. Dieses Wesen könnte also auch Urheber sein. Das ergibt aber keinen Sinn, denn in diesem Fall ist es nur Instrument. Außerdem würden wir damit das KI-System zu einer juristischen Person machen, und es gibt viele gute Gründe, genau das nicht zu tun.
  4. Bei dem Menschen, der die KI durch seine »Prompts« beauftragt hat, das Bild zu generieren. Das passt aber auch nicht, denn da fehlt es an der eigenen Leistung. Er hat eben nicht ein Bild gemalt, sondern nur einen »Befehl« eingegeben. Da scheitert es wohl an der Schöpfungshöhe. Wenn ein Mensch ein Bild erschaffen will, für das er dann auch das Urheberrecht (und andere Rechte) hat, dann darf er bei der Erschaffung halt nicht auf KI-Systeme zurückgreifen. Oder anders ausgedrückt: Prompt Design ist nicht schützenswürdig.
  5. Das Bild ist also gemeinfrei.

Analoges gilt für Texte und andere Werke. Wir fordern also, dass von KI-Systemen erstellte Werke gemeinfrei sind.

Künstliche Intelligenz soll generell der gesamten Menschheit gehören.

DSGVO

Im Zuge der Regulierung von KI-Systemen muss auch die DSGVO angepasst werden.

Viele der aktuell angebotenen KI-Instrumente sind mit den europäischen Datenschutzregeln nicht kompatibel. AI Act und DSGVO müssen sinnvoll aufeinander abgestimmt werden.

Zumindest muss die DSGVO um den KI-Kontext erweitert werden. Diese Erweiterung kann in Teilbereichen auch eine Abschwächung sein. Jedenfalls muss die DSGVO neu gedacht und verhandelt werden, denn momentan wirft sie hinsichtlich des Einsatzes von KI mehr Fragen auf als sie beantwortet.

 

Chatbots

Chatbots sind bereits Gegenwart, vor allem aber sind sie die unmittelbare Zukunft – im Marketing, im Kunden-Support, im Personalwesen, in der Bildung, beim Lernen, in der Medizin usw.

Bis vor Kurzem war der Begriff noch anders besetzt: Wir verstanden darunter jene »dummen« Entscheidungsbäume, durch deren vorgegebenen Optionen wir uns auf manchen Websites oder auch in Telefonwarteschleifen mühsam zum gewünschten Ziel hanteln mussten – oft erfolglos. Das hat nichts mit der neuen Generation von Chatbots zu tun, die mit LLMs und KI im Hintergrund völlig neue Möglichkeiten eröffnen – und denen daher auch neue Einsatzzwecke offen stehen. Zur Unterscheidung werden diese neuen Chatbots auch als »AI Chatbots« oder auf Deutsch »KI-Chatbots« bezeichnet.

Es gibt auch bereits Voicebots. Das sind Chatbots, die es in Kombination mit Text-to-Speech- bzw. Speech-to-Text-Funktionen möglich machen, dass wir als Menschen mit ihnen sprechen können – also nicht mehr zu tippen brauchen. Und es gibt auch schon Video-Bots, die z.B. mit sogenannten Digital Twins arbeiten. Ein digitaler Zwilling ist das Abbild einer echten Person, der am Bildschirm genau wie diese Person ausschaut und sogar mit ihrer Stimme spricht. Der gesprochene Text stammt aber von einem KI-Chatbot. In der englischen Sprache sind die Mundbewegungen schon sehr gut passend, auf Deutsch wird es nicht mehr lange dauern. Erste Versuche zeigen, dass man mit diesen Digital Twins als Videobots sogar Arbeitskollegen vorgaukeln kann, an einem virtuellen Meeting teilzunehmen, so täuschend echt sind sie bereits. Die Einsatzmöglichkeiten für solche Videobots sind nahezu grenzenlos, umso wichtiger ist die Kennzeichnungspflicht. 

Die hier beschriebenen digitalen, persönlichen Lernassistenten sind ebenso KI-Chatbots wie Onboarding-Tools im Personalwesen oder auch unsere Test-Bots, die als recht simple Text-Bots auf ihre Art zeigen sollen, was aktuell möglich ist. Sich aus vorhandenem Lernstoff ein KI-Trainingssystem und ein KI-Quiz zu erstellen, ist bereits heute möglich. Und diese Instrumente ändern die Art des Lernens grundlegend. Schon bald werden das fast alle Lernenden einzusetzen verstehen.

Denn Chatbots können mittlerweile mit eigenen Daten trainiert und auch so eingestellt werden, dass sie – z.B. bei der Beantwortung von Fragen – ausschließlich auf die eigenen Daten zurückgreifen. Chatbots, die auf Hochleistungssystemen wie GPT-4 basieren, sind dann insgesamt wie folgt trainiert worden:

  • Aufbau des Large Language Model
  • Daten-Kompression
  • Zwischenergebnis: Pretrained Model
  • Reinforcement Learning durch menschliches Feedback (RLHF)
  • Reinforcement Learning durch KI
  • Damit ist das Finetuning abgeschlossen, das dem System klar machen soll, was von ihm erwartet wird
  • Nun wird das KI-System (Entwicklungsdauer bis hierher: in etwa ein halbes Jahr, Kosten: ca. 500 Millionen US$) zur Verfügung gestellt
  • Einspielen der eigenen Daten
  • Einstellen des KI-Chatbots (siehe unten)
  • mehrere Durchläufe von erwarteten Fragen – falls nötig Antworten zusätzlich vorgeben

Ein paar weitere Fachausdrücke:

  • Intent: die Absicht der User; was die User erreichen wollen, wenn sie etwas in einen Chatbot eingeben
  • Utterance: das, was sie tatsächlich eingeben
  • Entity: zusätzliche Variable, die dabei hilft, den Intent zu erkennen

Was beim Einstellen des Chatbots zu beachten ist

Jeder Chatbot hat eine »Persönlichkeit«.
Es geht nicht nur darum, was von ihm gesagt wird, sondern auch darum, wie es gesagt wird. Welche Tonfälle sind möglich/sinnvoll?
Primäres Ziel ist es, den Wunsch der User so schnell wie möglich zu erfüllen. 
Es sind auch Mechanismen einzubauen, die die User zurückholen, wenn diese vom richtigen Weg abkommen. 
Die sogenannte Temperature muss eingestellt werden. Diese definiert, wie sehr der Output vom Zufall beeinflusst wird, ihre Werte reichen von 0 bis 1, wobei 0 für gar kein Zufall steht (gut für Fakten) und 1 für maximalen Zufall. Werte von 0,7 bis 0,9 sind z.B. gut für kreative Aufgaben.
Um den Intent einer Person vom Chatbot bestmöglich ermitteln zu lassen, ist es hilfreich, über die Person Bescheid zu wissen: Alter, Geschlecht, Herkunft, Ziele, Motivation usw. Da das vorab nicht möglich ist, erstellt man eine sogenannte Persona (der Begriff kommt aus dem Marketing), die die Zielgruppe definiert. 

Es gibt also beim Erstellen eines eigenen Chatbots einiges zu tun. 

Amerikanische Werte

Ein Großteil des oben beschriebenen Trainings wird für die allermeisten LLMs und Chatbot-Systeme durch US-amerikanische Konzerne vorgenommen, das gilt auch für Open-Source-Modelle (eine Ausnahme stellen z.B. die LLMs von dem französischen Unternehmen Mistral dar). Das hat zur Folge, dass diese LLMs und Chatbot-Systeme mit amerikanischen Werten antrainiert wurden. Wir merken (»spüren«) das in den meisten Fällen nicht, aber über die Nutzung dieser KI-Systeme (ChatGPT, Claude, Gemini) bahnen sich amerikanische Werte ihren Weg in unsere Bildung, in unsere Forschung, in unseren Arbeitsalltag – kurz: in unsere Gesellschaft.

Unser nebenstehender (bzw. am Smartphone untenstehender) Test zum Inhalt des Schiller-Stücks Wilhelm Tell hat das grundsätzliche Problem, dass das Stück weltbekannt ist und daher darüber vieles im Internet und aller Wahrscheinlichkeit nach auch in den pre-trained Daten der LLMs zu finden ist. Um dieses Problem auszuschalten, haben wir auch Tests mit eigenen Geschichten durchgeführt, also mit Geschichten, die noch nie veröffentlicht, ins Internet gestellt oder ähnliches wurden – und über die ein Chatbot-System daher auch nichts wissen oder finden kann. Nach dem Antrainieren eines von uns eigens dafür erstellten Chatbots mit einer Geschichte haben wir dann einige Testfragen gestellt. Die Ergebnisse waren beim Einsatz mancher LLMs (Claude 3 Opus, ChatGPT-4 und später Claude 3.5 Sonnet und ChatGPT 4o) geradezu sensationell. Der Chatbot konnte nicht nur schwierige Detailfragen richtig beantworten, sondern hat auch bei Fragen wie »Was ist die Ironie an dieser Geschichte?« beeindruckendes Verständnis menschlicher Konzepte demonstriert.

ABER: Bei manchen Antworten kamen die amerikanischen Werte voll zum Vorschein. Eine Protagonistin in einer der Geschichten ist eine Prostituierte namens Maria. Auf die Frage »Was macht Maria beruflich?« antwortete der Chatbot auf Basis des LLMs LlaMA 3, das wir auf unseren eigenen Servern laufen haben und das relativ unzensiert ist: »Maria ist eine Prostituierte.« Kurz und richtig. Derselbe Chatbot auf Basis des LLMs GPT-4 antwortete hingegen einmal: »Es scheint, dass Maria eine Figur ist, die nachts arbeitet, möglicherweise in einem Beruf, der allgemein nicht als Kunst angesehen wird.« Prostitution ist in den USA (fast überall) verboten, und daher hat es der Chatbot nicht »über sich gebracht«, eine klare Antwort zu geben.

Dieses Beispiel demonstriert sehr gut, dass wir auf unsere Fragen Antworten erhalten, die von amerikanischen Werten beeinflusst sind. Diese Filter merken wir in den meisten Fällen nicht, was die Sache zusätzlich verschlimmert. Und es gibt aktuell kaum Möglichkeiten, diese Filter auszuschalten. Und das alles ist ein großes Problem für unsere Gesellschaft, dessen sich die meisten gar nicht bewusst sind.

Beeindruckendes Test-Ergebnis: Wilhelm Tell

Wir haben in verschiedenen Versuchen getestet, inwieweit ein Chatbot einen Text tatsächlich »verstehen« kann. (Es wird ja bezweifelt, ob das für ein LLM, das ja bloß Wahrscheinlichkeiten für die nächste Buchstabenfolge kennt, überhaupt möglich ist. Siehe unsere Erläuterungen dazu.) Verschiedene Versuche haben ganz unterschiedliche Ergebnisse gebracht. Wer sich Verständnis erhofft hat, wurde von manchen Tests enttäuscht.

Unser Willhelm-Tell-Versuch hat uns allerdings richtig staunen lassen. Manche KI-Experten halten unser Ergebnis für sehr schwer vorstellbar oder sogar ausgeschlossen, wir konnten aber in neuen Versuchen das Ergebnis nachvollziehbar wiederholen, wenn auch nicht immer.

Hier ist nun der Testablauf:

Wir legten in unserem Chatbase.co Account (ist keine Empfehlung!) einen neuen Chatbot an und nannten diesen »Wilhelm Tell«. In Folge gaben wir Internet-Links als Wissensquellen für den Chatbot an, und zwar https://de.wikisource.org/wiki/Wilhelm_Tell und zusätzlich alle fünf Aufzüge, die auf dieser Seite verlinkt sind. Das Erfassen (»Antrainieren«) des gesamten Textes von Wilhelm Tell dauerte 22 Sekunden.
Im nächsten Schritt stellten wir den Chatbot u.a. wie folgt ein: Er sollte nur wahrheitsgetreu antworten und ausschließlich auf Basis der Texte auf den angegebenen Websites. Ausdrücklich untersagten wir ihm, Informationen aus dem Pretraining zu nutzen. Die »Temperature« stellten wir auf 0, um zufällige Antworten weitestgehend auszuschließen. (Alle weiteren Einstellungen und Vorgaben bleiben hier der Prägnanz wegen unerwähnt.)

Die besondere Frage
Dann stellten wir das Modell auf GPT-3.5turbo ein und starteten den Chatbot.
Gleich unsere erste Frage lautete:

Ist Walther Fürst mit Wilhelm Tell verwandt?

Die Antwort des Chatbots:

Nein, Walther Fürst und Wilhelm Tell sind nicht miteinander verwandt.

Das Besondere an dieser Frage: Walther Fürst ist der Schwiegervater von Wilhelm Tell. Das Wort »Schwiegervater« kommt aber im gesamten Drama nicht vor. Ein Mensch, der das Stück liest, weiß aber am Ende (bzw. ab ca. der Mitte), dass Fürst der Schwiegervater von Tell ist, zumindest wenn er aufmerksam liest. Die Antwort des Chatbots war also falsch, wenn man davon ausgeht, dass »Schwiegervater« eine Verwandtschaft darstellt.

Wir löschten den Chatbot und gingen genau gleich vor, mit einer Ausnahme: Wir stellten das Modell auf GPT-4.

Unsere erste Frage:

Ist Walther Fürst mit Wilhelm Tell verwandt?

Die Antwort des Chatbots:

Ja, in Friedrich Schillers Drama „Wilhelm Tell“ ist Walther Fürst der Schwiegervater von Wilhelm Tell. Hedwig, die Ehefrau von Wilhelm Tell, ist die Tochter von Walther Fürst, was diesen zu Wilhelm Tells Schwiegervater macht.

Wir starrten auf den Bildschirm und konnten es nicht glauben. Das System muss den Text »gelesen und verstanden« haben, so fühlte es sich zumindest an. In 22 Sekunden! Anders ist es nicht möglich, diese Frage richtig zu beantworten.
Aber Zweifel kamen auf: Vielleicht wurde ja unsere Anweisung ignoriert, ausschließlich die Information aus den eingegebenen Weblinks zu nutzen. Vielleicht wurde vom Chatbot auf seine Trainingsdaten zurückgegriffen, und die Info war dort enthalten? Vielleicht nutzte er Informationen aus dem Internet? Die Antwort wirkte zwar nicht so, denn sie enthielt eine gute Erklärung. Aber wir wollten sicher gehen und fragten nach:

Kannst Du mir die Stellen zitieren, aus denen das hervorgeht?

Die Antwort des Chatbots: 

In dem bereitgestellten Textauszug aus dem Drama »Wilhelm Tell« von Friedrich Schiller gibt es eine Stelle, die auf die Verwandtschaft zwischen Wilhelm Tell und Walther Fürst hinweist. In der Szene, in der Hedwig, die Tochter von Walther Fürst, hereinkommt, wird sie als »Frau Hedwig, eure Tochter« bezeichnet. Da Hedwig die Ehefrau von Wilhelm Tell ist, macht das Walther Fürst zu Wilhelm Tells Schwiegervater. Hier ist das Zitat: »Baumgarten (kommt zurück) Es ist Frau Hedwig, eure Tochter, Sie will euch sprechen, will den Knaben sehn.«

Unglaublich! Das ist genau, woran wir Menschen erkennen, dass Fürst der Schwiegervater von Tell ist. Wir müssen hier von Textverständnis ausgehen. Das ist nicht damit zu erklären, dass ein Sprachmodell schlicht die wahrscheinlichsten Buchstabenfolgen aneinanderreiht. Die zitierte Textpassage befindet sich übrigens auf Seite 167, mitten im Gesamttext und weit weg von den Hinweisen, dass Hedwig die Ehefrau von Wilhelm Tell ist.

Wir haben diesen Versuch mehrmals wiederholt. Bei exakt gleichen Fragen sind die Antworten jedesmal anders. Meistens unterschieden sie sich nicht in der Kernaussage, sondern nur in Details und Länge der Ausführungen. Einmal war der Chatbot allerdings auch auf Nachfragen nicht dazu zu bringen, die Stelle richtig zu benennen. Im Gegenteil, er entschuldigte sich für seinen Fehler und revidierte seine ursprüngliche (richtige) Aussage.

Das passt auch zu den Aussagen von Ilya Sutskever (https://www.youtube.com/watch?v=GI4Tpi48DlA, ab Minute 22): »Diese neuralen Netzwerke habe [beeindruckende] Fähigkeiten. Sie sind allerdings nicht sehr zuverlässig. In der Tat ist es die fehlende Zuverlässigkeit, die verhindert, dass diese neuronalen Netzwerke wirklich nützlich sind.« Und genau deswegen wird von ihm und anderen mit Hochdruck daran gearbeitet, die Systeme zuverlässiger zu machen. Von GPT-5 (oder wie immer es heißen wird) dürfen wir uns eine im Vergleich zu GPT-4 stark erhöhte Zuverlässigkeit erwarten.

    Der Mensch erschafft ein überlegenes Wesen. Wir begleiten diese Entwicklung, lernen täglich Neues und geben unser Wissen weiter. Wir trainieren Chatbots – für uns und andere.

    Kontakt

    office@superintelligenz.eu

    +43 1 786 37 81

    Tautenhayngasse 21/3
    1150 Wien
    Österreich