KI – Welche Chancen und Risiken ergeben sich daraus?

|

8. Oktober 2023
Mensch und Maschine stossen miteinander an
KI, LLM und das Zusammenspiel zwischen Mensch und Maschine. pexels 8439094 © pavel danilyuk

Die Welt der künstlichen Intelligenz (KI) hat in den letzten Jahren rasante Fortschritte gemacht und ist zu einem zentralen Thema in der Technologie- und Forschungswelt geworden. Doch die Faszination und die Befürchtungen rund um KI werfen eine wichtige Frage auf: KI – Welche Chancen und Risiken ergeben sich daraus? Werden wir demnächst von Robotern ersetzt? Lassen Sie uns einen Blick auf dieses spannende und kontroverse Thema werfen.

Die KI (künstliche Intelligenz) bzw. englisch AI (artificial intelligence) wird als der aktuelle Megatrend und wichtige Schlüsseltechnologie der Zukunft betrachtet. Unternehmen werden dadurch u.a. ihre Wettbewerbsfähigkeit stärken, innovative Anwendungen finden, den Arbeitsalltag der Mitarbeiter erleichtern und neue Potenziale in der Kundenbetreuung, der Produktentwicklung und der Produktivität entdecken können.

Der Fortschritt in der KI kann eine große Chance, aber auch ein enormes Risiko bedeuten. Der bewusste und verantwortungsvolle Umgang mit dieser Technologie ist unumgänglich und bedarf geschulter Anwender, um das Potential auszuschöpfen aber auch die Risiken einzuschätzen.

Was ist KI oder „Künstliche Intelligenz“?

Künstliche Intelligenz (KI) ist die Fähigkeit eines Computer-Systems, menschenähnliche, intelligente Verhaltensweisen zu zeigen. Dieses Gebiet der Informatik beschäftigt sich damit, Mechanismen des intelligenten menschlichen Verhaltens zu erforschen und zu entwickeln. KI-Systeme sind in der Lage, menschliche Fähigkeiten wie Sehen, Hören, Analysieren, Entscheiden und Handeln zu unterstützen. Sie können komplexe Aufgaben erledigen, die bisher nur Menschen vorbehalten waren.

Es ist jedoch wichtig zu wissen, dass KI ihre Grenzen hat. Sie kann menschliche Fähigkeiten imitieren, aber sie verfügt nicht über eigene Emotionen, Intuition oder Kreativität. KI-Systeme basieren auf Algorithmen und Daten, die sie auswerten, um Entscheidungen zu treffen.

Die drei Stufen der KI

Um die Entwicklung von KI besser zu verstehen, können wir uns an den Worten von Mustafa Suleyman, Mitgründer von Google DeepMind, orientieren. Er beschreibt drei Phasen der KI:

1. Klassifizierung: In dieser Phase werden Computer darauf trainiert, Daten unterschiedlichster Art zu klassifizieren. Dies bedeutet, dass sie in der Lage sind, Informationen zu identifizieren, zu ordnen und zu kategorisieren. Beispiele hierfür sind die Erkennung von Bildern oder die Auswertung von Texten.

2. Generative Phase: Nachdem KI-Systeme Daten erfolgreich klassifiziert haben, können sie diese nutzen, um neue Daten zu generieren. Ein bemerkenswertes Beispiel ist ChatGPT, ein KI-Modell, das in der Lage ist, menschenähnlichen Text zu generieren. Es kann Texte verfassen, die auf den analysierten Daten basieren.

3. Interaktive Phase: Die nächste Stufe der KI ist die Interaktivität. In dieser Phase sind KI-Systeme in der Lage, autonom zu kommunizieren, zu handeln und sich stetig zu verbessern. Sie können auf menschliche Interaktionen reagieren und aus diesen lernen. Ein Beispiel dafür sind Chatbots, die in der Lage sind, Kundenanfragen zu bearbeiten und sich basierend auf den Kundenreaktionen selbständig zu verbessern.

Exkurs: LLM – Large Language Model und die Sache mit den Token

LLM sind Modelle künstlicher Intelligenzen, welche an großen Mengen von Texten trainiert wurden.

 

Hierbei werden Wörter in Word-Token aufgeteilt und die Wahrscheinlichkeit berechnet, welches Token am wahrscheinlichsten danach passen würde. Es werden alle Daten durchforstet, auf welche die KI trainiert wurde und errechnet, welches Token darauf als nächstes am besten folgt.

 

Jedes LLM arbeitet mit Token. Wenn ChatGPT (oder andere Modelle von OpenAI) Text verarbeitet, zerlegt es den Text in viele einzelne Token – Diese Token sind die „Einheiten“, mit denen das Modell arbeitet. Das Modell „versteht“ und „generiert“ Text auf Token-Ebene, nicht auf Wort- oder Buchstabenebene. ChatGPT 3.5 hat ca. 4.000 Token, ChatGPT 4.0 ca. 8.000 – Bei Bard ist das Limit nicht genau bekannt.

 

Bei diesen Modellen werden Wahrscheinlichkeiten verwendet, um das nächste Token basierend auf den vorherigen Token zu bestimmen. Es analysiert die Kontextinformationen der vorherigen Token und wählt das nächste Token basierend auf dem, was es während seiner Ausbildung gelernt hat. Dies bedeutet, dass ChatGPT nicht das nächste Wort vorhersagt, sondern das nächste Token, das ein Wort, ein Teil eines Wortes oder auch ein Satzzeichen sein kann.

 

Jede Sprache hat seine eigene Komplexität und Eigenheit und benötigt unterschiedlich viele Token:

 

  • Englisch: 1 Wort ≈ 1,3 Token
  • Deutsch: 1 Wort ≈ 1,8 Token
  • Spanisch: 1 Wort ≈ 2 Token
  • Französisch: 1 Wort ≈ 2,2 Token

 

Im Englischen entsprechen 100 Token ungefähr 75 Wörtern, 1500 Wörter ungefähr 2000 Token. Dabei können dieselben Wörter in einem anderen Kontext durchaus unterschiedlich viele Token benötigen. Tatsächlich werden auch Emojis und Sonderzeichen in Token umgewandelt. Ein Smiley oder ein Daumen-Rauf-Emoji kann dabei mehr Token verbrauchen als ein einfaches Komma.

 

Nehmen wir ein Beispiel und betrachten es im sog. „Tokenizer“ – einem Online-Dienst, welcher die eingegebenen Wörter in Token übersetzt:

 

Tokenizer und die Eierlegende Wollmilchsau

Tokenizer und die Eierlegende Wollmilchsau © https://platform.openai.com/tokenizer

Die „Eierlegende Wollmichsau“ besteht aus 2 Wörtern, insgesamt 24 Buchstaben und wurde dabei in 10 Token aufgespaltet. In diesem Fall sicherlich ein extremes Beispiel – aber es zeigt sehr deutlich, wie das System arbeitet und die Wörter zerlegt. Wichtig dabei ist, dass man darauf achtet, das Token-Limit im Auge zu behalten.

 

Das Token-Limit ist die Anzahl, welches sich das LLM merken kann. Stehen z.B. 8000 Token zur Verfügung und die Eingabe enthält schon 6000 Token, stehen für den Output nur noch 2000 Token zur Verfügung. Alles, was das vorgegebene Limit überschreitet, wird das spätere Ergebnis deutlich beeinträchtigen.

 

Wenn eine Konversation zu lang wird und das Modell das Token-Limit erreicht, kann dies dazu führen, dass wichtige Informationen oder der Kontext verloren geht. Das ist der Grund, warum es wichtig ist, Konversationen zu kürzen oder Zusammenfassungen zu verwenden, um das Token-Limit nicht zu überschreiten und die Qualität der Ergebnisse aufrechtzuerhalten.

Die Zukunft der KI

Die interaktive KI-Phase hat bereits begonnen und zeigt vielversprechende Entwicklungen. Beispielsweise können KI-gesteuerte Hotlines Kundenanfragen effizient bearbeiten und lernen, um künftige Anfragen noch besser zu bewältigen. Dies führt zu einer verbesserten Kundenerfahrung und gesteigerter Effizienz in Unternehmen. Hierbei können die unterschiedlichsten Quellen herangezogen werden, z.B. Produkt-Anleitungen, Datenblätter, Schulungsunterlagen und alle weiteren möglichen Informationsquellen mit einem zusätzlichen Nutzen für den Kunden.

Allerdings ist es unwahrscheinlich, dass KI demnächst Menschen in allen Aspekten des Lebens ersetzt. KI kann Aufgaben automatisieren und erleichtern, aber sie fehlt nach wie vor das Verständnis, die Empathie und die kreativen Fähigkeiten, die menschliche Arbeit auszeichnen. Es ist daher wahrscheinlicher, dass KI und Menschen in Zukunft in einer symbiotischen Beziehung zusammenarbeiten werden, wobei KI-Systeme repetitive Aufgaben übernehmen, um den Menschen mehr Zeit für kreative und strategische Tätigkeiten zu verschaffen.

Insgesamt zeigt die Entwicklung der KI, dass sie immer leistungsfähiger wird und unsere Welt in vielerlei Hinsicht verändert. Die Frage, ob wir von Robotern ersetzt werden, ist komplexer, als es auf den ersten Blick scheinen mag. Wir dürfen der KI auch nicht blind vertrauen, wie ich es in meinem Beitrag zum Automation BIAS beschrieben habe. Es liegt an uns, diese Technologie verantwortungsbewusst zu gestalten und sicherzustellen, dass sie zum Wohl der Gesellschaft eingesetzt wird.

 

Update 18.11.2023

Durch die Einführung von ChatGPT-4 und stetige Verbesserungen des LLM hat sich auch etwas bei unserem Beispiel „Eierlegende Wollmilchsau“ geändert:

Mit dem Modell ChatGPT-4 werden nun nur noch 9 (statt 10) Token benötigt, um die beiden Wörter zu klassifizieren. Eine Einsparung von immerhin 10% – und ein Ende der Optimierung ist noch nicht abzusehen. Bleiben wir gespannt und freuen uns auf die Entwicklung der Zukunft – Die KI bietet uns durchaus einige Risiken aber auch enorme Chancen.

Loading...