Mittlerweile verwenden sehr viele Menschen KI-Technologie, wie beispielsweise ChatGPT, Copilot, Siri und Co. Hier stelle ich die 15 wichtigsten Begriffe im Zusammenhang mit KI und Chatbots vor, die man unbedingt kennen sollte.

Künstliche Intelligenz (KI)

Künstliche Intelligenz bezieht sich auf die Entwicklung von Computersystemen, die Aufgaben ausführen können, die typischerweise menschliche Intelligenz erfordern. Sie umfasst eine breite Palette von Technologien und Techniken zur Simulation intelligenten Verhaltens. Sie ist das Rückgrat, das es Maschinen ermöglicht, Aufgaben zu erledigen, die traditionell menschliches Denken erfordern. KI ist nicht nur ein einzelnes Werkzeug, sondern ein breites Spektrum von Technologien und Methoden, die zusammenarbeiten, um Maschinen intelligenter und autonomer zu machen. Sie ist die Technologie, die z. B. hinter Chatbots wie ChatGPT steckt. Künstliche Intelligenz verhält sich zu Chatbots, wie Telekommunikation zu Smartphones.

KI
CC by 4.0 Thomas Felzmann, Robot Icon by freepik, flaticon.com

Chatbots

Chatbots sind computerbasierte Programme, die speziell entwickelt wurden, um mit Menschen durch geschriebenen oder gesprochenen Text zu kommunizieren. Sie simulieren menschliche Konversation, um Aufgaben wie Kundenbetreuung, Informationsbereitstellung oder Unterhaltung zu erledigen. Chatbots nutzen häufig künstliche Intelligenz und maschinelles Lernen, insbesondere Techniken des Natural Language Processing (NLP), um die Absichten der Nutzer zu verstehen und darauf basierend sinnvolle und relevante Antworten zu generieren.

Schon lange vor dem Aufkommen von ChatGPT gab es bereits viele verschiedene Arten von Chatbots. Viele bisherige, traditionelle Chatbots verwenden aber einfachere Modelle und Regeln oder begrenztere Formen künstlicher Intelligenz, die oft auf spezifische Szenarien oder eng definierte Aufgaben zugeschnitten sind. Wir kennen Chatbots bereits seit vielen Jahren als Kundenservice-Bots auf Webseiten, als persönliche Assistenten wie Siri und Alexa, als Bots im Gesundheitswesen, wie z.B. Ada Health, Bildungs-Bots (wie z.B. der Duolingo-Chatbot), oder klassische Buchungs- und Reservierungsbots.

Machine Learning (ML)

Maschinelles Lernen ist ein Teilbereich der Künstlichen Intelligenz. Deep Learning, neuronale Netze und LLMs (große Sprachmodelle) sind fortgeschrittene Techniken innerhalb des maschinellen Lernens. Maschinelles Lernen umfasst Algorithmen und statistische Modelle, die Computern ermöglichen, ihre Leistung bei einer bestimmten Aufgabe ohne explizite Programmierung zu verbessern. Es konzentriert sich auf Mustererkennung und das Lernen aus Daten.

So ist z. B. ein E-Mail-Spamfilter ein maschinelles Lernsystem, das lernt, Spam-Nachrichten basierend auf Ihren Aktionen und Rückmeldungen zu identifizieren und zu filtern. Auch Chatbots lernen mittels Machine Learning. Denn je mehr ein Chatbot verwendet wird, desto besser wird er darin, Nutzeranfragen zu verstehen und darauf zu reagieren, was ihn zu einem immer wertvolleren Hilfsmittel macht.

Neuronale Netze

Neuronale Netzwerke sind grundlegend sowohl für maschinelles Lernen als auch für das Deep Learning. Die Inspiration hinter neuronalen Netzen stammt aus dem Versuch, die komplexe Struktur des menschlichen Gehirns nachzubilden. Diese Netze bestehen aus Schichten von Knoten, die Informationen ähnlich wie die Neuronen in unserem Gehirn verarbeiten. In der Welt der Chatbots ermöglichen sie die Verarbeitung und Interpretation von Sprache auf eine Weise, die tieferes Verständnis und genauere Antworten ermöglicht.

Neuronale Netze sind besonders nützlich für Aufgaben wie Spracherkennung und Textverständnis, was sie zu einem Schlüsselelement in der Entwicklung fortgeschrittener Chatbot-Systeme macht. Zum Beispiel verwendet Software zur Handschrifterkennung neuronale Netzwerke, um handschriftlichen Text zu verstehen und in digitale Zeichen umzuwandeln.

Deep Learning

Deep Learning nimmt die Konzepte des Machine Learnings und erweitert sie, indem es mehrschichtige neuronale Netze nutzt, die in der Lage sind, eine noch breitere Palette von Mustern und Beziehungen in den Daten zu erkennen. Für Chatbots bedeutet dies die Fähigkeit, noch komplexere Anfragen zu verstehen und zu beantworten.

Deep Learning treibt die Grenzen dessen voran, was Chatbots erkennen und wie sie mit Nutzern interagieren können, und ermöglicht bahnbrechende Fortschritte in der natürlichen Sprachverarbeitung und im Verständnis. Die Gesichtserkennung auf Fotos ist beispielsweise ein Ergebnis des Deep Learnings, bei dem das System lernt, Merkmale wie Augen, Nase und Mund zu erkennen, um eine Person zu identifizieren.

KI
stock.adobe.com – buffaloby

Generative KI

Generative KI steht für die nächste Generation von KI-Systemen, die nicht nur interpretieren und antworten, sondern auch neue, originelle Inhalte erzeugen können. Im Bereich der Chatbots ermöglicht generative KI die Erstellung von Antworten, die nicht nur relevant und präzise, sondern auch einzigartig und anpassungsfähig sind. Dies eröffnet neue Möglichkeiten für kreative und dynamische Interaktionen, die über das hinausgehen, was mit traditionellen Ansätzen möglich ist.

Ein bekanntes Beispiel für generative KI ist ChatGPT, ein von OpenAI entwickeltes großes Sprachmodell. ChatGPT kann auf Benutzeranfragen reagieren, indem es in Echtzeit Text generiert, der menschenähnlich wirkt. Auch Bild-Generatoren wie z. B. Dall-E und Midjourney gehören zur Gruppe der Generativen KI.

Large Language Models (LLMs)

Large Language Models, wie GPT (Generative Pre-trained Transformer), sind auf die Verarbeitung, Analyse und Generierung von Text auf einem bisher unerreichten Niveau spezialisiert. Diese Modelle haben ein tiefes Verständnis der menschlichen Sprache, das es ihnen ermöglicht, auf Anfragen mit erstaunlicher Genauigkeit und Relevanz zu reagieren.

KI
stock.adobe.com – creative_captain

Massive Dataset

Große Sprachmodelle werden mit riesigen Datensätzen trainiert, die aus Texten aus dem Internet, Büchern, Zeitungen und vielen anderen Quellen bestehen. Diese Daten dienen dazu, dem Modell eine breite Basis an Wissen und Sprachgebrauch beizubringen.

Deep Learning

Diese Modelle nutzen tiefe neuronale Netzwerke, um Sprache zu verstehen und zu generieren. Deep Learning ist eine Methode des maschinellen Lernens, die große Mengen an Daten verarbeiten kann, um Muster zu erkennen und daraus zu lernen.

Transformer Architecture

Diese spezielle Architektur ist besonders effektiv für die Verarbeitung von Sprache. Transformer-Modelle können Wörter im Kontext besser verstehen, indem sie Beziehungen zwischen allen Wörtern in einem Satz oder Textabschnitt betrachten, unabhängig von deren Position.

Self-supervised Learning

Im Gegensatz zum überwachten Lernen, wo Modelle mit klaren Anweisungen (wie korrekte Antworten) trainiert werden, lernt ein selbstüberwachtes Modell durch die Analyse von Daten und das Erkennen von Zusammenhängen ohne spezifische Anleitung. Das Modell versucht, Teile des Eingabetexts vorherzusagen oder zu rekonstruieren, was ein tiefes Verständnis der Sprache fördert.

Fine-tuning

Nachdem das Modell mit allgemeinen Daten vortrainiert wurde, kann es für spezifische Aufgaben oder auf spezifische Datensätze „feinabgestimmt“ werden. Dabei wird das Modell weiter trainiert (meist mit weniger Daten), um es auf eine bestimmte Anwendung oder ein spezifisches Problem besser anzupassen.

LLMs sind das Herzstück der fortschrittlichsten Chatbots und ermöglichen eine nahtlose, natürliche Kommunikation zwischen Mensch und Maschine. Auch virtuelle Assistenten wie Siri oder Alexa verwenden große Sprachmodelle, um natürliche Sprachanfragen zu verstehen und darauf zu reagieren. Große Sprachmodelle sind ein Produkt des tiefen Lernens und Teil des breiteren Feldes der Künstlichen Intelligenz.

NLP (Natural Language Processing)

Natural Language Processing ist die Technologie, die es Chatbots ermöglicht, menschliche Sprache in all ihren Nuancen zu verstehen. NLP umfasst eine Vielzahl von Techniken zur Analyse, Interpretation und Generierung von Sprache, was es Chatbots ermöglicht, die Absicht hinter den Worten eines Nutzers zu erkennen und entsprechend zu reagieren. Dies ist entscheidend für die Schaffung einer flüssigen, natürlichen Interaktion und stellt sicher, dass Chatbots als effektive und hilfreiche Assistenten fungieren können.

Prompt

Ein Prompt ist eine Eingabe oder Anweisung, die einem KI-System gegeben wird, um eine spezifische Aufgabe auszuführen. Es kann eine Anfrage, ein Satz oder ein Befehl sein, der die Antwort der KI auslöst. Einem Sprachmodell zu sagen: „Übersetze diesen englischen Text ins Französische“, ist ein Prompt, damit das Modell eine französische Übersetzung generiert. Wichtig: Je besser der Prompt, um so besser ist das Ergebnis! Tipps für richtig gute Prompts findest du in diesem Artikel.

Ein weiteres Beispiel ist die Anweisung, eine szenariobasierte Frage in einem spezifischen Fachbereich zu erstellen. Prompts sind wesentlich, um KI-Systeme zu instruieren, und sie spielen eine Rolle bei Aufgaben, die große Sprachmodelle und generative KI betreffen.

GPT

GPT (Generative Pre-trained Transformer) ist ein fortschrittliches Sprachmodell, entwickelt von OpenAI, das auf der Transformer-Architektur basiert. Es wird zunächst mit einer großen Menge an Textdaten trainiert, um Sprachmuster zu lernen (Pre-training), und kann dann Texte generieren und auf vielfältige Sprachaufgaben anwenden. Der Transformer-Mechanismus, insbesondere die Self-Attention, ermöglicht es GPT, relevante Informationen aus Texten effizient zu verarbeiten und kohärente, kontextbezogene Antworten zu generieren. Der Begriff “GPT” bezieht sich spezifisch auf die Familie von Modellen, die von OpenAI entwickelt wurden.

Token

In der natürlichen Sprachverarbeitung ist ein Token eine Texteinheit, die von der KI verarbeitet wird und typischerweise ein Wort oder einen Teil eines Wortes darstellt. Wenn du wissen willst, die ChatGPT die Prompts in einzelne Tokens zerlegt, kann sich hier davon einen guten Eindruck machen. Ein Token hat keine feste Länge in Bezug auf Zeichen oder Wörter. Er kann je nach der Komplexität der Sprache und des Inhalts variieren.

KI
Quelle: https://platform.openai.com/tokenizer


Normalerweise entspricht ein Token ungefähr drei Viertel eines Wortes. Tokens sind grundlegend für die Verarbeitung und Analyse von Textdaten und ein entscheidender Aspekt bei Aufgaben, die mit großen Sprachmodellen und natürlicher Sprachverarbeitung im weiteren KI-Bereich verbunden sind.

KI-Halluzinationen

Halluzinationen beziehen sich auf Fälle, in denen ein KI-Modell Ausgaben generiert, die nicht auf realen Daten basieren, sondern auf Mustern oder Voreingenommenheiten, die während des Trainings gelernt wurden. Dies kann zu inkorrekten oder falschen Ausgaben führen. Beispielsweise könnte das Modell beim Generieren von Text fiktionale Details einführen, die auf den Trainingsdaten basieren, was potenziell zur Verbreitung von Desinformation mit ungenauen oder voreingenommenen Informationen führen kann.

Halluzinationen können in verschiedenen KI-Modellen auftreten, einschließlich solcher, die auf generativer KI und großen Sprachmodellen basieren. Es ist wichtig zu bedenken, dass KI-Systeme nicht zwischen Realität und Fiktion unterscheiden können. Deshalb sollte man sich grundsätzlich nie zu 100% auf die Ausgabe von Chatbots verlassen, sondern immer sicherheitshalber mithilfe einer Suchmaschine gegenprüfen.

Dieses Beispiel hier zeigt eine KI-Halluzination aus den “frühen” Tagen von ChatGPT. Ich ließ ihn eine Biografie zu dem erfundenen deutschen Apotheker Adam Eisenhaupt erstellen. ChatGPT “baute” sich dabei einfach aus den Biografien anderer bekannter Personen eine eigene zusammen. Mittlerweile weist ChatGPT aber darauf hin, wenn er eine fiktive Biografie erstellt!

KI
Beispiel für eine KI-Halluzination von ChatGPT, Februar 2023

KI-Bias

Ein KI-Bias, oder KI-Voreingenommenheit, bezieht sich auf systematische und unfaire Verzerrungen in den Entscheidungen oder Vorhersagen, die von künstlichen Intelligenzsystemen gemacht werden. Solche Verzerrungen können entstehen, wenn die Daten, mit denen die KI trainiert wird, unausgewogen sind oder wenn das Design des Algorithmus bestimmte Gruppen oder Szenarien bevorzugt oder benachteiligt. Hier ist ein aktuelles Beispiel eines KI-Biases des Chatbots Google Gemini:

KI
Quelle: Reddit

Algorithmus

Ein Algorithmus ist eine Reihe von klar definierten Regeln oder Anweisungen, die ein Computerprogramm befolgt, um bestimmte Aufgaben zu lösen oder Probleme zu bearbeiten. In der Praxis bedeutet dies, dass ein Algorithmus die Daten, die ein Chatbot erhält, analysiert und verarbeitet, um darauf basierend sinnvolle Antworten zu generieren.

Zum Beispiel verwendet ein KI-Algorithmus natürliche Sprachverarbeitung (Natural Language Processing, NLP), um die Bedeutung von Benutzereingaben zu verstehen, und maschinelles Lernen, um aus früheren Interaktionen zu lernen und sich zu verbessern. Dadurch kann der Chatbot auf vielfältige und komplexe Anfragen reagieren, als würde man mit einem Menschen sprechen.

AGI (Artificial General Inteligence)

Eine Künstliche Allgemeine Intelligenz (AGI) ist eine fortschrittliche Form der Künstlichen Intelligenz, die in der Lage ist, jede intellektuelle Aufgabe zu erfüllen, die ein Mensch bewältigen kann. Im Gegensatz zu spezialisierter KI, die nur bestimmte Aufgaben löst (z.B. ChatGPT oder Midjourney), hat eine AGI ein umfassendes Verständnis und kann flexibel auf verschiedene Herausforderungen reagieren, lernen, kreativ sein und Problemlösungen entwickeln, ähnlich wie ein Mensch.

Beispiele für AGI in Filmen und Serien sind die Supercomputer HAL 9000 aus “2001: Odyssee im Weltraum“, der empfindungsfähige Roboter David aus “A.I. Künstliche Intelligenz“, und der humanoide Android Data aus “Star Trek: The Next Generation” oder auch der Terminator (T-800) und der Roboter Sonny aus dem Film “I, Robot” . Diese Figuren verkörpern die Idee einer AGI, die menschliches Denken und Verhalten in vielerlei Hinsicht nachahmen kann.

Fazit

All diese technologischen Entwicklungen bilden das Fundament von KI und moderner Chatbots, die in der Lage sind, mit Nutzer*innen auf eine Weise zu kommunizieren, die so natürlich und hilfreich wie möglich ist. Ein Grundwissen über diese Fachbegriffe zu haben, kann dabei helfen, KI besser zu verstehen.

Mit der kontinuierlichen Weiterentwicklung dieser Schlüsseltechnologien werden Chatbots noch leistungsfähiger und vielseitiger werden, was die Art und Weise, wie wir mit digitalen Systemen interagieren, grundlegend verändern wird.