In den letzten Jahren hat die Künstliche Intelligenz (KI) einen rasanten Aufstieg vollzogen und ist zum zentralen Bestandteil vieler Prozesse geworden. Sprachprozesse sind da keine Ausnahme: Immer wieder tauchen Begriffe wie Prompt Engineering, RAG und Fine-Tuning auf. Es fällt leicht, sich in dem Dschungel der KI-Begriffe zu verlieren.
Doch keine Sorge! Wir haben die wichtigsten KI-Begriffe für Sie zusammengestellt, damit Sie die Fortschritte in der KI mit der gleichen Begeisterung verfolgen können, wie wir. Und scheuen Sie nicht, Fragen zu stellen – kontaktieren Sie uns jederzeit, wir beraten Sie gerne zu KI und Sprachthemen!
Haben Sie Lust auf mehr Wissen zur KI? Wir haben ein neues blc-Paper für Sie da! Klicken Sie auf den Button, laden Sie das Paper ganz einfach herunter und behalten Sie alle wichtigsten Informationen zur künstlichen Intelligenz im Blick.
Grundbegriffe der KI
Künstliche Intelligenz (kurz: KI)
Der erste herausfordernde Begriff ist die künstlichen Intelligenz selbst. Auch wenn in letzter Zeit KI in aller Munde ist: Es ist nicht ganz trivial, zu erklären, was Künstliche Intelligenz eigentlich bedeutet.
Die KI ist zunächst ein Teilgebiet der Informatik, das sich mit der Frage beschäftigt, wie Computer bzw. Computer-Programme menschliche kognitive Fähigkeiten imitieren können. Dazu gehören Computer-Programme, die ohne menschliche Hilfe Schlussfolgerungen ziehen oder Probleme lösen können. Der Weg zur KI kann durch programmierte Abläufe oder Maschinelles Lernen erfolgen. KI ist Basis verschiedenster Anwendungen, die Menschen bei alltäglichen Aufgaben unterstützen.
Maschinelles Lernen (kurz: ML)
Maschinelles Lernen (engl. Machine Learning) ist ein Teilbereich der Künstlichen Intelligenz bei dem Computer aus Daten lernen. Beim Maschinellen Lernen werden bestimmten Aufgaben durch das Training mit Beispieldaten erlernt, die die zu imitierenden Muster besonders gut abbilden. Das Ergebnis dieses Vorgangs wird Modell genannt.
Man unterscheidet zwischen überwachtem und unüberwachtem maschinellen Lernen. Der Unterschied besteht u.a. in der Aufbereitung der Trainingsdaten: Während beim überwachtem Lernen die Muster, die das Modell erlernen soll, explizit in den Trainingsdaten gelabelt sind, werden beim unüberwachtem Lernen ungelabelte Daten verwendet und die zu imitierenden Muster erst im Zuge des Lernvorgang erschlossen.
Deep Learning
Deep Learning ist eine Form des unüberwachten maschinellen Lernens. Durch ein mehrschichtiges Neuronales Netz wird der Lernprozess des menschlichen Gehirns „nachgeahmt“. Das ermöglicht dem Modell, das mithilfe von Deep Learning trainiert wurde, komplexe Zusammenhänge und Muster zu „verstehen“ und zu reproduzieren.
Heutzutage bildet Deep Learning die Grundlage nahezu aller KI-Systeme, u.a. großer Sprachmodelle (LLMs) und GPTs (Generative Pretrained Transformer). Übrigens basiert auch Neuronale Maschinelle Übersetzung auf Deep Learning.
Large Language Model (kurz: LLM)
Ein Large Language Model ist, wie der Name schon sagt, ein großes Sprachmodell. Language Modell, weil es das Produkt eines maschinellen Lernvorgangs ist, das für die Erfüllung einer Aufgabe im Sprachkontext trainiert wurde. Large, weil die zugrundeliegenden Trainingsdatenmengen riesig sind. LLMs können Sprachinhalte erkennen sowie neue Inhalte generieren, zusammenfassen und vieles mehr. Die bekanntesten LLMs sind GPT von OpenAI (Achtung: nicht mit ChatGPT verwechseln!), LLaMA von Meta und Mistral.
Natural Language Processing (kurz: NLP)
Natural Language Processing oder natürliche Sprachverarbeitung ist eine Disziplin zwischen der Informatik und der Linguistik. Sie befasst sich mit dem Verstehen, Bearbeiten und Erzeugen natürlicher Sprache mithilfe von Maschinen.
Durch NLP-Methoden und Einsatz von Deep Learning wurde die Entwicklung sprach-basierter KI-Systeme, wie LLMs, überhaupt erst möglich.
Generative Pretrained Transformer (kurz: GPT)
Ein Generative Pretrained Transformer ist ein mittels Deep Learning trainiertes Sprachmodell, das die Transformer-Architektur verwendet, ein ganz spezieller Deep Learning-Algorithmus. Die Transformer-Architektur ermöglicht dem Modell, die semantischen Verbindungen zwischen allen Wörtern in einem Text gleichzeitig zu verstehen und das Erlernte reproduzieren zu können. Vereinfacht gesagt, wird permanent on-the-fly berechnet, welches Wort am wahrscheinlichsten auf das vorherige folgt.
Der Fokus bei GPTs liegt auf der Generierung neuer sprachlicher Inhalte. Deshalb sind GPTs die perfekten Sprachmodelle für Chatbots.
Chatbot
Ein Chatbot ist eine Anwendung, die mittels Benutzeroberfläche, z.B. eines Chat-Fensters, eine Frage-Antwort Kommunikation in natürlicher Sprache zwischen Nutzern und Maschine erlaubt. Der Kern eines Chatbots ist aktuell nahezu immer ein LLM, meist ein GPT. Das vermutlich bekannteste Beispiel für einen Chatbot, der auf einem GPT basiert, ist ChatGPT.
"Warum gibt ChatGPT oft unsinnige Antworten?"
Die Prozesse hinter der Beantwortung einer Nutzeranfrage in ChatGPT sind nicht optimal. Ein Grund hierfür ist, dass sich die Fähigkeit eines GPT auf die Generierung von Sprache durch das Errechnen einer wahrscheinlichen Antwort auf Grundlage der Trainingsdaten beschränkt. Dabei spielt die Korrektheit der Antwort keine Rolle – der Fokus liegt auf dem natürlichem Klang. Die im Trainingskorpus unterrepräsentierten Themen werden im Training viel weniger berücksichtigt, als Themen, für die es sehr viele Daten gibt, aus denen das Modell lernen kann. Die Trainingsdaten für ein LLM stammen meist aus dem Internet. Das erklärt, warum ChatGPT für allgemeinsprachliche Aufgaben sehr gut funktioniert, und bei sehr spezifischen Aufgaben schneller an Grenzen stößt.
Zum Glück gibt es Methoden, die KI zu einem sehr mächtigen Werkzeug machen. In den folgenden Abschnitten erklären wir einige dieser Methoden genauer.
Prompt, Prompting, Prompt Engineering
Der Begriff, der in Zusammenhang mit Chatbots am häufigsten vorkommt, ist der Prompt. Der Prompt ist eigentlich nur die Eingabemaske, die als Schnittstelle für die Kommunikation zwischen Mensch und Chatbot dient. Hieraus entstand im Laufe der Zeit die Konvention, auch die eigentliche Eingabe, also die Aufforderung an das Modell, eine Frage zu beantworten oder eine Aufgabe auszuführen, als Prompt zu bezeichnen.
Prompt Engineering ist das Erstellen eines möglichst effizienten Prompts, d.h. die Optimierung der Eingabe-Formulierung, um bestmögliche Ergebnisse zu erzielen. Prompt Engineering ist ein zeitaufwändiges Verfahren das Übung und Fingerspitzengefühl erfodert. Es sollte deshalb gezielt dort eingesetzt werden, wo die Qualität der Ausgabe hoch und die Ergebnisse verlässlich sein müssen.
Möchten Sie die Grundlagen des Prompt Engineering erlernen und Ihre Kommunikation mit ChatGPT und Co. auf eine professionelle Ebene bringen? Good News: Unsere Expert:innen haben ein Schulungsprogramm entwickelt, das Sie dabei unterstützt, die KI zu einem effizienten Werkzeug in Ihren Sprachprozessen zu machen – die KI-Coachings von blc! Melden Sie sich jetzt an!
Retrieval-Augmented Generation (kurz: RAG)
Retrieval-Augmented Generation ist eine Methode, die mittels Einbindung externer Daten die Ausgabe-Ergebnisse im Kontext optimiert. Hierbei werden z.B. Unternehmensdaten in die Antwortgenerierung einbezogen. So wird beispielsweise ein im Trainingskorpus unterrepräsentierter Fachbereich priorisiert und die Korrektheit der Antworten damit erhöht. Ein wesentlicher Vorteil ist, dass durch Benutzung von RAG das Modell implizit spezialisiert wird, ohne echtes, spezifisches Training durchzuführen. Ein weiterer Vorteil ist, dass man den Datenpool jederzeit flexibel verändern und erweitern kann, ohne das Modell anpassen zu müssen.
Fine-Tuning
Fine-Tuning ist eine komplexe Methode, um spezifische Abfragen eines Sprachmodells zu ermöglichen. Beim Fine-Tuning wird für ein generisch vortrainiertes Sprachmodell eine weitere Trainingsphase durchgeführt – jedoch mit einem sehr spezifischen Datenset. Trotz deutlich höheren Aufwands ist das Fine-Tuning für komplexe fachliche Aufgaben unabdingbar. Ein Nachteil des Fine-Tuning ist die Beschränkung des Sprachmodells auf ein sehr konkretes Fachgebiet, was wenig Flexibilität in den Antworten erlaubt. Ein weiterer Nachteil ist, dass das Modell mit jeder Änderung des Anwendungsbereichs neu trainiert werden muss, was Aufwand erzeugt.
Möchten Sie KI in Ihren Sprachprozessen einsetzen?
Wenn KI in Sprachprozesse eines Unternehmens eingebunden werden soll, sind Genauigkeit und Korrektheit der Ergebnisse essenziell. Unsere Expert:innen betrachten jeden Use Case individuell, ohne das große Ganze aus den Augen zu verlieren. Wir beraten Sie gerne dabei, welche KI-Methode in Ihrem Fall am besten passt. Kontaktieren Sie uns, um mit KI mehr aus Ihren Sprachprozessen herauszuholen!