12  Instruktion

Author

Gerd Graßhoff

Published

May 1, 2024

12.1 Grundelemente der generativen AI

In der heutigen Vorlesung möchte ich Ihnen die grundlegenden Elemente der generativen AI näherbringen. Diese Systeme basieren auf drei wesentlichen Komponenten:

  1. Eine Eingabe, auch Input genannt
  2. Eine Verarbeitungs- und Bearbeitungskomponente, das eigentliche AI-Modell
  3. Eine Ausgabe, der vom AI-Modell generierte Output

Daher werden sie auch als “generative AI” bezeichnet. Lassen Sie uns diese Elemente im Detail betrachten.

12.1.1 Die Komplexität des Inputs

Die Eingabe in ein AI-System kann durchaus komplex sein. In ihrer einfachsten Form besteht sie aus einer Anfrage oder Query, ähnlich wie wir sie von Suchmaschinen wie Google kennen. Erinnern Sie sich an unser Beispiel aus der letzten Woche, als wir fragten, wie Goethe Karten spielt?

Doch der Input kann weit darüber hinausgehen. Er kann aus Instruktionen oder Anweisungen bestehen, die dem AI-Modell vorgeben, was es tun soll. Diese Anweisungen werden als Zeichenfolge an das Modell übergeben, das sie dann interpretiert und ein Ergebnis produziert.

12.1.2 Die Verarbeitungskapazität moderner Modelle

Die Verarbeitungskapazität aktueller AI-Modelle ist beeindruckend. Sie wird in sogenannten “Tokens” gemessen, die nicht nur Wörter im herkömmlichen Sinne umfassen, sondern auch Satzzeichen und andere bedeutungstragende Elemente.

Um Ihnen eine Vorstellung von der Größenordnung zu geben: Die Anzahl der verarbeitbaren Tokens entspricht in etwa der Wortanzahl, die Sie aus Textverarbeitungsprogrammen kennen. Dort erhalten Sie üblicherweise entweder die Anzahl der Zeichen oder der Wörter als Maß für die Textlänge.

12.1.3 Die Entwicklung der Modellkapazität

Es ist faszinierend zu sehen, wie rasant sich die Kapazität dieser Modelle entwickelt hat. Vor nur einem Jahr lag die maximale Verarbeitungsgröße bei etwa 1.000 Tokens - was schon damals alle begeisterte. Heute können die fortschrittlichsten Modelle bis zu 200.000 Tokens verarbeiten. Das ist eine Steigerung um das 200-fache!

Einige Modelle gehen sogar noch darüber hinaus. Diese enorme Erweiterung der Eingabekapazität eröffnet völlig neue Möglichkeiten für die Anwendung von AI-Systemen.

12.1.4 Begrenzungen der Ausgabe

Interessanterweise kann die Größe des Ergebnisses nicht im gleichen Maße wachsen wie die Eingabe. Dies hängt mit der Funktionsweise der Modelle zusammen. Sie berechnen Wahrscheinlichkeiten für mögliche Abfolgen von Tokens in der Antwort.

Der Aufwand für diese Berechnungen wächst exponentiell mit der Länge der Ausgabe. Aus diesem Grund ist selbst bei den besten und größten Modellen die Ausgabe auf etwa 4.000 Tokens begrenzt. Manche Modelle, die für den Einsatz auf Smartphones konzipiert sind, arbeiten sogar mit Ausgabelängen von nur 100 Tokens.

12.1.5 Praktische Konsequenzen der Begrenzungen

Diese Begrenzungen haben praktische Konsequenzen für die Anwendung von AI-Systemen. Nehmen wir als Beispiel die Transkription und Übersetzung dieser Vorlesung. Um mit den Beschränkungen umzugehen, muss die Vorlesung in kleinere Abschnitte unterteilt und stückweise verarbeitet werden.

Dieses Vorgehen mag auf den ersten Blick umständlich erscheinen, führt aber zu keinen nennenswerten Problemen. Es ist vielmehr ein Beispiel dafür, wie wir kreativ mit den Limitierungen der AI-Modelle umgehen können.

12.2 Herausforderungen bei der Formulierung von Instruktionen

In der letzten Vorlesung haben wir uns mit den epistemischen Anforderungen an AI-Systeme beschäftigt. Wir diskutierten, wie man Halluzinationen vermeiden kann - also Ausgaben, die zwar sprachlich überzeugend klingen, inhaltlich aber nicht akzeptabel sind.

Heute möchte ich mich auf einen anderen Aspekt konzentrieren: die Formulierung von Instruktionen. Diese Instruktionen sind der Schlüssel zur Steuerung der gesamten AI. Wenn wir von der “Programmierung” von AI-Modellen sprechen, geht es im Wesentlichen darum, wie wir Kontext und Textzusammenhang strukturieren.

12.2.1 Die Vielfalt der Eingabeformate

Obwohl wir uns hauptsächlich auf sprachlichen Text konzentrieren, ist es wichtig zu verstehen, dass die Eingabe in ein AI-Modell verschiedene Formen annehmen kann. Es könnte sich um eine Abfolge von Pixeln handeln, die als Symbole interpretiert werden, oder um Audiodaten wie unsere Vorlesungsmitschnitte.

Letztendlich werden all diese Formate in etwas übersetzt, das dem Modell als Textfolge präsentiert wird. Die Kunst liegt darin, diese Instruktionen so zu formulieren, dass das AI-Modell die gewünschte Leistung erbringt.

12.2.2 Der Prozess der Instruktionsverarbeitung

Lassen Sie mich Ihnen den typischen Ablauf der Instruktionsverarbeitung in einem AI-Modell erläutern:

  1. Reformulierung: Alle Modelle beginnen damit, die Anfrage oder Instruktion zu reformulieren. Dabei werden Lücken geschlossen, unklare Angaben präzisiert und fehlerhafte Ausdrucksweisen korrigiert.

  2. Aufgabenzergliederung: Im zweiten Schritt wird die Aufgabe, unabhängig von ihrer Größe, in Teilaufgaben zerlegt.

  3. Generalisierung: Wenn ein Modell eine Aufgabe beispielhaft lösen kann, ist es oft in der Lage, diese Lösung auf ähnliche Fälle zu übertragen.

Diese Schritte ermöglichen es den Modellen, auch komplexe Aufgaben effizient zu bearbeiten. Die Herausforderung liegt darin, die Instruktionen so zu gestalten, dass sie zu den gewünschten Ergebnissen führen.

12.3 Ein konkretes Beispiel: Die Fontänen von Sanssouci

Um die Herausforderungen bei der Formulierung von Instruktionen und der Bewertung von AI-Ausgaben zu veranschaulichen, möchte ich Ihnen ein faszinierendes historisches Beispiel präsentieren: die Wasserfontänen im Park Sanssouci in Potsdam.

12.3.1 Die irreführende Antwort der AI

Stellen Sie sich vor, wir fragen ein AI-Modell: “Wann hat Friedrich II. die Wasserfontänen von Sanssouci erbauen lassen?” Die Antwort, die wir erhalten, klingt zunächst überzeugend:

“Friedrich II., auch bekannt als Friedrich der Große, ließ die Wasserfontänen im Park Sanssouci in Potsdam zwischen 1746 und 1748 errichten. Er strebte danach, in Sanssouci ein ähnliches Ambiente wie in Versailles zu schaffen. Die Hauptfontäne, die große Fontäne im Zentrum des Parks, wurde 1748 fertiggestellt.”

Diese Antwort liest sich wie ein Auszug aus einem Reiseführer - präzise, informativ und scheinbar glaubwürdig. Doch hier liegt das Problem: Die Antwort ist völlig falsch.

12.3.2 Die historische Wahrheit

In Wirklichkeit war das Projekt der Wasserfontänen ein kolossaler Fehlschlag. Keine einzige Fontäne wurde zu Lebzeiten Friedrichs II. erfolgreich in Betrieb genommen. Der Bau funktionierender Fontänen gelang erst im 19. Jahrhundert, lange nach Friedrichs Tod.

12.3.3 Die Herausforderung für die AI

Dieses Beispiel verdeutlicht eine fundamentale Herausforderung für AI-Systeme: Wie können wir sicherstellen, dass die generierten Antworten nicht nur plausibel klingen, sondern tatsächlich korrekt sind? Es geht nicht darum, die AI für Fehler zu kritisieren, sondern zu verstehen, warum solche Antworten so überzeugend erscheinen und wie wir - auch maschinell - ihre Fehlerhaftigkeit erkennen können.

12.3.4 Die Konsequenzen fehlerhafter Antworten

Die Problematik geht weit über historische Anekdoten hinaus. Denken Sie an den Einsatz von AI in Rechtsverfahren oder bei der Erstellung von Verträgen. Große Unternehmen wie Unilever nutzen bereits AI-Systeme für die Vertragserstellung, was enorme Kosten spart. Doch wenn die Frage der Korrektheitsprüfung nicht gelöst ist, können daraus massive Folgeprobleme entstehen.

12.4 Die Suche nach Lösungen

12.4.1 Aktuelle Forschungsansätze

Die KI-Forschung arbeitet intensiv an Lösungen für dieses Problem, doch bisher gibt es keinen zufriedenstellenden Ansatz. Es reicht nicht aus, einfach mehr Dokumente oder Quellen hinzuzufügen. Die entscheidende Frage ist, wie man mit der Evidenz umgeht, um Fehler zu vermeiden.

12.4.2 Die Notwendigkeit epistemischer Expertise

Was wir brauchen, ist eine Art epistemische Expertise, die zu einer Gesamtbewertung aller Zeugnisse führt. Es geht darum, eine Methodik zu entwickeln, die es ermöglicht, widersprüchliche Informationen gegeneinander abzuwägen und zu einer fundierten Schlussfolgerung zu gelangen.

12.4.3 Die Rolle des Prompts

Die einzige Möglichkeit, diese Herausforderung mit den aktuellen AI-Modellen anzugehen, besteht darin, den Prompt - also die Eingabeanweisung - entsprechend zu gestalten. Die meisten fortschrittlichen AI-Modelle sind bereits in der Lage, sprachliche Formulierungen so weit zu beherrschen, dass sie inhaltlich gleiche Aussagen identifizieren können.

12.4.4 Der Weg nach vorn

Die Aufgabe für AI-Entwickler und -Anwender besteht darin, Prompts zu entwickeln, die das AI-Modell dazu bringen, nicht nur Informationen zusammenzufassen, sondern sie kritisch zu hinterfragen und gegeneinander abzuwägen. Es geht darum, eine Art künstliches kritisches Denken zu implementieren, das in der Lage ist, die Glaubwürdigkeit von Quellen zu beurteilen und widersprüchliche Informationen in einen sinnvollen Zusammenhang zu bringen.## Die Herausforderungen der AI-gestützten Textgenerierung

In meiner heutigen Vorlesung möchte ich tiefer in die Problematik der AI-gestützten Textgenerierung eintauchen. Wir haben in den vergangenen Sitzungen bereits gesehen, wie leistungsfähig moderne Sprachmodelle sind. Doch ihre beeindruckenden Fähigkeiten bringen auch neue Herausforderungen mit sich, insbesondere was die Verlässlichkeit der generierten Informationen betrifft.

12.4.5 Das Problem der Faktentreue

Ein zentrales Problem, mit dem wir uns auseinandersetzen müssen, ist die Tendenz von AI-Systemen, scheinbar korrekte Antworten zu produzieren, die bei näherer Betrachtung jedoch falsch oder irreführend sein können. Lassen Sie mich dies an einem Beispiel verdeutlichen:

Bei einer Anfrage zur Errichtung der Wasserfontäne in Sanssouci lieferte das AI-System Chet GPT eine präzise, aber falsche Antwort. Es behauptete, die Fontäne sei zwischen 1746 und 1848 errichtet worden. Diese Angabe klingt plausibel, ist aber nicht korrekt.

Woher stammen solche fehlerhaften Informationen? Es gibt verschiedene mögliche Erklärungen:

  1. Die AI könnte auf fehlerhafte Quellen im Internet zurückgreifen.
  2. Es könnte sich um eine Fehlinterpretation korrekter Daten handeln.
  3. Das System könnte aufgrund seiner linguistischen Fähigkeiten plausibel klingende, aber erfundene Antworten generieren.

12.4.6 Die Notwendigkeit kritischer Überprüfung

Diese Problematik verdeutlicht, wie wichtig es ist, AI-generierte Inhalte kritisch zu hinterfragen. Als Nutzer können wir nicht davon ausgehen, dass selbst präzise formulierte Antworten korrekt sind.

Ein interessanter Aspekt ist die Reaktion des Systems auf Nachfragen. In unserem Beispiel führte eine einfache Aufforderung zur Überprüfung des Wahrheitsgehalts zu einer deutlichen Verbesserung der Antwort. Das System korrigierte sich selbst und gab an, dass die Fontäne erst 1842 fertiggestellt wurde.

Dies zeigt einerseits die Flexibilität und Lernfähigkeit moderner AI-Systeme. Andererseits wird deutlich, wie sehr die Qualität der Antworten von der Art der Fragestellung und dem Interaktionsverlauf abhängt.

12.4.7 Die Rolle des menschlichen Inputs

Ein faszinierender Aspekt der AI-Interaktion ist die Art und Weise, wie menschlicher Input die Antworten beeinflusst. Selbst subtile Hinweise oder der Tonfall einer Nachfrage können die Richtung der AI-generierten Antwort verändern.

Dies führt zu einer hybriden Form der Wissensgenerierung: Das Hintergrundwissen der AI wird mit den Eingaben und Korrekturen des menschlichen Nutzers kombiniert. Diese Dynamik birgt große Potenziale, aber auch Risiken. Sie unterstreicht die Notwendigkeit, als Nutzer bewusst und reflektiert mit AI-Systemen zu interagieren.

12.5 Strategien zur Verbesserung der AI-Antworten

Angesichts dieser Herausforderungen stellt sich die Frage: Wie können wir die Qualität und Zuverlässigkeit von AI-generierten Antworten verbessern? Ich möchte Ihnen einige Ansätze vorstellen, die in dieser Hinsicht vielversprechend erscheinen.

12.5.1 Präzisere Prompts und Nachfragen

Eine Strategie besteht darin, die Eingabeaufforderungen (Prompts) für AI-Systeme sorgfältiger zu formulieren. Indem wir spezifischere Anweisungen geben und explizit nach Überprüfungen oder Begründungen fragen, können wir die Qualität der Antworten oft deutlich verbessern.

Beispielsweise könnte man bei einer historischen Frage wie folgt vorgehen:

  1. Stelle die Hauptfrage
  2. Fordere eine Überprüfung des Ergebnisses an
  3. Bitte um Angabe von Quellen oder Belegen

Diese Methode kann helfen, offensichtliche Fehler zu vermeiden und die Verlässlichkeit der Informationen zu erhöhen.

12.5.2 Entwicklung von AI-gestützten Publikationsassistenten

Ein weiterer vielversprechender Ansatz ist die Entwicklung spezialisierter AI-Systeme, die als Publikationsassistenten fungieren. Solche Systeme könnten beispielsweise:

  • Die Kohärenz eines Artikels prüfen
  • Überflüssige oder irrelevante Sätze identifizieren
  • Die logische Struktur von Argumenten analysieren
  • Die Übereinstimmung von Zitaten und Literaturverzeichnis überprüfen
  • Die Einhaltung stilistischer Vorgaben kontrollieren

Die Implementierung solcher Assistenten könnte die Qualität wissenschaftlicher Publikationen erheblich verbessern und den Peer-Review-Prozess unterstützen.

12.5.3 Integration von Wahrheitsüberprüfungen

Eine besonders wichtige Entwicklung wäre die Integration automatisierter Wahrheitsüberprüfungen in AI-Systeme. Stellen Sie sich vor, man könnte bei jedem Satz einer AI-generierten Antwort mit der Maus darüberfahren und sofort Informationen zur Verlässlichkeit und den zugrundeliegenden Quellen erhalten.

Diese Funktion würde nicht nur die Transparenz erhöhen, sondern auch Nutzern helfen, fundierte Entscheidungen über die Glaubwürdigkeit der Informationen zu treffen.

12.6 Potenziale und Grenzen der AI in der Wissenschaft

Die Möglichkeiten, die sich durch den Einsatz von AI in der Wissenschaft ergeben, sind enorm. Lassen Sie mich dies an einem historischen Beispiel verdeutlichen.

12.6.1 Der Fall der kalten Kernfusion

1989 sorgte die Ankündigung der sogenannten “kalten Kernfusion” für Aufsehen in der wissenschaftlichen Welt. Forscher behaupteten, Kernfusion bei Raumtemperatur in einem einfachen Laboraufbau erreicht zu haben. Diese Nachricht löste eine Welle von Forschungsaktivitäten aus, die sich über Jahre hinzog und Hunderte von Millionen Dollar an Forschungsgeldern verschlang.

Rückblickend betrachtet war dies einer der kostspieligsten wissenschaftlichen Irrtümer der jüngeren Geschichte. Ein gut konzipierter AI-Publikationsassistent hätte möglicherweise schon früh Unstimmigkeiten in den experimentellen Daten aufdecken und so helfen können, diesen kostspieligen Irrweg zu vermeiden.

12.6.2 Chancen und Risiken

Dieses Beispiel verdeutlicht sowohl die Chancen als auch die Risiken des AI-Einsatzes in der Wissenschaft:

  • Chancen:
    • Früherkennung von Unstimmigkeiten in Daten
    • Unterstützung bei der Qualitätssicherung von Publikationen
    • Effizienzsteigerung im Forschungsprozess
  • Risiken:
    • Übermäßiges Vertrauen in AI-generierte Ergebnisse
    • Mögliche Verstärkung von Vorurteilen oder Fehlern im System
    • Vernachlässigung menschlicher Expertise und Intuition

Es ist wichtig zu betonen, dass AI-Systeme nicht als Zensoren oder alleinige Entscheidungsträger fungieren sollten. Vielmehr sollten sie als unterstützende Werkzeuge dienen, die Wissenschaftler bei ihrer Arbeit unterstützen und die Qualität der Forschung verbessern.

12.7 Ausblick: Die Zukunft der AI in der Wissenschaft

Abschließend möchte ich einen Blick in die Zukunft werfen. Die Entwicklung von AI-Systemen für den wissenschaftlichen Bereich schreitet rapide voran. In naher Zukunft könnten wir Publikationsassistenten sehen, die:

  • Automatisch die Struktur und Argumentation wissenschaftlicher Arbeiten analysieren
  • Inkonsistenzen in Daten und Methoden aufdecken
  • Die Relevanz von Quellen und Zitaten bewerten
  • Vorschläge zur Verbesserung der Klarheit und Präzision von Texten machen

Diese Entwicklungen haben das Potenzial, die wissenschaftliche Arbeit grundlegend zu verändern und zu verbessern. Gleichzeitig werfen sie wichtige ethische und epistemologische Fragen auf, mit denen wir uns als Wissenschaftsgemeinschaft auseinandersetzen müssen.

In der nächsten Vorlesung werden wir uns einem verwandten, aber noch komplexeren Thema zuwenden: der Kausalität und dem kausalen Schließen. Diese Konzepte spielen eine zentrale Rolle in der wissenschaftlichen Forschung und stellen eine besondere Herausforderung für AI-Systeme dar.

Ich danke Ihnen für Ihre Aufmerksamkeit und freue mich darauf, diese spannenden Themen in den kommenden Wochen weiter mit Ihnen zu erforschen.