11  Epistemische Bewertung

Author

Gerd Graßhoff

Published

July 2, 2024

11.1 Die philosophische Vogelperspektive auf AI-Modelle

Lassen Sie uns nun tiefer in die Materie eintauchen und die Folgerungen betrachten, die sich aus unserer philosophischen Vogelperspektive ergeben. Besonders interessant ist dabei der Aspekt, mit dem ich die letzte Vorlesung abschloss: die epistemische Bewertung dessen, was AI-Modelle erzeugen und generieren.

11.1.1 Dimensionen der epistemischen Bewertung

Epistemische Bewertungen umfassen verschiedene Arten von Urteilen:

  • Die Beurteilung von Aussagen als wahr oder falsch
  • Die Kritik an Behauptungen anderer über Wahrheitswerte von Aussagen
  • Die Rechtfertigung durch Angabe von Gründen, warum eine Aussage wahr oder falsch ist

Diese Dimension der epistemischen Bewertung ist erst jetzt in den Fokus gerückt. Früher hatten wir es lediglich mit Imitationen oder Simulationen zu tun - eine erste Annäherung. Doch der eigentliche Zugang zu dieser Dimension eröffnet sich erst mit der gegenwärtigen AI-Revolution.

11.1.2 Ein herausforderndes Puzzle für AI-Modelle

Um dies zu veranschaulichen, möchte ich ein Beispiel heranziehen, das in der AI-Szene vor etwa vier Wochen für Aufsehen sorgte. Es handelt sich um folgendes Puzzle:

“Egon hat drei Brüder. Jeder Bruder hat zwei Schwestern. Wie viele Schwestern hat Egon?”

Interessanterweise konnten die meisten AI-Modelle dieses scheinbar einfache Rätsel nicht lösen. Doch bevor wir uns die Antworten der Modelle ansehen, ist es wichtig zu verstehen, dass die großen AI-Entwickler nach Bekanntwerden dieses Problems rasch daran arbeiteten, ihren Modellen diese Art von Puzzles beizubringen.

11.2 Analyse der AI-Antworten

Lassen Sie uns nun betrachten, wie verschiedene AI-Modelle auf diese Herausforderung reagieren. Wir beginnen mit einem der schnellsten und leistungsfähigsten Modelle, Anthropic Cloud Haiku.

11.2.1 Anthropic Cloud Haiku’s Antwort

Das Modell antwortet:

“Okay, lasst uns das Schritt für Schritt durchrechnen. Egon hat drei Brüder, jeder Bruder hat zwei Schwestern. Das bedeutet, dass Egon insgesamt dreimal zwei, sechs Schwestern hat.”

Diese Antwort offenbart ein fundamentales Problem: Sie klingt überzeugend, ist aber falsch. Der Kern des Problems liegt darin, dass man an der Antwort selbst nicht erkennen kann, ob sie richtig oder falsch ist, es sei denn, man rechnet selbst nach und kontrolliert das Ergebnis.

11.2.2 Das Kernproblem der epistemischen Dimension

Das eigentliche Problem ist nicht, dass AI-Modelle gelegentlich Fehler machen. Vielmehr liegt es darin, dass sie ihre Antworten mit dem Brustton der Überzeugung präsentieren, unabhängig davon, ob diese korrekt sind oder nicht. Dies kann in verschiedenen Kontexten, von der Rentenversicherung bis hin zu anderen Bereichen, schwerwiegende Folgen haben.

11.3 Die Grenzen aktueller AI-Modelle

Es ist wichtig zu verstehen, dass kein gegenwärtiges AI-Modell die epistemische Dimension vollständig erfassen und lösen kann. Die aktuellen Modelle sind ausschließlich darauf trainiert, sprachlich wohlgeformte Sätze zu generieren. Die epistemische Dimension, obwohl sie mit Aussagen zu tun hat, ist noch nicht implementiert.

11.3.1 Methodische Fehler im Reasoning-Apparat

Die entscheidende Frage lautet: Was geht methodisch falsch im Reasoning-Apparat, dem Nachdenkensmechanismus der AI-Modelle? Es handelt sich hier nicht um logische Schlüsse im klassischen Sinne. Das Problem liegt tiefer und erfordert eine gründlichere Analyse.

11.4 Verbesserungen und neue Ansätze

Nach dem initialen Scheitern bei diesem Puzzle haben die größeren Modelle begonnen, ihre Herangehensweise zu überdenken. Lassen Sie uns nun betrachten, wie neuere Modelle, insbesondere Claude Sonnet von Anthropic, das derzeit als Spitzenreiter in der Qualität des Reasonings gilt, mit dieser Aufgabe umgehen.

11.4.1 Claude Sonnet’s Lösungsansatz

Claude Sonnet gibt folgende Antwort:

“Der Schlüssel zur Lösung liegt darin zu erkennen, dass Egon und seine Brüder die gleichen Schwestern haben. Wenn jeder Bruder zwei Schwestern hat, dann hat auch Egon zwei Schwestern. Die Anzahl der Brüder spielt für die Anzahl der Schwestern keine Rolle. Daher die Antwort: Egon hat zwei Schwestern.”

Diese Antwort ist korrekt und zeigt, dass die Entwickler an genau der Stelle nachgebessert haben, wo wir zuvor das Problem identifiziert hatten.

11.4.2 Vergleich mit anderen Modellen

Um einen umfassenderen Überblick zu erhalten, lassen Sie uns auch die Antwort von ChatGPT betrachten:

“Egon hat zwei Schwestern. Egon hat drei Brüder, jeder Bruder hat zwei Schwestern. Daraus folgt, dass Egon selbst einer der Brüder ist. Da jeder Bruder zwei Schwestern hat und Egon einer dieser Brüder ist, hat er ebenfalls zwei Schwestern.”

Diese Antwort ist ebenfalls korrekt, wenn auch etwas knapper in der Begründung.

11.5 Die Herausforderung der epistemischen Sicherheit

Trotz der korrekten Antworten bleibt eine fundamentale Frage bestehen: Wie können wir sicher sein, dass die Antwort stimmt? Diese Unsicherheit ist ein zentrales Problem im Umgang mit AI-Modellen. Es erfordert von uns, stets kritisch zu hinterfragen und zu überprüfen, selbst wenn die Antworten überzeugend klingen.

11.5.1 Ein komplexeres Beispiel: Goethe und das Kartenspiel

Um die Herausforderung der epistemischen Bewertung weiter zu verdeutlichen, betrachten wir ein komplexeres Beispiel aus der Biografie von Johann Wolfgang von Goethe. Die Frage lautet: “Spielte Goethe Karten?”

Diese scheinbar einfache Frage öffnet die Tür zu einer Fülle von Informationen und Interpretationen seitens der AI-Modelle. Es zeigt, wie selbst bei vermeintlich simplen Anfragen die Modelle dazu neigen, umfangreiche und detaillierte Antworten zu generieren, die weit über die eigentliche Fragestellung hinausgehen.## Die Herausforderung der Wahrheitsfindung in der künstlichen Intelligenz

In der heutigen Vorlesung möchte ich mit Ihnen einen faszinierenden Aspekt der künstlichen Intelligenz erörtern: die Herausforderung der Wahrheitsfindung. Um dieses komplexe Thema greifbar zu machen, werden wir uns eines konkreten Beispiels bedienen - der Frage, ob Johann Wolfgang von Goethe ein begeisterter Kartenspieler war.

11.5.2 Die KI-generierte Antwort und ihre Schwächen

Lassen Sie uns zunächst die Antwort betrachten, die ein modernes AI-System auf diese Frage liefert. Die Ausgabe liest sich wie ein wohlformulierter Wikipedia-Artikel, der Goethe nicht nur als herausragenden Literaten, sondern auch als leidenschaftlichen Kartenspieler darstellt. Das Kartenspiel wird als integraler Bestandteil seines Lebens und seiner Persönlichkeit beschrieben, der sogar seine literarischen Leistungen beeinflusst haben soll.

Auf den ersten Blick mag diese Antwort überzeugend wirken. Doch bei näherer Betrachtung offenbaren sich gravierende Mängel. Das AI-System gibt keine Quellen an, die seine Behauptungen stützen. Es reformuliert lediglich vorhandene Informationen, ohne deren Herkunft oder Zuverlässigkeit zu hinterfragen. Dies ist ein fundamentales Problem bei der derzeitigen Implementierung von AI-Systemen.

11.5.3 Die Notwendigkeit einer fundierten Quellenprüfung

Als Wissenschaftler und kritische Denker müssen wir uns fragen: Wie können wir den Wahrheitsgehalt solcher Aussagen überprüfen? Die simple Angabe von Zitaten oder das Verweisen auf andere Quellen reicht nicht aus. Wir benötigen eine rigorose Methodik zur Überprüfung historischer Fakten.

In unserem Fall wäre ein idealer Ansatz, eine von Goethe selbst autorisierte Quelle zu finden, in der er sich zum Thema Kartenspiel äußert. Dies würde uns eine solide Grundlage für die Beantwortung unserer Frage liefern.

11.5.4 Ein konkretes Beispiel: Goethes Brief von 1773

Glücklicherweise verfügen wir über eine solche Quelle. Es handelt sich um einen Brief Goethes an Johann Christian Kerstner vom 14. April 1773. In diesem Schreiben erwähnt Goethe das Kartenspiel, wenn auch nicht explizit seine eigene Teilnahme daran. Er schreibt:

“Aber dass ihr, weil euch das Glück die Karten gemischt hat, mit der Spadille stecht, mir ein höllisches Gesicht zieht und euch zu eurem Weibe legt, finde ich unartig.”

Dieser Brief liefert uns wichtige Indizien. Zum einen zeigt er Goethes Vertrautheit mit der Terminologie des Kartenspiels. Zum anderen lässt der Kontext vermuten, dass Goethe selbst an solchen Spielrunden teilgenommen hat.

11.5.5 Die Herausforderungen bei der AI-gestützten Analyse historischer Quellen

Die Aufbereitung solcher historischer Quellen für die Analyse durch AI-Systeme stellt uns vor beträchtliche Herausforderungen. In der Vergangenheit erforderte dies jahrzehntelange manuelle Arbeit zur Digitalisierung und Strukturierung der Texte.

Moderne AI-Modelle bieten hier neue Möglichkeiten. Sie können bereits Bildschirmfotos von Webseiten strukturell erfassen und relevante Informationen extrahieren. Dies eröffnet uns neue Wege, historische Dokumente effizienter für die AI-gestützte Analyse aufzubereiten.

11.5.6 Die Grenzen aktueller AI-Systeme

Trotz dieser Fortschritte stoßen wir immer noch an die Grenzen aktueller AI-Systeme. In unserem Beispiel fragte ich das System erneut, ob Goethe im Jahr 1773 Karten spielte - obwohl wir nun über einen eindeutigen Beleg verfügen.

Die Antwort des Systems war ernüchternd. Es gab zu, keine spezifischen Aufzeichnungen zu haben, spekulierte aber dennoch über Goethes mögliche Kartenspielaktivitäten basierend auf allgemeinen Praktiken der Zeit. Dies zeigt deutlich die Schwächen des Systems auf: Es hat keinen Zugriff auf die relevante Information und füllt diese Wissenslücke mit Spekulationen.

11.6 Ausblick: Die Zukunft der AI in der Wahrheitsfindung

Diese Erkenntnisse verdeutlichen die immensen Herausforderungen, vor denen wir bei der Entwicklung von AI-Systemen stehen, die in der Lage sind, Wahrheitsansprüche zuverlässig zu rechtfertigen. Es ist ein komplexes Unterfangen, das nicht nur technische, sondern auch organisatorische Hürden zu überwinden hat.

Dennoch bin ich optimistisch, dass wir in absehbarer Zeit - vielleicht schon innerhalb eines Jahres - signifikante Fortschritte in dieser Richtung sehen werden. Stellen Sie sich vor, welche Möglichkeiten sich eröffnen, wenn wir über AI-Systeme verfügen, die in der Lage sind, Aussagen in Manuskripten oder politischen Debatten substanziell und unabhängig zu verifizieren.

Die Realisierung solcher Systeme wäre nichts weniger als revolutionär. Sie würde nicht nur die akademische Forschung transformieren, sondern könnte auch weitreichende Auswirkungen auf Bereiche wie die Gesetzgebung haben. Stellen Sie sich vor, Parlamentarier hätten Zugang zu einem AI-System, das komplexe Sachfragen nahezu definitiv beantworten kann - welch ein Potenzial für fundierte politische Entscheidungen!

Natürlich dürfen wir nicht der Illusion verfallen, dass solche Systeme fehlerfrei oder unfehlbar sein werden. Aber sie könnten uns ein mächtiges Werkzeug an die Hand geben, um der Wahrheit näherzukommen und besser begründete Entscheidungen zu treffen.

In diesem Sinne ist unser Projekt mit der Stiftung Weimarer Kultur, den gesamten Goethe-Nachlass für AI-Analysen aufzubereiten, ein wichtiger Schritt in diese Richtung. Es zeigt exemplarisch, wie wir historische Quellen für moderne Technologien zugänglich machen und gleichzeitig die Integrität und den Kontext dieser Quellen bewahren können.

Lassen Sie uns also weiter daran arbeiten, die Möglichkeiten der künstlichen Intelligenz zu erweitern und gleichzeitig kritisch hinterfragen, wie wir diese Technologie am besten für die Wahrheitsfindung einsetzen können. Die Herausforderungen sind groß, aber die potenziellen Gewinne für Wissenschaft, Gesellschaft und Politik sind es ebenso.## Die Herausforderungen der AI-Halluzinationen

In der faszinierenden Welt der künstlichen Intelligenz stoßen wir immer wieder auf ein Phänomen, das uns Kopfzerbrechen bereitet: die sogenannten “Halluzinationen” der AI-Systeme. Lassen Sie mich Ihnen erklären, warum dieses Problem so bedeutsam ist und welche Konsequenzen es hat.

11.6.1 Das Kernproblem der Falschinformationen

Stellen Sie sich vor, Sie fragen ein AI-Programm nach einer bestimmten Information. Nun passiert Folgendes: Wenn das Programm die Information nicht findet oder nicht kennt, behauptet es kurzerhand, dass diese Information schlichtweg nicht existiert. Das ist, wie Sie sich vorstellen können, eine äußerst problematische Vorgehensweise.

Diese Tendenz, Nichtvorhandenes zu postulieren, ist nicht nur irreführend, sondern geradezu desaströs. Es handelt sich hierbei um einen fundamentalen Konstruktionsfehler, der paradoxerweise implementiert wurde, um die Systeme besonders geistreich erscheinen zu lassen.

11.6.2 Die Beweislast-Problematik

Wenn wir mit solchen Systemen arbeiten, sehen wir uns oft mit dem Prinzip konfrontiert: “Die Beweislast liegt bei den anderen.” Das System fordert uns quasi auf, Belege für unsere Behauptungen zu liefern, falls es selbst keine Informationen findet. Sobald wir dann tatsächlich Beweise vorlegen, schwenkt das System um und gibt zu: “Ah ja, da gibt es doch eine Aufzeichnung.”

Diese Herangehensweise macht es praktisch unmöglich, zuverlässige und zweifelsfreie Auskünfte zu erhalten. Es ist, als würde man in einem Nebel der Ungewissheit navigieren, wo Fakten und Fiktionen verschwimmen.

11.7 Strategien zur Verbesserung der AI-Antworten

11.7.1 Der Ansatz von Anthropic

Lassen Sie uns einen Blick auf einen vielversprechenderen Ansatz werfen, den das Unternehmen Anthropic verfolgt. Ihre AI zeigt eine bemerkenswerte epistemische Einstellung. Auf die Frage nach Goethes Kartenspielen im Jahr 1773 antwortet sie:

“Um diese Frage genau zu beantworten, müsste ich spezifische historische Aufzeichnungen aus dem Jahr 1773 haben, die mir leider nicht vorliegen.”

Diese Antwort ist erfrischend aufrichtig und korrekt. Sie gibt zu, dass ihr die notwendigen Informationen fehlen, anstatt wilde Spekulationen anzustellen.

11.7.2 Die Bedeutung von Bildinformationen

Um die Fähigkeiten der AI weiter zu testen, habe ich ein faszinierendes Experiment durchgeführt. Ich lud das Bild eines Goethe-Briefes hoch und bat das System, dieses Dokument in Bezug auf das Kartenspielen zu bewerten.

Erstaunlicherweise war die AI in der Lage, den relevanten Textabschnitt zu identifizieren und zu zitieren:

“…aber dass ihr, weil euch das Glück die Karten gemischt hat, mit der Spadille stecht.”

Nicht nur das - die AI lieferte auch zusätzliche Kontextinformationen über das erwähnte Kartenspiel “L’hombre” und erklärte, dass die “Spadille” der höchste Trumpf in diesem Spiel war.

11.8 Die Anforderungen an eine zuverlässige AI

11.8.1 Evidenzbasierte Antworten

Was wir von einer epistemisch belastbaren AI erwarten, ist die Fähigkeit, Evidenz korrekt zu zitieren und zu interpretieren. Sie sollte nicht nur einzelne Aspekte berücksichtigen, sondern ein umfassendes Bild liefern.

In unserem Goethe-Beispiel reichte ein einzelnes Faksimile eines Briefes aus, um wertvolle Informationen zu liefern. Die AI kombinierte diese Information geschickt mit Kontextwissen über Kartenspiele im 18. Jahrhundert.

11.8.2 Nachweisbarkeit und Rechtfertigung

Für jeden sachlichen Kontext, den eine AI in ihrer Antwort liefert, sollten wir Nachweise verlangen können. Ob es sich nun um den Namen des Kartenspiels handelt oder um die Frage, ob es überhaupt ein Kartenspiel und kein Würfelspiel war - all diese Behauptungen müssen potenziell gerechtfertigt werden können.

Idealerweise möchten wir eine AI, die auf Anfrage eine vollumfängliche Rechtfertigung ihrer Aussagen liefern kann. Dies ist der Goldstandard, den wir in naher Zukunft von AI-Systemen erwarten sollten.

11.9 Die Herausforderungen der historischen Beweisführung

11.9.1 Komplexität einfacher Fragen

Lassen Sie mich die Komplexität dieser Aufgabe an einem scheinbar simplen Beispiel verdeutlichen. Die Frage “Spielte Goethe Karten?” mag harmlos erscheinen, doch die Anforderungen an eine fundierte Antwort sind beachtlich.

Stellen Sie sich vor, wir wollten wissen, ob Goethe nach den 1770er Jahren aufgehört hat, Karten zu spielen. Diese Frage erfordert eine umfangreiche Beweisführung:

  • Wir müssten nicht nur ein einzelnes Ereignis des Kartenspiels nachweisen.
  • Stattdessen bräuchten wir eine umfassende Menge an Belegen für Kartenspiele.
  • Diese müssten wir aus dem gesamten Nachlass Goethes und seines Umfelds zusammentragen.

11.9.2 Die Rolle der Computertechnologie

Hier kommt die Stärke der modernen Computertechnologie ins Spiel. Mit der richtigen Programmierung und einem aufbereiteten Gesamtnachlass könnten wir:

  • Den gesamten Korpus von 4 Millionen Dokumenten und über 30 Millionen Sätzen in Sekundenschnelle durchsuchen.
  • Nach spezifischen Namen oder Begriffen wie “Spadille” suchen.
  • Diese Suche in etwa 0,4 Sekunden abschließen.

11.9.3 Zerlegung in Teilaufgaben

Der Schlüssel zur Bewältigung dieser titanischen Aufgabe liegt in der Zerlegung in überschaubare Teilaufgaben:

  1. Suche nach allen Dokumenten, die Kartenspiele oder spezifische Spielnamen erwähnen.
  2. Reduktion auf einige Dutzend oder hundert relevante Fälle.
  3. Detaillierte Analyse dieser reduzierten Menge an Dokumenten.

Mit diesem Ansatz können wir komplexe Fragen wie “Spielte Goethe regelmäßig Karten, und wenn ja, mit wem?” in etwa vier Sekunden beantworten.

11.10 Die philosophische Dimension

11.10.1 Universelle Anwendbarkeit

Es ist wichtig zu verstehen, dass dieser Ansatz nicht nur auf historische Wissenschaften beschränkt ist. Er lässt sich auf alle Sachfragen anwenden, bei denen wir eine begründete Beurteilung hinsichtlich Wahrheit und Falschheit anstreben.

11.10.2 Die Lösung des Halluzinationsproblems

Nur durch diese Art der tiefgehenden, evidenzbasierten Analyse können wir das Halluzinationsproblem der AI-Modelle wirklich lösen. Die derzeit oft praktizierte “Meinungsverdopplung”, bei der lediglich andere Quellen zitiert werden, die Ähnliches thematisiert haben, ist keine adäquate Lösung.

11.11 Die Bedeutung von Kulturinstitutionen

11.11.1 Der Wert des Quellenmaterials

In Europa, insbesondere in Kulturmetropolen wie Berlin, verfügen wir über einen unschätzbaren Wissensschatz:

  • Archivbestände
  • Museumssammlungen
  • Bibliotheksbestände

Diese Quellen sind von unermesslichem Wert für die Fundierung unseres Wissens über historische Gegenstände und für das Training von AI-Modellen.

11.11.2 Konkrete Beispiele

11.11.2.1 Altertumswissenschaften in Berlin

  • Umfangreiche Quellsammlungen seit über 150 Jahren
  • “Abklatsche” (Kopien) antiker Inschriften, teilweise von nicht mehr existierenden Monumenten
  • Begonnene Digitalisierung dieser Schätze

11.11.2.2 Medizinische Papyri und preußisches Geheimarchiv

  • Weitere Beispiele für bisher kaum von AI erfasste Quellen
  • Enormes Potenzial für AI-basierte Forschung und Analysen

11.11.3 Multimodale Fähigkeiten der AI

Die neuesten AI-Modelle sind in der Lage, Bildinformationen mit textuellen Informationen zu kombinieren. Dies eröffnet faszinierende Möglichkeiten:

  • Analyse von Goethes Gemälden
  • Identifikation und Zuordnung von Handschriften
  • Interpretation von 3D-Objekten

Diese Fähigkeiten, gepaart mit unserem reichen Quellenmaterial, bieten ein enormes Potenzial für die Zukunft der historischen und kulturellen Forschung mithilfe von AI.## Die Revolution des Wissens durch AI

In unserer heutigen Vorlesung möchte ich Ihnen vor Augen führen, wie tiefgreifend die künstliche Intelligenz unsere Kulturgeschichte und unser Wissen revolutioniert. Stellen Sie sich vor: Eine AI kann anhand einer einfachen 3D-Aufnahme einer Säule, die irgendwo in der türkischen Landschaft steht, genau bestimmen, an welcher Stelle in welchem Tempel diese Säule einst ihren Platz hatte. Es ist eine stille Revolution, die sich fast unbemerkt vollzieht, aber deren Auswirkungen auf unser Verständnis der Geschichte kaum zu überschätzen sind.

11.12 Die Natur von Aussagen und ihre Bedeutung

11.12.1 Aussagen als abstrakte Entitäten

Lassen Sie uns nun tiefer in die Materie eintauchen. Wir haben in früheren Sitzungen gelernt, dass Aussagen die Bedeutungen von Sätzen sind. Einige Philosophen betrachten sie als abstrakte, fast platonische Entitäten. Ohne uns in dieser Debatte zu verlieren, können wir festhalten: Aussagen sind zwar an Sätze gebunden, die sie ausdrücken, haben aber einen gewissen abstrakten Charakter.

11.12.2 Die Vielfalt sprachlicher Ausdrucksformen

Ein klassisches Beispiel verdeutlicht dies: “Die Zahl 4 ist durch 2 teilbar” und “2 teilt die Zahl 4” sind zwei verschiedene Sätze, drücken aber denselben Inhalt aus. Oder nehmen wir den Satz “Egon schlägt Max” und seine Passivform “Max wird von Egon geschlagen”. Wieder zwei unterschiedliche Formulierungen, aber ein identischer Inhalt. Diese Beispiele zeigen uns, dass die sprachliche Form variieren kann, während die Bedeutung konstant bleibt.

11.13 Die Komplexität scheinbar einfacher Fragen

11.13.1 Die Frage nach Goethes Kartenspiel

Betrachten wir nun die scheinbar harmlose Frage: “Spielt Goethe Karten?” Diese Frage ist keineswegs so trivial, wie sie auf den ersten Blick erscheinen mag. Um ihre Bedeutung zu erfassen, müssen wir tiefer graben.

11.13.2 Analyse der Schlüsselbegriffe

Zerlegen wir die Frage in ihre Bestandteile:

  1. Wer ist mit “Goethe” gemeint?
  2. Was verstehen wir unter “spielen”? Geht es um ein harmloses Zeitvertreib oder um Glücksspiel mit hohem Einsatz?
  3. Was sind “Karten” in diesem Kontext? Kennen wir überhaupt das spezifische Kartenspiel, auf das sich die Frage bezieht?

11.13.3 Wahrheitsbedingungen und Evidenz

Um die Frage zu beantworten, müssen wir die Wahrheitsbedingungen des Satzes untersuchen. Wir fragen nicht nach konkreten Beweisen, sondern nach den Möglichkeiten, die Frage mit “wahr” oder “falsch” zu beantworten. Dazu gehört es, verlässliche Quellen zu finden, diese zu interpretieren und zu prüfen, ob unsere heutigen Begriffe mit denen Goethes Zeit übereinstimmen.

11.14 AI-Modelle und ihre Grenzen

11.14.1 Halluzinationen und ihre Ursachen

In unseren Experimenten haben wir gesehen, dass AI-Modelle ohne zuverlässige Quellen oft “halluzinieren” - sie erfinden Informationen. Selbst fortschrittliche Modelle wie GPT-4 und Claude sind nicht davor gefeit. Diese Halluzinationen entstehen, wenn generelle Aussagen ohne epistemische Rechtfertigung getroffen werden. Es ist, überspitzt gesagt, ein Lotteriespiel mit der Wahrheit.

11.14.2 Der Weg zur Verbesserung

Um dieses Problem zu lösen, benötigen wir einen Ansatz, den ich als “Retrieval Augmented Generation” (RAG) bezeichne. Dabei wird zunächst nach relevanten Quellen gesucht, bevor die eigentliche Antwortgenerierung beginnt. Der Clou liegt in der Effizienz: Millionen von Sätzen können in Sekundenbruchteilen durchsucht werden.

11.15 Die Rolle des Kontexts und der Expertise

11.15.1 Die Notwendigkeit von Fachkenntnissen

Eine korrekte AI-Antwort, sei es zu historischen oder Sachfragen, kann nur im Kontext einer Expertise sinnvoll gegeben werden. Ohne diesen Kontext führen Annahmen oft in die Irre, wie wir an den Beispielantworten von GPT-4 und Claude gesehen haben.

11.15.2 Komprimierung von Expertise

Erstaunlicherweise lässt sich eine solche Expertise oft auf etwa 50 Seiten komprimieren. Diese enthalten nicht nur Quellinformationen, sondern auch Begriffserklärungen und kontextuelle Details. Moderne AI-Modelle sind so konstruiert, dass sie in der Regel Expertisen von bis zu 80 Seiten in einem Schritt verarbeiten können.

11.16 Hermeneutik und AI

11.16.1 Die Herausforderung der Bedeutungsinterpretation

Ein oft vernachlässigter Aspekt ist die Frage, ob wir die Bedeutungen angemessen interpretieren. Wenn Goethe im 18. Jahrhundert von einem “Kartenspiel” spricht, meint er dasselbe wie wir heute? Diese Frage zu klären, ist eine hermeneutische Aufgabe.

11.16.2 Ein Lösungsansatz: Standardreferenzen

Um dieses Problem anzugehen, können wir Standardreferenzen wie das Oxford English Dictionary nutzen. Dieses verzeichnet für den Begriff “Time” beispielsweise 90 verschiedene Bedeutungsvarianten. Mit solchen Referenzen ausgestattet, kann eine AI erstaunlich präzise Bedeutungsanalysen vornehmen.

11.16.3 Kriterien für Bedeutungsinterpretation

Die AI kann sogar ihre eigenen Kriterien für die Bedeutungsinterpretation ausgeben. Eines der wichtigsten ist die “Functional Equivalence”: Wenn die Substitution der Definition die allgemeine Bedeutung und Kohärenz der Aussage beibehält, ist die Interpretation zulässig.

11.17 Schlussbetrachtungen zur epistemischen Bewertung

Eine vollständige epistemische Bewertung von Aussagen umfasst mehrere Schritte:

  1. Validierung der Wahrheitsbedingungen
  2. Prüfung der Angemessenheit der Ausdrucksbedeutungen
  3. Korrekte Identifikation des sprachlichen Ausdrucks abstrakter Aussagen

Durch diese Schritte können wir die kulturelle und historische Relativität der Sprachverwendung modellieren und mit AI angemessen wiedergeben. Dies eröffnet uns neue Möglichkeiten im Umgang mit historischen Texten und kulturübergreifenden Fragestellungen.