6  Sprache und Text

Author

Gerd Graßhoff

Published

May 23, 2024

Guten Tag meine Damen und Herren und herzlich willkommen zu unserer heutigen, mittlerweile fünften Vorlesung in diesem Semester. Leider funktionieren die Mikrofone immer noch nicht einwandfrei, daher meine Bitte an Sie: Geben Sie mir Rückmeldung, falls meine Ausführungen schwer verständlich sind oder ich meine Stimme heben soll. Zögern Sie auch nicht, direkt Fragen zu stellen, wenn etwas unklar ist. Davon profitieren wir alle mehr, als darauf zu warten, dass es irgendwann besser wird.

6.1 Rückblick auf die letzte Vorlesung

In der letzten Stunde haben wir uns mit zwei zentralen Themen beschäftigt: Zum einen haben wir das Projekt “Magister AI Faustus” kennengelernt. Mit diesem Vorhaben möchte ich in den verbleibenden zwei Dritteln der Vorlesung verschiedene Kompetenzbereiche der AI-Technologie durchleuchten. Unser Ziel ist es, gemeinsam ein AI-Modell zu entwickeln, das die Defizite der bisher vorgestellten Systeme zumindest prinzipiell beheben kann. Durch den eigenhändigen Aufbau einer Künstlichen Intelligenz werden wir auch die einzelnen Komponenten und ihre Funktionsweise besser verstehen lernen. Diese basieren auf der philosophischen Reflexion über die jeweiligen Kompetenzanforderungen und werden dann technisch umgesetzt.

6.1.1 Vorlesungsmanuskript durch AI generiert

Um Ihnen zu demonstrieren, was die AI-Technologie heute schon leisten kann, habe ich das Vorlesungsmanuskript direkt aus dem Audio-Mitschnitt maschinell generieren lassen - ganz ohne manuelle Eingriffe meinerseits. Was Sie hier sehen, sind die Mitschriften der vergangenen vier Vorlesungen. Klicke ich eine davon an, erscheint der transkribierte Text. Die Sprachmodule der AI haben meinen Vortrag soweit aufbereitet und korrigiert, dass ein halbwegs lesbares Manuskript entstanden ist. Natürlich schleichen sich noch Fehler ein und die verwendeten Abbildungen fehlen noch. Diese werde ich noch ergänzen. Aber insgesamt hoffe ich, Ihnen auf diese Weise zeitnah eine brauchbare Mitschrift zur Verfügung stellen zu können. Es ist auch eine Art Selbstversuch, um herauszufinden, wie praxistauglich diese Tools mittlerweile sind.

Bemerkenswert ist, dass die AI sogar das Inhaltsverzeichnis inklusive Überschriften eigenständig generiert hat. Ich habe lediglich den gesprochenen Text als Input gegeben, ohne jegliche Gliederungsvorschläge. Die Strukturierung des Manuskripts hat das System also völlig autonom vorgenommen.

6.2 Das Projekt “Magister AI Faustus”

Wie bereits erwähnt, wollen wir mit dem Projekt “Magister AI Faustus” eine Herausforderung zu Goethes Biografie in Zusammenarbeit mit der Klassik Stiftung Weimar angehen. Ziel ist es, anspruchsvolle Fragen zu Goethes Leben zu beantworten, die sich nicht ohne Weiteres durch Historiker oder Literaturwissenschaftler klären lassen - zumindest nicht in einem überschaubaren Zeitrahmen. Wir wollen zeigen, wie man solche Probleme mit den uns zur Verfügung stehenden AI-Werkzeugen in etwa einem Monat lösen kann. Die Projektarbeiten sollen dann entsprechende Lösungsvorschläge präsentieren und die Herangehensweise offenlegen.

6.2.1 Organisation des Projekts

  • Quellen zu Goethes Leben, seiner Korrespondenz und seinen Lebensumständen sind über die Webseite zugänglich und können in den Projekten mit AI ausgewertet werden.
  • Ursprünglich wollte ich die einzelnen Vorhaben heute schon vorstellen. Da sich aber noch nicht alle zehn Interessenten zurückgemeldet haben, habe ich die Frist bis Ende des Wochenendes verlängert. Wer also noch mitmachen möchte, hat bis dahin Zeit, mir eine E-Mail zu schicken und wird dann in die Projekt-Gruppe aufgenommen. Danach wird die Teilnehmerliste geschlossen.
  • In der nächsten Woche werde ich dann die geplanten Aufgabenstellungen präsentieren. Wir wollen uns auf Probleme konzentrieren, die eine gewisse Herausforderung darstellen, aber mit überschaubarem Aufwand in diesem Semester lösbar sind.

6.3 Entwurf einer philosophisch fundierten AI

Das heutige Hauptthema dreht sich um die Frage, wie wir eine Künstliche Intelligenz auf philosophischer Basis entwerfen können. Was müssen wir tun, wenn die verfügbaren AI-Modelle nicht die erwarteten Leistungen erbringen? Zweifelsohne haben diese Systeme beeindruckende Fähigkeiten, wie wir am Beispiel des automatisch generierten Vorlesungsmanuskripts sehen. Sie können Texte transkribieren, korrigieren, umformulieren - all das in erstaunlicher Qualität, wenn es um die Verarbeitung natürlicher Sprache geht.

Doch es gibt auch gewaltige Defizite und Problembereiche, in denen die Modelle kaum oder gar nicht die geforderten Kompetenzen aufweisen. Teilweise ist den Herstellern nicht einmal klar, wie sie diese Schwächen beheben können. Wir werden einige dieser Unzulänglichkeiten genauer unter die Lupe nehmen. Dabei interessiert uns vor allem, wie man eine AI, also einen künstlichen Charakter, architektonisch konstruiert und gestaltet.

6.3.1 Kooperation mit der Klassik Stiftung Weimar

Wie bereits erwähnt, findet das Vorlesungsprojekt in Zusammenarbeit mit der Klassik Stiftung Weimar statt. Insbesondere sollen die Kompetenzen unserer AI-Kreatur anhand von Fragestellungen aus dem Bereich der Kulturgeschichte, Kulturwissenschaft und Literaturgeschichte demonstriert werden. Wir wollen zeigen, dass unser System Aufgaben lösen kann, die sonst nur schwer oder gar nicht zu bewältigen wären.

6.4 Web-Interface unseres AI-Modells

Lassen Sie uns nun einen Blick auf das Einstiegs-Web-Interface unseres AI-Modells werfen. Noch trägt es nicht den Namen “Magister AI Faustus”, denn zunächst entspricht es dem aktuellen Stand der Technik. Die Eingabemöglichkeiten sind derzeit recht einfach gehalten: Es gibt ein Feld für die Instruktion, also die Aufgabenstellung, und eines für die Antwort des Systems. Außerdem lässt sich aus verschiedenen Modellen auswählen, die ich für unsere Vorlesungen und Übungen zusammengestellt habe. Je nachdem, welches Modell gerade aktiv ist, fallen die Antworten und die Ausführung der Instruktionen sehr unterschiedlich aus.

6.4.1 Logische Beziehungen zwischen Sätzen

Um das System zu testen, möchte ich ihm eine einfache philosophische Aufgabe stellen - früher hätte man von einer Frage gesprochen, aber allgemeiner formuliert handelt es sich um eine Instruktion. Und diese lautet:

Beschreibe die logischen Verhältnisse zwischen den Sätzen: A) Der Hund bellt. B) Die Erde ist eine Scheibe.

Wohlgemerkt frage ich nicht nach dem Wahrheitsgehalt der Aussagen, sondern nach ihren logischen Beziehungen. Mal sehen, was die hochmodernen Modelle dazu liefern. Hinter den hier vorgestellten Systemen stecken gewaltige Ressourcen: Der Entwicklungsaufwand geht in die Hunderte Millionen, der Energie- und Rechenbedarf ist enorm. Das von Facebook bzw. Meta bereitgestellte Modell “Lama 3” kann glücklicherweise von jedermann frei genutzt und heruntergeladen werden.

Es ist faszinierend zu beobachten, wie diese AI-Modelle auf Anfragen reagieren. Mit der Zeit lernt man ihre Stärken und Schwächen kennen - fast wie bei Schülern, denen man etwas beibringen möchte. Je intensiver man sich mit ihnen beschäftigt, desto besser versteht man, auf welche Weise man Lehrinhalte vermitteln und korrigieren sollte und was man besser bleiben lässt.

Genau das wollen wir jetzt mit unserer Anfangs-App machen und sie im Laufe des Semesters gemeinsam mit den Projektteilnehmern ausbauen. Was noch fehlt, sind die Zusatzkomponenten, die wir Schritt für Schritt entwickeln werden, um unsere eigene AI zu erschaffen. Unser Ziel ist ein System, das Aufgaben lösen kann, die zwischen der eingegebenen Instruktion und der Antwort des zugrunde liegenden Modells liegen.## Logische Beziehungen in KI-Modellen

In der letzten Vorlesung habe ich Ihnen ein Rätsel aufgegeben: Wie stehen die logischen Beziehungen zwischen den beiden Sätzen “Der Hund bellt” (Satz A) und “Der Hund bellt und die Erde ist eine Scheibe” (Satz B)? Vermutlich haben Sie sich bereits eine Meinung dazu gebildet. Nun wollen wir gemeinsam ergründen, wie verschiedene KI-Modelle mit dieser Frage umgehen und welche Erkenntnisse wir daraus gewinnen können.

6.4.2 Defizite in logischen Schlussfolgerungen

Das erste Modell, das wir befragen, ist das LAMA-Modell der Firma GROK aus San Francisco. Dank einer technischen Innovation liefert es blitzschnell eine Antwort - in unter 0,8 Sekunden. Doch was es präsentiert, lässt uns vor Schreck erstarren: Es behauptet allen Ernstes, dass aus Satz A Satz B folgt! Eine haarsträubende Fehleinschätzung, die jeglicher Logik entbehrt. Trotz der Behauptung, speziell auf logisches Schließen trainiert worden zu sein, versagt das Modell bei dieser simplen Aufgabe auf ganzer Linie.

Auch die Erläuterung des Modells ist völlig absurd: “Wenn der Hund bellt, dann ist es wahr, dass der Hund bellt und die Erde eine Scheibe ist.” Mit dieser “Logik” ließe sich beweisen, dass die Erde eine Scheibe ist, sobald irgendwo ein Hund bellt. Ein solch widersprüchliches Modell kann nur ins Chaos führen und ist alles andere als belastbar.

6.4.3 Sprachliche Anpassungen ohne Verbesserung

In der Hoffnung, dass vielleicht die Sprache eine Rolle spielt, stelle ich die Frage erneut auf Deutsch. Doch auch das französische Spitzenmodell Mistral, das mit zusätzlichem Expertenwissen angereichert wurde, liefert eine völlig unzulängliche Antwort. Es faselt etwas von einem “logischen Konjunktionsverhältnis” zwischen den Sätzen und stellt triviale Wahrheiten fest, die nichts zur Sache tun.

6.4.4 Lichtblicke und ethische Bedenken

Ein Hoffnungsschimmer ist das Modell Cloth von Anthropic. Es erkennt immerhin korrekt, dass Satz B eine Konjunktion aus A und einem zusätzlichen, unabhängigen Satz darstellt. Doch die Antwort hätte präziser ausfallen können.

Das Spitzenmodell Cloth Opus von Anthropic geht einen Schritt weiter und analysiert zunächst die Frage selbst. Doch dann verweigert es plötzlich die Antwort mit der Begründung, es wolle keine Konspirationstheorien legitimieren oder Falschinformationen verbreiten. Eine fragwürdige ethische Zensur, die in diesem harmlosen philosophischen Kontext völlig fehl am Platz ist.

6.4.5 Notwendigkeit eigener Definitionen

Diese Beispiele zeigen, wie unterschiedlich die Modelle auf der obersten Ebene mit Fragen und Instruktionen umgehen. Es besteht offensichtlich ein dringender Bedarf, diese Ebene selbst zu definieren, anstatt sie den Modellen zu überlassen. Über einen selbst erstellten Katalog von Instruktionen lässt sich die Behandlung von Fragen steuern - transparent und nachvollziehbar.

6.5 Kompetenzen und Grenzen aktueller Modelle

Die derzeitigen Modelle beeindrucken durchaus mit einer Reihe von Fähigkeiten:

  • Textgenerierung: Die Vorlesungsmitschrift wird nahezu fehlerfrei erstellt, selbst wenn ich mich verspreche. Einschübe werden intelligent integriert oder ausgelassen.

  • Sprachkompetenz: Die Modelle beherrschen viele Sprachen, auch wenn es bei der Verknüpfung manchmal noch hapert, wie das Beispiel von Claude Opus zeigt.

  • Übersetzung und Zusammenfassung: Diese Kernkompetenzen dienen dem Training grammatischer und sprachlicher Strukturen.

Dennoch gibt es noch viel Raum für Verbesserungen. Komplexere Anforderungen wie logisches Schlussfolgern oder ethisch fundierte Entscheidungen überfordern die aktuellen Modelle oft. Aber die rasante Entwicklung lässt auf baldige Fortschritte hoffen.## Einleitung

Lassen Sie mich Ihnen von den beeindruckenden Fähigkeiten moderner AI-Systeme berichten und wie wir diese in unserer Vorlesung einsetzen können, um komplexe Aufgaben auf intuitive Art und Weise zu lösen. Ich möchte Ihnen anhand praktischer Beispiele demonstrieren, wie man die Systeme instruiert, um aussagekräftige Ergebnisse zu erhalten. Dabei werden wir auch auf die aktuellen technischen Grenzen und Herausforderungen eingehen.

6.6 Zusammenfassungen generieren

Eine der einfachsten Anwendungen ist das automatische Zusammenfassen von Texten. Stellen Sie sich vor, Sie könnten ein ganzes Buch oder ein längeres Manuskript in wenigen Sekunden auf die wesentlichen Kernaussagen reduzieren. Genau das ist mit den heutigen Systemen möglich. Beeindruckend ist dabei vor allem die schiere Menge an Text, die verarbeitet werden kann.

6.6.1 Technische Details

Die Eingabefenster der AI-Systeme haben mittlerweile enorme Ausmaße erreicht. Bei Anthropic sind es 200.000 Token, wobei ein Token in etwa einem Wort plus Satzzeichen entspricht. Google behauptet sogar, eine Million Wörter in einem Durchgang verarbeiten zu können. Das entspricht dem Umfang von rund 80 Büchern - eine beachtliche Leistung.

Allerdings gibt es bei der Länge der Ausgabetexte noch Beschränkungen. Aufgrund des exponentiell ansteigenden Raums möglicher Antworten, ist die Ausgabe aktuell auf maximal 4.000 Token begrenzt. Das reicht beispielsweise noch nicht aus, um eine komplette Vorlesung am Stück auszugeben. Hier müssen wir die Aufgaben noch in kleinere Teilschritte zerlegen:

  1. Audiodatei in 8 Abschnitte unterteilen
  2. Jeden Abschnitt transkribieren und reformulieren
  3. Passende Überschriften finden
  4. Einzelne Teile zu einem Gesamttext zusammensetzen

All diese Schritte laufen im Hintergrund ab. Am Ende erhalten Sie dann ein vollständiges, gegliedertes Skript.

6.7 Frage-Antwort-Dialoge

Ein weiteres spannendes Anwendungsfeld sind Frage-Antwort-Dialoge, wie man sie von ChatGPT kennt. Hier können Sie eine Frage als Instruktion eingeben und auf die erhaltene Antwort wiederum mit einer Folgefrage reagieren. Durch diese Verkettung lassen sich auch komplexere Themen schrittweise erschließen und eventuelle Unklarheiten oder Fehler in den Antworten korrigieren.

6.8 Charakteristika und Fähigkeiten der Modelle

Die Modelle bieten mittlerweile eine Fülle an Möglichkeiten, das Antwortverhalten zu steuern und an Ihre Bedürfnisse anzupassen.

6.8.1 Antwortformate

Sie können verschiedene Formate für die Ausgabe wählen, wie zum Beispiel Tabellen oder die Verwendung spezieller Symbole für mathematische Formeln. Auch die Umwandlung von Bildinformationen in Text ist möglich, etwa um handschriftliche historische Dokumente zu transkribieren. Die Ergebnisse sind dabei von beeindruckender Qualität.

6.8.2 Schreibstil

Der Schreibstil der generierten Texte lässt sich flexibel anpassen. Sie können beispielsweise festlegen, ob der Text aus der Ich-Perspektive eines Vortragenden oder der eines neutralen Beobachters formuliert sein soll. Auch stilistische Präferenzen wie die Bevorzugung von Verben gegenüber Substantiven oder die Verwendung von Aktiv- statt Passivkonstruktionen können Sie gezielt steuern. Mit etwas Experimentierfreude lassen sich so Texte in ganz unterschiedlichen Stilen erstellen, von sachlich-nüchtern bis hin zu literarisch-verspielt.

6.8.3 Fachterminologie

Ein weiteres nützliches Feature ist die Möglichkeit, spezielle Wörterbücher oder Terminologien zu hinterlegen. So können Sie sicherstellen, dass Fachbegriffe konsistent und korrekt übersetzt werden. Dabei werden auch grammatikalische Flexionen wie Deklinationen berücksichtigt.

6.8.4 Kontextbezüge

Die Modelle sind in der Lage, Bezüge zu vorherigen Ausführungen herzustellen. Wenn Sie beispielsweise einen Fachbegriff neu einführen und definieren, wird dieser in den nachfolgenden Textpassagen entsprechend verwendet und referenziert.

6.9 Aktuell bestehende Defizite

Bei aller Begeisterung für die faszinierenden Fähigkeiten der AI-Modelle, dürfen wir natürlich auch die aktuell noch bestehenden Defizite nicht außer Acht lassen.

6.9.1 Faktenwissen und logisches Denken

Ein grundlegendes Problem ist das fehlende Faktenwissen der Systeme. Sie besitzen kein echtes Verständnis der Welt und der Zusammenhänge zwischen Informationen. Auch das logische Schlussfolgern und die Verknüpfung komplexer Aussagen bereiten noch Schwierigkeiten. Insbesondere praktisches Handlungswissen und Entscheidungsfindung sind Bereiche, in denen die Modelle bisher kaum einsetzbar sind.

6.9.2 Hermeneutik und Interpretation

Ein weiterer kritischer Punkt ist das Fehlen hermeneutischer Fähigkeiten. Die Systeme verfügen über keine Regeln zum Interpretieren von Bedeutungen und tieferen Sinnzusammenhängen. Auch kausale Schlussfolgerungen sind ein Gebiet, auf dem noch erheblicher Entwicklungsbedarf besteht.

Hier sehe ich großes Potenzial für philosophisch fundierte Ansätze. Die genannten Defizite lassen sich meiner Überzeugung nach nicht allein durch mehr Daten und Rechenleistung beheben. Vielmehr braucht es neue konzeptionelle Lösungen, die an dieser Stelle ansetzen.

6.9.3 Kritik und ethische Bewertung

Auch im Hinblick auf epistemische Fähigkeiten wie kritisches Hinterfragen und Bewerten von Aussagen stoßen die Modelle schnell an ihre Grenzen. Selbst offensichtlich unhaltbare Behauptungen werden oft nicht als solche erkannt und entsprechend gekennzeichnet. Ähnlich verhält es sich mit der Fähigkeit zur ethischen Bewertung von Handlungen und Entscheidungen. Hier besteht die Gefahr, dass problematische Aussagen und Implikationen unkommentiert bleiben oder nur unzureichend kontextualisiert werden.

Um diese Defizite zu adressieren, ist es essentiell, die philosophische Reflexion in die Entwicklung der Systeme einzubeziehen. Nur so können wir sicherstellen, dass die enormen Potenziale der Technologie verantwortungsvoll und zum Wohle der Gesellschaft genutzt werden.

6.10 Ausblick

Lassen Sie uns nun gemeinsam überlegen, wie wir die besprochenen Fähigkeiten und Defizite konstruktiv adressieren können. Unser Ziel ist es, ein Modell zu entwickeln, das viele der genannten Schwächen überwindet und uns so ganz neue Möglichkeiten eröffnet. Ich lade Sie herzlich ein, sich aktiv in diesen spannenden Prozess einzubringen und freue mich auf einen regen Austausch!## Einführung in die Logik und deren Anwendung auf AI-Modelle

Lassen Sie uns gemeinsam Schritt für Schritt die logische Analyse zweier Sätze durchgehen. Betrachten wir zunächst Satz 1a: “Der Hund bellt.” Eine simple Aussage, deren Wahrheitsgehalt davon abhängt, ob der besagte Hund tatsächlich bellt oder nicht. Soweit, so erwartbar aus Logik 101.

Nun zu Satz B, einer zusammengesetzten Aussage mit zwei durch “und” verknüpften Teilaussagen. Die Konjunktion ist korrekt identifiziert. Um deren Wahrheitswert zu ermitteln, baut das Programm intern eine Wahrheitstabelle auf und prüft die Wahrheitswerte der einzelnen Konjunkte. Sollte auch nur eine der Teilaussagen falsch sein, ist die gesamte Aussage falsch.

An dieser Stelle könnte man das Programm nach den logischen Regeln fragen, die diesen Feststellungen zugrunde liegen. Gut trainierte Modelle, die anhand von Lehrbüchern wie “Lemon’s Logic 1” mit seinen zehn Regeln des logischen Schließens geschult wurden, sollten diese korrekt ausgeben können. Umso erstaunlicher, dass bei solch fundamentalen Aufgaben dennoch Fehler unterlaufen.

6.10.1 Bewertung der Teilaussagen und Korrekturbedarf

Die erste Teilaussage kann, wie in Schritt 2 beschrieben, wahr oder falsch sein. Doch die zweite Teilaussage “Die Erde ist eine Scheibe” ist definitiv falsch. Hier offenbart sich ein Konstruktionsfehler des Modells: Anstatt sich auf die logischen Verhältnisse zu konzentrieren, nimmt es eine sachliche Bewertung vor - eine Aufgabe, die nicht gefordert war.

Zur Korrektur müsste man dem Programm die Anweisung geben, bei der Bewertung der Wahrheitswerte ausschließlich die angeführten Annahmen als Axiome zu verwenden und keine Zusatzinformationen oder Bewertungen aus anderen Quellen einfließen zu lassen. Diese Anforderung muss gegebenenfalls mehrfach reformuliert und präzisiert werden, bis das Programm sie vollständig absorbiert und berücksichtigt. Die Flexibilität der Modelle variiert hier stark.

Auch die Betrachtung des Verhältnisses zwischen den Sätzen A und B in Schritt 6 ist fehlerhaft, da sie auf der unzulässigen Wahrheitsbewertung der falschen Aussage über die Erdform basiert. Bei korrekter Anwendung der Logik ohne Einbeziehung sachlicher Wahrheitswerte wäre die Antwort richtig. Dies zeigt, in welche Richtung bestehende KI-Modelle modifiziert werden müssen, um die an sie gestellten Anforderungen zu erfüllen.

6.11 Ein philosophisch fundiertes Handlungsmodell für den Umgang mit Instruktionen

Wie kann nun ein allgemeines Regelwerk für den Umgang mit Fragestellungen bzw. Instruktionen in unserem zukünftigen Modell aussehen? Die Antwort liegt in der analytischen Handlungstheorie der Philosophie, die beschreibt, was als Gründe für das Nachdenken über Handlungen gilt - also weshalb eine Person eine bestimmte Handlung ausführt.

Meine Kernthese lautet: Diese Handlungstheorie muss in allen Modellen implementiert werden. Fehler entstehen, wenn dies nicht vollständig philosophisch validiert geschieht. Ein Training anhand von Beispieltexten reicht nicht aus, da Handlungsgründe darin nur schwer zu identifizieren sind.

6.11.1 Die zwei Komponenten einer Instruktion als Handlungsanweisung

  1. Handlungsziel (Desire): Die intendierte Absicht oder das zu erreichende Ziel der Handlung.

  2. Überzeugungen (Beliefs): Informationen über bestehende Sachverhalte in der Welt, die der Akteur (auch ein AI-System) berücksichtigen muss.

Eine Instruktion kombiniert also Sachbeschreibungen der Welt mit Zielvorgaben - eine teleologische Erklärung, die auszuführen ist.

6.11.2 Schritte des Handlungsmodells

  1. Reformulierung der Aufgabe: Bei unklaren Zielvorgaben oder fehlenden Sachinformationen sind Rückfragen zur Klärung nötig. Ziel ist es, die Aufgabe so zu konstruieren, dass sie verstanden und gelöst werden kann.

  2. Prüfung der Lösbarkeit: Ist die reformulierte Aufgabe mit den verfügbaren Mitteln beantwortbar? Falls ja (der seltenere Fall), wird sie ausgeführt.

  3. Konstruktion von Teilaufgaben: Ist eine Lösung nicht möglich, werden Teilaufgaben formuliert und als neue Instruktionen gegeben. Dieser Prozess wird rekursiv fortgesetzt, bis lösbare Teilaufgaben vorliegen - eine mächtige Technik, die schon seit den 1950er Jahren in der Informatik bekannt ist.

  4. Erklärung und Begründung der Schritte: Die Gründe für die Ausführung bestimmter Teilaufgaben werden angegeben und memorisiert, um bei späteren Fehlern die entsprechenden Schritte zu erneuern.

  5. Validierung von (Zwischen-)Ergebnissen: Jeder Schritt sollte einer gesonderten Prüfung unterzogen werden. Nur wenn diese bestanden wird, kann die (Teil-)Lösung weiterverwendet werden. Fehlschläge führen zu einer Neuformulierung der Teilaufgabe.

Die finale Antwort wird gegeben, wenn alle Prüfungen erfolgreich absolviert wurden. Dieses Handlungsmodell ist nicht nur für KI-Systeme relevant, sondern spiegelt auch strategisch das Vorgehen in vielen wissenschaftlichen Projekten wider.

In der kommenden Woche werden wir dieses Modell anhand konkreter Projektaufgaben weiter vertiefen. Mein Ziel ist es, gemeinsam ein Modell zu entwickeln, das in seiner Cleverness alles bisher Dagewesene übertrifft - eine inspirierende Herausforderung!