10.1 Einleitung und Rückblick
Guten Tag, meine Damen und Herren! Ich begrüße Sie herzlich zur bereits neunten Vorlesung unseres spannenden Kurses. In einem rasanten Tempo haben wir bereits mehr als die Hälfte der Themen bearbeitet und befinden uns auf der Zielgeraden.
In der letzten Stunde haben wir den AI-Akteur als zentrale Komponente zur Organisation der Aktivitäten von KI-Modellen eingeführt. Wir charakterisierten seine Fähigkeiten und erkannten, dass für ein umfassendes Verständnis der heutigen AI noch einige Puzzleteile fehlen.
10.1.1 Kompetenzen der AI-Akteure
Im Projekt Magister Faustus identifizierten wir bereits die Kernkompetenzen der AI-Akteure:
- Sprachkenntnisse
- Erweiterbare Fähigkeiten
- Beeinflussbarer Stil und Charakter
Den Akteuren liegen konzeptionell philosophische Theorien des rationalen Handelns zugrunde, die wir letzte Stunde in den Grundzügen ansprachen.
10.1.2 Erweiterungen der Kernkompetenzen
Doch diese Kernkompetenzen bedürfen noch einiger Erweiterungen, um das volle Potenzial der AI auszuschöpfen:
Semantik: Die Verarbeitung von Bedeutungen bildet den revolutionären Kern, ist jedoch noch nicht vollständig implementiert.
Inferenzschlüsse: Aussagenlogische und andere Schlussfolgerungen wurden bisher nur ansatzweise studiert und eingebaut.
Kausalität: Unser Wissen über Ursache-Wirkungs-Beziehungen in Natur und Umwelt fehlt den Modellen noch gänzlich.
Epistemologie: Auch der Bereich des Wissens und der Wissenskritik wird erst am Ende der Vorlesung thematisiert werden.
10.1.2.1 Problemlösungsvermögen und Methodenwissen
Teilweise eingebaut und berücksichtigt ist hingegen das Problemlösungsvermögen - die Fähigkeit, eine allgemeine Aufgabe in lösbare Teilschritte zu zerlegen.
Methodenwissen zur Steuerung von Instrumenten und Robotern wird intensiv beforscht, ist aber noch nicht serienreif.
Mit diesen Erweiterungen scheinen wir fast alle Erfordernisse zusammen zu haben, um das zu erschaffen, was wir als AI oder KI bezeichnen. Doch ein entscheidender Aspekt fehlt noch.
10.2 User Interface - Die Schnittstelle zwischen Mensch und Maschine
Bisher nur implizit angesprochen, spielt die Interaktion zwischen AI-Modellen und uns Nutzern eine zentrale Rolle. Diese Schnittstelle, in der Informatik oft “User Interface” (UI) genannt, befindet sich derzeit im Wandel.
10.2.1 Expansion der Sprachsteuerung
Die Interaktion über Sprache expandiert massiv. Instruktionen können direkt über Mikrofone, Ohrhörer und Audiogeräte übergeben werden. Sprachassistenten werden in Textverarbeitungsprogramme integriert und übernehmen weit mehr als nur die Rechtschreibkontrolle.
10.2.2 Aufstieg der AI-Bots
Noch wenig bekannt, aber mit enormem Zukunftspotenzial sind AI-Bots - selbstständig arbeitende Roboter. Wir kennen sie bereits von automatischen Backups oder E-Mail-Checks. Bis Ende des Jahres werden sie massiv ausgebaut und in vielen Bereichen wie Smart Homes eingesetzt werden können.
10.3 Bedeutung von Wissensquellen
Ein oft übersehener, aber extrem wichtiger Faktor für die Funktionalität der AI sind die verwendeten Wissensquellen und Informationsressourcen.
Wikipedia: Die Wikipedia-Artikel in allen Sprachen bilden den Kernbestand des Hintergrundwissens der meisten Sprachmodelle.
Trainingsdaten: Der Großteil sind jedoch die trainierten Sprachdaten, die durch die Interaktion mit Nutzern ständig erweitert werden und so auch aktuelle Themen umfassen.
Zeithorizont: Die Modelle haben derzeit den Diskussionsstand im Internet vom November letzten Jahres. Alles bis dahin diskutierte ist als Wissen verfügbar.## Mehr als nur natürliche Sprache: KI-Modelle als Programmierer
Es ist faszinierend zu beobachten, wie KI-Modelle nicht nur in der Lage sind, natürlichsprachliche Sätze zu formulieren, sondern auch kompetente Programme in vielen verschiedenen Programmiersprachen zu entwickeln. Dieses beeindruckende Können wird jedoch selten diskutiert, obwohl es die Grundlage für viele dieser Modelle bildet. Wie ist es möglich, dass die Sprachmodelle über solch ein umfassendes Programmier-Know-how verfügen?
10.3.1 GitHub: Eine Schatzkammer für KI-Modelle
Der Schlüssel zu diesem verborgenen Wissen liegt in der Entwicklungsgeschichte der KI-Modelle. Die Entwickler haben zwei große Programm- oder Textdatenbestände ausgewertet, die entscheidend für den Erfolg waren. Einer davon ist GitHub, ein Tool zum Speichern und Austauschen von Programmcode, das vor etwa fünf oder sechs Jahren von Microsoft aufgekauft wurde. Vor der Übernahme war GitHub ein kostenloses Open-Access-Tool, das von vielen Programmierern genutzt wurde, um ihren Code sicher zu speichern, auszutauschen und mit einer Revisionsgeschichte zu verwalten.
Microsoft erwarb den gesamten Datenbestand von GitHub einschließlich der Nutzungsrechte. Dieser Teil bildet den Hintergrund für die Modelle von OpenAI und fast allen anderen bekannten KI-Systemen. Durch das Training an allen weltweit erstellten Programmen in diesen Dateien haben die KI-Modelle gelernt, wie Prozeduren und Algorithmen in bestimmten Programmiersprachen dargestellt werden. Dieses Wissen wurde vollständig erfasst.
10.3.2 Von Fehlerdiskussionen zu Syntax-Änderungen
Neben GitHub gibt es noch weitere Diskussionsforen, in denen Programmierer über Jahre hinweg diskutiert haben, wie mit bestimmten Fehlern in Programmen umzugehen ist und wie diese gelöst werden können. Diese Diskussionsverläufe sind in den Trainingsdaten rekonstruierbar und geben Aufschluss über die Weiterentwicklung von Programmen. Anhand von KI-generierten Programmvorschlägen lässt sich sogar erkennen, zu welchem Zeitpunkt der Entwicklung diese Programmbibliotheken konsultiert und eingebaut wurden. Beispielsweise können neue Versions-Syntax-Definitionen dazu führen, dass Programme nicht mehr rückwärtskompatibel sind.
10.3.3 Die Macht der Programmiersprachenkenntnisse
Die im Hintergrund verborgene Wissensquelle der KI-Modelle ist also eine umfassende Programmiersprachenkenntnis, die fast alles umfasst, was jemals im öffentlichen Datenraum programmiert wurde. Diese Quelle wird auch heute noch genutzt und verleiht den KI-Systemen ihre beeindruckenden Fähigkeiten.
10.4 Neue Informationsquellen für KI-Modelle
10.4.1 Websuche: Aktuelles Wissen ergänzt historische Daten
Lange Zeit wurde die Websuche von KI-Modellen eher stiefmütterlich behandelt, da es hauptsächlich darum ging, bereits existierende Webseiten wiederzufinden und in neuer Formatierung anzuzeigen. Doch seit einem halben Jahr werden diese Daten vermehrt konsultiert, da sie aktuelle Informationen liefern, die über die historischen Datenbestände hinausgehen. Zusätzlich können Web-Funde dazu beitragen, sogenannte “Halluzinationen” - sprachlich wohlgeformte, aber inhaltlich erfundene Informationen - zu kontrollieren und auf ihre Richtigkeit zu überprüfen.
10.4.2 Informationsbroker: Spezialisierte und verlässliche Datenquellen
In Zukunft werden Informationsbroker eine entscheidende Rolle spielen. Dabei handelt es sich um spezialisierte Informationsquellen, die für bestimmte Datenbereiche verlässliche Informationen bereitstellen. Dazu gehören beispielsweise staatliche Informationen wie Steueraufkommen, Einwohnermeldezahlen, Gesetzestexte und viele weitere Daten, an deren korrekter Wiedergabe der Staat und die Europäische Union interessiert sind. Seit etwa zwei Monaten werden diese Informationsbroker von KI-Modellen genutzt, was zuvor noch nicht der Fall war.
10.5 Herausforderungen und Grenzen von KI-Modellen
10.5.1 Rechtssammlung: Ein Beispiel für Interpretationsschwierigkeiten
Lassen Sie uns anhand eines Beispiels verdeutlichen, wie KI-Modelle mit Informationsquellen umgehen und welche Herausforderungen dabei auftreten können. Betrachten wir dazu die Rechtssammlung, insbesondere das Urhebergesetz. Überall in Europa sind Gesetzestexte öffentlich zugänglich und können im Internet aufgerufen werden. Dort finden sich die geltenden Regeln zum Umgang mit geschützten Werken und den Rechten des Urhebers.
Eine typische Frage in diesem Zusammenhang könnte lauten: “Ist mein AI-Programm ein geschütztes Werk?” Um diese Frage zu beantworten, können wir das aktuelle Apple-User-Interface nutzen, das es erlaubt, mit einem einfachen Tastendruck ein Fenster aufzurufen und die Frage dort einzugeben. Das Programm fotografiert dann die geöffnete Seite, transkribiert sie in Text und wertet diesen mit Sprachverarbeitung aus.
Die generierte Antwort ist oft länger als der relevante Ausschnitt des Gesetzestextes und vermischt verschiedene Informationen wie Patentrecht, Markenrecht und Zusammenfassungen. Es wird versucht, eine Antwort zu formulieren, die sich auf die Frage bezieht, ob Computerprogramme urheberrechtlich geschützt sein können. Allerdings enthält die Antwort oft ungenaue oder sogar falsche Formulierungen, die rechtlich keinen Sinn ergeben.
10.5.2 Halluzinationen und fehlende kritische Hinterfragung
Das Problem der “Halluzinationen” - sprachlich sauber formulierte, aber inhaltlich erfundene Informationen - tritt auch bei der Rechtsinterpretation auf. Die generierten Antworten klingen überzeugend und vollständig, sind aber nicht immer korrekt. Es fehlt die Berücksichtigung einschlägiger Urteile von oberen Gerichten, die zwar über Rechtssammlungen verfügbar wären, aber bisher nicht einbezogen werden.
Was vollständig fehlt, ist die kritische Hinterfragung und methodische Bewertung der generierten Auskünfte. Die Programme können zwar mit normativen Formulierungen wie in Gesetzen umgehen, haben aber keine verfahrenskritische Kompetenz, um zu überprüfen, auf welche rechtlichen Normen sich eine Anfrage stützt, ob diese noch gültig sind und wie sie mit der Rechtspraxis vereinbar sind.
10.5.3 Mögliche negative Folgen und Regulierungsbedarf
Diese Schwächen der KI-Modelle können extreme negative Folgen nach sich ziehen und müssen mit Sicherheit geregelt werden. Es ist faszinierend, dass die Programme Informationen aus dem Internet abrufen, verarbeiten und daraus Antworten generieren können. Doch über den verantwortungsvollen Umgang mit diesen Fähigkeiten wurde bisher zu wenig nachgedacht.
10.6 Ausblick: Weitere Anwendungsbereiche und RAG
10.6.1 Informationsbroker in verschiedenen Bereichen
Informationsbroker werden nicht nur im Rechtsbereich eine wichtige Rolle spielen, sondern auch in anderen Gebieten wie Freizeit und Tourismus. Wenn es um die Suche nach günstigen Flügen oder Ferienzielen geht, müssen Nutzer derzeit noch manuell im Netz recherchieren und entsprechende Informationsbroker nutzen. Es ist jedoch nur eine Frage der Zeit, bis auch diese Informationen für KI-Modelle zugänglich gemacht werden.
Auch Kulturgüter und Sammlungsbestände von Museen und Archiven werden in Zukunft verstärkt in die Sphäre der KI eingehen. Bisher werden diese Informationen hauptsächlich über die Webseiten der jeweiligen Institutionen zur Verfügung gestellt, aber noch nicht von KI-Systemen genutzt.
10.6.2 Retrieval Augmented Generation (RAG)
Ein vielversprechender Ansatz, um die Schwächen der KI-Modelle zu überwinden, ist die sogenannte Retrieval Augmented Generation (RAG). Dabei werden zusätzliche Informationsquellen genutzt, um fehlende oder vorgetäuschte Informationen zu ergänzen und zu korrigieren.
Der Prozess besteht aus drei Schritten:
- Retrieval: Relevante Informationen werden aus externen Quellen gesucht und gefunden.
- Augmentation: Die gefundenen Informationen werden aufbereitet, komprimiert und in die Anfrage integriert.
- Generation: Aus den angereicherten Informationen wird eine Antwort generiert.
Dieser Ansatz wurde beispielsweise bei der Beantwortung der Frage zum Urheberrecht angewendet, indem der Gesetzestext als zusätzliche Informationsquelle herangezogen wurde.## Nutzung externer Wissensquellen durch AI-Modelle
In der heutigen Vorlesung möchte ich Ihnen einen faszinierenden Aspekt der Weiterentwicklung von AI-Systemen näherbringen: Die Nutzung externer Wissensquellen, um die Antwortqualität und Verlässlichkeit der Modelle zu verbessern. Lassen Sie uns gemeinsam ergründen, welche Möglichkeiten sich hier eröffnen und wie wir diese in Zukunft optimal ausschöpfen können.
10.6.3 Die RAG-Komponente
Stellen Sie sich vor, Sie spezifizieren eine externe Quelle, beispielsweise die deutschen Gesetzestexte zum Urheberrecht, binden diese in die Anfrage eines Nutzers ein und erwarten vom Programm eine fundierte Aufbereitung der Antwort. Genau hier kommt die RAG-Komponente ins Spiel. An dieser vielversprechenden Technologie wird derzeit intensiv geforscht und entwickelt. Mittlerweile ist es möglich, selbst sehr große PDF-Sammlungen effizient zu indizieren. Spezielle Programme filtern dann die relevanten Seiten aus Hunderttausenden von PDF-Dokumenten heraus. Im Optimalfall werden diese herausgefilterten Stellen noch weiter komprimiert, sodass sie nahtlos in die Anfrage integriert werden können, die man dem KI-Modell für eine präzise Antwort übergibt. Wissensdatenbanken gewinnen in diesem Kontext zunehmend an Bedeutung.
10.6.4 Die Dimensions-Datenbank
Lassen Sie mich Ihnen nun eine beeindruckende Wissensdatenbank vorstellen, die den riesigen, weltweit verfügbaren Wissensbestand exemplarisch veranschaulicht und für zukünftige AI-Modelle nutzbar macht: Dimensions. Auch wenn die Integration solcher Datenbanken momentan noch nicht standardmäßig vorgesehen ist, bin ich überzeugt, dass sich dies in absehbarer Zeit ändern wird.
Ein Kernproblem, an dem viele große Provider derzeit arbeiten, ist das Halluzinieren von AI-Modellen. Eine mögliche Lösung besteht darin, nicht nur Wikipedia als Quelle heranzuziehen, sondern auch wissenschaftliche Preprint-Server wie arXiv auszuwerten. Genau hier kommt Dimensions ins Spiel - eine englischsprachige, nutzbare Datenbank, auf die wir über die HU-Uni zugreifen können.
10.6.4.1 Wissenschaftliches Publikationswesen im Wandel
Die Zugänglichkeit wissenschaftlichen Wissens hat sich in den letzten Jahren radikal verändert, insbesondere durch die Corona-Pandemie. Zuvor waren viele Publikationen hinter Bezahlschranken der Verlage verborgen und erst Monate später öffentlich zugänglich. Doch mit Ausbruch von Corona wurden diese Schranken praktisch vollständig aufgehoben. Verlage machten Publikationen bereits vor dem Review-Prozess frei verfügbar. Dies führte zu einer erheblich gesteigerten Wissensdynamik. Über Datenbanken wie Dimensions konnte man nun tagesaktuell den Publikationsstand zu beliebigen Themen abfragen. Innerhalb des ersten Jahres der Pandemie waren so bereits 600.000 Publikationen zu Corona in all seinen Facetten zugänglich und auswertbar.
10.6.5 Der digitalisierte Wissensschatz
Um zu verdeutlichen, auf welch umfangreiche Informationen sich AI-Modelle zukünftig stützen können, habe ich eine Abfrage in Dimensions durchgeführt. Das Ergebnis ist beeindruckend: Der Gesamtbestand des digitalisierten wissenschaftlichen Wissens ist keineswegs ein ferner Zukunftstraum. In vielen Disziplinen, insbesondere im naturwissenschaftlich-medizinisch-biologischen Bereich, ist er bereits in hohem Maße vorhanden und zugänglich.
Geisteswissenschaften und Literaturwissenschaften hinken hier allerdings noch hinterher. Bücher sind bis heute kaum online verfügbar und auswertbar - trotz mehrerer geförderter EU-Programme, die dies ändern sollten.
10.6.5.1 Beeindruckende Publikationszahlen
Lassen Sie uns einen genaueren Blick auf die Suchergebnisse in Dimensions werfen. Zu den Stichworten “Large Language Models and AI” finden sich sage und schreibe 1,2 Millionen Publikationen. Ein Blick auf den Kurvenverlauf der Häufigkeiten über die Jahre offenbart Erstaunliches: Entgegen meiner Vermutung, dass Large Language Models erst seit zwei Jahren intensiv erforscht werden, reichen die Publikationen viel weiter zurück.
Für bestimmte Themenbereiche wie künstliche Intelligenz und Machine Learning finden sich jeweils um die 100.000 Publikationen. Doch auch in den Naturwissenschaften (Physical Sciences) und Biowissenschaften (Biological Sciences) gibt es bereits Zehntausende von Veröffentlichungen zu diesen Themen. Ab 2015 sind jährlich 3.600 Publikationen zu verzeichnen - eine beachtliche Zahl, die ich so nicht erwartet hätte. Und der Trend geht in einer charakteristischen exponentiellen Kurve steil nach oben, über viele Disziplinen und Themenfelder hinweg.
10.6.5.2 Scientometrische Aufschlüsselung
Die Datenbank bietet nicht nur Zugang zu den Publikationen selbst, sondern auch eine detaillierte scientometrische Aufschlüsselung. Autorennamen, Institutionen, Finanziers, Verlage, Open-Access-Status - all diese Metadaten wurden sorgfältig erfasst und konsistent aufbereitet. Zu jeder der 100 Millionen wissenschaftlichen Publikationen existiert mindestens ein Abstract, das den Inhalt zusammenfasst. Die meisten Volltexte, insbesondere im Open-Access-Bereich, sind zudem als PDF öffentlich zugänglich.
Diese granulare Erschließung ermöglicht es, die Wissensproduktion der letzten 30 Jahre sehr genau zurückzuverfolgen. Auch ältere Publikationen, etwa von Einstein, sind verzeichnet, wenn auch lückenhafter. Die große Herausforderung für die AI besteht nun darin, diesen gigantischen Wissensbestand effektiv zu nutzen - eine Aufgabe, die bisher noch nicht zufriedenstellend gelöst ist.
10.6.6 Zugang zu wissenschaftlichen Publikationen
Um den Zugang zu wissenschaftlichen Publikationen zu erleichtern, haben sich Deutschland, Österreich und vermutlich auch die Schweiz zu einem Gesamtforschungskonsortium zusammengeschlossen. Ziel ist es, mit den großen Publikationshäusern Verträge abzuschließen, die deren gesamtes Programm öffentlich zugänglich machen. Diese Vereinbarungen kosten zwar Millionen, ermöglichen aber einen unschätzbaren Mehrwert für die Forschungsgemeinschaft.
Die Verlagslandschaft hat sich in den letzten Jahren stark konsolidiert. Weltweit gibt es nur noch eine Handvoll großer wissenschaftlicher Verlage, die ganze Themenfelder mit ihrem Programm abdecken. Durch die Konsortialverträge können nun Universitäten wie die Humboldt-Universität auf das gesamte Angebot dieser Verlage zugreifen und Artikel direkt herunterladen - ein enormer Fortschritt gegenüber früheren Bestellprozessen über Bibliotheken.
10.6.7 Die Wahrheitsfrage
Doch mit dem Zugang zu dieser Fülle an Informationen stellt sich zwangsläufig die Frage nach deren epistemischer Bewertung. Stimmen die Aussagen in den Publikationen? Worauf gründet sich ihre Wahrheit? Diese Frage soll in Zukunft für jeden Satz, jedes Diagramm einer beliebigen Veröffentlichung beantwortet werden können - eine Mammutaufgabe für die AI.
Nehmen wir als Beispiel den folgenden Satz aus einem renommierten Journal: “Im Jahr 2020 wurde GPT-3 veröffentlicht mit 175 Billionen, also Milliarden Parametern, das selbst 100 Mal größer war als der Vorläufer GPT-2.” Wie können wir nun mithilfe von AI-Tools überprüfen, ob diese Aussage wahr ist? Lassen Sie es uns gemeinsam ausprobieren!
10.6.7.1 Ein Test mit ChatGPT
Ich markiere den relevanten Satz und öffne über die Tastenkombination “Option-Leertaste” den Zugang zu ChatGPT. Dieses Tool soll mir nun, bezogen auf die Markierung, Auskunft geben, ob die Information korrekt ist. In Zukunft erwarte ich, dass dies für jegliche Inhalte im Internet möglich sein wird - seien es historische Quellen, Politikeräußerungen oder wissenschaftliche Publikationen. Die Wahrheitsfrage ist dabei von zentraler Bedeutung.
Wie Sie sehen, ist der gesamte Apparat bereits darauf ausgelegt, beliebige dieser Hunderte von Millionen Publikationen zu analysieren. Es bleibt spannend zu beobachten, wie sich die AI-Modelle dieser Herausforderung stellen werden. Eines ist sicher: Wir stehen hier erst am Anfang einer faszinierenden Entwicklung, die unser Verständnis von Wissen und Wahrheit nachhaltig prägen wird.## Einführung in die Überprüfung von Aussagen mithilfe von AI
Zu Beginn der heutigen Vorlesung möchte ich Ihnen eine spannende neue Funktion vorstellen, die es ermöglicht, die Wahrheit von Aussagen mithilfe von AI zu überprüfen. Obwohl die Live-Vorführung immer mit gewissen Tücken verbunden ist, lassen Sie uns gemeinsam erkunden, was dieses System zu leisten vermag.
10.6.8 Überprüfung einer Aussage zu GPT-3 Parametern
Zunächst habe ich dem System einen Screenshot mit einer markierten Aussage zu den Parameterzahlen von GPT-2 und GPT-3 bereitgestellt. Die AI hat den markierten Satz korrekt identifiziert und überprüft, ob dieser wahr ist. Dazu wurden Quellen herangezogen - ein offizieller OpenAI-Blog und ein Preprint-Artikel. Vor einem halben Jahr wäre eine solche Leistung undenkbar gewesen!
Natürlich kann man über die Qualität der Quellen diskutieren, insbesondere wenn es sich um nicht peer-reviewte Preprints handelt. Dennoch ist es beeindruckend, dass überhaupt passende Quellen gefunden und referenziert wurden.
10.6.9 Grenzen der AI bei philosophischen und geisteswissenschaftlichen Anfragen
Es ist wichtig zu beachten, dass diese Überprüfung nicht bei allen Arten von Aussagen gleich gut funktioniert. Insbesondere bei philosophischen oder geisteswissenschaftlichen Themen stößt die AI an ihre Grenzen. Hier fehlt es häufig an klar definierten Wahrheitskriterien und eindeutigen Quellen.
10.7 Bewertung der Leistungsfähigkeit und Grenzen der AI
10.7.1 Imitation einer Rechtfertigung statt echter Begründung
Obwohl die Ergebnisse auf den ersten Blick beeindruckend wirken, dürfen wir nicht vergessen, dass es sich hierbei lediglich um eine Imitation einer Rechtfertigung handelt. Die AI ist nicht in der Lage, die Argumentation in den zitierten Publikationen wirklich zu prüfen und zu bewerten. Es fehlt an echten Rechtfertigungsmodellen, die eine unabhängige Beurteilung der Evidenz ermöglichen würden.
10.7.2 Fehlende Berücksichtigung von Gegenargumenten und alternativen Sichtweisen
Ein weiteres Defizit besteht darin, dass die AI keine Publikationen berücksichtigt, die der überprüften Aussage widersprechen könnten. Auch alternative Beurteilungen der Wahrheit einer Aussage werden nicht einbezogen. Für eine umfassende epistemische Bewertung wären jedoch genau solche Aspekte von großer Bedeutung.
10.7.3 Potenzial für die Untersuchung kontroverser Studien
Interessante Anwendungsmöglichkeiten sehe ich in der Untersuchung kontroverser Studien, wie beispielsweise der Behauptung supraleitender Keramiken bei Zimmertemperatur im letzten Jahr. Hier konnte die AI immerhin ähnliche kritische Anforderungen identifizieren wie die Peer-Reviewer. Das lässt hoffen, dass in Zukunft zumindest eine grobe Einschätzung der wissenschaftlichen Qualität von Publikationen möglich sein wird.
10.8 Ausblick auf zukünftige Entwicklungen
10.8.1 Anforderungen an eine epistemische Bewertung durch AI
Um eine wirklich zuverlässige Überprüfung von Aussagen durch AI zu ermöglichen, müssen wir an folgenden Punkten arbeiten:
- Themenfokussierung bis auf Satzebene unter Berücksichtigung von Fachsprachen und mathematischen Verfahren
- Inferenzielles Retrieval zur Überprüfung von Rechtfertigungen und Begründungen
- Beantwortung von Fragen nach Konsequenzen, Widersprüchen und Zusammenhängen zu Vergleichspublikationen
- Kombination von Text- und Bildanalyse zur Aufdeckung von Manipulationen
Erst wenn wir diese epistemische Bewertung der zugrundeliegenden Datenbestände gemeistert haben, können wir ernsthaft daran denken, Fake News von korrekten Informationen zu unterscheiden.
10.8.2 Bausteine für die zukünftige Forschung
In den kommenden Vorlesungen möchte ich Ihnen einige Bausteine vorstellen, die meiner Meinung nach für die Weiterentwicklung der epistemischen Bewertung durch AI von Bedeutung sind. Insbesondere die Analyse wissenschaftlicher Texte hinsichtlich ihrer Gehalte und die Lösung kausaler Hypothesen werden dabei eine wichtige Rolle spielen.
Poppers Behauptung, dass es sich bei kausalen Redeweisen um Konditionale handelt, halte ich für Unsinn. Solange wir versuchen, diesen Unsinn in die AI-Modelle einzubauen, werden wir keine vernünftigen Ergebnisse in der Bewertung erzielen können.
Mit diesen spannenden Themen werden wir uns also in der nächsten Woche intensiver beschäftigen. Bis dahin wünsche ich Ihnen eine schöne Woche und hoffe, dass Sie noch etwas Sonne tanken können!