Durch die Position im Lehrbuch und die Länge des Kapitels wird ungefähr die Herausforderung klar. Man kann es mal versuchen, sieht dann wenigstens, wie das ganze Thema einzuordnen ist, welche Voraussetzungen vielleicht noch fehlen (bzw. wie viele).
Es wird auch klar, woher die Motivation kam: 3Blue1Brown im Falle von meinem jungen Kollegen, Feynman und Professor Nano in meinem Falle. Die konkreten Personen kann man dann auch einordnen, bzgl. ihrer Ziele und ihrer Zielgruppe, ihrer didaktischen Fähigkeiten, ...
Ja genau.
Bei ChatGPT stürze ich da bisher noch ins Nichts. Und die hilfreichen Konversationen mit Gemini 3, Claude, und ChatGPT, die ich vor ein paar Monaten mal hatte, sind inzwischen alle nicht mehr abrufbar.
Das größte Problem ist, dass jede AI vorher klar instruiert werden sollte. Bei ChatGPT geht das z.B. über die personalisierten Einstellungen und über die Erinnerungen.
Das bedeutet nicht einfach nur Fragen stellen, sondern passend zur Komplexität und Art der Fragestellung folgendes vorgeben:
1. Primärquellen die priorisiert genutzt werden sollen, weitere verwandte Quellen im Internet suchen lassen oder nicht
2. die erforderliche Art der Antwort (kritisch, wissenschaftlich, streng, ..., alles zusammen)
3. eine präzise Fragestellung, die möglichst schon konstruktives zur Antwort beinhaltet
4. die AI dazu auffordern Quellen konkret "zu lesen" und das nicht nur stichpunktartig
5. bei komplexen Fragen die große Fragestellung in kleinere Einzelfragen aufsplitten oder eben eine 500 Seiten Arbeit nicht auf einmal, sondern nacheinander in Abschnitte oder Unterabschnitte erklären lassen.
6. die AI (egal welche) bei der Fragestellung dazu auffordern alle Aussagen vor Generierung der Antwort auf Konsistenz zu überprüfen
7. zu analysierende Dokumente und wichtige Begleitdokumente oder wichtige Primärquellen immer hochladen, zusätzliche nice to have Informationen via URL zu der Quelle als link im prompt angeben
8. die Zitierung von Primärquellen für alle relevanten Aussagen und das überprüfen der Aussagen in den Primärquellen fordern
9. nach der Antwort die AI dazu auffordern ihre eigene Antwort kritisch gegen die genutzten Quellen zu überprüfen -> Konsistenzcheck (das ist extrem selten bei der ersten Antwort korrekt, je nach Kontext und Komplexität -> muss nicht selten vielfach iteriert werden)
10. die AI dazu Auffordern die Aussagen nachzuschärfen
11. die Aussagen der AI mit einer AI eines anderen Unternehmen überprüfen lassen
12. und das ist ganz wichtig -> wenn du vor einigen Monaten mal mit einer AI herumprobiert hast, dann war die Leistung tatsächlich viel geringer. Die Updates bei ChatGPT und auch bei claude haben wirklich Leistungszuwächse gebracht. Ich habe Tests mit ChatGPT 5.2 und der aktuellen 5.4 Version mit einem lean-Beweis gemacht. Zwei chats gestartet, beim ersten 5.2 und beim zweiten 5.4. Beide exakt die gleichen Dateien und Fragestellungen in den prompt gegeben. Der Chat mit 5.2 war nach 25 Minuten nicht fertig und wurde abgebrochen aber 5.4 war nach etwas mehr als 7 Minuten fertig. Ich habe das dann nochmal mit einen anderen lean-Beweis gemacht und wieder das gleiche Problem. Die zuletzt gebauten Module und die komplexen Beweise konnten nur mit 5.4 formuliert werden. Das Update kam zwischendurch, genau zur richtigen Zeit, als ich das Mehr an Leistung gebraucht hatte. Man darf nicht vergessen, dass da jede Menge ENtwicklungsarbeit rein ließt. ChatGPT kann z.B. direkt Python ausführen, nachrechnen, das nachdenken unterbrechen, zwischenschlüsse ziehen. Das ist keine Logik im normalen Sinn aber die AI kann sich zumindesten selbst in eine besser Position steuern/versetzen, was mit 5.2 noch nicht funktioniert hat.
Was auch gut funktioniert, ist ein einfaches "Lies dich vollständig in Arbeit x ein, ganz speziell das Thema y und z, als Aufforderung mit hochgeladener Quelle. Erst danach Fragen stellen. Wichtig is auch, das Quellen aus URL's schwieriger sind, als direkt hochgeladene PDF's.
Es gibt viele Möglichkeiten die AI zu steuern, sodass die eben nicht mehr macht, "was sie will". Damit bleibt vieles überprüf- und auch zitierbar. Wenn man das alles nicht macht, dann hat man irgendeinen AI Text vor sich und im schlimmsten Fall nicht mal mit Bezug zu relevanten Quellen.
All das verhindert keine Fehler der AI aber sie werden dadurch effektiv begrenzt. Wenn immer auf konkrete Quellen Bezug (möglichst gar nicht bzw. nur für das wirklich triviale auf interne Trainingsdaten zugegriffen wird) genommen und die Antworten kritisch hinterfragt/systematisch auf Konsistenz geprüft wird, dann kann man mit dem Werkzeug arbeiten und Resultate hervorbringen. Die Verbindung mit lean macht das für mathematische Fragestellungen dann erst so richtig interessant.
Bei der Roadmap muss ich auch iterieren, gerade das 10. mal. Ich glaube dann ist alles drin. Aber da lass ich die AI schon direkt in der .tex Arbeiten. Gegenprüfung mach ich intern bei ChatGPT mit einem anderen Chat und mittlerweile claude als kritischer Reviewer eingestellt. Claude hat aber selbt bei 20€/Monat eine starke Nutzungbegrenzung. Bei ChatGPT werde ich gar nicht ausgebremst.