Alternative Quantengravitation?!

antaris

Registriertes Mitglied
statistische Algorithmen
Sind die menschlichen Entscheidungsfindungen nicht auch ebenso statistisch, also auf Wahrscheinlichkeiten bezogen? Das Argument der fehlenden Intuition eines professionellen Wissenschaftlers bei einer KI gilt natürlich. Dabei kann die menschliche Intuition auch falsch liegen und das hat es in der Wissenschaft schon desöfteren gegeben.

Das was heute als gesichert erklärt ist, kann morgen hinfällig sein und da hilft weder der menschliche Verstand oder die Intuition.
Ich kann das in dem Zusammenhang nur als unschlagbaren Vorteil wiederholen:
Dabei ist der allergrößte Vorteil der KI: dessen Unbefangenheit
 

antaris

Registriertes Mitglied
Bezüglich ChatGPT.

Es ist in der kostenpflichtigen Version möglich Projekte anzulegen und dort spezifische Projektdateien abzulegen.
Diese können vollständig durch die KI analysiert werden, was bei verlinkten PDF's nicht vollständig funktioniert. Man kann die KI anweisen sogar numerische Berechnungen durchzuführen, die in diesen PDF's beschrieben sind. Es ist also m.E. nicht nur statistische Algorithmen basierend, je nachdem wie die Frage gestellt wird. Ich habe auch versucht themenfremde Dinge mit einzubeziehen aber da hat die KI nicht mitgespielt, insofern es es als absolute Spekulation deklariert wurde. Es werden also durch die KI nicht auf Teufel komm raus einfach irgendwelche Zusammenhänge "gefunden".
 

TomS

Registriertes Mitglied
Vieles ist bekannt und kann aus den Referenzen in den Veröffentlichungen extrahiert werden. Das sollte auch online mit arxiv-Zugang möglich sein.

Darüberhinaus wäre es interessant, wenn die AI ähnliche Text- und Formelmuster in Veröffentlichungen findet, die nicht aufeinander verweisen. Dann gilt es natürlich noch Trivialitäten zu eliminieren.

Das wäre evtl. lohnend.
 

ralfkannenberg

Registriertes Mitglied
Dabei ist der allergrößte Vorteil der KI: dessen Unbefangenheit
Hallo Antaris,

das wird leider wieder dadurch aufgewogen, dass die AI keine Zweifel kennt: ein Mensch kommuniziert durch seine Mimik, Gestik und Wortwahl, wie sicher er sich in seiner Aussage ist, während eine AI ihre Aussagen als gesicherte Wahrheiten kommuniziert.


Freundliche Grüsse, Ralf
 

antaris

Registriertes Mitglied
während eine AI ihre Aussagen als gesicherte Wahrheiten kommuniziert.
Nein...jedenfalls nicht wenn die KI dazu explizit aufgefordert wird das zu lassen und/oder den konkreten Spekulationsgrad anzugeben.
Man kann die KI dazu auffordern die eigenen Herleitungen nachzurechnen.

Prüfen muss das immer ein fachkundiger Mensch. Da sind wir uns einig aber da kommen wir wieder zum Problem, das ein fachkundiger Mensch eben zumeist nur in einige wenige Fächer spezialisiert ist. Es gibt kein menschliches Gehirn, das alle Fächer beurteilen kann.
Die KI ist dafür das perfekte Werkzeug aber nicht die ultimative eierlegende Wollmilchsau...wobei ich da für die Zukunft eher doch dafür sprechen würde. Das Werkzeug wird sich in der Industrie und im alltag massiv durchsetzen. Warum soll ein Mensch die Maschine konstruieren, wenn das irgendwann eine KI vollautomatisch machen kann.
 

antaris

Registriertes Mitglied
Vieles ist bekannt und kann aus den Referenzen in den Veröffentlichungen extrahiert werden. Das sollte auch online mit arxiv-Zugang möglich sein.
Wieviele paper gibt es deiner Meinung nach, grob geschätzt, die wirklich wichtig sind, im Sinne von sich auf das wesentliche konzentrierend?
 

antaris

Registriertes Mitglied
Man kann die KI dazu auffordern die eigenen Herleitungen nachzurechnen.
In Abschnitt 6 hat die AI die Korrekturgleichungen direkt aus den PDF's der zitierten Arbeiten hergeleitet und nachgerechnet. Die Ergebnisse stehen da und es sind genau die richtigen Korrekturen...bei allen 4 Beispielen aus je verschiedenen Bereichen der Physik und im Rahmen des Formalismus der EQG hergeleitet.
https://www.planck-unit.net/wp-content/uploads/2025/02/EQG_Zusammenfassung_v3.pdf#section.6
 

TomS

Registriertes Mitglied
Hallo Antaris,

das wird leider wieder dadurch aufgewogen, dass die AI keine Zweifel kennt: ein Mensch kommuniziert durch seine Mimik, Gestik und Wortwahl, wie sicher er sich in seiner Aussage ist, während eine AI ihre Aussagen als gesicherte Wahrheiten kommuniziert.
Das ist eine Sache der Programmierung. Die Aussagen eines LLMs entstehen letztlich stochastisch.
 

antaris

Registriertes Mitglied
Wenn ich eine Datei ins Projekt lade, wie z.B.

https://www.researchgate.net/publication/383491236_Theodor_Kaluza's_Theory_of_Everything_revisited_-_update_August_2024

und der AI die Anweisung gebe:

Analysiere die Aussagen in der Projektdatei auf Konsistenz mit der etablierten Physik und auf Korrektheit. Identifiziere Postulate und Ad-Hoc Annahmen.

und folgende Analyse ausgibt:

https://www.planck-unit.net/wp-content/uploads/2025/02/kwrk.pdf

Wie kommt die AI dann zu der Einschätzung? Das Dokument wurde vollständig "gelesen" und analysiert. Irgendwie kommt mir die Antwort doch durchdacht vor aber das täuscht vielleicht auch nur.
 

Petz

Registriertes Mitglied
Wie kommt die AI dann zu der Einschätzung?

Solche Themen sind zu kompliziert für eine KI. Bis jetzt scheitern die noch alle an der allgemeinen Relativitätstheorie und käuen einfach nur das wieder was sie auf Wikipedia gelesen haben, wobei sie alle Fehler die dort stehen übernehmen. Wenn man ihnen Schritt für Schritt erklärt wie es richtig geht sehen sie es zwar ein, aber extra für die KI den Erklärbär zu spielen zahlt sich nicht aus da sie es bis zum nächsten Mal eh wieder vergessen hat. Mit deiner 5D Kaluza Klein Theorie werden die daher noch ärger überfordert sein, da werden die wenn überhaupt wohl nur die gröbsten Fehler finden.
 

antaris

Registriertes Mitglied
Mit deiner 5D Kaluza Klein Theorie
Nicht meine.
Bis jetzt scheitern die noch alle an der allgemeinen Relativitätstheorie und käuen einfach nur das wieder was sie auf Wikipedia gelesen haben, wobei sie alle Fehler die dort stehen übernehmen.
Ich kann mir beispielhaft die Kerr-Metrik inkl. der Komponenten mit expliziten Werten M, a, r, theta = pi/4 berechnen lassen. oder wie oben schon geschrieben aus PDF's heraus Herleitungen und numerische Berechnungen durchführen lassen.
 

Petz

Registriertes Mitglied
Ich kann mir beispielhaft die Kerr-Metrik inkl. der Komponenten mit expliziten Werten M, a, r, theta = pi/4 berechnen lassen. oder wie oben schon geschrieben aus PDF's heraus Herleitungen und numerische Berechnungen durchführen lassen.

Bei der Kerr Metrik passt es eh wenn die KI den Wikipedia Artikel zitiert da den in dem Fall eh ich geschrieben habe, aber wenn du sie fragst ob sie dir die Bewegungsgleichungen die sich aus den Christoffelsymbolen ergeben von den Ableitungen nach Eigenzeit auf die Ableitungen nach der Koordinatenzeit umstellen kann fliegen die Partikel überall hin, nur nicht dort hin wo sie sollen. Da ist dann nicht mal mehr die zweite Ableitung von t nach t null weil sie die Transformation aus dem anderen Artikel den nicht ich geschrieben habe anwendet 🤡
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Ok, wo ich hinaus will ist, das die AI Widersprüche erkennen und klar bennenen kann. Wenn Vergleiche und Analysen verschiedener Arbeiten, mittels gleichen Modell (bei mir o3-mini-high) unterschiedliche Aussagen über Konsistenz mit etablierter Physik, Spekulationsgrad, enthaltene Postulate und Annahmen treffen kann, dann ist sie in diesem Sinne als Werkzeug brauchbar. Wenn ich explizit Originalarbeiten von z.B. Arxiv verwenden lasse, dann bezieht die AI nach wie vor zusätzlich benötigte Daten aber berechnungen oder Herleitungen stammen dann aus der Arbeit. Das Argument, dass nur Wiki verwendet wird bzw. verwendet werden kann ist nicht richtig. Es kommt klar darauf an, wie das Werkzeug benutzt wird.
 

TomS

Registriertes Mitglied
Ich kann mir beispielhaft die Kerr-Metrik inkl. der Komponenten mit expliziten Werten M, a, r, theta = pi/4 berechnen lassen. oder wie oben schon geschrieben aus PDF's heraus Herleitungen und numerische Berechnungen durchführen lassen.
Nein. LLMs rechnen nicht, sie assoziieren bzw. raten Texte.

Ok, wo ich hinaus will ist, das die AI Widersprüche erkennen und klar bennenen kann.
Nein. Siehe oben.
 

antaris

Registriertes Mitglied
Laut OpenAI ist das o3-mini(-high) Modell nicht rein LLM basiert und erst seit Ende Januar ausgerollt.
Seit heute gibt es eine DeepSearch Funktion, bei der die AI tiefe Recherchen durchführt.
LLMs rechnen nicht, sie assoziieren bzw. raten Texte.
Das verstehe ich nicht. Wie kommt die AI dann zu einem richtigen Rechenergebnis (z.B. beim Wettbewerbsmathe-Test (AIME 2024)), wenn nur assoziiert bzw. geraten wird...wirklich nur einer Zufall?

Beispielsweise löst o3-mini-high über 83% der Aufgaben in einem Wettbewerbsmathe-Test (AIME 2024) korrekt, während ältere Modelle weit darunter blieben

Hier eine Analayse vom o3-mini-high Modell über die verwendeten Trainingstechnologien.
OpenAI hat aber nicht alle Details veröffentlicht.

https://www.planck-unit.net/wp-content/uploads/2025/02/Training-o3-mini-high-Modell.pdf
 

TomS

Registriertes Mitglied
Entweder erkennt das LLM durch Raten, dass ein Teil der Aufgabe nicht durch Raten zu lösen ist, und delegiert diesen dann an Wolfram Alpha, Mathematica, Maple oder sonstwas, oder es rät einfach sehr gut, weil die Wissensbasis geeignet ausgewählt und sehr gut trainiert wurde.

Frage doch mal nach der i-ten Wurzel aus i. Ich habe das gerade bei ChatGPT gemacht; es erklärt die Schritte im Detail und liefert Blödsinn. So kannst du sukzessive herausfinden, wie das Ding arbeitet.
 
Zuletzt bearbeitet:

TomS

Registriertes Mitglied
Klar geht das; man muss nur mit der Mehrdeutigkeit geeignet umgehen.

Bin gespannt, was die AI sagt.
 
Zuletzt bearbeitet:

antaris

Registriertes Mitglied
Entweder erkennt das LLM durch Raten, dass ein Teil der Aufgabe nicht durch Raten zu lösen ist, und delegiert diesen dann an Wolfram Alpha, Mathematica, Maple oder sonstwas, oder es rät einfach sehr gut, weil die Wissensbasis geeignet ausgewählt und sehr gut trainiert wurde.
Ist es ein nachteilig, wenn die AI externe spezialisierte Tools nutzt? Solange die AI den richtigen Lösungsweg findet und das extern berechnet (weil intern nicht geht), dann ist doch alles gut oder nicht? Ein mensch rechnet ja auch keine numerischen Rechnungen mit seinem NN im Kopf.
Hier die Analyse der AI über sich selbst (immer o3-mini-high) zum Thema komplizierte Berechnungen, Herleitungen usw.
https://www.planck-unit.net/wp-content/uploads/2025/02/Komplexe-Berechnungen-mit-o3-mini-high.pdf

Frage doch mal nach der i-ten Wurzel aus i.
Was wäre die richtige Antwort bzw. was war die falsche? Welches Modell hast du genutzt?
Hier die Antwort von o3-mini-high:
https://www.planck-unit.net/wp-content/uploads/2025/02/i-te-Wurzel-aus-i.pdf

Der/die User/Userin lula im folgenden Thread kam auf das selbe Ergbnis für z (Beitrag 5). Aber das ist dort im Thread nicht entgültig beantwortet worden?
https://matheplanet.com/default3.html?call=viewtopic.php?topic=113370&ref=https://www.google.com/
 
Zuletzt bearbeitet:
Oben