Eris: Pluto doch der größte Zwergplanet?

ralfkannenberg

Registriertes Mitglied
Noch eine Anmerkung: Zwar sagt Brown, dass er bis auf eine Entfernung von 10'000 AU Objekte von ca. V = 19 ausschliessen kann. ABER: das heisst natürlich nicht zwingend, dass es deswegen bis dort draussen keine weiteren, grossen Objekte geben kann: ihre gemessene Helligkeit könnte einfach weniger stark als V = 19 sein.
Hallo zusammen,

in diesem Zusammenhang sei daran erinnert, dass selbst von den bekannten grossen KBO - allesamt näher als 100 AE entfernt - gerade mal die vier hellsten die 19.Grösse schaffen:

1. Pluto: 13.6 mag
2. Makemake: 16.8 mag
3. Haumea: 17.5 mag
4. Eris: 18.8 mag

Die übrigen:
5. Orcus: 19.1 mag
6. Quaoar: 19.3 mag
7. Sedna: 20.4 mag
8. Snow White: 21.3 mag

Und die kleine Sedna 2012 VP113: 23.4 mag


Vertreter der 2000 km-Klasse kann man mit dieser Methode also kaum ausschliessen und solche der 1000 km gar nicht; von solchen könnte es da draussen trotz der vorgenannten Durchmusterung also noch wimmeln.


Freundliche Grüsse, Ralf
 

FrankSpecht

Registriertes Mitglied
Moin zusammen,
interessanterweise ist gerade (23. Juli) dazu ein Paper veröffentlicht worden: A QUANTITATIVE CRITERION FOR DEFINING PLANETS

In Figure 1 sieht man eine
Mass required to clear an orbital zone as a function of semi-major axis for a host star of mass 1 M[SUB]ʘ[/SUB]
Acht Planeten haben ihren Bereich weit über 10 Hillsphären bereinigt, und drei (Ceres, Pluto, Eris) weit darunter.

Aber Achtung: Hillsphäre ist nicht gleich Hillsphäre!
So ist bspw. die Hillsphäre von Pluto größer(!) als die der Erde, allein, weil der Gravitationseinfluss der Sonne mit der Entfernung abnimmt.

Daniel Fischer erläutert es genauer:
https://skyweek.wordpress.com/2015/07/26/allgemeines-live-blog-ab-dem-25-juli-2015/
 
Zuletzt bearbeitet:

FrankSpecht

Registriertes Mitglied
Au verdammt!
Ich wusste doch, dass ich es erst vor ein paar Tagen irgendwo gesehen hatte :eek:

Ich bitte um Entschuldigung, Bynaus!
 

ralfkannenberg

Registriertes Mitglied
Au verdammt!
Ich wusste doch, dass ich es erst vor ein paar Tagen irgendwo gesehen hatte :eek:

Ich bitte um Entschuldigung, Bynaus!
Das mag auch daher kommen, dass ich noch nicht ausführlich meinen Senf dazu gegeben habe, weil ich es mir nur ausgedruckt habe und in meinen Ferien anschauen möchte.

Trotzdem sei nochmals auf Bynaus' Beitrag (#30) hingewiesen, in dem er zwei Fallbeispiele für 40 AU und für 100 AU genannt hat.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

Bynaus

Registriertes Mitglied
Ich setze diese Diskussion hier fort, denn im anderen Thread hat sie nichts verloren:

Dass die Arbeit der HST-Messung der Eris formal korrekt ist ist ja klar, auch wenn ich mir gewünscht hätte, dass er die Korrektur der IRAM-Messung etwas weniger wortreich kommentiert und statt dessen in nur einer Zeile klipp und klar geschrieben hätte, dass da ein Wert überschätzt wurde.

Es ging ihm darum zu sehen, ob sich die IRAM-Messung mit seinem eigenen, neuen Ergebnis in Übereinstimmung bringen lässt. Das geht tatsächlich, wenn man einen neueren Wert für die Helligkeit nimmt. Das lässt sich nicht knapper sagen als es da steht.

Und daran, dass Eris grösser als Pluto ist, hat er sehr lange festgehalten, zuletzt war bei ihm, also auf seiner Seite, die Eris immer noch 1 km (!!) grösser als Pluto.

Wohl kaum, so genau konnte man das nie wissen (und man weiss es immer noch nicht) - höchstens im nominellen Wert, also innerhalb der Fehler. Das lässt durchaus die Möglichkeit offen, dass Eris kleiner als Pluto ist.

Ja; wichtig war ihm wohl vor allem, dass es da zu diesem Zeitpunkt noch eine Reserve von über 200km zum Pluto gab.

Das bezweifle ich. Du willst ihm andichten, dass er Eris unbedingt grösser als Pluto haben wollte. Das kann ich nicht erkennen. Ich verstehe jedoch, dass die erste Intuition, wonach das - entfernungskorrigiert - hellere Objekt auch grösser sein sollte, eine Zeit lang noch dominiert hat. Schliesslich wurde Eris immer kleiner und weisser, bis sie am Ende das weisseste Objekt im Sonnensystem ausserhalb des Saturnsystems wurde.

Tatsächlich darf Mike Brown einem gereviewten Ergebnis ohne Wenn und Aber vertrauen, auch wenn in diesem Falle er nun erklären muss, warum seine "Xena" doch keine 3000 km gross ist, wie er überall erzählt hatte.

Das entsprach dem damaligen Stand des Wissens. Da ist nichts zweifelhaftes daran. Dein Vorwurf war nicht gerechtfertigt.

Nein, denn sonst könnte ich die 10-50km-Schätzung ja nicht mit ins Grab nehmen, weil ich schon zeitgleich von einer zweiten Schätzung (400-700m) Kenntnis gehabt hätte.

Eben. Dann kannst du auch nicht fordern, man hätte das "nebeneinander" nennen müssen. Konnte man gar nicht.

Obwohl ich das mitverfolgt habe, habe ich von dieser Grössenkorrektur nichts mitbekommen.

Wir hatten da einen Thread, und ich denke UMa hat das ziemlich schnell klargestellt.

Oh wie hübsch, der Versuch einer Beweislastumkehr

Überhaupt nicht. Du bist der, der Mike Brown Fehlverhalten vorwirft. Die Beweislast liegt ganz klar auf der Seite des Anschuldigers und nicht des Angeschuldigten (bzw., mir, der ihn hier gegen deine Anschuldigungen verteidigt).

Das Ergebnis ist falsch, woraus Du einfach schliessen kannst, dass bei der Fehlerrechnung ein Fehler passiert ist.

Aber nicht bei Mike Brown.

Und warum hält er sich dann nicht daran: warum war die Eris bis zum Vorbeiflug der New Horizon - sogar noch einige Tage länger - auf seiner Homepage 1 km grösser als der Pluto ?

Wie oben erwähnt kann das nur der nominelle Wert sein, der mit einem Fehler behaftet ist, der deutlich grösser ist als dieser eine km (wie auch in dem Artikel von ihm steht). Der neue Wert von Pluto ist am oberen Ende des von Brown im Blog-Artikel genannten Fehlerintervals, während Eris (nach Sternbedeckung) etwas unterhalb der Hälfte ihres Fehlerintervals ist.

Wenn du deine Anschuldigung an Mike Brown (und evtl. Bertoldi et al.), hier irgendwie falsch (oder gar absichtlich falsch) gerechnet zu haben, aufrecht erhalten willst, dann bitte mit Substanz: unterfüttere sie mit einer Rechnung, die uns Brown's Fehler aufzeigt. Ansonsten kann ich die Angelegenheit als erledigt betrachten. Und ich will die Anschuldigung dann auch nicht mehr von dir lesen.
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
Ich setze diese Diskussion hier fort, denn im anderen Thread hat sie nichts verloren:
Hallo Bynaus,

das ist zwar in der Absolutheit Deine Meinung, aber ok, inhaltlich teile ich sie.

Es ging ihm darum zu sehen, ob sich die IRAM-Messung mit seinem eigenen, neuen Ergebnis in Übereinstimmung bringen lässt. Das geht tatsächlich, wenn man einen neueren Wert für die Helligkeit nimmt. Das lässt sich nicht knapper sagen als es da steht.
Es lässt sich genauso knapp sagen, wie Du das tust. Mike Brown macht das deutlich länger. Darf er natürlich, aber eben: es geht ohne inhaltlichen Verlust knapper. Aber das abzählen der Wörter überlasse ich Dir.

Wohl kaum, so genau konnte man das nie wissen (und man weiss es immer noch nicht) - höchstens im nominellen Wert, also innerhalb der Fehler. Das lässt durchaus die Möglichkeit offen, dass Eris kleiner als Pluto ist.
Eben, so genau konnte man das nicht wissen. Warum er es trotzdem tat weiss ich nicht. Ist letztlich nur ein unwichtiges Detail, ein weiteres - es sind ja alles nur unwichtige Details.

Das bezweifle ich. Du willst ihm andichten, dass er Eris unbedingt grösser als Pluto haben wollte. Das kann ich nicht erkennen.
Wenn Du die vielen unwichtigen Details nicht sehen willst - auch ok. Wenigstens hat Mike Brown ja nun die wahren Grössenverhältnisse nach dem Vorbeiflug der New Horizon-Sonde anerkannt. Das wäre zwar schon nach der Sternbedeckung durch die Eris grundsätzlich möglich gewesen, aber wenigstens jetzt hat er das getan.

Ich verstehe jedoch, dass die erste Intuition, wonach das - entfernungskorrigiert - hellere Objekt auch grösser sein sollte, eine Zeit lang noch dominiert hat. Schliesslich wurde Eris immer kleiner und weisser, bis sie am Ende das weisseste Objekt im Sonnensystem ausserhalb des Saturnsystems wurde.
Eben, zumal sie ja auch mehr Masse als der Pluto hat. Wenn Deine Wortwahl "eine Zeit lang" bis Mitte 2015 reicht, so bin ich ja mit Dir einverstanden.


Das entsprach dem damaligen Stand des Wissens. Da ist nichts zweifelhaftes daran. Dein Vorwurf war nicht gerechtfertigt.
Das wahre Wert war aber ein anderer und die zugehörigen Fehlerrechnungen haben das nicht erkannt. Wie aber schon geschrieben: selbstverständlich darf Mike Brown einem peer-gereviewten Artikel vertrauen. Trotzdem ist irgendwo in der Argumentationskette ein Fehler passiert, denn es kam ein falscher Wert heraus.


Eben. Dann kannst du auch nicht fordern, man hätte das "nebeneinander" nennen müssen. Konnte man gar nicht.
Das fordere ich auch gar nicht. Ich fordere nur, dass die Korrektur gleich prominent wie die erste Schätzung erfolgen soll, denn sonst bekommt man mit sehr hoher Wahrscheinlichkeit die Korrektur nicht mit.

Wir hatten da einen Thread, und ich denke UMa hat das ziemlich schnell klargestellt.
Wenn ich mich recht entsinne war ich es, der auf die 400-700m hingewiesen hat ...

Überhaupt nicht. Du bist der, der Mike Brown Fehlverhalten vorwirft. Die Beweislast liegt ganz klar auf der Seite des Anschuldigers und nicht des Angeschuldigten (bzw., mir, der ihn hier gegen deine Anschuldigungen verteidigt).
Nein: das Ergebnis ist falsch und das wurde durch keine Fehlerrechnung erkannt. - Also gibt es mindestens einen Fehler in der Argumentationskette. Ich behaupte nicht, dass sich dieser Fehler in dem Teil der Argumentationskette, befindet, den Mike Brown erstellt hat.

Das ändert aber nichts an der Tatsache, dass sich in der Argumentationskette mindestens ein Fehler befindet.

Aber nicht bei Mike Brown.
Nicht im HST-Artikel über die Eris, aber das habe ich auch nicht behauptet. Im Gegenteil: in diesem Artikel wird der Fehler ja aufgedeckt.

Wie oben erwähnt kann das nur der nominelle Wert sein, der mit einem Fehler behaftet ist, der deutlich grösser ist als dieser eine km (wie auch in dem Artikel von ihm steht). Der neue Wert von Pluto ist am oberen Ende des von Brown im Blog-Artikel genannten Fehlerintervals, während Eris (nach Sternbedeckung) etwas unterhalb der Hälfte ihres Fehlerintervals ist.
Da ich die Tabelle nicht mehr finde weiss ich nicht, welche Reihenfolge Mike Brown aktuell angibt. Bei denen dahinter spielt es ohnehin keine Rolle, von denen ist er bei allen der Entdecker.

Wenn du deine Anschuldigung an Mike Brown (und evtl. Bertoldi et al.), hier irgendwie falsch (oder gar absichtlich falsch) gerechnet zu haben, aufrecht erhalten willst, dann bitte mit Substanz: unterfüttere sie mit einer Rechnung, die uns Brown's Fehler aufzeigt.
Du kombinierst den Fehler immer mit Mike Brown - der Fehler tritt irgendwo in der Argumentationskette auf. Wobei es prinzipiell auch möglich wäre, dass im Rahmen der Aussagekraft der Arbeit von Bertoldi et al. die Fehlerrechnung hinreichend genau ausgeführt wurde, aber nicht genau genug für Mike Browns Zwecke war. In diesem Falle hätte Mike Brown einen Fehler gemacht, weil er eine Arbeit zitiert hätte, die einen anderen Gültigkeitsbereich hat. Wie ich Mike Brown in seiner HST-Messung der Eris verstanden habe war das aber nicht der Fall, d.h. der Wert wurde in der Arbeit von Bertoldi et al. überschätzt und die Überschätzung in der Fehlerrechnung nicht erkannt. Hier mag ich mich aber auch irren, denn wie gesagt: mir genügt es, dass in der Argumentationskette mindestens ein Fehler aufgetreten ist.

Ansonsten kann ich die Angelegenheit als erledigt betrachten. Und ich will die Anschuldigung dann auch nicht mehr von dir lesen.
Das ist dann der Fall, sobald 2500km grösser als 2600km ist. Im Übrigen kannst Du Dich dieses Problems auch sehr einfach entledigen, wenn Du ins unendlich reichende Verteilungen doch zulässt. Allerdings müsste dann noch geklärt werden, wann zwei Ergebnisse "konsistent" sind, denn sie dürfen dann ja auch ausserhalb des numerischen Intervalle liegen, und das "ausserhalb" ist nun mal im Allgemeinen unendlich gross.

Ich persönlich tendiere zu letzterer Lösung, d.h. der Laie ist (leider) zu blöd, um verstehen zu können, dass +/- Angaben keineswegs überlappend sein müssen, aber aus mathematischer Sicht deckt das Intervall mit der Standardabwechung nur rund 68% des Wertebereiches ab, was im Kuipergürtel bzw. aufgrund der grossen Unsicherheiten der Albedo-Schätzungen viel zu wenig ist. Der Laie mag sich aber damit trösten, dass Mike Brown dank der nicht-überlappende Bereichen herausgefunden hat, dass in der Arbeit von Bertoldi et al. ein Wert überschätzt wurde.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

RPE

Registriertes Mitglied
Hallo Ralf,
auch einem Mathematiker sei natürlich seine Meinung gegönnt, aber mMn ist es völlig an der Realität vorbei bzw. Erbsenzählerei, was du hier betreibst (dein 2500/2600km "Problem").
Jeder, der es wissen muss, weiss was +-Fehler heißt. Und wer es nicht wissen sollte, dessen Meinung interessiert nicht (geschlossener Kreis bzw. Kreis mit "Aufnahmebedingung").

In diesem Sinne kann man sich auch nicht aussuchen, ob man ins Unendliche reichende Verteilungen "zuläßt" oder "ausschließt". Die sind sowieso immer da. Ob der Mathematiker in dir das definieren will oder wegdefinieren will ist irrelevant.
 

UMa

Registriertes Mitglied
Hallo Ralf,
Das wahre Wert war aber ein anderer und die zugehörigen Fehlerrechnungen haben das nicht erkannt. Wie aber schon geschrieben: selbstverständlich darf Mike Brown einem peer-gereviewten Artikel vertrauen. Trotzdem ist irgendwo in der Argumentationskette ein Fehler passiert, denn es kam ein falscher Wert heraus.

Das fordere ich auch gar nicht. Ich fordere nur, dass die Korrektur gleich prominent wie die erste Schätzung erfolgen soll, denn sonst bekommt man mit sehr hoher Wahrscheinlichkeit die Korrektur nicht mit.

...

Nein: das Ergebnis ist falsch und das wurde durch keine Fehlerrechnung erkannt. - Also gibt es mindestens einen Fehler in der Argumentationskette. Ich behaupte nicht, dass sich dieser Fehler in dem Teil der Argumentationskette, befindet, den Mike Brown erstellt hat.

Das ändert aber nichts an der Tatsache, dass sich in der Argumentationskette mindestens ein Fehler befindet.

Du kombinierst den Fehler immer mit Mike Brown - der Fehler tritt irgendwo in der Argumentationskette auf. Wobei es prinzipiell auch möglich wäre, dass im Rahmen der Aussagekraft der Arbeit von Bertoldi et al. die Fehlerrechnung hinreichend genau ausgeführt wurde, aber nicht genau genug für Mike Browns Zwecke war. In diesem Falle hätte Mike Brown einen Fehler gemacht, weil er eine Arbeit zitiert hätte, die einen anderen Gültigkeitsbereich hat. Wie ich Mike Brown in seiner HST-Messung der Eris verstanden habe war das aber nicht der Fall, d.h. der Wert wurde in der Arbeit von Bertoldi et al. überschätzt und die Überschätzung in der Fehlerrechnung nicht erkannt. Hier mag ich mich aber auch irren, denn wie gesagt: mir genügt es, dass in der Argumentationskette mindestens ein Fehler aufgetreten ist.


Das ist dann der Fall, sobald 2500km grösser als 2600km ist. Im Übrigen kannst Du Dich dieses Problems auch sehr einfach entledigen, wenn Du ins unendlich reichende Verteilungen doch zulässt. Allerdings müsste dann noch geklärt werden, wann zwei Ergebnisse "konsistent" sind, denn sie dürfen dann ja auch ausserhalb des numerischen Intervalle liegen, und das "ausserhalb" ist nun mal im Allgemeinen unendlich gross.

Ich persönlich tendiere zu letzterer Lösung, d.h. der Laie ist (leider) zu blöd, um verstehen zu können, dass +/- Angaben keineswegs überlappend sein müssen, aber aus mathematischer Sicht deckt das Intervall mit der Standardabwechung nur rund 68% des Wertebereiches ab, was im Kuipergürtel bzw. aufgrund der grossen Unsicherheiten der Albedo-Schätzungen viel zu wenig ist. Der Laie mag sich aber damit trösten, dass Mike Brown dank der nicht-überlappende Bereichen herausgefunden hat, dass in der Arbeit von Bertoldi et al. ein Wert überschätzt wurde.
Darf ich deine Argumentation zusammenfassen:
Wann immer irgend etwas gemessen wird z.B. 3000+-400km, wobei +-400 die Standardabweichung und da 68% Konfidenzintervall darstellt und es sich später herausstellt, dass der wahre Wert kleiner als 2600km oder größer als 3400km ist, muss in der Messung oder der Fehlerrechnung ein Fehler vorhanden gewesen sein? Obwohl dies, selbst wenn kein Fehler vorhanden ist dies in 32% der Fälle vorkommen muss? Und der nachher korrigiert werden sollte?
Da kann ich nur den Kopf schütteln.

Da muss hier wohl ein ganz schlimmer Fehler passiert sein
http://simbad.u-strasbg.fr/simbad/sim-id?Ident=@2138687&Name=V* W Vir&submit=submit
die Parallaxe von V* W Vir wurde mit Hipparchos zu -3.32 +- 1.18 mas gemessen. Das Minus vor 3.32 ist kein Schreibfehler.

Grüße UMa
 

Bynaus

Registriertes Mitglied
Ich glaube, nach den Antworten meiner Vorredner brauche ich mich dazu nicht mehr zu äussern.
 

ralfkannenberg

Registriertes Mitglied
Darf ich deine Argumentation zusammenfassen:
Wann immer irgend etwas gemessen wird z.B. 3000+-400km, wobei +-400 die Standardabweichung und da 68% Konfidenzintervall darstellt und es sich später herausstellt, dass der wahre Wert kleiner als 2600km oder größer als 3400km ist, muss in der Messung oder der Fehlerrechnung ein Fehler vorhanden gewesen sein? Obwohl dies, selbst wenn kein Fehler vorhanden ist dies in 32% der Fälle vorkommen muss? Und der nachher korrigiert werden sollte?
Hallo UMa,

nein, meine Argumentation baut darauf auf, dass sich die Intervalle überlappen müssen, da Bynaus mein Unendlichkeits-Argument bei den Verteilungen nicht akzeptiert hat. Ich habe jetzt auch schon mehrfach darauf hingewiesen, dass man bei der (idealisierten) Gauss-Verteilung fast ein Drittel des Wertebereiches nicht erreicht, und aus diesem Grunde die Frage gestellt, wann nun Konsistenz vorliegt.

Mike Brown hat aufgrund des sich nicht überlappenden Intervalles einen Fehler in der Arbeit, auf der er referenziert hat, gefunden, d.h. in diesem Fall war es gerechtfertigt, die Nicht-Überlappung als Inkonsistenz zu bezeichnen.

Dass es in diesem Fall gerechtfertigt ist heisst aber nicht, dass es in allen Fällen gerechtfertigt ist. Man wird also letztendlich nicht umhinkommen, sich die Mühe zu machen und ein Konfidenzintervall zu bestimmen, wobei beim OPERA-Experiment der Neutrino-Geschwindigkeit eine beachtliche Signifikanz von 6.2 Sigma vorlag und das ganze dennoch falsch war. Man darf sich also durch solche Zahlen nicht in trügerischer Sicherheit wiegen, weil ein systematischer Fehler oder auch eine nicht als solche erkannte falsche Annahme zu einem fehlerhaften Resultat führen können, was durch einen hohen Sigma-Wert nicht abgesichert ist.


Da kann ich nur den Kopf schütteln.
Ich kann nur mit dem Kopf schütteln, dass man über so triviale Sachen seitenweise diskutieren muss, und am Ende doch ich es bin, der das dann konkret aufschreiben muss.

Wobei eine korrekte Bestimmung eines Konfidenzintervalles nicht-trivial ist, da können sich einem noch rechte Hürden in den Weg stellen.

Ebenso kann ich nur mit dem Kopf schütteln, was alles als "konsistent" oder "kongruent" bezeichnet wird und mit "bestem Wissen zur damaligen Zeit" abgetan wird. Dies, obgleich man doch sieht, wie sensibel der Durchmesser von dieser Helligkeit abhängt, was man auch ohne jede HST-Beobachtung schon rein theoretisch feststellen kann. Dann muss man da eben ein bisschen mehr aufpassen als sonst, weil sonst eben ein falsches Ergebnis herauskommen kann und im Allgemeinen auch herauskommen wird. - Oder vorsichtiger formuliert: weil dann ein Ergebnis herauskommen kann, welches von gewissen Leuten wie mir (und übrigens auch Mike Brown) als falsch empfunden wird.

Und eine Antwort auf die Frage, wieso man einen Kometendurchmesser schätzt, obgleich das Zielpublikum über das Wissen verfügt, sich die Daten selber zusammenzusuchen, dies aber natürlich nicht tut, wenn es den Wert serviert bekommt, werde ich vermutlich nie erhalten. Macht aber nichts - vielleicht bin ich ja der einzige Skeptiker und ich glaube diesen Durchmesserschätzungen schon seit Jahren nicht mehr. Und ich erspare Euch die Statistik, in wieviel Prozent der Fälle ich am Ende recht behalten habe.

Und wenn der Laie in die Irre geführt wird, so ist das auch egal, weil wie einer meiner Vorredner richtigerweise bemerkt hat dies dem Laien völlig egal ist. Aber eines kann man mir nicht vorwerfen, nämlich dass ich wenigstens versucht habe, Euch darauf zu sensibilisieren, wenngleich mit einem Erfolg identisch gleich 0.

Damit ist das Thema nun auch für mich erledigt; ich ziehe es vor, mich an die wasserdichten Daten zu halten und auf alle Grössenschätzungen im vollen Umfang zu verzichten. Und auch bei Kollisionsrisiken nach der Entdeckung wenigstens eine Woche lang alle Prognosen zu ignorieren. Dann komme ich auch ohne nichtssagende/irreführende "Konsistenzen" und "Kongruenzen" aus.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

Dgoe

Gesperrt
ich ziehe es vor, mich an die wasserdichten Daten zu halten und auf alle Grössenschätzungen im vollen Umfang zu verzichten. Und auch bei Kollisionsrisiken nach der Entdeckung wenigstens eine Woche lang alle Prognosen zu ignorieren.
(bold)
Jetzt wird's spannend und wichtig. Kollisionsrisiken. Durchmesser bei Kollisionsrisiken kommt dazu.

Durchmesser dort weit draussen sind doch nahezu egal, sollen sie 10 oder 1000 km kleiner oder größer sein, Schnuppe. Erfahrungen sammeln gut.

Kollisionsrisiken jedoch sind diametral von der denkbar größten Bedeutung, damit einhergehend die Durchmesser.

Plötzlich hellhörig. Wachgerüttelt.

Wie darf man denn Abwiegelungen, wie: "fliegt total sicher an der Erde vorbei" verstehen? 68%? Plus/Minus trifft schon nicht...
Oder besagte Fenster, alles nur Voodoo?

Wenn ich lese +/- Blabla, dann gehe ich davon aus, dass man auch meint, was man schreibt.

Dann interessiert mich die Bohne, wie das zu interpretieren ist, nämlich nicht so. Insider-Geheimnis.

Eine Sprache, wie die Deutsche, ist doch imstande einer vollausführlichen konkreten unmissverständlichen Darstellung, wenn es auch manchmal einer Zeile mehr bedarf oder 2 Wörtern wie z. B.: "so ungefähr".


Das ist doch total haarsträubend, dass man nach Strich und Faden verar**t wird. BUHHHH!
Schämt Eucht, Asche...

Denn die Journalisten werden dann ja schon veräp**lt.

Darüber sollte man sich mal Gedanken machen. Und ob die Menschheit wegen solcher Kommunikationsdefizite der Wissenschaftsgemeinde eine Woche oder mehr verliert im Falle eines Falles, einer globalen Impaktbedrohung.

:mad:
 

Kibo

Registriertes Mitglied
Hier sieht man sehr schön einen wichtigen Unterschied zwischen Mathematik und Astronomie.

"Es entsprach dem damaligen Stand des Wissens" liest sich für einen Mathematiker sicherlich sehr befremdlich.:)

mfg
 

Bynaus

Registriertes Mitglied
nein, meine Argumentation baut darauf auf, dass sich die Intervalle überlappen müssen, da Bynaus mein Unendlichkeits-Argument bei den Verteilungen nicht akzeptiert hat.

Ich habe dein Argument nicht akzeptiert weil die Intervalle sich überlappen nachdem die notwendige Korrektur ausgeführt wurde. Deshalb ist es völlig legitim wenn Brown im Paper sagt, dass die IRAM-Messungen mit dem 2400+-100 Durchmesser kompatibel seien. Natürlich ist es korrekt dass zwei Werte nicht zwingend innerhalb von 1 bzw. 2 Sigma (es ist mir immer noch nicht klar, ob die Unsicherheit zum 3000+-400 km Wert 1 oder 2 Sigma darstellt) überlappen müssen, um kompatibel zu sein. Aber das ist trivial und gar nicht der Punkt.

Mike Brown hat aufgrund des sich nicht überlappenden Intervalles einen Fehler in der Arbeit, auf der er referenziert hat, gefunden, d.h. in diesem Fall war es gerechtfertigt, die Nicht-Überlappung als Inkonsistenz zu bezeichnen.

Es muss sich auch hier nicht zwingend um einen Fehler handeln. Es kann auch sein, dass Bertoldi et al. völlig korrekt den damals besten bekannten Wert für die Helligkeit verwendet haben. Wie gesagt, der einzige Ort, wo man wirklich ein Fragezeichen setzen darf (aber kein Ausrufezeichen, so lange man sich nicht eingehender damit befasst hat), ist die Beobachtung, dass sich der genannte Fehlerbereich für den damaligen Wert der Helligkeit und der genannte Fehlerbereich für den aktualisierten Wert der Helligkeit nicht überlappen (und zwar innerhalb 4 Sigma), dh, irgendwer scheint hier an einem der beiden Punkte seine Unsicherheiten unterschätzt zu haben.

Ich kann nur mit dem Kopf schütteln, dass man über so triviale Sachen seitenweise diskutieren muss, und am Ende doch ich es bin, der das dann konkret aufschreiben muss.

Nein Ralf, so einfach kommst du nicht davon. Du hast u.a. Mike Brown wiederholt vorgeworfen, sich unprofessionell verhalten zu haben bzw. Fehler gemacht zu haben. Du wirfst ihm z.B. vor, den Eris-Durchmesser von 3000 km "verbreitet" zu haben, obwohl dies absolut dem damals publizierten und mit allen bekannten Daten verträglichen Wert entsprach.

Seitenlange Diskussionen gibt es nur darum, weil du auf konkretes Nachfragen ausweichst oder neue Schlachtfelder öffnest, und nun sogar noch die Beweislast für deine Vorwürfe auf andere abwälzen willst.

Und ich erspare Euch die Statistik, in wieviel Prozent der Fälle ich am Ende recht behalten habe.

Ich bezweifle, dass du hierzu wirklich eine belastbare Statistik präsentieren könntest. Es gibt hunderttausende von Objekten, deren tatsächliche Grössen problemlos in die anfänglich (bei der Entdeckung) genannten Intervalle passen. Es ist nur deine selektive Erinnerung, die das ganze zu einem furchtbar wichtigen Problem hochstilisiert.

Und auch bei Kollisionsrisiken nach der Entdeckung wenigstens eine Woche lang alle Prognosen zu ignorieren.

Ich denke, jedem, der sich mit dem Thema ein bisschen auseinandersetzt, ist mittlerweile klar, dass die Kollisionsrisiken von Objekten, die zukünftige nahe Vorbeiflüge an der Erde haben, immer erst hochschiessen muss, bevor sie wieder abfallen kann. Das hat ganz einfach mit der konstanten Fläche der Erde innerhalb der Fehlerellipse der Asteroidenposition zum Zeitpunkt der grössten Annäherung zu tun. Das heisst aber nicht, dass die Fehlerellipsen deshalb fehlerhaft wären.

Aber du darfst natürlich von mir aus gerne alles bezweifeln und ignorieren was du willst (und du brauchst auch meine Erlaubnis nicht dafür ;) ). Behalt im Interesse der Diskussionskultur hier im Forum einfach deinen beissenden Sarkasmus für dich und leere ihn auch nicht ohne konkreten, nachvollziehbaren Grund über Wissenschaftler wie Brown aus.
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
Ich habe dein Argument nicht akzeptiert weil die Intervalle sich überlappen nachdem die notwendige Korrektur ausgeführt wurde. Deshalb ist es völlig legitim wenn Brown im Paper sagt, dass die IRAM-Messungen mit dem 2400+-100 Durchmesser kompatibel seien. Natürlich ist es korrekt dass zwei Werte nicht zwingend innerhalb von 1 bzw. 2 Sigma (es ist mir immer noch nicht klar, ob die Unsicherheit zum 3000+-400 km Wert 1 oder 2 Sigma darstellt) überlappen müssen, um kompatibel zu sein. Aber das ist trivial und gar nicht der Punkt.
Hallo Bynaus,

gut, dann habe ich Dich hier falsch verstanden. Es schien mir nämlich einer der zentralen Punkte zu sein, auch wenn die Verteilung natürlich nicht symmetrisch und damit auch nicht Gauss'sch sein kann, was man aber in erster Näherung dennoch mal annehmen darf, ohne einen allzu grossen Fehler zu machen. Und ja - natürlich ist das ziemlich trivial.

Es muss sich auch hier nicht zwingend um einen Fehler handeln. Es kann auch sein, dass Bertoldi et al. völlig korrekt den damals besten bekannten Wert für die Helligkeit verwendet haben. Wie gesagt, der einzige Ort, wo man wirklich ein Fragezeichen setzen darf (aber kein Ausrufezeichen, so lange man sich nicht eingehender damit befasst hat), ist die Beobachtung, dass sich der genannte Fehlerbereich für den damaligen Wert der Helligkeit und der genannte Fehlerbereich für den aktualisierten Wert der Helligkeit nicht überlappen (und zwar innerhalb 4 Sigma), dh, irgendwer scheint hier an einem der beiden Punkte seine Unsicherheiten unterschätzt zu haben.
Schön, auch hier sind wir nun weitergekommen: da wurden Unsicherheiten unterschätzt. Für dieses Statement musste ich zahlreiche Beiträge schreiben, obgleich es eigentlich auch ziemlich trivial ist.

Nein Ralf, so einfach kommst du nicht davon. Du hast u.a. Mike Brown wiederholt vorgeworfen, sich unprofessionell verhalten zu haben bzw. Fehler gemacht zu haben. Du wirfst ihm z.B. vor, den Eris-Durchmesser von 3000 km "verbreitet" zu haben, obwohl dies absolut dem damals publizierten und mit allen bekannten Daten verträglichen Wert entsprach.
Ich denke, der Fehler passierte an dieser Stelle in der Arbeit von Bertoldi et al.:

The albedo is known to vary significantly between the distant minor planets, ranging from ~0.03 in dark trans-neptunian objects (TNOs) to ~0.6 for Pluto. The optical brightness therefore provides only a lower limit to the object size when assuming p = 1, which in the case of 2003 UB[sub]313[/sub] (where H = -1.16mag (refs 1, 8), with a current uncertainty of about 0.1mag) yields d > 2,234km. To better constrain the size of a planetary body,
Und das "better constrain" ist in die Hose gegangen, weil die Annahme, dass Eris eine Albedo zwischen ~0.03 und ~0.6 habe falsch war. Sie sind also ganz banal einer falschen Annahme aufgesessen.

Die Arbeit von Bertoldi et al. mag peer-gereviewt sein, d.h. ganz formal darf Mike Brown diese selbstverständlich ungelesen zitieren; andererseits ist sie nur 2 Seiten lang, so dass Mike Brown sie auch hätte lesen und die unzutreffende Annahme hätte bemerken können. Aber ja, Konjunktive.

Seitenlange Diskussionen gibt es nur darum, weil du auf konkretes Nachfragen ausweichst oder neue Schlachtfelder öffnest, und nun sogar noch die Beweislast für deine Vorwürfe auf andere abwälzen willst.
Nein: auch dieses Mal bin ich es, der den konkreten Punkt, wo der Fehler hineingekommen ist, anspricht: eine falsche Annahme. Ich hatte das schon vermutet und konnte mich deswegen auch einfacher auf die Suche machen, was bei einem 2-seitigen Paper ja nicht so schwierig ist.

Ich bezweifle, dass du hierzu wirklich eine belastbare Statistik präsentieren könntest. Es gibt hunderttausende von Objekten, deren tatsächliche Grössen problemlos in die anfänglich (bei der Entdeckung) genannten Intervalle passen. Es ist nur deine selektive Erinnerung, die das ganze zu einem furchtbar wichtigen Problem hochstilisiert.
Nein: jedesmal, wo ich es hinterfragt habe, habe ich am Ende recht behalten. Und zwar deswegen, weil ich ganz banal weitere Kriterien beigezogen habe, um die Robustheit des Ergebnisses zu erhöhen. Und wenn ich das kann, dann können das andere auch, denn so schwer sind diese weiteren Kriterien nicht. Damit liessen sich die meisten falschen Sensationen vermeiden und die Frage muss erlaubt sein, warum man das trotzdem nicht tut.

Ich denke, jedem, der sich mit dem Thema ein bisschen auseinandersetzt, ist mittlerweile klar, dass die Kollisionsrisiken von Objekten, die zukünftige nahe Vorbeiflüge an der Erde haben, immer erst hochschiessen muss, bevor sie wieder abfallen kann. Das hat ganz einfach mit der konstanten Fläche der Erde innerhalb der Fehlerellipse der Asteroidenposition zum Zeitpunkt der grössten Annäherung zu tun. Das heisst aber nicht, dass die Fehlerellipsen deshalb fehlerhaft wären.
Damit schliesst Du erneut den Laien, dem das nicht klar ist, aus.

Aber du darfst natürlich von mir aus gerne alles bezweifeln und ignorieren was du willst (und du brauchst auch meine Erlaubnis nicht dafür ;) ). Behalt im Interesse der Diskussionskultur hier im Forum einfach deinen beissenden Sarkasmus für dich und leere ihn auch nicht ohne konkreten, nachvollziehbaren Grund über Wissenschaftler wie Brown aus.
Aus sehr gutem Grunde, wie wir nun herausgefunden haben. Aber niemand ist gezwungen, falsche Sensationen zu vermeiden, und niemand ist gezwungen, wenn man den Fehler dann findet, diesen gleich prominent wie die Ankündigung zu korrigieren.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

Bynaus

Registriertes Mitglied
Schön, auch hier sind wir nun weitergekommen: da wurden Unsicherheiten unterschätzt.

Möglicherweise. Es können auch andere Erklärungen möglich sein.

Für dieses Statement musste ich zahlreiche Beiträge schreiben, obgleich es eigentlich auch ziemlich trivial ist.

Das hatte ich schon im anderen Thread eingeräumt, nachdem ich gesehen hatte, dass es da eine Diskrepanz zwischen den Helligkeiten gab, die sich nicht mit ihren angeblichen Unsicherheiten in Übereinkunft bringen lassen.

Ich verstehe dich schon: dein Argument ist, dass man das (aus heutiger Sicht) von vornherein hätte wissen müssen, da es sonst nicht zu Diskrepanzen beim Radius gekommen wäre. Also musste jemand entweder einen Fehler in der Unterschätzung seiner Unsicherheiten, einen Fehler bei der Fehlerfortpflanzung (oder vielleicht einen Tippfehler - gibts auch, siehe Spinat) gemacht haben. Das alles ist mir seit etwa deiner zweiten Antowort zum Thema völlig klar. Das Problem ist aber, dass du das alles so darstellst, als sei es entweder Inkompetenz, Schlamperei oder vielleicht noch eher, das "nicht sehen wollen" von unbequemen Fakten. Tatsächlich wissen wir das nicht, und ohne genauere Untersuchung der Abläufe lässt sich das nicht feststellen. Ich empfinde den pauschalen Vorwurf als unprofessionell und unfair gegenüber den involvierten Wissenschaftlern. Ich habe überhaupt kein Problem damit, wenn Inkompetenz, Schlamperei etc. aufgedeckt wird - aber dann bitte richtig.

Ich denke, der Fehler passierte an dieser Stelle in der Arbeit von Bertoldi et al.:

Nein. Die Albedo geht eben nicht als Annahme in diese Rechnung mit ein, sondern ist ein Ergebnis (das steht übrigens exakt an der Stelle in deinem Zitat, wo du den Satz abgebrochen hast). Siehe z.B. hier: https://astro.uni-bonn.de/~bertoldi/ub313/ (suche innerhalb der Seite nach "how do we derive") Dort siehst du die zwei Kurven, die sich aus optischer Helligkeit (blau) und aus Infrarot Helligkeit (rot) ergeben - der Radius muss demnach dort liegen, wo sich die beiden Kurven schneiden. Dem ist aber nicht so, wie wir heute, 10 Jahre später wissen. Vielmehr ergibt sich bei 0.96 eine deutliche Diskrepanz der beiden Radien (von mindestens 3 Sigma, wenn ich das richtig aus der Figur heraus lese). Hier gibt es also eine Diskrepanz, die ich bisher nicht erklären kann.

Aber das ist NICHT die Diskrepanz, die zu deinem Problem "2500 sind übrigens immer kleiner als 2600" geführt haben. Korrigiert man die optische Helligkeit, dann verschiebt man die blaue Kurve - in diesem Fall etwas nach links in der Figur, so dass der Schnittradius kleiner wird und mit 2400+-100 kompatibel wird, wie Mike Brown in seinem späteren Paper erwähnt hat.

Die Arbeit von Bertoldi et al. mag peer-gereviewt sein, d.h. ganz formal darf Mike Brown diese selbstverständlich ungelesen zitieren; andererseits ist sie nur 2 Seiten lang, so dass Mike Brown sie auch hätte lesen und die unzutreffende Annahme hätte bemerken können.

Ich denke du kannst ohne eine Sekunde zu zögern davon ausgehen, dass Mike Brown die Arbeit mehrere Male gelesen hat. Er hat aber mit Sicherheit keinen Fehler finden können. Ohne das Wissen um den Okkultations-Radius (Sternbedeckung) ist das auch nicht zu vermuten.

auch dieses Mal bin ich es, der den konkreten Punkt, wo der Fehler hineingekommen ist, anspricht: eine falsche Annahme. Ich hatte das schon vermutet und konnte mich deswegen auch einfacher auf die Suche machen, was bei einem 2-seitigen Paper ja nicht so schwierig ist.

Nur dass dein "konkreter Punkt" nicht stimmt (siehe oben). Du bist vorschnell: du machst Wissenschaftlern beträchtliche Vorwürfe, obwohl du das Problem offenbar noch nicht vollständig verstanden hast.

Damit schliesst Du erneut den Laien, dem das nicht klar ist, aus.

Ich rede auch nicht mit "den Laien", sondern mit dir.
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
Das hatte ich schon im anderen Thread eingeräumt, nachdem ich gesehen hatte, dass es da eine Diskrepanz zwischen den Helligkeiten gab, die sich nicht mit ihren angeblichen Unsicherheiten in Übereinkunft bringen lassen.

Ich verstehe dich schon: dein Argument ist, dass man das (aus heutiger Sicht) von vornherein hätte wissen müssen, da es sonst nicht zu Diskrepanzen beim Radius gekommen wäre.
Hallo Bynaus,

nein, ganz so streng bin ich nun ja auch wieder nicht; "wissen müssen" hätte man es nicht. Ich bin einfach der Meinung, dass eine Fehlerrechnung sowas irgendwie aufdecken sollte. Heikel sind ja vor allem die Grössen, die bei kleiner Änderung stark variieren; bei diesen Grössen würde ich mir insgesamt eine vorsichtigere Fehlerrechnung wünschen.

Also musste jemand entweder einen Fehler in der Unterschätzung seiner Unsicherheiten, einen Fehler bei der Fehlerfortpflanzung (oder vielleicht einen Tippfehler - gibts auch, siehe Spinat) gemacht haben. Das alles ist mir seit etwa deiner zweiten Antowort zum Thema völlig klar. Das Problem ist aber, dass du das alles so darstellst, als sei es entweder Inkompetenz, Schlamperei oder vielleicht noch eher, das "nicht sehen wollen" von unbequemen Fakten.
Nein, ich möchte da niemandem Inkompetenz, Schlamperei oder ein Nicht-Sehen-Wollen unterstellen; mein Eindruck ist einfach der, dass die Begeisterung zur Folge hatte, dass die Alarmglocken weniger laut geschrillt haben als sie sonst vielleicht bei so sensitiven Grössen geschrillt hätten.

Tatsächlich wissen wir das nicht, und ohne genauere Untersuchung der Abläufe lässt sich das nicht feststellen. Ich empfinde den pauschalen Vorwurf als unprofessionell und unfair gegenüber den involvierten Wissenschaftlern. Ich habe überhaupt kein Problem damit, wenn Inkompetenz, Schlamperei etc. aufgedeckt wird - aber dann bitte richtig.
Ich habe nur den Blog von Mike Brown eine Zeitlang nach der Entdeckung der Eris und der Einführung der Zwergplaneten mitverfolgt, aber später dann auch nicht mehr. Was andere Forscher zu diesem Thema der Grössenverhältnisse zwischen Eris und Pluto gesagt oder geschrieben haben weiss ich also nicht.

Nein. Die Albedo geht eben nicht als Annahme in diese Rechnung mit ein, sondern ist ein Ergebnis (das steht übrigens exakt an der Stelle in deinem Zitat, wo du den Satz abgebrochen hast).
Ja danke, ich habe mich da geirrt. Der Hinweis auf die stark variierenden Albedo-Werte war eine Motivation, warum man diese Untersuchung gemacht hat und nicht eine Voraussetzung. Ich habe mich deswegen geirrt, weil derselbe Wert wie beim Pluto herauskam und keineswegs wie ich es zuerst verstanden hatte vorausgesetzt wurde.

Siehe z.B. hier: https://astro.uni-bonn.de/~bertoldi/ub313/ (suche innerhalb der Seite nach "how do we derive") Dort siehst du die zwei Kurven, die sich aus optischer Helligkeit (blau) und aus Infrarot Helligkeit (rot) ergeben - der Radius muss demnach dort liegen, wo sich die beiden Kurven schneiden. Dem ist aber nicht so, wie wir heute, 10 Jahre später wissen. Vielmehr ergibt sich bei 0.96 eine deutliche Diskrepanz der beiden Radien (von mindestens 3 Sigma, wenn ich das richtig aus der Figur heraus lese). Hier gibt es also eine Diskrepanz, die ich bisher nicht erklären kann.

Aber das ist NICHT die Diskrepanz, die zu deinem Problem "2500 sind übrigens immer kleiner als 2600" geführt haben. Korrigiert man die optische Helligkeit, dann verschiebt man die blaue Kurve - in diesem Fall etwas nach links in der Figur, so dass der Schnittradius kleiner wird und mit 2400+-100 kompatibel wird, wie Mike Brown in seinem späteren Paper erwähnt hat.
Danke für die weitere Präzisierung. Wobei eben: wenn man eine "vorsichtigere" Standardabweichung gewählt hätte, hätten sich die Intervalle sogar überlappt, allerdings wäre dann dieser Fehler mölicherwiese bs heute übersehen worden. So gesehen hatte es also auch sein Gutes.

Ich denke du kannst ohne eine Sekunde zu zögern davon ausgehen, dass Mike Brown die Arbeit mehrere Male gelesen hat.
Das habe ich auch getan, aber da ich das nicht beweisen kann, habe ich es nicht in die Diskussion als Argument eingebracht.


Er hat aber mit Sicherheit keinen Fehler finden können. Ohne das Wissen um den Okkultations-Radius (Sternbedeckung) ist das auch nicht zu vermuten.
Das verstehe ich nun nicht: die Sternbedeckung fand doch erst viel später statt.

Nur dass dein "konkreter Punkt" nicht stimmt (siehe oben). Du bist vorschnell: du machst Wissenschaftlern beträchtliche Vorwürfe, obwohl du das Problem offenbar noch nicht vollständig verstanden hast.
Vorschnell ?! - Nein, Du hattest es ja erklärt. Ich hatte aber aus der Sicht, wo ein Fehler alles auftreten kann, ganz vorne angefangen, also nach einem Fehler bei den Voraussetzungen gesucht, und mich dabei geirrt. Somit verbleibt der Fehler an der Stelle in der Argumentationskette, an der Du ihn genannt hattest. Und was die beträchtlichen Vorwürfe anbelangt, die kommen halt von der doch grossen Abweichung zwischen den 2400 km und den 3000 km, und da hätte ich mir eben doch sehr gewünscht, dass Verfahren angewendet worden wären, welches eine so grosse Abweichung vermieden hätten.

Ich rede auch nicht mit "den Laien", sondern mit dir.
Mir geht es auch wesentlich um den Laien.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

Bynaus

Registriertes Mitglied
Heikel sind ja vor allem die Grössen, die bei kleiner Änderung stark variieren; bei diesen Grössen würde ich mir insgesamt eine vorsichtigere Fehlerrechnung wünschen.

Ich denke, Leute, die solche Dinge beruflich machen, wissen das. Wie gesagt: es gibt offensichtlich ein Problem mit den IRAM Daten, das über Fehlerrechnung hinaus geht. Eine vorsichtigere Fehlerrechnung hätte da wohl nicht geholfen, vermute ich mal (kann es aber nicht wissen - und deshalb trage ich das auch nicht mit der Gewissheit vor, die du dir in diesem Fall zu eigen gemacht hast).

Wobei eben: wenn man eine "vorsichtigere" Standardabweichung gewählt hätte, hätten sich die Intervalle sogar überlapp

Nun - Standardabweichungen "wählt" man ja nicht - sie ergeben sich aus den Daten, den statistischen und systematischen Unsicherheiten und der Fehlerfortpflanzung.

Das verstehe ich nun nicht: die Sternbedeckung fand doch erst viel später statt.

Das war missverständlich, sorry. Ich meine, wir haben heute gut Reden, das IRAM-Ergebnis in Frage zu stellen: wir kennen ja den Eris-Durchmesser ziemlich genau. Aber Mike Brown hatte damals diesen Luxus nicht. Für ihn stellte es einfach ein neues Ergebnis dar, auf das er wohl auch länger gewartet hatte. Ich finde einfach, du kannst ihm hier keinen Vorwurf machen.

Und was die beträchtlichen Vorwürfe anbelangt, die kommen halt von der doch grossen Abweichung zwischen den 2400 km und den 3000 km, und da hätte ich mir eben doch sehr gewünscht, dass Verfahren angewendet worden wären, welches eine so grosse Abweichung vermieden hätten.

Aber was und wie!? Du kannst die Daten nicht durch "Verfahren" zurechtbiegen, sie sind was sie sind, und es gab damals keinen Grund, an ihnen fundamental zu zweifeln (anders hätte es ausgesehen, wenn die Hubble-Beobachtung und/oder die Sternbedeckung zu dem Zeitpunkt bereits stattgefunden hätten). Was genau hätten Bertoldi et al. denn besser machen können?

Mir geht es auch wesentlich um den Laien.

Wie schon einige hier gesagt haben: "den Laien" interessiert unser "Gezänke" nicht wirklich.
 

ralfkannenberg

Registriertes Mitglied
Heikel sind ja vor allem die Grössen, die bei kleiner Änderung stark variieren; bei diesen Grössen würde ich mir insgesamt eine vorsichtigere Fehlerrechnung wünschen.
Ich denke, Leute, die solche Dinge beruflich machen, wissen das.
Hallo Bynaus,

na ja, die Aussage selber ist ja trivial, nur ist es manchmal nicht so einfach, herauszufinden, welche Grössen das sind. Beruflich haben wir für solche Erkenntnisse einmal eine sehr teure Monte-Carlo-Simulation selber implementiert. Die Mittelwerte selber kannte man gut und wurden auch alle gut wiedergegeben, aber die Standardabweichungen wusste man nicht. Allerdings war das eine Gasturbine und die hatte um die 30000 Parameter.

Wie gesagt: es gibt offensichtlich ein Problem mit den IRAM Daten, das über Fehlerrechnung hinaus geht. Eine vorsichtigere Fehlerrechnung hätte da wohl nicht geholfen, vermute ich mal (kann es aber nicht wissen - und deshalb trage ich das auch nicht mit der Gewissheit vor, die du dir in diesem Fall zu eigen gemacht hast).
Ich weiss, dass eine Fehlerrechnung keineswegs alle Fehler finden kann. Deswegen ist es mir auch ein grosses Anliegen, hier "vorsichtiger" vorzugehen. Wobei ich schon Mühe mit dem Wurzelziehen der Quadrate habe - das ist zwar mathematisch mit der L[sup]2[/sup]-Norm beschreibbar und klappt wegen ihrer sehr schönen Eigenschaften auch in einem Hilbertraum, ihr Wert ist aber kleiner als derjenige der schwerfälligen L[sup]1[/sup]-Norm, bei der einfach die Absolutbeträge aller Abweichungen aufsummiert werden (dass dann noch die "einte-Wurzel" gebildet wird ist irrelevant, weil die einte-Wurzel den Wert nicht ändert).

Nun - Standardabweichungen "wählt" man ja nicht - sie ergeben sich aus den Daten, den statistischen und systematischen Unsicherheiten und der Fehlerfortpflanzung.
Jein - natürlich hast Du recht; man kann aber eine andere Verteilung oder auch eine andere L[sup]p[/sup]-Norm wählen. Und natürlich kann man wie bei den Sicherheitsanalysen des CERN auch alles wasserdicht nach oben bzw. nach unten abschätzen. Natürlich liefert das in der Praxis absurd hohe Fehlerwerte. Mir persönlich schwebt hier eine "kombinierte" Berechnung vor. Immerhin hatte man ja dank dem Spitzer-Resultat eine obere Grenze und mit der Albedo = 1.0 eine einfache untere Grenze und wenig überraschend waren die wasserdicht, d.h. der Eris-Durchmesser liegt zwischen den beiden.

Konkret wäre mein Vorschlag, bei den verwendeten Abweichungen die sensiblen Grössen mit einem Sicherheitsfaktor 2 zu belegen und die (wenigen) sehr sensiblen Grössen mit einem Sicherheitsfaktor 10 zu belegen und die daraus erhaltenene Standardabweichung - die natürlich keine Standardabweichung mehr ist - mit der richtigen Standardabweichung zu vergleichen.

Ich bin mir fast sicher, dass das bei der Eris funktioniert hätte, beim Siding Spring natürlich nicht - da hätte man aufgrund der sehr hohen Unsicherheit beide Extremwerte einsetzen sollen und dann vergleichen.

Eine noch einfachere Methode wäre, bei Rechnungen, die sensible Grössen enthalten, einfach die Standardabweichung pauschal mit 2 (vielleicht geht auch 1.5) zu multiplizieren. Im Falle der Eris hätte das nach oben nichts gebracht, weil das Spitzer-Resultat bereits von der normalen Standardabweichung übertroffen wird, aber nach unten hätte es etwas gebracht, dann hätte man bei einer pauschalen Multiplikation mit 1.5 den Durchmesser 3000km[sup]+400km[/sup]/[sub]-600km[/sub] erhalten, so dass die beiden Intervalle sich überlappt hätten. Allerdings wäre auch hiermit die IRAM-Messung noch geringfügig zu hoch ausgefallen.

Bei einer pauschalen Muliplikation der Standardabweichung mit 2 deckt man im Falle einer Gauss-Verteilung übrigens nicht nur gut 68%, sondern gut 95% des Wertebereiches ab. - Grundsätzlich würde es mich allerdings eher interessieren, ob man mit der L[sup]1[/sup]-Norm bei der IRAM-Messung die beiden Intervalle zum Überlappen gebracht hätte.

Das war missverständlich, sorry. Ich meine, wir haben heute gut Reden, das IRAM-Ergebnis in Frage zu stellen: wir kennen ja den Eris-Durchmesser ziemlich genau. Aber Mike Brown hatte damals diesen Luxus nicht.
Klar, hinterher ist man immer klüger.

Für ihn stellte es einfach ein neues Ergebnis dar, auf das er wohl auch länger gewartet hatte. Ich finde einfach, du kannst ihm hier keinen Vorwurf machen.
Nein, natürlich nicht.

Aber was und wie!? Du kannst die Daten nicht durch "Verfahren" zurechtbiegen, sie sind was sie sind, und es gab damals keinen Grund, an ihnen fundamental zu zweifeln (anders hätte es ausgesehen, wenn die Hubble-Beobachtung und/oder die Sternbedeckung zu dem Zeitpunkt bereits stattgefunden hätten). Was genau hätten Bertoldi et al. denn besser machen können?
Ich will nicht Daten zurecht biegen, das wäre ja völlig verfehlt; ich möchte insgesamt vorsichtigere Fehlerrechnungen erreichen, d.h. besser abgesicherte Fehlerintervalle haben.

Wie schon einige hier gesagt haben: "den Laien" interessiert unser "Gezänke" nicht wirklich.
Natürlich nicht, aber den Laien interessiert vermutlich schon eine verständlichere Angabe des Fehlerintervalles.


Freundliche Grüsse, Ralf
 
Zuletzt bearbeitet:

ralfkannenberg

Registriertes Mitglied
Hallo zusammen,

jetzt bin ich wieder einmal fündig geworden, auch wenn das Statement schon über 10 Jahre zurückliegt:

"It's definitely bigger than Pluto." So says Dr. Mike Brown of the California Institute of Technology who announced today the discovery of a new planet in the outer solar system.


Später schwächt er das ein bisschen ab:

"We are 100 percent confident that this is the first object bigger than Pluto ever found in the outer solar system," Brown adds.

Nicht mehr "definitely", sondern nur noch "we are 100 percent confident".


Freundliche Grüsse, Ralf
 
Oben