Beschleunigte Expansion nur noch bei 3σ

oldphys

Registriertes Mitglied
Hallo Yukterez,

Wenn ich mir den Contourplot Fig. 2 in dem Artikel ansehe kommt mir eher die Wahrscheinlichkeit für eine unbeschleunigte Expansion minimal vor...

kannst Du mal bitte für einen Nicht-Astrophysiker und natürlich auch für den hier auch willkommenen Laien etwas näher erläutern, warum Du das aus dem Plot so siehst (ich muss ehrlich zugeben, dass ich hier auch etwas "ungläubig geschaut" hatte! - aber ohne "echtes Wissen") und vor allem, warum denn die Artikelverfasser, die sich das ja auch sicher reiflich überlegt haben, offensichtlich zu einer anderen, wenn nicht sogar gegenteiligen Meinung gekommen sein könnten?

Kann denn hier keiner der Astroexperten mal nach über 60 Beiträgen eine wirklich aufklärende Kurzfassung dessen darlegen, was bei den bisherigen Messungen zur räumlichen und zeitlichen Entwicklung des Unversums und den daraus gezogenen Schlussfolgerungen für das gegenwärtig geltende "Mainstream-Modell" schiefgelaufen sein könnte, oder auch nicht - oder ist meine Sichtweise dazu falsch und wenn ja, warum?

gruß oldphys
 

Herr Senf

Registriertes Mitglied
... Kann denn hier keiner der Astroexperten mal nach über 60 Beiträgen eine wirklich aufklärende Kurzfassung dessen darlegen, was bei den bisherigen Messungen zur räumlichen und zeitlichen Entwicklung des Unversums und den daraus gezogenen Schlussfolgerungen für das gegenwärtig geltende "Mainstream-Modell" schiefgelaufen sein könnte, oder auch nicht - ...
Hallo oldphys, du willst es aber ganz genau wissen ;)

vor drei Tagen hat Caro (eine Astronomin vom Fach) hier http://www.astrotreff.de/topic.asp?TOPIC_ID=202530&#top aufgeklärt.
Nach Hayden und Rubin von Berkeley haben Sakar et al falsch ausgewertet und falsch interpretiert und mit Polemik garniert.
Eigentlich ist ja Sakar kein unbekannter Astroteilchenphysiker, womöglich in der Kosmologie jetzt aufs Glatteis geraten.
In einem anderen Blog (Motl) wurde diskutiert, daß er bzgl. ART und kosmologisches Standardmodell etwas gdM schwimmt.
Die "Auswertung" müßte man wohl richtig https://arxiv.org/abs/1507.01602 so machen oder https://davidarnoldrubin.com/2016/1...-cosmic-acceleration-from-type-ia-supernovae/

Sakar et al haben die bloßen Supernovae-Kurven aufgemalt und kommen immerhin auf 3σ für die beschleunigte Expansion,
mit 10x mehr Daten als Perlmutter et al 1998/99, die hätten so aber nur 1σ bekommen, also höchstens ein Nullresultat.

Perlmutter et al haben die Daten aber auf das flache Modell (das aus anderen Beobachtungen "fest" steht) gefittet.
Sakar et al haben so lediglich "bewiesen", daß man mit mehr Daten eine bessere Statistik kriegt, Hupf von 1σ auf 3σ.
Hätten sie dagegen nach dem "alten" Standard von Perlmutter (korrekt) ausgewertet, wären sie an oder über 5σ gekommen.

So gesehen haben sie den Nobelpreis 2011 nicht in Frage gestellt, sondern (vlt) ungewollt glänzend bestätigt.
Mal sehen wie diese Geschichte der guten wissenschaftliche Praxis weitergeht, peer review wird interessant.

Grüße Dip
 

oldphys

Registriertes Mitglied
Hallo Herr Senf-Dip,

Hallo oldphys, du willst es aber ganz genau wissen ;)

logisch, wozu hat man Physik studiert; würde sonst mit Märchenbüchern vorlieb nehmen.
Dank für Deine Chronologie. Was ich aber nun nicht ganz verstehe ist:

Sakar et al haben so lediglich "bewiesen", daß man mit mehr Daten eine bessere Statistik kriegt,
Hupf von 1σ auf 3σ.
Hätten sie dagegen nach dem "alten" Standard von Perlmutter (korrekt) ausgewertet, wären
sie an oder über 5σ gekommen...

Ist der letzte Satz "nur" eine Schlussfolgerung von Dir, oder ist das, bzw. wird das noch in korrekter
Weise durch allgemein anerkannte "Bestimmer des Mainstreams" so ausgewertet, denn wenn es 5σ
erreichen sollte, wäre es ja ein anerkannter Nachweis?

Wobei mir bei der Formulierung des letzten Satzes wieder einmal die unangenehme Frage aufstieß:

"Wer legt eigentlich fest, was auf unserem Planeten für ein bestimmtes Problem der Mainstream ist?"

gruß oldphys
 

Herr Senf

Registriertes Mitglied
Hallo oldphys,

ich habe in den letzten Tagen nur etwas tiefer "recherchiert", das ist also abgeschrieben und "zusammengefolgert".

Aber man muß beachten, daß für die beobachtende Astronomie 3σ vlt vor 20 Jahren in wenigen Fällen machbar war, 5σ ist Zukunftsmusik.
Man sollte die Erwartungshaltung im Zaume halten, und Empfindlichkeit von Geräten nicht mit Genauigkeit der Ergebnisse verwechseln.

Bringt man die Rotverschiebung und Helligkeit von Galaxienhaufen zusammen, sind die Einzelwerte mit einer Ungenauigkeit von 20% behaftet.
Trotzdem läßt sich für Ω_Materie ziemlich genau ein relativer Wert um 0,3 ablesen; Ω_DE hat dagegen einen breiten unbestimmteren Wertebereich.
Mit Annahme eines flachen Modells wäre Ω_DE ~ 0,7 zu erwarten. Supernovae "verbessern" zwar die Ungenauigkeit auf 10%, liefern leider für
Ω_Materie und Ω_DE noch breitere Wertebereiche. Die Kombination der "Werteellipsen" hat aber einen gemeinsamen Schnittpunkt bei 0,3 / 0,7 .
Im nächsten Schritt hilft bei der ganzen erforderlichen σ-Statistik dann die Auswertung des CMB weiter, der modellgemäß 0,3 / 0,7 bestätigt.

So gesehen ist mainstream, daß die Ergebnisse unterschiedlicher Beobachtungskampagnen kombiniert auf ein bestimmtes Modell passen müssen.
Dann kann man gesuchte Parameter auch einengen, und schwächere Sigma einzelner Kampagnen "aufpäppeln" - den mainstream festigen.
Um das gegenwärtige kosmologische Modell in Frage zu stellen, bräuchte es massive gegenteilige Beobachtungen, die hat Sakar nicht geliefert.

Grüße Dip
 

Dgoe

Gesperrt
Das ging ja schnell. Danke Dip.

Bliebe noch das hier übrig:

3D-Modell: 67,6 km/s/Mpc
Planck data: 67,15 km/s/Mpc
Fillipenko: 73,24 km/s/Mpc (+/- 2,4%) (!)

LambdaCDM with 3 neutrinos with mass 0.06 eV and the Planck data:
66.93 +/-0.62 km/s/Mpc

WMAP+ACT+SPT+BAO:
69.3 +/-0.7 km/s/Mpc
 
Zuletzt bearbeitet:

oldphys

Registriertes Mitglied
Hallo Dip,

danke für die Erläuterungen. Wie Du selbst bereits geschrieben hattest: Schau'n wir mal, wie's weitergeht"!

Die von Dgoe angemerkten derart stark differierenden Hubble-Werte je nach Forschungsgruppe und
angewendeter Methodik finde ich auch zumindest "etwas bedenklich"!

gruß oldphys
 

Ich

Registriertes Mitglied
kannst Du mal bitte für einen Nicht-Astrophysiker und natürlich auch für den hier auch willkommenen Laien etwas näher erläutern, warum Du das aus dem Plot so siehst (ich muss ehrlich zugeben, dass ich hier auch etwas "ungläubig geschaut" hatte! - aber ohne "echtes Wissen") und vor allem, warum denn die Artikelverfasser, die sich das ja auch sicher reiflich überlegt haben, offensichtlich zu einer anderen, wenn nicht sogar gegenteiligen Meinung gekommen sein könnten?
Diese Linien um den wahrscheinlichsten Wert stehen für die Wahrscheinlichkeiten 1,2,3 sigma. Das heißt, bei der Datenlage liegt der tatsächliche Wert mit 68,4% Wahrscheinlichkeit innerhalb der innersten Ellipse (1 sigma), mit 95,4% innerhalb der zweiten und mit 99,7% innerhalb der dritten. Die Linie "no acceleration" schneidet nah bei der äußersten Ellipse, das heißt, dass mit >99% Wahrscheinlichkeit die Möglichkeit "no acceleration" nicht zutrifft. Das Bild ist aus deren Paper, von daher ist das auch die Meinung der Autoren. "Interessant" ist vielmehr, dass sie dieses Ergebnis als "marginal" bezeichnen, also dass "no acceleration" gefühlt ganz genauso wahrscheinlich ist. Das ist, wie schon angemerkt, ungewöhnliche Polemik.
Kann denn hier keiner der Astroexperten mal nach über 60 Beiträgen eine wirklich aufklärende Kurzfassung dessen darlegen, was bei den bisherigen Messungen zur räumlichen und zeitlichen Entwicklung des Unversums und den daraus gezogenen Schlussfolgerungen für das gegenwärtig geltende "Mainstream-Modell" schiefgelaufen sein könnte, oder auch nicht - oder ist meine Sichtweise dazu falsch und wenn ja, warum?
Da ist gar nichts schiefgelaufen. Geht es nach der Analyse dieser Autoren, dann ist das Standardmodell auf dem Stand von vor 10 Jahren, also ziemlich sicher bestätigt. Herr Senf hat angemerkt, dass ihre Analyse aber keineswegs akzeptiert wird. Dem Standardmodell geht's also gut.
Wobei ich zu Senfs Link zu Caros Zitat von Brian Hayden noch kommentieren möchte: Riess hat damals keineswegs ein 1 sigma-Resultat publiziert, das nur mit dem "flat universe" prior zu 3 sigma wird. Die 3 sigma kriegt man vielmehr schon bei Omega_M>0,2, und bei "flat" waren es 7 sigma. Sollte man schon richtig hinbekommen, wenn man da was kommentieren will. (Da fällt mir noch was ein, was belegt, dass dieser Hayden offensichtlich deutlich jünger als ich ist: Wenn die damals die Voraussetzung "flaches Universum" benötigt hätten, dann hätte sich keiner für so eine krasse Ansage erwärmt. Es war ja gerade der Gag, dass sich damit auf einen Schlag das flache Universum mit den Daten vertrug - was es schon immer sollte, aber bis dahin nicht tat. Dieses Warten auf Auflösung der Diskrepanz von beobachteter Masse (<0,3) und theoretisch gewünschter Masse (=1) hat er anscheinend gar nicht mitbekommen.)
 
Zuletzt bearbeitet:

RPE

Registriertes Mitglied
"Wer legt eigentlich fest, was auf unserem Planeten für ein bestimmtes Problem der Mainstream ist?"
die jeweiligen Forschungsgruppen, die sich mit dem Problem beschäftigen. Wobei "festlegen" dabei kein aktiver Prozess ist, sondern sich der Mainstream einfach von selbst ergibt: Welche vorhandenen Modelle führen zum größten Consensus in der Community.
 

FrankSpecht

Registriertes Mitglied
Wow!
Vielen herzlichen Dank an Ich!
Mit der Beschreibung
Diese Linien um den wahrscheinlichsten Wert stehen für die Wahrscheinlichkeiten 1,2,3 sigma. Das heißt, bei der Datenlage liegt der tatsächliche Wert mit 68,4% Wahrscheinlichkeit innerhalb der innersten Ellipse (1 sigma), mit 95,4% innerhalb der zweiten und mit 99,7% innerhalb der dritten.
versteh ich die Abbildung erst richtig! :cool:
 
Zuletzt bearbeitet:

Dgoe

Gesperrt
Wobei ich zu Senfs Link zu Caros Zitat von Brian Hayden noch kommentieren möchte: Riess hat damals keineswegs ein 1 sigma-Resultat publiziert, das nur mit dem "flat universe" prior zu 3 sigma wird. Die 3 sigma kriegt man vielmehr schon bei Omega_M>0,2, und bei "flat" waren es 7 sigma.
Diese Wendung, spannender als ein Krimi. Dann sind die Anschuldigungen dort also falsch.
Diese Facebook-Gruppe von 8500 Astronomen scheint sich um ihr internes QA nicht sonderlich zu kümmern.

Danke für die Aufklärung. Das ist aber ganz schön peinlich für Hayden, aua.

Gruß,
Dgoe
 

UMa

Registriertes Mitglied
Hallo oldphys,

noch ein Nachtrag zu Ichs Antwort.
Die Supernova Ia Daten sind nicht die einzigen Daten über die Expansion des Universums. Wenn man die kosmische Hintergrundstrahlung (CMB) hinzunimmt, kann man den Bereich, in dem die Supernova Fehler Ellipse den nicht beschleunigten Bereich berührt, ausschließen. Hier eine alte Grafik von 2011 mit WMAP-Daten,
http://supernova.lbl.gov/Union/figures/Union2.1_Om-Ol_systematics_slide.pdf
siehe https://arxiv.org/abs/1105.3470 für Details.
Die Planck-Daten wären noch genauer.

Was schief gelaufen ist, ist also, dass jemand alle anderen Beobachtungen außer den Supernova Ia vergessen hat.

Grüße UMa
 
Zuletzt bearbeitet:

oldphys

Registriertes Mitglied
Hallo Ich,

ich kann mich dem Dank von Frank nur anschließen nur mit dem Unterschied, dass es
bezüglich der Lage der Ellipsen im Koordinatensystem bei mir noch nicht "klick" gemacht
hat.
Was genau stellen die Koordinaten der (identischen) Mittelpunkte aller Ellipsen dar; nach
Deiner Aussage wäre das der "wahrscheinlichste Wert" - ja aber wofür - aller Auswertungen
aller bisherigen Veröffentlichungen oder nur der von dieser Gruppe? - was ich eher annehme.

...Die Linie "no acceleration" schneidet nah bei der äußersten Ellipse, das heißt, dass mit >99%
Wahrscheinlichkeit die Möglichkeit "no acceleration" nicht zutrifft. Das Bild ist aus deren
Paper, von daher ist das auch die Meinung der Autoren. "Interessant" ist vielmehr, dass sie
dieses Ergebnis als "marginal" bezeichnen, also dass "no acceleration" gefühlt ganz genauso
wahrscheinlich ist. Das ist, wie schon angemerkt, ungewöhnliche Polemik...

Der von Dir genannte Schnittpunkt liegt ja etwa bei (0,13;0,08), so dass sich nur "wenig" der
"No-acceleration-Gerade" innerhalb der 3 sigma Ellipse befindet. Wenn nun aber die Autoren
trotzdem zu dem Ergebnis kommen, dass "no-acceleration" gefühlt ganz genauso wahrscheinlich
ist, kann ich mir wiederum nur schlecht vorstellen, dass sie das unbewusst so dahergeschrieben
haben. Wäre es denn möglich, dass höhere Omega-m-Werte aus anderen physikalischen
Erwägungen heraus immer unwahrscheinlicher werden und man deshalb eine Gewichtung
in X-Richtung zu beachten hätte, oder so etwas Ähnliches (bitte um Verzeihung, falls völliger
Blödsinn!)?

gruß oldphys
 

Dgoe

Gesperrt
Hallo oldphys,

so wie ich das verstanden habe, bezeichnen sie pauschal (polemisch) alles unterhalb der geforderten 5 sigma einfach als marginal, wie hier die max. 3 sigma. Aus dieser Perspektive eben und dies ist nicht typisch, sondern ungewöhnlich.

Gruß,
Dgoe

P.S.: Hinweis für Leser, zu sigma siehe hier die Tabelle:
https://de.wikipedia.org/wiki/Standardabweichung#Streuintervalle
 
Zuletzt bearbeitet:

Dgoe

Gesperrt
Nicht nur du, von daher interpretieren die Autoren diesen Begriff äußerst liberal. Das ist auch mit dem Verweis auf Gepflogenheiten in der Elementarteilchenphysik nicht zu rechtfertigen, sondern für einen wissenschaftlichen Artikel auffallend polemisch.

Hier nochmal die 1. Stelle zitiert, was man davon zu halten hat.

Ich kann nicht nur sagen, dass dies bei (interessierten) Laien schnell zu Missverständnissen führen könnte, ich selber bin dem als solcher voll auf den Leim gegangen, aber richtig.
Ich war so erstaunt darüber, kann man ja noch nachlesen.

Vielleicht sollte das auch Presse&Journalisten mobilisieren, zu übertriebenen Headlines verleiten.

Gruß,
Dgoe
 
Zuletzt bearbeitet:

oldphys

Registriertes Mitglied
Hallo UMa,

...Die Supernova Ia Daten sind nicht die einzigen Daten über die Expansion des
Universums. Wenn man die kosmische Hintergrundstrahlung (CMB) hinzunimmt, kann man den Bereich, in dem die Supernova
Fehler Ellipse den nicht beschleunigten Bereich berührt, ausschließen...

das ist mir schon klar, - trotzdem danke - nur hat das für mich den faden Beigeschmack, dass man sich
etwas "schön redet"! Wenn nicht alle Methoden zur Ermittlung der Expansion des Universums zu einem
Ergebnis führen, dessen Fehlergrenzen sich nicht wenigstens berühren (idealer ist Überlappung; Hubble-
Werte sind momentan ja auch so ein Beispiel für Diskrepanzen), dann sollte man eine solche Methode
(zumindest vorerst, evtl. bis zu deren Optimierung) als ungeignet nicht in die Gesamtbetrachtung
einfließen lassen.

gruß oldphys
 

Herr Senf

Registriertes Mitglied
Hallo oldphys,

guck noch mal in diese Dreierkombination von Motl
http://motls.blogspot.com/2016/10/dark-energy-and-unsettled-science.html

Das Flat-Modell gibt in Summe der relativen Anteile Materie und Dunkle Energie immer "1".
Weder den Cluster-Daten, noch den Supernovae-Daten sieht man wegen der Streuung die Flachheit an.
Der Mittelwert bei den Clustern ist etwas größer "1", und bei den Supernovae deutlich größer "1".
Der Mittelwert ist ja "nie richtig", aber innerhalb der Fehler-Ellipsen gibt es den Punkt, der auf den CMB paßt.

Grüße Dip
 

oldphys

Registriertes Mitglied

Ich

Registriertes Mitglied
Was genau stellen die Koordinaten der (identischen) Mittelpunkte aller Ellipsen dar; nach
Deiner Aussage wäre das der "wahrscheinlichste Wert" - ja aber wofür - aller Auswertungen
aller bisherigen Veröffentlichungen oder nur der von dieser Gruppe? - was ich eher annehme.
Das ist nur das Ergebnis der Analyse dieses Papers. Also nur SNIa mit einer angeblich nicht wasserdichten Analysemethode.
Der von Dir genannte Schnittpunkt liegt ja etwa bei (0,13;0,08), so dass sich nur "wenig" der
"No-acceleration-Gerade" innerhalb der 3 sigma Ellipse befindet. Wenn nun aber die Autoren
trotzdem zu dem Ergebnis kommen, dass "no-acceleration" gefühlt ganz genauso wahrscheinlich
ist, kann ich mir wiederum nur schlecht vorstellen, dass sie das unbewusst so dahergeschrieben
haben.
Nein, sicher nicht. Das haben sie ganz bewusst gemacht, darum nenne ich das auch polemisch. Die haben eine Agenda, und um die durchzudrücken gehen sie in den Grenzbereich der wissenschaftlichen Redlichkeit. Beispiele:
- schau' dir UMas Bild von 2011 an. In dem Paper sind die SNIa-Ergebnisse stärker eingegrenzt, trotz neuartiger und ggf. fehlerhafter Analyse. Das heißt, es gibt überhaupt nichts Neues zu berichten, den ganzen Sermon hätten sie vor 5 Jahren schon bringen können, unter Berufung auf "offizielle" Quellen. Dieses ganze Getue mit Schlagzeile von wegen "wackeliger Grundpfeiler" ist nur Show, Effekthascherei.
- die 5 sigma Schwelle in der Elementarteilchenphysik hat hier nichts verloren, und das müssten die Autoren ganz genau wissen. Dort hat man viele verschiedene Untersuchungen über große Energiebereiche, und was nachgewiesen werden soll ist, ob irgendwo in diesen Daten ingendein Buckel versteckt ist. Solche Buckel könne auf tausend verschiedene Arten an unterschiedlichen Stellen und mit unterschiedlichen Filtern auftreten. Wenn man tausend Versuche hat, muss man natürlich auch ganz genau hinschauen, ein paar unechte 3 sigma peaks sind da schon rein statistisch immer mit dabei. Hier hingegen hat man genau einen Schuss, unser Universum nämlich, und da sind 3 sigma schon sehr auffallend. Die gehen statistisch auch kaum mehr weg, da müssten schon systematische Fehler drin sein, wenn das nicht wahr sein soll.
- Wie Uma sagt, sind die anderen Beobachtungen vollkommen unverträglich mit der Hypothese des Papers. Die Autoren wissen genau, dass ihre Behauptungen im Paradigma der Standardkosmologie keine Chance haben. Das lassen sie außen vor, weil sie sowieso grundsätzlich andere Ideen haben, wie das alles funktioniert. Von denen nehmen sie offenbar an, dass sie noch nicht widerlegt seien, weil sich kaum jemand damit beschäftigt.
- Was sie in der Außenwirkung des Papers auch in Kauf nehmen: Natürlich plärrt jetzt jeder, siehste, DE braucht's gar nicht, hab ich schon immer gewusst. Um ihren Elefanten zum Fliegen zu bringen, brauchen sie aber ganz genauso "Dunkle Energie", also negativen Druck. Nur soll der bei ihnen (vermutlich in weiteren Papers der Autoren) durch Backreactiongesabbel und dergleichen hervorgerufen werden. Hier gibt es keine einfachere Physik ohne DE, sondern eine "Absurdität" wird durch eine noch größere ersetzt. Die hoffähig zu machen ist das eigentliche Ziel des Papers.
- Selbst wenn man die ganze Nichtstandardphysik, die sie zu entdecken hoffen, mal schluckt, bleibt die Tatsache kritischer Materiedichte bei ihnen bestehen. Die ist nämlich ziemlich robust. Der Vergleichspunkt in der Privatphysik der Autoren ist also (0,67; 0,33). Wie viele sigma der weg ist von den Beobachtungen erzählen sie tunlichst nicht.

Also alles in allem habe ich einen sehr schlechten Eindruck von dem Paper.
 

UMa

Registriertes Mitglied
Hallo oldphys,
das ist mir schon klar, - trotzdem danke - nur hat das für mich den faden Beigeschmack, dass man sich
etwas "schön redet"! Wenn nicht alle Methoden zur Ermittlung der Expansion des Universums zu einem
Ergebnis führen, dessen Fehlergrenzen sich nicht wenigstens berühren (idealer ist Überlappung; Hubble-
Werte sind momentan ja auch so ein Beispiel für Diskrepanzen), dann sollte man eine solche Methode
(zumindest vorerst, evtl. bis zu deren Optimierung) als ungeignet nicht in die Gesamtbetrachtung
einfließen lassen.
mir ist gar nicht klar, was du meinst. Welche der Fehlerellipsen in meinem ersten Link in #71 überlappen sich nicht?

Der Punkt ist doch, dass die Fehlerellipse der Supernova Ia Daten am größten ist und daher am ungenausten.

Grüße UMa
 

oldphys

Registriertes Mitglied
Hallo Ich,

...Das haben sie ganz bewusst gemacht, darum nenne ich das auch polemisch...
...Also alles in allem habe ich einen sehr schlechten Eindruck von dem Paper.

danke, das erklärt praktisch alles! Nur werden wir es dank solcher "Forschergruppen"
zukünftig trotz PeerReview u. evtl. noch einzuführender, strengerer Veröffentlichungs-
Kriterien und Kontrollmechanismen nicht einfacher haben, einen Konsens/Mainstream
für die zu lösenden Aufgaben zu finden.

gruß oldphys
 
Oben