That doesn't matter

aveneer

Registriertes Mitglied
Dann hättest Du eine seltsame Vorstellung von Naturgesetzen und eine noch seltsamere von der intellektuellen Kompetenz der Wissenschaftler am Fallturm und deren Geldgeber, die nämlich einfach sinnlos Geld in das vakuumierte Verlies schmeissen würden.

Wie immer kommt es darauf an was man erwartet oder messen möchte.

Würde man schon im Fallturm eine Verletzung des Äquivalenzprinzips messen, dann würde die RT einfach nur "falsch sein" bzw. die Grenzen der RT wären schon auf der Erde erreicht. Das glauben wir doch beide nicht:confused:

Sprich man misst im Fallturm, ob das Äquivalenzprinzip in einem konstanten G-Feld auch wirklich stimmt. Ist auch wichtig;)

Ich meine hier wird gemessen, ob eine Tonne Stahl so schnell fällt wie eine Feder, ein Gummihandschuh oder ein Wassertropfen. Ich meine jedoch eine Tonne Stahl fällt zwar auf der Erde wie eine Feder, ein Gummihandschuh oder ein Wassertropfen – aber nicht am Rand unserer Galaxie. Dort fallen zwar auch wieder alle gleich – aber alle schneller (bei gleicher Gravitationswirkung).

Mein Aufbau würde hingegen anders ausfallen.
Eine extrem schnell rotierende Scheibe auf der Erde und eine auf der ISS und dann die Kraft messen die man benötigt um die Scheiben auszulenken. Sprich das Trägheitsmoment messen/vergleichen.
Leider gibt es kein (mir bekanntes) Projekt, das diese Frage untersuchen wird. Alle messen nur mit unterschiedlichen Massen am +- selben Ort.

Ganz andere Fragestellung-oder?

Gruß
Aveneer
 

aveneer

Registriertes Mitglied
Das lässt sich doch zur Not noch privat finanzieren!
Soll ich ein Spendenkonto einrichten:rolleyes::D
Dein Test ist längst durchgeführt worden. Was meinst Du, wie genau da gearbeitet werden muss?! Was Du da witterst wäre längst aufgefallen.
Das hängt tatsächlich davon ab, wie genau gearbeitet werden muss. Und ich bezweifle doch sehr, dass ein solch minimaler, wenn vorhandener, Effekt durch solche „Arbeitstiere“ zu messen wäre.

Zudem hat schon jemand darauf geschaut? Wer nicht sucht der nicht findet.

Und wäre die ISS selbst auch weniger Träge – da würde sich der Effekt wieder aufheben? :rolleyes:

Nein, ich denke eine richtige Messung hat noch nicht stattgefunden. Also mit einer richtigen dafür ausgelegten Apparatur, bei der Messergebnisse nicht durch den Fehlerbalken vernichtet werden.

Aber der Versuch an sich würde in der ISS stattfinden können und der Aufbau wäre rel. einfach und kosten günstig, da stimme ich Nathan zu.

Gruß
Aveneer
 

aveneer

Registriertes Mitglied
@Orbit
BTW: Ein Seite http://de.wikipedia.org/wiki/Pioneer-Anomalie die dir nicht unbekannt sein sollte;) führt, wie ich gerade festgestellt habe, unter „Erklärungen für den Effekt“ unter anderem das Machsche Prinzip auf was die Ursache für die Verletzung sein sollte/könnte.

Und ja ich denke, dass es die DM, die Pioneer und Fly-by—Anomalie erklären könnte. O.K das sind gleich 3 Dinge auf einmal und was zum (gedanklichen) Spielen ist auch noch dabei, aber wer sagt schon: So was gibt es nicht?;)

Gruß
Aveneer
 

schockwellenreiter

Registriertes Mitglied
Ich meine hier wird gemessen, ob eine Tonne Stahl so schnell fällt wie eine Feder, ein Gummihandschuh oder ein Wassertropfen. Ich meine jedoch eine Tonne Stahl fällt zwar auf der Erde wie eine Feder, ein Gummihandschuh oder ein Wassertropfen – aber nicht am Rand unserer Galaxie. Dort fallen zwar auch wieder alle gleich – aber alle schneller (bei gleicher Gravitationswirkung).

Und warum (nur)ausgerechnet da?
Es ist doch bewiesen das die Sterne in der Galaxis auseinandertreiben würden,sofern es nicht diese Kraft (?) geben würde.

Folglich wird man es auch zwischen den Sternen messen können.

Deine Idee es auf der ISS oder der Erde zu messen kann kein messbaren Unterschied aufzeigen,das ist meiner Meinung nach vollkommen ausgeschlossen.

Die bisher gültigen Theorien und Messungen werden schon richtig sein,sofern man es auf unsere Sonnensystem und vergleichbare anwendet..
Erst außerhalb wird man etwas anders messen,was eine logische Schlußfolgerung ist, siehe DM Effekt oder auch die Pioneer Anomalie..

Bisher wurde ja nur die messbare Wirklichkeit einfach durch Fantasiematerie (DM) zurechtgebogen.Meier Meinung gibt es diese nicht,sondern die Berechnungen sind noch nicht der Wirklichkeit angepasst..
 

Orbit

Registriertes Mitglied
schockwellenreiter schrieb:
Erst außerhalb wird man etwas anders messen,was eine logische Schlußfolgerung ist, siehe DM Effekt oder auch die Pioneer Anomalie..
Die Pioneer-Anomalie wurde bei Pioneer 10 ab etwa einer Entfernung von 20 AU registriert, die von Pioneer 11 gar schon ab etwa 15 AU. Das ist noch weit innerhalb des Sonnensystems.

Wo beginnt Deiner Meinung nach 'ausserhalb'? Gibt's dort eine Passkontrolle? :)

Orbit
 

Frankie

Registriertes Mitglied
@Orbit: wenn ich mich recht erinnere war das Thema des Threads eine Messung deren Ergebnis nicht mit den bestehenden wissenschaftlichen Meinungen übereinzustimmen scheint. Da gibt es 2 Möglichkeiten: entweder (1) die wissenschaftlichen Grundlagen sind unvollständig erkannt und bedürfen einer Ergänzung oder (2) die uns "bekannten" Naturgesetze sind an einer Stelle falsch.

In jedem Fall wird die Erklärung, falls man sie findet, etwas Neues sein... man sollte also nicht alles Neue per se ablehnen, weil es dem Alten widerspricht.

Dein Argument, das etwas der Beobachtung widerspricht, ist hierfür im Grunde irrelevant. Die Meinung, die Erde sei eine Scheibe, war zumindest für nicht seefahrende Völker eine objektiv beobachtbare Tatsache, bis sie dann widerlegt wurde. In anderem Maßstab gilt das auch für dieses Problem. Die Interpretation von Beobachtungen fußt immer auf dem derzeit gültigen Stand der Wissenschaft. Man muß also erst mal alle Folgerungen durchdenken, die ein neues Denkmodell hat, bevor man es ablehnt, aber das habe ich bei Dir nicht erkennen können - oder ich bin zu doof dafür was meinem Amateur Status durchaus angemessen wäre. Aber ich rede auch nicht aus dem Elfenturm der Wissenschaft heraus.

Übrigens habe ich das angesprochene SF Buch auch gelesen... doller Schmöker mit interessanter Idee :)
 

Orbit

Registriertes Mitglied
Frankie schrieb:
@Orbit: wenn ich mich recht erinnere war das Thema des Threads eine Messung deren Ergebnis nicht mit den bestehenden wissenschaftlichen Meinungen übereinzustimmen scheint. Da gibt es 2 Möglichkeiten: entweder (1) die wissenschaftlichen Grundlagen sind unvollständig erkannt und bedürfen einer Ergänzung oder (2) die uns "bekannten" Naturgesetze sind an einer Stelle falsch.
Und warum schreibst Du mir das? Das habe ich schon verstanden. Hast Du übrigens das Originalpaper auch gelesen?
In jedem Fall wird die Erklärung, falls man sie findet, etwas Neues sein...
Da gehst Du weiter als die Wissenschaftler selbst, welche das nur als Möglichkeit ins Auge fassen.
man sollte also nicht alles Neue per se ablehnen, weil es dem Alten widerspricht.
Nicht alles, was hier schon spekuliert und behauptet wurde, kommt hier als das mögliche Neue in Frage. Schockwellenreiters Aussagen über die Pioneer-Anomalie widersprechen schlicht und einfach den Tatsachen.
Die Annahme, des SiFi-Autors ist als Rahmenbedingung für seinen Roman OK. Der weiss als studierter Mathematiker aber wohl selbst, dass das naturwissenschaftlich nicht haltbar ist.
Dein Argument, das etwas der Beobachtung widerspricht, ist hierfür im Grunde irrelevant.
Du meinst also, weil man schon Neuland betrete, solle man jede Idee gelten lassen, auch wenn sie wissenschaftlich noch so unhaltbar sei.
Die Meinung, die Erde sei eine Scheibe, war zumindest für nicht seefahrende Völker eine objektiv beobachtbare Tatsache, bis sie dann widerlegt wurde.
Aber auch einem Phönizier hätte man nicht erzählen können, bei Gibraltar sei der Rand der Scheibe oder jenseits von Gibraltar sei das Wasser Orange.
Und die Geschichte mit den lokal verschiedenen Naturgesetzen würde auf phönizisch etwa so gehen: Jede Hafenstadt habe ihr eigenes Wasser. Die Dichten dieser Wasser seien so verschieden, dass in gewissen Häfen massiv gebaute, schwere Schiffe versinken und in andern Häfen leichte Schiffe aus dem Wasser gehoben und kippen würden.
Man muß also erst mal alle Folgerungen durchdenken, die ein neues Denkmodell hat, bevor man es ablehnt, aber das habe ich bei Dir nicht erkennen können
Doch, doch, hab schon alles durchdacht, soweit mir das möglich ist, bevor ich antwortete. Bei den hier besprochenen Behauptungen ging's halt so schnell, weil die so offensichtlich falsch sind. Ist Dir aufgefallen, dass ich beispielsweise noch nichts zu aveneers Vermutung gesagt habe, das mach'sche Prinzip könnte da eine Rolle spielen?

Orbit
 
Zuletzt bearbeitet:

Frankie

Registriertes Mitglied
Du meinst also, weil man schon Neuland betrete, solle man jede Idee gelten lassen, auch wenn sie wissenschaftlich noch so unhaltbar sei.

Genau das meine ich. M.E. ist die "Wissenschaft" der derzeitige Erkenntnisstand. Wenn man etwas findet, das sagen wir an einem von vier Pfosten rüttelt, muß man das ganze gedankliche Modell entsprechend überprüfen, eventuell anpassen... erst danach kann man daran gehen Methoden für die Überprüfung zu finden.
Ich greife hier vielleicht hoch, insbesondere da ich kein Fachmann bin, aber ich weis aus meinem eigenen Fachgebiet genug um bemerkt zu haben daß etablierte Verfahren oft in eine Sackgasse führen, wenn man nicht permanent die Grundannahmen prüft.

Grüße,
Frankie
 

Orbit

Registriertes Mitglied
Frankie schrieb:
Genau das meine ich.
Ich hab's befürchtet. Du meinst also, um im Bild der Phönizier zu bleiben, man müsste jetzt auch jene ernst nehmen, die behaupten, jede Hafenstadt hätte Wasser mit eigener Dichte und das Wasser sei jenseits von Gibraltar orange, weil das nicht mehr zu dieser Welt gehöre.
Ich greife hier vielleicht hoch, insbesondere da ich kein Fachmann bin, aber ich weis aus meinem eigenen Fachgebiet genug um bemerkt zu haben daß etablierte Verfahren oft in eine Sackgasse führen, wenn man nicht permanent die Grundannahmen prüft.
Auf dem Gebiet, wo Du Fachmann bist, würdest Du aber bestimmt nicht jede Schnapsidee eigehend prüfen.
Orbit
 

Nathan5111

Registriertes Mitglied
Hallo Frankie,

... aber ich weis aus meinem eigenen Fachgebiet genug um bemerkt zu haben daß etablierte Verfahren oft in eine Sackgasse führen, wenn man nicht permanent die Grundannahmen prüft.

welches ist den Dein Fachgebiet?

Gib uns 'Laien' auf diesem Gebiet doch mal eine Chance, dort mit zu reden.

Gruß
Nathan
 

Frankie

Registriertes Mitglied
Mein Gebiet ist Softwarearchitektur... und in dem Gebiet ist es so, daß bestehende Konzepte eine bestimmte Lebenszeit haben, weil sich die Umgebungsbedingungen sehr oft ändern.

Der auftretende Effekt ist, daß "etablierte Systeme" dazu neigen, ihre vernünftige Lebensdauer zu übersteigen, weil die "träge Masse" der damit vertrauten Programmierer ;-) immer wieder versucht, mit den gewohnten Mitteln neue Erkenntnisse "nachzubasteln". Hierbei wird nicht geprüft, ob die Erfordernisse zur Zeit der Entwicklung des zugrundeliegenden Systems überhaupt noch mit den neuen Erfordernissen übereinstimmen.

Man kann zumindest logisch/gedanklich das zugrundeliegende technische Netzwerk mit den Naturgesetzen und -Konstanten gleichsetzen, die Ergebnisse der darauf laufenden Programme mit den "beobachtbaren" Fakten. Ändert sich die Ausgabe (das Ergebnis des Programms, analog der beobachtete Fakt), dann kann man eben auf 2 Ebenen nach der Ursache bzw. Erklärung suchen: auf der Programmebene oder auf den Netzwerkebene. Liegt die Erklärung in den tieferen Netzwerkebenen, dann kann man trotzdem das Programm so ändern daß das Ergebnis wieder "stimmt". Damit hat man aber die Ursache umgangen. Leider ist dies die immer wieder geforderte Vorgehensweise, und das erklärt sich daraus, das dieser Weg einfacher und damit kostengünstiger ist. Würde man den Fehler in der tieferliegenden Netzwerkschicht beheben, dann müßte man alle Programme daraufhin prüfen, ob sie noch funktionieren - mit wesentlich größerem Aufwand.

(Theoretische Informatiker werden sicher sehen, daß ich hier eigentlich zwei Argumentationen vermische - aber das ist hier sekundär, da ich nur etwas veranschaulichen will...)

Umgesetzt auf den Weg menschlicher Erkenntnis bedeutet dies, daß das Gehirn dazu neigt, den Lösungsweg mit dem geringsmöglichen Aufwand zu finden, und das ist eben derjenige der am dichtesten mit schon vorhandenen Erkenntnissen in Übereinstimmung gebracht werden kann. Je mehr grundsätzliche Erkenntnisse betroffen sind, je tiefer die geänderten Schichten, desto komplexer wird die Überprüfung aller darüber liegenden Erkenntnisschichten.

Gesehen habe ich dies und die daraus hervorgehenden Verhaltensweisen in der Praxis schon sehr sehr oft. Ein einfaches Beispiel aus der Programmierung, etwas abgewandelt: Angenommen ich habe ein Zeitabrechnungsprogramm für eine Firma. Alle Mitarbeiter werden nach den selben Vorgaben (zb. monatliche Arbeitszeit, Ruhezeiten etc) abgerechnet, daraus ergeben sich z.B. Überstunden als Ergebnis. Das für die Berechnung zuständige Programmstück nenne ich A und es sei in einer Datei gekapselt. Auf einmal gibt es einen neuen Tarifplan mit einem zweiten Berechnungsmodell A2 für besondere Mitarbeiter, daß ich einbeziehen und unter bestimmten Bedingungen aktivieren muß. Der natürliche Weg ist, dies auf die triviale Art zu tun - so daß man eben das neue Modell implementiert und unter den gegeben Bedingungen alternativ aufruft. Man hat dann zwei Module A1 (das alte A) und eben das neue A2. Man hat damit ein Pflaster auf die Wunde geklebt, nämlich die neue Situation direkt gelöst, aber das zugrundeliegende Problem nicht gelöst: daß nämlich überhaupt ein zweites Modell aufgetaucht ist. Daraus ergibt sich nämlich direkt die Frage, warum es nicht weitere Modelle A3, A4, ..., A(n) geben soll, die eine Lösung nach dem Schema A(1,2,....,N) erzwingen. Wenn man mit jedem neuen Modell ein neues Pflaster baut, besteht das ganze Programm sehr schnell aus Leukoplast, und dann ist die "Lebenszeit" dieses Programmes auch überschritten. Diese Vorgehensweise ist ohne Zweifel Standard in der Anwendungs-Programmierung (im Gegensatz zur Systemprogrammierung, wo dies eigentlich verboten ist, aber aus anderen Gründen gelegentlich auch vorkommt).

Ein Beispiel hierzu aus der Astronomie sind zum Beispiel die Epizyklen. Hier wurden die beobachteten Fakten einfach durch Einführung eines naheliegenden Lösungsansatzes an das bestehende kosmologische Modell angepasst, ohne die zugrundeliegenden Annahmen zu überprüfen - eben um das kosmologische Modell unter allen Umständen zu schützen. Einsteins "Kosmologische Konstante" war vielleicht ein anderes Beispiel - er führte die nach meinem Wissen ein, um einen Sachverhalt zu erklären, mit dessen anderer möglicher Erklärung (Expansion des Kosmos) er sich einfach gefühlsmäßig nicht einverstanden erklären konnte. Andererseits sind gerade die ART und SRT eines der besten Beispiele dafür, wie man durch die Bereitschaft, auf grundsätzlichster Ebene ein Problem neu anzugehen, revolutionär neue Lösungswege findet. Trotzdem: auch das heißt im absoluten Sinne nicht, daß ART und SRT der Weisheit letzter Schluß sind. Bekanntlich kann man ja nicht verifizieren, nur falsifizieren. Es heißt nur, daß wir noch nicht auf Fakten gestoßen sind, die diese Modelle eindeutig widerlegen und daher zu einem Umdenken ZWINGEN.

Meine Auffassung von wissenschaftlicher Arbeit ist aber, daß eben zuerst an der tiefstmöglichen Stelle nach der Lösung gesucht werden muß, und nicht an der Oberfläche... auch in der Wissenschaft besteht die Gefahr sonst Notlösungen für Spezialfälle aneinanderzuhängen. M.E. ist es sogar der Sinn der Wissenschaft, die richtige Stelle für die Überarbeitung zu finden, im Gegensatz zum schnellstmöglichen Erklärungsversuch, es ist das was Grundlagenarbeit von praktischer ergebnisorientierter Arbeit trennt.

Wir mögen heute mit der Astronomie wesentlich weiter sein. Aber es wird sehr schwer werden mir klarzumachen, daß genau dieser Fehler in der Astronomie aus diesem oder jenem Grunde heute nicht mehr auftauchen kann. Im Gegenteil dürfte dies eines der grundlegenden erkenntnistheoretischen Probleme - eben nicht nur in der Astronomie - sein.

All das ist natürlich meine eigene Meinung, ich könnte nicht einmal wissenschaftliche Quellen hierzu zitieren. Aber ich hoffe daß mein Ansatz halbwegs durchdacht ist, und harre gerne weiterer Diskussionen...

Freundliche Grüße,
Frankie

PS: Orbit, ich würde nicht jede Schnapsidee eingehend prüfen, aber mit einem guten Cognac am Kamin sind manche doch ein nettes Gedankenmodell und zumindest eine Überlegung nur zur Unterhaltung wert. Vielleicht dann auf einmal sogar mehr, kommt auf die Marke an... ;-)
 
Zuletzt bearbeitet:

Orbit

Registriertes Mitglied
Frankie
Besten Dank für Deine ausführliche und eloquente Antwort. Es ist schon einige Zeit her, dass mir ein Forenbeitrag hier so viel Vergnügen bereitete. Und weil Du das so klar formuliert hast, tritt auch der Schwachpunkt in Deiner Analogie klar zutage:
...und in dem Gebiet ist es so, daß bestehende Konzepte eine bestimmte Lebenszeit haben, weil sich die Umgebungsbedingungen sehr oft ändern.
Man kann zumindest logisch/gedanklich das zugrundeliegende technische Netzwerk mit den Naturgesetzen und -Konstanten gleichsetzen
Nein. Das technische Netzwerk unterliegt diesen Naturgesetzen.
Wenn Du die beiden hier gleichsetzt, tust Du so, als wären beispielsweise die Maxwell-Gesetze nur mehr programmierte Basis-Funktionen, welche Du jederzeit ändern könntest.
Orbit
 

Frankie

Registriertes Mitglied
Hi Orbit,

grundsätzlich hast Du recht, was das Gerüst der Naturgesetze angeht, diese sind natürlich im Gegensatz zum genannten Netzwerk nicht veränderlich. Aber leider hat Dich da der vordergründige Widerspruch auch etwas auf die falsche Spur geführt...

Die Annahme daß Naturgesetze (1.) nicht veränderlich und (2.) immer (3.) überall gültig sind liegt in der Definition eines Naturgesetzes generell, nicht im einzelnen speziellen Naturgesetz. Das heist wir nehmen an, das bestimmte beobachtete Phänomene auf ein oder mehrere wie oben definite "Naturgesetze" zurückgehen. Also ist letztlich der Begriff des Naturgesetzes einfach menschengemacht. Das heißt nicht, daß so definierte Eigenschaften des Universums nicht existieren... es heißt nur das es sich eben um von uns definierte Formalismen zur Beschreibung von Messwerten handelt, deren Entstehen wir auf bestimmte Annahmen zurückführen.

Man darf als dem Wort "NaturGESETZ" keinen Absolutheitsanspruch einräumen, unsere menschlichen Gesetze sind vergleichsweise viel absoluter definiert.

Das Gebäude der wissenschaftlichen Erkenntnis kann daher nur auf Annahmen gründen - wer nicht zur Not bereit ist ALLES in Frage zu stellen kann ein Problem nicht grundsätzlich durchdacht haben.

Das ist jetzt allerdings wirklich theoretisch - wenn das auf allen Erkenntnisgewinn angewendet würde wäre die Menschheit immer noch dabei die Machbarkeit von Faustkeilen zu prüfen. :)

Aber was ist der Zweck der Wissenschaft? Reine Befriedigung der Neugier? Sicher nicht. Die Wissenschaft soll die Gesellschaft befähigen, aus dem Erkenntnisgewinn Systeme (gedanklich oder reell) zu entwickeln, die die Menschheit voranbringen. Da auch die Wissenschaft also ein Ziel hat, unterliegt auch ihr Fortschritt grundsätzlich denselben Bedingungen wie die Anwendungs-Programmierung... und ist damit anfällig für dieselben Verfahrensfehler. Ein Beispiel: ein Beitrag in einer astronomischen Fachzeitschrift wird vor Veröffentlichung von einem Gremium geprüft. Handelt es sich um einen Beitrag, der sich auf eine von 99,99% der Wissenschaftler akzeptierte Grundannahme stützt, so wird dieser Beitrag mit nahezu absoluter Sicherheit publiziert, selbst wenn ein einziges Votum eines Gremiummitgliedes ausreichen würde, das zu verhindern - denn welcher Verlag leistet sich eine Prüfkommission mit 10000 Mitgliedern, selbst wenn diese zu finden wären? Man stelle sich den umgekehrten Fall einer völlig "abgefahrenen" Theorie vor... die Veröffentlichung eines solchen Beitrags wird statistisch unwahrscheinlich in astronomischen Maßstäben.

ABER: Beide Artikel sind grundsätzlich gleichwertig aus Sicht der Erkenntnistheorie. Der einzige Unterschied zwischen den zweien ist lediglich, daß sich der einen mehr Widerstand entgegenstemmt als der anderen.

Grüße,
Frankie
 

Orbit

Registriertes Mitglied
ABER: Beide Artikel sind grundsätzlich gleichwertig aus Sicht der Erkenntnistheorie. Der einzige Unterschied zwischen den zweien ist lediglich, daß sich der einen mehr Widerstand entgegenstemmt als der anderen.
Damit stellst Du jede Crank-Theorie auf die selbe Stufe wie eine wissenschaftlich begründete.
Das ist Bullshit.
Orbit
 

Frankie

Registriertes Mitglied
Ja, und das ist aus grundsätzlichen Erwägungen kein Bullshit. Aber: ich stimme Dir insofern zu, daß manche Aussagen einfach in völligem Widerspruch zu Messungenen stehen (Beispiel: Äther) und daher mit allergrößter Wahrscheinlichkeit falsch sind. Aber eben nie mit völliger Sicherheit...

Ich versuche mir das so klarzumachen: möglich ist alles, wahrscheinlich aber nur wenig.

Orbit, ich glaube wir diskutieren hier an zwei verschiedenen Fronten: wäre ich vom Fach, würde ich vielleicht mit der derselben Vehemenz und denselben Argumenten wie Du argumentieren. Ich versuche nur einen generellen Sachverhalt darzulegen (nach meiner eigenen Meinung, wohlgemerkt). Ob der letztlich im Sinne wissenschaftlicher Erkenntnis praktikabel ist, bezweifele ich.

Ganz generell denke ich einfach, man muß seinen Geist offen halten und bereit sein auch die grundsätzlichsten Voraussetzungen neu zu überdenken. Mehr sage ich eigentlich nicht, aber darauf lege ich Wert.

PS: @Orbit, sind wir wieder Freunde ;-) ?
 
Zuletzt bearbeitet:

schockwellenreiter

Registriertes Mitglied
Man darf als dem Wort "NaturGESETZ" keinen Absolutheitsanspruch einräumen, unsere menschlichen Gesetze sind vergleichsweise viel absoluter definiert.

Das Gebäude der wissenschaftlichen Erkenntnis kann daher nur auf Annahmen gründen - wer nicht zur Not bereit ist ALLES in Frage zu stellen kann ein Problem nicht grundsätzlich durchdacht haben.

Fein geschrieben,genau so denke ich auch.

Paradox ist doch,das obwohl man im "Besitz" der Naturgesetze ist, das Problem mit der Dunklen Materie nicht mit diesen Gesetzen erklärt werden kann.:confused:

..damit diese weiterhin nicht in Frage gestellt werden, erfindet man in diesem Fall einfach die Dunkle Materie,dann passt es wieder!
Da muß es auch nicht weiter stören, das es für DM keine Nachweise gibt..

Wer so handelt und denkt, dem nehme ich nicht wirklich den Anspruch ab, Naturgesetze definieren zu können ab..

:confused:
 

Frankie

Registriertes Mitglied
@Schockwellenreiter: die Definition eines Naturgesetzes ist eben nichts weiter als genau das, daher kann es im Prinzip jeder. Ich bezweifele allerdings, daß man für völlig abgefahrene Naturgesetze eine größere Anhängerschar findet. Na ja, wenn man vergißt das Fernsehen nach den Nachrichten abzuschalten, dann relativiert sich diese Aussage auch wieder: "Folgt der Sandale" sage ich da nur, und ich muß es wissen ich bin schon so vielen gefolgt... :)

ABER: die Existenz der DM wegen meiner Anmerkungen in Frage zu stellen, ist auch wieder unsinnig. Es ist die naheliegende und wahrscheinlichste Möglichkeit. DM ist nur der Begriff für einen Korrekturfaktor, der wohl tatsächlich existiert. Die Natur dieses Faktors ist ungeklärt, nur die Symptome sind zu erkennen. DM ist das Label, ihre Beschreibung bisher nur die Beschreibung der beobachteten Effekte.

Etablierte Naturgesetze sind sozusagen statistisch selbstverstärkend, d.h. die sind in der Wissenschaft sozusagen überrepräsentiert. Aber der Wunsch, möglichst die Grundlagen der Wissenschaft in Frage zu stellen, kann auch zwanghafte Züge annehmen. Im Kern ist das der Konflikt hier, weil der Eine den Anderen jeweils in diese Schublade steckt. Ich bin sicher kein zwanghafter Zweifler.
 
Zuletzt bearbeitet:
Oben