Unser Universum erklärt von Bakhtosh - Version 5.1

  • Weltraumbahnhof



    Als Weltraumbahnhof oder kurz Raumhafen (für den Raumflughafen oder Weltraumhafen) bezeichnet man unter anderem einen Raketenstartplatz, an dem auch Trägerraketen für orbitale und interplanetare Weltraummissionen starten können. Dabei kann es sich um unbemannte Satelliten- oder Raumsondenstarts oder bemannte Raumflüge handeln. In Russland und China ist auch der Begriff Kosmodrom geläufig. Die meisten Weltraumbahnhöfe verfügen auch über Startanlagen für Höhenforschungsraketen und/oder für militärische Raketen zu Versuchszwecken.


    Weltraumbahnhöfe werden derzeit von einzelnen Weltraumnationen, Staatenorganisationen (wie der ESA) oder privaten Unternehmen (Sea Launch) unterhalten.


    Standortbedingungen


    Die Kriterien für den Standort eines Weltraumbahnhofs sind vielfältig. Er sollte wenn möglich nahe am Äquator liegen: Durch die Erdrotation hat die Rakete dort bereits die auf der Erdoberfläche maximal vermittelte Grundgeschwindigkeit und muss weniger beschleunigen, um insgesamt auf die im Orbit notwendige Geschwindigkeit zu kommen. Zudem erleichtert die Lage das Erreichen der Umlaufbahn. Nur für Starts in polare Orbits sind polnahe Standorte günstiger (zum Beispiel Plessezk).


    Ein Raketenbahnhof sollte sich in einem politisch stabilen Staat befinden, da sein Aufbau mit großen Investitionen verbunden ist. Er sollte abseits von dicht besiedeltem Gebiet liegen und in östlicher Richtung einen Ozean oder ein sehr dünn besiedeltes Gebiet haben. Denn fast alle Raketenstarts erfolgen mit der Erdrotation (aus oben genanntem Grunde) in östlicher Richtung. Wenn es zu einem Fehlstart kommt, könnten sonst Menschen durch nieder stürzende Trümmer und Treibstoffe gefährdet werden. Zudem ist der Standort auf die politische Einflusssphäre des errichtenden Staats oder der Staatenorganisation beschränkt.


    Der Weltraumbahnhof sollte an einem geologisch stabilen Ort gebaut werden, der von größeren und vielen Unwettern verschont wird, da Raketenstarts bei Regen oder Sturm meist abgesagt werden müssen. Schließlich sollte genügend Raum vorhanden sein, um ihn gegebenenfalls ausbauen zu können.


    Der ideale Standort für einen Weltraumbahnhof existiert jedoch nicht und bei der Wahl müssen Kompromisse eingegangen werden.


    Beispiel: Kourou


    Der europäische Weltraumbahnhof Centre Spatial Guyanais in Kourou besitzt von ähnlichen Einrichtungen weltweit die günstigste Lage. Er liegt im französischen Übersee-Departement Französisch-Guayana im Norden Südamerikas (politisch stabil) und liegt sehr dicht am Äquator (günstige Starteigenschaften, maximaler Geschwindigkeitsbonus durch Erdrotation). Die Region ist sehr dünn besiedelt und grenzt im Nordosten an den Atlantik (geringe Gefährdung für Menschen). Da der Weltraumbahnhof direkt an ein ausgedehntes Waldgebiet grenzt, ist auch sein Ausbau problemlos möglich. Zwar besitzt Kourou ein subtropisches Klima, wird jedoch von den meisten Atlantikstürmen verschont. Zudem lassen sich Material und Güter aufgrund der Küstenlage sehr einfach und schnell dorthin transportieren. Er liegt jedoch sehr weit von den Betreiberstaaten (Frankreich, ESA) entfernt.



    Raketentypen






    Bild anklicken um es zu vergrößern



    LEO = Low Earth Orbit / TLI = Trans Lunar Injection



    Energija fehlt hier eigentlich....


    ...ist eine sowjetische Trägerrakete, die entwickelt wurde, um die Raumfähre Buran in den Orbit zu transportieren. Die Rakete kam zweimal, 1987 und 1988, erfolgreich zum Einsatz. Die Energija wurde ebenso wie die Raumfähre Buran vom Konstruktionsbüro OKB-1 Koroljow, heute RKK Energija, entwickelt


    Die Rakete ist zweistufig mit einer Höhe von 58,8 m und einem Startschub von 35.000 kN. Sie konnte eine Nutzlast von ca. 96 t in eine erdnahe Umlaufbahn und ca. 22 t in eine Geostationäre Transferbahn transportieren und ist damit bis heute neben der Saturn V und der N-1 die stärkste jemals gebaute Rakete



    Wie ihr seht gibt es weniger als eine Handvoll Raketen die überhaupt bis zum Mond fliegen können und die sind wirklich riesig.


    Hoffe es hat euch mal wieder gefallen hier rein zu schnuppern.....




    MFG


    Bak

  • Kosten der Weltraumfahrt


    Selbst Befürworter der Weltraumfahrt geben es heute offen zu - und die Gegner der Weltraumfahrt wußten es ja sowieso schon immer: Die Kosten der Raumfahrt sind zu hoch. Da nützt es auch nichts, dem Vorwurf auszuweichen, indem man aufzeigt, daß wir für Kartoffelchips und Opernbesuche ja noch sehr viel mehr Geld ausgeben. Alle Träume von der Eroberung des Kosmos, von Weltraumtourismus und dergleichen werden Makulatur bleiben wenn es nicht gelingt, die Kosten drastisch zu senken.


    Kosten der Raumfahrt - das sind hauptsächlich die Zugangskosten in den Weltraum, also z.B. in den erdnahen Orbit (Low Earth Orbit = LEO). Diese Kosten werden üblicherweise in DM/kg Nutzlast angegeben. Genaue Beträge sind meist nicht zu erhalten, zumal öffentliche Stellen die Kostenstruktur gerne günstiger aussehen lassen möchten. So werden z.B. die Entwicklungskosten für Raketen, für Infrastruktur etc. als „allgemeine Wissenschaftsförderung“ unter den Tisch gekehrt (hierzu ein Beispiel zur Ariane V). Somit ist es schwer, konkrete Zahlen zu bekommen oder sich auf „offizielle“ Kosten zu einigen. Trotzdem gilt für den Space Shuttle eine Zahl von DM 35.000,- / kg (18.500 US-$) heute als allgemein akzeptiert (die Kosten pro Start werden selbst von der NASA mit ca. 550 Millionen US-$ angegeben . Alle Zahlen Stand 1993). Der Shuttle, der einstmals konstruiert wurde, um die Kosten zu senken, ist übrigens das teuerste Transportgerät überhaupt. In einem gewissen Sinne ist der Shuttle somit wie ein Schulaufsatz: Interessant, aber am Thema vorbei....


    Zum Vergleich: DM 35.000,- / kg - das ist weit mehr als ein kg Gold kostet! Würde im Weltraum das Gold also nur so ‘rumschweben, dann würde es sich schon nicht mehr lohnen, mit dem Space Shuttle hinzufliegen und es einzusammeln. Dieser Preis bedeutet, daß ein 85 kg schwerer Astronaut mit 15 kg „Handgepäck“ (100 kg insgesamt - da läßt es sich leichter rechnen) somit 3.500.000,- DM auf den Tisch des Hauses blättern muß, wenn er fliegen will. Bei diesen Preisen ist Weltraumtourismus offensichtlich nur etwas für Bill Gates und Anhang.


    Wie hoch aber könnten die Transportkosten tatsächlich sein ? Welchen Preis können wir auf der Basis einer existierenden oder absehbaren Technologie überhaupt erreichen ? Und welchen Preis würden wir als „preiswert“ akzeptieren ?


    Überlegungen zu dieser Thematik sind häufig nebulös und erschöpfen sich in allgemeinen Betrachtungen. Fairerweise muß man hierzu allerdings sagen, daß es schwierig ist, Konstenprojektionen abzugeben, wenn kein konkretes Design auf dem Tisch liegt. Gelegentlich wird Raumfahrt jedoch mit der Luftfahrt verglichen. Thema: was wäre, wenn wir Raumschiffe wie Flugzeuge betreiben könnten? Diesen Gedanken wollen wir einmal aufgreifen.


    Kosten der Luftfahrt


    An der Luftfahrt nehmen wir alle teil. Nahezu jeder von uns hat schon einmal eine Flugreise unternommen. Insofern gelten die Kosten einer Flugreise allgemein als akzeptabel. Nun werden wir Raumflüge in naher Zukunft kaum mit der gleichen Selbstverständlichkeit unternehmen können wie z.B. eine Flugreise nach Mallorca. Raumflug wird sicher noch eine Weile etwas Besonderes bleiben. Betrachten wir also eine Flugreise, die ebenfalls etwas besonderes ist, nämlich einen Flug mit der Concorde. Der ist ja bekanntermaßen auch nicht gerade billig, aber es gibt genug Leute, die ihn sich leisten können. Der Flug mit der Concorde ist etwas besonderes und trotzdem alltäglich.




    Über die Concorde sind folgende Daten verfügbar: Max Startgewicht 186.000 kg Treibstoffzuladung 96.000 kg Passagierzahl 100 Für einen Flug mit maximaler Reichweite (Paris - New York plus etwas 10 % Treibstoffreserve als Sicherheitszuschlag ) werden also bei vollbesetzter Maschine ca. 1000 kg Treibstoff pro Passagier aufgewendet. Das ist sicherlich nicht gerade die energetisch günstigste Form der Flugreise, gilt aber als akzeptiert. (Man kann an dieser Stelle übrigens noch bemerken, daß Paris - New York nicht die weiteste denkbare Flugstrecke ist - Reisen nach Australien sind fast doppelt so weit und gelten auch als akzeptiert. Sie werden mit der Concorde bloß deshalb nicht beflogen, weil sich die meisten Länder erfolgreich dagegen gewehrt haben, der Concorde Landerechte zu gewähren.)


    Doch halt:


    Wer nach New York fliegt, kommt in aller Regel auch auf die gleiche Weise zurück. Das sind also 2000 kg Treibstoff pro Passagier für eine typische Rundreise. Dies ist keine Spitzfindigkeit, denn im Vergleich zur Raumfahrt ist es ja so, daß bei einem Raumflug die Rückkehr zur Erde aus dem LEO ja energetisch kostenlos ist - ein wichtiger Unterschied zu einer typischen Flugreise.


    2000 kg Kerosin pro 100 kg Passagier gelten also als akzeptabel. Nun ist es aber so, daß das Kerosin noch verbrannt werden muß. Hierzu sind nochmal ca. 7000 kg Sauerstoff erforderlich (bei stöchiometrischer Verbrennung im Verhältnis 3,5 : 1), den das Flugzeug bekanntermaßen einfach aus der Atmosphäre entnimmt. Dies ist (heute) kostenlos.


    Auch die Rakete (die wir anschließend betrachten werden) benötigt natürlich Sauerstoff zur Verbrennung ihres Treibstoffes. Der Unterschied zum Flugzeug besteht ganz offensichtlich darin, daß die Rakete, die sich ja im luftleeren Raum bewegt, ihren Sauerstoff ebenfalls „wie Treibstoff“ mitführen muß, und zwar in verflüssigter Form (LOX). Auch die Rakete erhält ihren Sauerstoff letztendlich aus der Atmosphäre „umsonst“, es fallen (lediglich) Verflüssigungskosten an. Den Sauerstoff können wir also für einen fairen Vergleich nicht einfach „vergessen“, sondern müssen ihn der Treibstoffbilanz zuschlagen.


    Ein Flug mit der Concorde verbraucht also 2000 kg Benzin plus 7000 kg Sauerstoff = 9000 kg Treibstoff pro 100 kg Passagier. Anders ausgedrückt: Passagiere sind die einzige Nutzlast der Concorde (sie ist ja kein Frachtflieger). Somit ist die treibstoffmäßige Nutzlastbilanz der Concorde 90 kg Treibstoff pro 1 kg Nutzlast oder 90:1.


    Sind Raketen ineffizient ?





    Betrachten wir nun die Rakete. Ganz sicher wird die Rakete in den nächsten Jahren (wahrscheinlich sogar in den nächsten 30 bis 50 Jahren) das einzige technisch einsetzbare Gerät sein, mit dem Menschen und Material in großtechnischen Mengen in den Weltraum gelangen können. Zumindest macht es derzeit keinen Sinn, heute über andere Möglickeiten zu diskutieren, wenn nicht zumindest theoretisch gangbare Konzepte vorliegen. Stellen wir uns deshalb eine Rakete vor, die sich ganz im Rahmen der heutigen Technik bewegt und einem Vergleich mit der Luftfahrt standhält. Das wäre eine Rakete, die mit Kerosin als Treibstoff und (flüssigem) Sauerstoff betrieben wird (ganz so wie die russischen Startraketen). Diese Rakete setzt also keine exotischen Treibstoffe, keinen problematischen Wasserstoff und keine besondere Infrastruktur voraus - Kerosin gibt es in jeder größeren Stadt der Welt zu kaufen und flüssigen Sauerstoff übrigens ebenfalls.


    Mathematische und physikalische Betrachtungen zur Raketentechnik haben gezeigt, daß eine solche Rakete (Kerosin und LOX), die in den LEO fliegen soll, nicht einstufig sein kann. Zwei Stufen sind aber realistisch. Hierbei gehen wir vorläufig davon aus, daß beide Stufen wiederverwendet werden können (ist auch machbar), ohne uns im Moment mit einem detailierten Konzept zu befassen. Die Effizienz einer Rakete drückt man üblicherweise über das sog. Massenverhältnis aus. Ohne allzu große Mühe ist es sicher möglich, Kerosin/LOX Raketen mit einem Gesamt-Massenverhältnis von 30:1 zu bauen (hierzu eine Modellrechnung). Das Massenverhältnis ist das Gewichstsverhältnis der startfähigen, vollbetankten Rakete zu ihrem Leergewicht.


    Das heißt aber nichts anderes als daß wir 30 kg Treibstoff (Kerosin UND Sauerstoff) für den Transport von einem kg Nutzlast „aus dem Stand“ in den LEO aufwenden müssen. Das ist erstaunlicherweise sehr viel besser (nämlich 3 x besser) als bei der Concorde ! Wie das ?


    Ganz offenichtlich transportiert ja die Concorde auch ihr Eigengewicht. Dies ist zwar im eigentlichen Sinne keine Nutzlast, aber natürlich können auch bei der Rakete die Menschen als Nutzlast nicht einfach „oben ohne“ fliegen, sondern benötigen irgendeine umgebende Struktur, Sitze und dergl.
    Bei der Concorde liegt diese Strukturmasse für 100 Passagiere a 100 kg = 10.000 kg Nutzlast bei ca. 100.000 kg (nämlich eben das Leergewicht des Flugzeugs mit allem Drum und dran).
    Dies ist ein Nutzlast / Strukturverhältnis von 1 : 10. Nun gehören aber zum Flugzeug eine ganze Menge Elemente, die eine Rakete gerade nicht benötigt und die besonders schwer sind, z.B. Flügel (die nützen im Orbit nichts und stören beim Start nur), ein Fahrwerk etc. Auch viele Ausstattungselemente, die für ein Flugzeug typisch sind wie z.B. bequeme Liegesitze, Hutablage, Bordkino, eine Küche, Bordverpflegung, Toiletten und Stewardessen, die einem Bier bringen (na ja, das vielleicht schon) benötigt der Raketentransporter nicht, denn üblicherweise dauert der Flug in den Orbit kaum länger als eine Stunde. Hier könnte dann an eine Raumstation angedockt werden. Bitte beachten Sie weiterhin, daß die Antriebsstruktur wie z.B. Düsen, das Tankgewicht etc. der Oberstufe ebenfalls nicht in die Berechnung eingehen, denn diese Elemente sind ja bei unserer Modellrechnung der Rakete der zweiten Stufe zugeschlagen, die zwar ebenfalls in den Orbit gelangt, aber nicht zur Nutzlast gehört.


    Somit können wir für die Transportkapsel der Rakete ein Nutzlast / Strukturverhältnis annehmen, daß offensichtlich deutlich unter 10 liegen kann. Nehmen wir einmal an, das Verhältnis läge bei 1 zu 4 (ein sicher machbarer Wert - die meisten Autos, die nicht gerade gewichtsoptimiert sind, weisen sogar noch ein sehr viel besseres Verhältnis auf, sogar der Space Shuttle bringt es auf 1 (kg Nutzlast) zu 3 (kg Struktur), wäre er "flügellos", würde er sogar 1:1 "chaffen" - aber wir rechnen mit dem schlechteren Wert von 1:4), dann bedeutet das, daß wir pro kg Nutzlast insgesamt 5 kg Gesamtmasse in den Orbit transportieren müssen, und zwar bei einem Massenverhältnis von 30 zu 1.


    Also: 1 kg „echte“ Nutzlast benörigt 150 kg Treibstoff. Das ist somit schlechter als bei der Concorde (90 kg), aber nicht so schlecht wie viele von uns angesichts der riesigen Raketen wohl gedacht hätten ! Wenn man die Concorde als Fluggerät akzeptiert, dann ist dieser Wert für eine Rakete ganz sicher auch noch akzeptabel, speziell dann, wenn man sich vor Augen hält, was Raumflug wirklich ist !


    Raketen sind also nicht „völlig uneffizient“. Auch sind sie nicht "zu groß".


    Jedenfalls haben wir jetzt ein realistisches Maß für die Treibstoffkosten. Die Kosten für Kerosin und flüssigen Sauerstoff liegen heute bei ca. 0,25 DM / kg (Weltmarktpreise, in großtechnischen Mengen, ohne Steuern). Dann kostet das kg Nutzlast also 150 kg Treibstoff x 0,25 DM / kg Treibstoff = 35,- DM. Der „ganze Mann“ (von 100 kg) muß also DM 3500,- für den Treibstoff seines Fluges in den LEO bezahlen. Nun sind wir mit der Kostenrechnung aber immer noch nicht am Ende. Denn Treibstoffkosten sind schließlich nur ein Teil einer genauen Kostenanalyse. Es kommen Infrastrukturkosten, Kosten für den Kapitaldienst des Fluggerätes, Gehälter, Werbungskosten etc. und natürlich der kalkulatorische Gewinn hinzu. Wenn wir beim Vergleich mit der Luftfahrt zu bleiben (wo Treibstoffkosten 10 bis 25 % der Gesamtrechnung ausmachen), müssen wir hierfür noch einmal 10.500,- DM ansetzen. Die abschließenden Ticketkosten lägen dann bei 14.000,- DM. Das wäre übrigens kaum teurer als ein Flug mit der Concorde von London nach New York ! Sehr viel weniger als eine zünftige Kreuzfahrt.


    Das Fazit


    Obige Berechnungen sind sog. Screening Calculations, um Größenordnungen abzuschätzen. Vielleicht haben Sie Lust, selbst etwas herumzurechnen. Rechnen Sie mit anderen Treibstoffkosten, mit anderen Masseverhältnissen, z.B. 50:1 (für eine Rakete mit Druckgasförderung) oder gar mit 100:1 (für eine wirklich einfache, aus Stahl aufgebaute Rakete mit Druckgasförderung) etc. Vermutlich werden auch Sie herausfinden, daß die Größe der Rakete nicht die Kosten ausmacht. Für jemanden, der schon einmal vor einer Rakete gestanden hat und sich gewundert hat, wie groß die sind, ein ungewöhnliches Ergebnis.


    Groß ist nicht teuer, solange wir das KISS-Prinzip auf die Konstruktion anwenden - Keep It Simple Stupid !


    Nun wird niemand ernsthaft erwarten, daß wir in nächster Zukunft für 14.000,- DM in den LEO fliegen können. Auch enthält die obige Rechnung eine Reihe von Annahmen wie z.B. die Annahme eines Gesamtmassenverhältnisses, die ohne Spezifikation des Fluggerätes natürlich vage ist (wenngleich die Modellrechnung sicherlich korrekt ist). Auch die Verhältniszahl von Strukturmasse zu Nutzlast bleibt ohne Konzept für das Fluggerät gleichfalls vage. Dennoch sind diese beiden Faktoren m.E. größenordnungsmäßig korrekt eingeschätzt. Schwammig hingegen ist die Annahme, daß von den Treibstoffkosten auf die Betriebskosten geschlossen werden kann. Diese Annahme ist - wie gesagt - aus der Luftfahrt entlehnt (und hier ist die Zahl ganz gut belegt, ändert sich allerdings ständig mit dem Dollar- und Ölpreis), sie ist aber vorerst keinesfalls auf die Raumfahrt übertragbar. In der Luftfahrt ist sie zudem ja ein Ergebnis eines weltweiten Massenbetriebs, der in der Raumfahrt ebenfalls so schnell nicht erreicht werden wird. Andererseits wollten wir ja untersuchen, was „sein könnte“, wenn wir die operativen Strukturen der Luftfahrt auf die Raumfahrt übertragen könnten. Das heißt nicht, daß Raketen so gebaut werden sollten oder so aussehen sollten wie Flugzeuge.


    Hierauf gehen wir später ein.


    MFG


    Bak

  • Kosten der Weltraumfahrt Teil 2




    Zumindest zeigt die Rechnung folgendes:


    1) vom Energiestandpunkt sind Raketen nicht so uneffizient wie die meisten Menschen denken!


    Vielmehr bewegt sich der Treibstoffaufwand in Dimensionen, die in der Luftfahrt als akzeptiert gelten. Die landläufige Meinung, daß Raketen teuer sind weil sie groß sind (und groß heißt ja: viel Treibstoff) ist also ganz klar falsch!


    2) Für die Erschließung des LEO sind keine exotischen neuen oder extreme, an ihre Grenzen konstruierte Technologien nötig.


    3) Der obige fiktive Ticketpreis entspräche einer Reduktion der heutigen Kosten um mehr als 99 % !


    Selbst wenn für Teile der o.g. Rechnung schlechtere Werte angenommen werden und sich das Endresultat mehr als verzehnfachen würde, so scheint doch eine Reduktion um 90 % bis 95 % gegenüber heutigen typischen Startkosten möglich und würde einen Trip in den Weltraum für viele von uns - wenngleich immer noch teuer, so doch „erschwinglich“ machen.


    90 % Ersparnis bei den Startkosten heißt z.B. für die USA, die ca. 5 Mrd. $ für Startdienste pro Jahr ausgeben, daß 4,5 Mrd. $ eingespahrt werden könnten. Jedes Jahr. Mit dem Geld könnte man dann Sozialwohnungen bauen. Oder die Wale retten. Oder was auch immer. Ohne daß es "weniger Weltraumfahrt" gäbe ! Oder aber wir könnten das Geld für die Konstruktion von Nutzlasten ausgegeben. Oder zum Mond fliegen. Oder zum Mars. Das Geld könnten die USA jedes Jahr einsparen! Selbst wenn die Konstruktion eines Billigboosters 4,5 Mrd. $ kosten würde, würde sich die Sache nach nur einem Jahr schon amortisiert haben.


    4) Es sind auch Transportprobleme denkbar, bei denen der Strukturanteil zur Unterstützung der Nutzlast sogar geringer ausfällt als in der obigen Rechnung. Dies ist z.B. dann der Fall, wenn es sich nicht um eine Rückkehrkapsel handelt, sondern die ganze Nutzlast (z.B. ein Raumlabor) im Orbit bleiben soll. Hierbei wird die umgebende Startschutzstruktur üblicherweise früh im Flug abgeworfen. In diesem Falle würde sich die Rechnung um den Faktor „Strukturanteil“ sogar verbessern.


    Dies ist interessanterweise eigentlich sogar der Regelfall der Raumfahrt.


    Nur eine Atombombe ist lauter als die Saturn 5


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Nutzlast ist nicht gleich Nutzlast


    Die USA transportieren heute nahezu jede Nutzlast mit dem Space Shuttle. Ganz selten starten einige planetare Raumsonden, Satelliten und militärische Nutzlasten auch mit der Delta-Rakete. Umgekehrt haben die USA eine grandiose Transportmöglichkeiten für Schwerlasten (nämlich die Saturn V mit 150 to in den LEO) verfallen lassen - von dieser großartigen Rakete gibt es heute noch nicht mal mehr einen vollständigen Satz Blaupausen. Alle Nutzlasten auf den Space Shuttle zu bringen war erklärtes Ziel der US-Raumfahrtpolitik. Schließlich nahm man an, das System könne sich nur dann amortisieren.


    Mal abgesehen davon, daß der Space Shuttle aufgrund der wesentlich schlechter als angenommenen Flugfrequenz und aus anderen Gründen gar nicht alle Nutzlasten transportieren kann, ist es aber auch nicht sinnvoll, jede Nutzlast gleich zu behandeln. Der Space Shuttle gilt als „Man Rated“ und ist damit besonders aufwendig hinsichtlich seiner Betriebskosten. Dieser Aufwand ist jedoch für die meisten Nutzlasten gar nicht erforderlich. In Analogie kann man sagen: auf der Erde transportieren wir „Säcke mit Kohle“ ja auch nicht mit dem gleichen Gerät wie Menschen. Auf der Erde haben wir vielmehr einen Mix von Transportgeräten. Kohle fährt auf dem Schiff, Sojabohnen auch, Videorekorder und Schweinehälften kommen auf dem LKW und Menschen fliegen oder fahren Auto - eben weil Nutzlast nicht gleich Nutzlast ist.


    Wenn wir den Weltraum „erobern“ möchten, dann können wir im wesentlichen drei Arten von Nutzlasten transportieren:


    1) Menschen


    2) Gerät und Ausrüstung wie z.B. Computer, Raumanzüge, Mondautos, Kommunikationsmittel, Lebenserhaltungssysteme, Sonnenzellen, Experimente und dergl.


    3) Große Strukturen wie z.B. Aluminiumbehälter als Habitat. Vor allem aber Treibstoffe, speziell Sauerstoff, Wasser, aber auch Lebensmittel, Bier (gut für die Crew Stimmung) und der gleichen .



    In dieser Reihenfolge fallen einige Dinge auf:


    Erstens: von 1) bis 3) nimmt der Wert des Transportgutes deutlich ab.


    Ganz zweifellos sind Menschen das Kostbarste, was wir zu transportieren haben. Hier gilt „maximale Sicherheitsstufe“.


    Haben Sie schon einmal darüber nachgedacht, in welcher Richtung in der Raumfahrt die Dinge transportiert werden ? Blöde Frage ? Klar, die Haupttransportrichtung ist ganz offensichtlich „von unten nach oben“. Nur die Menschen (und vielleicht ein paar Datenträger, Filme und Bodenproben) sollen wieder nach Hause. Der Rest (massenmäßig bestimmt 99 %) kann und sollte sogar oben bleiben. Bei den Ausrüstungsgegenständen handelt es sich meistens um Unikate, die entsprechend teuer sind, weil ihr Konstruktionsaufwand hoch war, aber nicht umbedingt, weil die Fertigung so teuer ist. Motto: zwei Mondautos sind nicht doppelt so teuer wie eins!


    In der letzten Gruppe finden sich durchweg Nutzlasten, die im Vergleich zu den Transportkosten in den LEO geradezu wertlos sind ! Eine erstaunliche Feststellung, oder ? Nehmen wir z.B. einmal Wasser (Wasser ist nach Elektrolyse natürlich auch Treibstoff bzw. Sauerstoff). Die Tonne Wasser (ein Kubikmeter) kostet kaum mehr als DM 5,- (es fallen definitiv keine Kanalgebühren an !). Ihr Transport mit dem Space Shuttle dagegen würde heute mit 35.000.000,- DM zu Buche schlagen.


    Somit sind tatsächlich viele Nutzlasten im Vergleich zu ihren Transportkosten völlig wertlos .


    Gleiches gilt übrigens für flüssigen Sauerstoff (ca. DM 250,- / to), für Treibstoff, für Großstrukturen, für Lebensmittel (wenn’s nicht gerade Kaviar, Trüffel und 57er Dom Perignon Schampus sind). Machen wir uns das mal klar: Treibstoffe, Wasser, Lebensmittel und „grobe Strukturen“ würden typischerweise min. 80% einer größeren Mission (Mond oder Mars) ausmachen. Alleine der Treibstoff schlägt hier mit 60 bis 70 Gewichts-Prozent zu Buche (auch bei einem Zubrin Missionsprofil). Massenmäßig bilden die wertlosen und nahezu wertlosen Nutzlasten also eindeutig den größten Anteil. Wenn wir auf die Kosten achten müssen, dann scheint es folglich nicht sinnvoll, diese Dinge mit dem gleichen Aufwand zu transportieren wie Menschen. Wir fahren unsere Kohle ja auch nicht im Merzedes.


    Ganz offensichtlich ist somit der Space Shuttle also nicht das geeignetste Transportgerät für 80 % aller Nutzlasten. Und die kaum billigere Ariane V auch nicht !


    Vielmehr muß ein Billigtransporter her, der „das ganze Zeug nur so ‘raufschmeißt“. Hierbei gilt: je billiger desto besser. Wenn eine Transport verloren geht - so what !


    Umgekehrt gilt: Da wir im wesentlichen nur Menschen zurücktransportieren wollen und die ohnehin nicht so häufig fliegen, ist jedes Raumflugkonzept, welches sich vorrangig mit dem Rücktransport beschäftigt, offensichtlich nur sehr beschränkt sinnvoll. Hierzu gehören alle Konzepte mit einer geflügelten Struktur und Fahrwerk („damit man wie ein Flugzeug landen kann“), egal ob diese Fahrzeuge Space Shuttle, Sänger, Hermes oder Hotol heißen. Auch das neuerliche X-33 Projekt der NASA fällt in diese Kategorie. Flügel, Fahrwerk etc. sind beim Start und im Weltraum nur Ballast auf Kosten einer echten Nutzlast, die diesen Namen auch verdient! Die Vorgabe, daß ein Raumfahrzeug so landen muß wie ein Flugzeug ist ungefähr so sinnvoll, als würden wir Flugzeuge mit der Auflage konstruieren, daß diese an einem Bahnhof landen können sollen. Außerdem tragen Flügel, Landeklappen und dergl. nur zur Komplexität des technischen Aufwandes (Hydraulik, Steuerung etc.) und damit zu den Kosten bei. Somit droht der NASA nach dem Space Shuttle wohlmöglich jetzt der nächste Milliardenflop. Tatsächlich ist für den Ausnahmefall des Rücktransportes (von Menschen) eine Kapsel mit Landung am Fallschirm und Wasserung völlig akzeptabel und die preiswerteste Lösung.


    Die obigen Erkenntnisse sind eigentlich trivial und - wie wir meinen - für jedermann nachvollziehbar. Und doch sehen die Konzepte der Institutionen anders aus.


    Später mehr


    MFG


    Bak

  • Kosten der Weltraumfahrt - Teil 3




    Man wird sich natürlich fragen, warum die Firmen, die mit Raumfahrt beschäftigt sind, die obigen Überlegungen nicht schon längst nachvollzogen haben. Die Antwort überrascht: sie haben !


    Es gibt vielfältige Studien, die von der US-Raumfahrtindustrie und dem DOD (Department of Defense) bereits in den 60er Jahren angestellt wurden. Sie alle kamen zu dem gleichen Ergebnis: Raumfahrt wird dann billiger, wenn wir auf High Tech verzichten (der Verzicht auf High Tech gilt für die Booster, nicht unbedingt für die Satelliten).


    Danach wurden zunächst die Kostentreiber analysiert. Dies ist eindeutig nicht die Größe der Rakete (wie ja auch unsere obigen Betrachtungen gezeigt haben), sondern


    die Anzahl der Teile
    der Hang zur Optimierung und zu High Tech
    eine Aversion zur Verwendung von Standardkomponenten, alles wird „neu gemacht“
    die Übertragung von Luftfahrttechniken auf die Raumfahrt
    der fast ideologische Zwang zur Wiederverwertung, egal ob diese Sinn macht
    die Dokumentationsvorschriften und Führung der Projekte
    politische Einmischung und „Rahmenbedingungen“
    der Einsatz von Wasserstoff als Treibstoff
    Komplexität und Anzahl der Teile


    Hauptkostentreiber Nummer 1 ist die Komplexität, mit der heute Raketen gebaut werden. Das Haupttriebwerk des Space Shuttle z.B. besteht z.B. aus mehr als 70.000 Einzelteilen. Davon entfällt übrigens mehr als die Hälfte auf die Turbopumpen. Von diesen Triebwerken gibt es drei. Macht also 210.000 Einzelteile. Wenn wir nur ein entsprechend größeres Triebwerk hätten, wären wir wieder bei 70.000 oder 66% weniger. Natürlich bedeutet ein Triebwerk bei Ausfall den Abbruch oder sogar den Verlust der Mission. Andererseits ist der Ausfall bei einem Triebwek mit 66% weniger Teilen dreimal weniger wahrscheinlich.





    Es ist logisch leicht nachvollziehbar, daß „viele Teile“ auch „viel Geld“ kosten und weniger Teile weniger Geld. Selbst beim Automotor gilt diese Aussage, denn die Herstellungskosten machen den Preis, nicht der Metallwert. Ganz offensichtlich ist ein Automotor auch komplex aufgebaut, jedoch werden hier die Entwicklungskosten hier über hohe Stückzahlen wieder aufgefangen - ein Verfahren, welches wir im Raketenbau nicht nutzen können, es sei denn, wir würden standartisierte Launcher am Fließband bauen. Das Verhältnis Teile zu Kosten ist jedoch nicht linear, sondern vermutlich steigen die Kosten exponentiell mit der Teilezahl. Viele Teile bedeuten viele Fehlerquellen, viel mehr Überwachung, Testen, Dokumentation, viele Interface zwischen den Komponenten, sowohl in technischer Hinsicht wie auch im Umgang der Designer, Ingenieure, Tester, Bediener und Leute an der Drehbank untereinander. Das bedeutet Reisen, Konferenzen, Meetings, Diskussionen, Abgleich, endlose Dokumentationen etc. Alleine diese Kosten machen nach einer DoD Studie bis zu 2/3 der Gesamtkosten eines Systems aus.


    High Tech um jeden Preis


    Raumfahrtingenieure kommen hauptsächlich aus der Luftfahrt und/oder haben einen militärischen Hintergrund. Z.B. hatten alle Konstrukteure der ersten Stunde (um W. von Braun) einen militärischen Hintergrund. Da mußte niemand auf das Geld achten. Entsprechend dieser arbeitsmäßigen Herkunft werden viele Konzepte der Luftfahrt auf die Raumfahrt übertragen. Diese Leute sehen Raumfahrt gewissermaßen als eine „Fortsetzung der Luftfahrt mit anderen Mitteln“ (Clausewitz ?).


    Original -> Der Krieg ist nichts anderes als eine Fortsetzung des politischen Verkehrs mit Einmischung anderer Mittel.


    Diese Einstellung zeigt sich schon an der Sprache: wir sprechen von der Luft- und Raumfahrtindustrie, von Raumflug, von der NASA = Aeronautics and Space ... Man sieht es auch deutlich am Beispiel des Space Shuttle, der ja - für jedermann erkennbar - „halb Flugzeug ist“. Den Ingenieuren erschien es damals offensichtlich nicht mehr akzeptabel, rückkehrende Astronauten in einer Kapsel an einem Fallschirm in’s Wasser plumpsen zu lassen. Eine elegantere Methode der Landung mußte her: die Landung auf einer Rollbahn. Alleine diese Designentscheidung bedeutet für den Space Shuttle, daß er Flügel haben muß, ein Fahrwerk, eine komplizierte Avionik, daß Pilotentraining erforderlich ist usw. Hätte er all dies nicht, dann könnte er 50 % (also etwa 50 Tonnen !) leichter sein, oder aber das 3-fache an Nutzlast tragen (75 statt 25 Tonnen). All dieses Potential wurde verschenkt für den Gewinn einer bequemen wie gleichwohl äußerst seltenen Landung auf einer Rollbahn. Und nicht nur das - beim Start stören die Flügel nur. Während des Starts verhindern sie Vollschub und im Weltraum sind sie ganz offensichtlich völlig nutzlos. Außerdem machen sie die Hauptfläche der Hitzekachelung aus, die nach jedem Flug kontrolliert werden muß.


    Nochmal: der Shuttle ist eine unglaubliche Flugmaschine und ein ingenieurtechnisches Wunderwerk, aber er hat die gestellte Aufgabe nicht erfüllt.


    Nochmal: es geht nicht gegen den Space Shuttle ansich. Wir Europäer sind kaum besser. Hier wurde noch Werbung für Hermes gemacht, als längst klar war, daß der Shuttle versagt hatte.


    Tatsächlich haben Luft- und Raumfahrt nicht viel miteiander zu tun.


    Ein Raketenstart ist ein Beschleunigungsvorgang bis zu einer bestimmten Endgeschwindigkeit. Bei der Raumfahrt geht es darum, die Atmosphäre möglichst schnell zu verlassen, um frei von aerodynamischen Belastungen „richtig“ beschleunigen zu können. Flugzeuge dagegen fliegen nur atmosphärisch und benötigen die Anströmung von Luft um überhaupt in der Luft bleiben zu können, um zu steuern usw. Dies bedingt große Flügel, wechselnde aerodynamische Belastungen, leichte und gleichzeitig feste Strukturen, die wechselnde Belastungen aushalten müssen, und das jahrelang etc. Flugzeuge müssen überall starten und landen können, denn das ist der Sinn ihrer Existenz. Gewichtsersparnis übersetzt sich bei Flugzeugen in operativen Gewinn. Jede Tonne weniger Flugzeuggewicht ist eine Tonne mehr, die man mitnehmen kann. Jede Tonne gespartes Raketengewicht bei einer Unterstufe ist dagegen nur ein Bruchteil einer Tonne Nutzlastverbesserung.


    Bei Flugzeugen macht Optimierung auch Sinn wegen der hohen Flugfrequenzen. Hierzu ein kleines Beispiel. Wir alle kennen die kleinen Verwirbelungsflügel an den Flügelspitzen großer Jets, die selbst so aussehen wie kleine Flugzeuge und die vor ca. 10 Jahren Einzug in die Luftfahrt gehalten haben und bis zu 2 % Treibstoff sparen.





    Eine solche Innovation macht Sinn. Betrachten wir den Jumbo Jet 747. Den gibt es seit 30 Jahren. Es fliegt eine Flotte von 1000 Flugzeugen alleine von diesem Flugzeugtyp, diese fliegen jeden Tag und verbrennen dabei ca. 200 bis 250 Tonnen Kerosin. Eine Optimierung am Design, die 2% spart, wirkt sich also 1000 Flugzeuge X 365 Flugtage X 30 Jahre Typen-Betrieb aus. Solche Flugfrequenzen werden wir aber in der Raumfahrt noch lange nicht erreichen. Zum Vergleich: die Saturn V flog nur ca. 15 x , der Space Shuttle in immerhin 15 Jahren nur ca. 100 mal, die Ariane 4 ebenfalls nur ca. 100 mal in 10 Jahren .Also macht eine Gewichtsoptimierung „um Treibstoff zu sparen“ faktisch keinen Sinn. Im Gegenteil: Gewichtsoptimierung bedeutet exotische Materialien (jetzt kommt Aluminium-Lithium), komplizierte Verarbeitung, hoher Prüfaufwand, hohe Fehleranfälligkeit etc. Sicherlich käme keiner auf die Idee, einen Jumbo Jet aus Blech zu bauen, um beim Material Geld zu sparen. Umgekehrt käme aber auch keiner auf die Idee, einen Tanker aus Karbonfaserverbundwerkstoff zu bauen, nur damit er ein paar Tonnen mehr Öl mitnehmen kann.


    Auch die Triebwerke von Luft- und Raumfahrzeugen haben nichts miteinander gemeinsam. Triebwerke für die Luftfahrt sind Düsenstrahltriebwerke mit äußerst komplexem Aufbau und hoch beanspruchten Teilen (Rotation, Hitze, Temperaturwechsel, Schütteln und Schlag etc.) bei angestrebten langen Lebens- und Betriebsdauern. Ich wüßte momentan nicht, wo man hier etwas vereinfachen könnte, zumal die Vorgaben durch Umweltüberlegungen, Lärmthematik, Ozon etc. hier ganz andere sind. Raketentriebwerke dagegen sind (Zitat) "Einzylinderverbrennungsmotoren ohne Kolben". „Da wo das Loch ist“ strömt unter hohem Druck Gas aus. Raketen haben also mehr etwas mit „fliegenden Boilern“ zu tun. Das Ganze muß bei unseren heutigen Wegwerfraketen meist nicht länger als ein paar Minuten (typisch 2 bis 3) Betrieb aushalten.


    Wir erheben insgesamt die provokante Behauptung, daß Luffahrtingenieure aufgrund ihrer verinnerlichten Denkweise vermutlich gar keine guten Raketenkonstrukteure sein können. Sie wären ja auch keine guten Schiffsbauer und Schiffsbauer keine guten Flugzeugentwickler. Großraketen zu bauen ist aber tatsächlich eher eine Aufgabe für unsere Schiffswerften.


    Optimierungskosten schlagen sich natürlich auch auf die Nutzlastkosten nieder.


    Wären die Startkosten billiger, dann bräuchte man die Nutzlasten nicht so zu optimieren etc. Auch hierzu gibt es Studien. Analysten gehen davon aus, daß eine Einsparung bei den Startkosten um 50 % einen ähnlichen Kostenrückgang auch bei den Nutzlasten nach sich ziehen würde. Mit anderen Worten: wir könnten die gleiche „Menge“ Raumfahrt mit dem halben Budget betreiben, oder aber mit dem gleichen Budget doppelt soviel. Wir könnten mehrere gleiche Nutzlasten auf den Weg bringen. Wenn die NASA den einzigen Sojourner verliert, verliert sie ihr Gesicht. Wenn Sie einen Sojourner von 20 verliert, würden die Leute sagen: Alles in allem eine enorme Leistung....


    Alles neu ....


    Dies wird wieder am Beispiel Space Shuttle deutlich. Hier kam man auf die glorreiche Idee - um Geld zu sparen - die großen Feststoff-Seitenbooster zu konstruieren. Dabei hatte die NASA durchaus eine Alternative, denn es gab ja die großen F1-Triebwerke der ersten Stufe der Saturn. Diese haben in etwa 15 Starts jeweils zu 100 % funktioniert, die Entwicklungskosten waren bezahlt und die Betriebskosten lagen entsprechend niedrig, da es eingespielte Wartungsmannschaften gab und außerdem billige Treibstoffe (Kerosin und LOX) verwendet wurden. Zwei F1 Triebwerke liefern den gleichen Schub wie ein Space Shuttle Booster. Das F1-Triebwek war als Triebwerk der Saturn natürlich nur für den Einmalbetrieb vorgesehen, man hätte es aber sicher leicht für eine Wiederverwendung umkonstruieren können. Zusätzlich hätte man noch eine Menge Gewicht gespart, denn das F1 Triebwerk verwendet Turbopumpen (deren Entwicklung ja ebenfalls bezahlt war), während die Seitenbooster gewissermaßen Druckgastriebwerke sind. Umgekehrt hätte man das Triebwerk bei Verzicht auf Turbopumpen (Druckgasförderung) sicher noch weiter vereinfachen können. Von den Sicherheitsaspekten, die immerhin Menschen mit ihrem Leben bezahlen mußten und von den Umweltbelastungen durch ca. 100 Tonnen Salzsäure, die der Space Shuttle bei jedem Start herausbläst, wollen wir hier gar nicht reden.


    F1 Triebwerk der Saturn




    Also viele Optionen auf der Basis eines Triebwerkes, das schon existierte. Ingenieure aber konstruieren lieber alles neu, anstatt sich auf dem Markt umzusehen, was es bereits schon gibt. Das gilt auch für die Ariane V. Diese hat eine Nutzlastkapazität von 20 Tonnen, also ein Bereich, der von den Russen und Amerikanern bereits vor Jahrzehnten "geknackt" wurde. Entwicklungskosten bisher 12 Mrd. Mark. Natürlich muß Europa ein eigenes Wasserstoff/Sauerstofftriebwerk haben, denn das ist ja State-of-the-Art. Entwicklungskosten bisher 2 Mrd. Mark. Natürlich müssen es Feststoffbooster sein. Mit einem Low-Tech Ansatz und Kerosin/LOX hätte man vermutlich das ganze System für 2 bis 3 Mrd. Mark bauen können. Das bedeutet: wir hätten rund 10 Mrd. Mark gespart, oder aber wir hätten für 10 Mrd. Mark Nutzlast bauen und transportieren können. Selbst wenn die Rakete dann im Betrieb nicht billiger geworden wäre, als sie es voraussichtlich sein soll (also 20 to Nutzlast für 100 Mio Mark), dann hätte man für diesen Betrag also 2000 Tonnen Nutzlast in den Orbit bringen können. Oder wir hätten Geld für die Fusionsforschung ausgeben können. Oder für die Krebsforschung. Stattdessen bekommen wir nichts. Und zusätzlich müssen wir jetzt Angst haben, daß die Russen uns bei den Startkosten mit ihrer Kerosin/LOX Technologie mächtig unterbieten werden (und das werden sie).


    Wiederverwendung


    Wiederverwendbarkeit wird von vielen als der Schlüssel zu einer preiswerten Raumfahrt gesehen. Dies erscheint logisch, ist aber nicht in allen Bereichen selbstverständlich. Tatsache ist, daß Wiederverwendbarkeit nur bei hohen Flugfrequenzen Sinn macht. Dies zeigt wiederum das Beispiel des Space Shuttle. Hier werden z.B. die Seitenbooster wiederverwendet. Diese werden von einer speziellen Bergungsflotte geborgen. Hierfür werden zwei Spezialschiffe (extra für den Zweck gebaut) mit Manmschaft vorgehalten. Es gibt einen eigenen Hafen für die Anlandung der Boostergeähuse, Gebäude für die Disassemblierung, Spezialfahrzeuge für die Versendung nach Utah (wo sie wiederbefüllt werden), ein eigenes Gebäude zum Waschen der Fallschirme etc. Für jeden Arbeitsschritt benötigt man natürlich Bedienungsmannschaften etc. Diese kommen bei der jetzigen Flugfrequenz natürlich nur ca. 1 mal pro Monat zum Einsatz. Nicht gerade sehr effektiv.


    Tatsächlich gibt es viele Bereiche der Wirtschaft, die gar nichts mit Raumfahrt zu tun haben, die wiederverwerten könnten, es aber nicht tun. Ein Beispiel das wir alle kennen ist McDonald’s, die ihre Pappteller lieber wegwerfen als zu waschen. Ich bin sicher, McDonalds hat die Kosten einer Wiederverwertung z.B. in Form von Tellern, die gespült werden müßten, bis auf den Bruchteil eines Pfennigs durchgerechnet und ist wohl zu dem Schluß gekommen, daß „ex und hopp“ für ihr spezielles Geschäft „Hamburgerverkauf“ billiger ist. Wäre es nicht so, dann würden die doch wie verrückt Teller waschen.


    Wiederverwertung gibt es sogar in solchen Bereichen nicht, in denen das "Transportgerät" den Wert der "Nutzlast" in hohem Maße übersteigt. Als Beispiel sei wiederum etwas angeführt, das wir alle aus dem täglichen Leben kennen, nämlich ein Glas saurer Gurken. Hier kostet die Füllung (so wurde berichtet) nur ca. 9 Pfennige, das Glas mit Deckel aber schon 17 Pfennige (das Transportgerät ist also fast 100 % teurer als die Nutzlast) ! Letztendlich zählt in der freien Wirtschaft eben nur, ob man unter dem Strich einen Profit erzielt. Man muß also schon genau rechnen.





    Trotzdem wird natürlich eine Wiederverwendbarkeit, wo es geht, angestrebt. So kann man z.B. eine Startstufe sicher in den meisten Fällen bergen und wiederverwenden. Es ist interessant zu bemerken, daß dies umso leichter mit einer Stufe gelingen wird, die schwer und robust gebaut ist, denn immerhin muß sie einen Sturz aus großer Höhe und einen heftigen Klatsch in’s Wasser überstehen. Dies dürfte mit einer aus Stahl konstruierten Stufe besser zu bewerkstelligen sein, als mit einer Stufe aus Aluminium-Litium Legierung, die dickenmäßig an ihre Grenzen konstruiert wurde und sich schon beim Eindrücken mit dem Zeigefinger verbiegt.


    Wiederverwenden kann man sicher auch die Spitze der Rakete, die z.B. als Nutzlasthülle, Transportkapsel usw. ausgelegt ist. Hier sollte sich u.a. das „Gehirn“ des Systems befinden, also sämtliche Computer, Überwachungsgeräte, Lagekontrolle, Kommunikation, Stromversorgung, Lebenserhaltungssysteme bei bemannten Systemen etc., eben alles was teuer ist und was man deshalb wiederhaben will. Dieser Systemteil sollte unseres Erachtens als Kapsel ausgeführt sein, die an einem Fallschirm im Wasser landet und dort geborgen wird. Ggf. muß der Hitzeschild nach jedem Flug oder alle paar Flüge ausgetauscht werden. Dies geschieht am besten in einem Stück.


    Somit bleibt noch eine Stufe (wir benötigen ja mindestens zwei Stufen, wenn wir nicht mit Wasserstoff fliegen), die wiederzuverwenden wäre. Wenn wir diese Stufe wiederverwenden wollen, dann müßte sie entweder eigenständig in die Erdatmosphäre eintauchen, was ein eigenes Hitzeschild und Landesystem notwendig macht, oder aber wir integrieren diese Stufe zusammen mit der Kapsel in ein kombiniertes landefähiges Gerät. Dieses sollte aber immer noch wassern, um die Sache simpel zu halten.


    Oder aber wir denken um und ersetzen den Begriff Wiederverwendbarkeit durch den Begriff vollständige Verwendbarkeit.


    Was heißt das? Nun, die Endstufe ist ja auch Gewicht, was wir bereits in den Orbit transportiert haben. Dieses Gewicht könnte wertvolle Nutzlast sein. Bei den hohen Startkosten, selbst wenn wir diese auf 500 $ pro kg senken könnten, macht es gar keinen Sinn, diese Stufe wieder zur Erde zurückzubringen, wenn wir sie für etwas anderes verwenden könnten. Im Gegenteil - alles was einmal oben ist und irgendwie verwendet werden kann sollte wennmöglich oben bleiben. Aus ausgebrannten Raketenstufen, wenn sie eine gewisse Größe aufweisen und standartisiert werden, könnte man z.B. prima Habitate (Blocks für Raumstationen, Lunarstationen, Marstransporter etc.) konstruieren. Dies gilt besonders für LOX-Tanks. Diese könnte man von vorne herein innen mit 19“ Racks für Experimentiereinschübe ausstatten und sukzessive ausbauen. So würde das Gewicht der Oberstufe der Nutzlast zugeschlagen, was das Gesamtmassenverhältnis einer Rakete wesentlich verbessern würde.





    MFG


    Bak

  • Kosten der Weltraumfahrt - Teil 4



    Politische und andere Rahmenbedingungen


    Diese treiben die Kosten besonders in die Höhe. Es ist doch klar, daß eine Firma, die einen Auftrag für irgendeine Raketen- oder Weltraumhardware erhalten hat, gar kein Interesse daran hat, diese billig und mit einfachen Methoden herzustellen - im Gegenteil. Je teurer desto besser. Dies gilt, wie gesagt, wenn man den Auftrag erst einmal hat. Nun gibt es aber gar nicht so viele Firmen in unserem Land, die überhaupt in der Lage sind, Hardware zu bauen, jedenfalls dann nicht, wenn es um Luftfahrt-High Tech geht und nicht um Schiffsbautoleranzen. Insofern gibt es also gar nicht soviel Konkurrenz. Ein ideales Umfeld also für Preistreiber und für überzogene Budgets.


    Nun möchte man meinen, daß Politiker als Vertreter der Steuerzahler ein Interesse daran hätten, die Kosten gering zu halten. Tatsächlich hat Kennedy hier schon 1961 die Antwort gegeben: "wir fliegen zum Mond ... nicht weil es leicht ist, sondern weil es schwierig ist". Er hätte auch sagen können: wir fliegen, nicht weil es billig ist, sondern teuer. Denn billig beeindruckt keinen.


    Politische Kontrollmechanismen versagen aus einer Vielzahl von Gründen, nicht nur bei Raumfahrtentscheidungen. Einer ist, daß Politiker von Mathematik und den Wissenschaften meistens keinen blassen Schimmer haben. Ich erinnere mich an einen Film über das SDI-Projekt. Hier stellte eine Arbeitsgruppe ihre Fortschritte bei Hochenergielasern einer Kommission vor, die Reagan direkt berichten sollte. Sie führten aus, daß sie einen Energielevel von 10 hoch 10 erreicht hätten, aber für die geplante Anwendung müßten sie auf 10 hoch 20 kommen. Worauf die Reagan Leute sagten: "au fein, dann habt ihr ja schon die Hälfte". Das sagt alles.


    Zweitens haben auch Politiker ein Interesse an kostspieligen High Tech Projekten. Denn nur solche Projekte bringen „Ruhm und Ehre“ und bringen hochbezahlte Arbeitsplätze in’s jeweilige Bundesland und Spenden in die Parteikasse.


    Hohe Kosten bedingen natürlich auch einen hohen bürokratischen Apparat. Da braucht man Überwachungseinheiten, Referenten, Lenkungsausschüsse, Ministerkonfernzen, Reisen, Unterschriften etc. All das verzögert natürlich die eigentliche Arbeit. Bürokratie wächst wie Krebs. Niemals begrenzt sie sich selber. Und fällt meistens denen in den Rücken, die die eigentlich Produktiven sind, zu Lasten des gesetzten Zieles.


    Aber auch die föderale Struktur verursacht Kosten. Wiederum ist hierfür der Space Shuttle ein gutes Beispiel, obwohl wir genausogut die Ariane oder die laufenden Diskussionen über eine Restrukturierung des Airbuskonsortiums heranziehen könnten.. Die USA sind ja, genau wie unser Land, föderal organisiert. Das bedeutet nichts anderes, als daß bei einem so riesigen Subventionsfaß wie der Raumfahrt (immerhin mehr als 10 Mrd. Dollar pro Jahr in den USA) jeder Bundesstaat etwas vom Kuchen abbekommen muß, sonst gibt’s Zoff. So werden z.B. die Seitenbooster des Space Shuttle von einer Firma (Morton Thiokol) gebaut, die in Utah ansässig ist, also mehr als 1000 km von jeder Küste entfernt, mehr als 2500 km vom Startort weg. Gerade die Booster aber sind ja wiederverwertbar, das heißt sie müssen jedesmal hin- und hertransportiert werden. Nicht gerade sehr sinnvoll und auch gefährlich, wenn man bedenkt, daß die mit 750 Tonnen Sprengstoff gefüllten Booster quer durch das ganze Land gefahren werden müssen. Eine solche Entscheidung kann einfach nicht unter logischen Gesichtspunkten alleine getroffen worden sein! Zumindest hätte dann die Wiederbefüllung auch am Startort erfolgen müssen.


    Wasserstoff als Treibstoff


    Wasserstoff als Treibstoff bedarf eigentlich einer eigenen Diskussion. Wenn man die „reine Mathematik“ des Raketenfluges betrachtet, macht Wasserstoff als besonders leistungsfähiger Treibstoff natürlich Sinn. Deshalb wird er von den Ingenieuren, die elegante Systeme liefern wollen, auch eingesetzt. Nicht jedoch unter ökonomischen Gesichtspunkten. Hier ist Wasserstoff ein echter Preistreiber. Zum einen ist der Treibstoff selbst nicht preiswert (bezogen auf eine per kg Basis). Der Preis ist übrigens auch kaum mengenelastisch, denn die Hauptkosten in der Wasserstoffproduktion sind Energiekosten. Zum anderen ist der Treibstoff kompliziert und gefährlich im Umgang wie in der Anwendung. Durch die tiefen Temperaturen nahe dem absoluten Nullpunkt werden Metalle spröde, Leitungen müssen vorgekühlt werden, Wasserstoff diffundiert durch Schweißnähte, Leckmengen müssen verblasen werden, damit sie sich nicht unter Abdeckungen ansammeln und zu Explosionen führen etc. Wasserstoff hat ein geringes spezifisches Gewicht, was zu besonders großen Tankvolumina führt und seine Vorteile als Treibstoff teilweise wieder auffwiegt, es sei denn, man setzt nur die leichtgewichtigsten Legierungen wie Aluminium-Litium ein etc.


    Wir sind - wie übrigens auch viele andere - zu dem Schluß gekommen, daß Kerosin der ideale Raketenbrennstoff ist - oder eben ein Hybridbrennstoff mit den besonderen Vorteilen dieser Technik. Kerosin gibt es überall, es ist billig, wird vielfältig eingesetzt, ist sicher im Umgang, ist sauber etc. Diese Meinung könnte sich ändern, wenn Wasserstoff einen breiten Durchbruch alls Flugzeugtreibstoff erleben würde. Danach sieht es aber momentan nicht aus - die Industrie ist diesbezüglich gerade auf dem Rückmarsch.


    Fazit:


    Die Prinzipien des Raketenbaus sollten völlig neu überdacht werden. Am besten von Leuten, die noch nicht durch eine allzulange Karriere in der Luft- und Raumfahrtindustrie vorbelastet sind. Hierbei sollte intensiv nach bereits vorhandener und verfügbarer Hardware gescannt werden. Verwendet werden sollten gängige und preiswerte Materialien, also Stahl, Alu und Fieberglas (auch preiswert). Gleiches gilt für Herstellungsverfahren. Die eigentliche Konstruktion und Tests sollte von kleinen, möglichst unabhängigen Teams durchgeführt werden, die eigenständig entscheiden können und nur ergebnisorientiert arbeiten müssen. Je weniger Hände eingreifen desto besser. Die Dokumentation sollte auf Notwendiges beschränkt werden und möglichst papierlos erfolgen. Jede Designentscheidung muß auf ihre ökonomische Tragfähigkeit überprüft werden. Ökonomie muß von vorne herein gleichberechtigtes Designkriterium sein. Gleiches gilt für die später zu erwartenden Betriebskosten. Hier gilt die Faustregel: komplex ist teuer - Treibstoff dagegen ist billig.


    In den 60er und 70er Jahren haben einige US-Firmen, z.B. TRW, die die Abstiegstriebwerke der Mondfähre mit einem Low-Tech Ansatz (Druckgasförderung, keine Turbopumpen, auf Sicherheit und 100 %ige Zuverlässigkeit ausgelegt) gebaut haben, mit Low Cost Triebweken experimentiert. TRW hat z.B. ein 80 Tonnen (Schub) Kerosin/LOX Triebwerk gebaut. Das ganze wurde bei einer ortsansässigen Heizkesselfirma regelrecht zusammengeschweißt. Es funktionierte prima und kostete 33.000 US-$. Ja, sie haben richtig gelesen ! Andere Firmen haben ebenfalls mit diesem Technologieansatz experimentiert und haben Triebwerke mit bis zu 2500 Tonnen Schub gebaut. Alle diese Vorstöße kamen jedoch zum Erliegen , als sich die USA für den Space Shuttle als einzigen (!) Nutzlastträger entschieden. Damit war damals klar, daß es für billige Träger keinen Markt geben wird. Eine schlimme verpaßte Chance und für Raumfahrtenthusiasten ein echter Träumekiller.


    Was wir in der Raumfahrt brauchen, ist ein robuster LKW. Das, was für die Luftfahrt die DC3 oder die Tante Ju war. Wir müssen nicht gleich beim Lear Jet einsteigen !


    Von einer Kostensenkung bei den Startkosten würden übrigens alle beteiligten Parteien profitieren, auch die „etablierten“ Raumfahrtfirmen, indem nämlich der Gesamtmarkt wächst. So ist es auch mit der EDV gewesen - diese nahm einen geradezu gigantischen Aufschwung, nachdem die Preise für Computer um einige Zehnerpotenzen gefallen sind. IBM führt zwar heute nicht mehr den Markt und die Trends an, ist aber größer denn je.


    Umgekehrt gilt: wenn wir die Trendwende bei den Startkosten nicht schaffen, müssen etablierte Firmen vorsichtig sein, nicht aus dem Feld geschlagen zu werden. Gerade die Raketentechnik hat in den letzten Jahren eine beeindruckende Proliferation erfahren - und es sind nicht nur Länder wie der Iran oder Irak, die sich um diese Technik bemühen, sondern auch Länder wie Brasilien oder Australien und natürlich zunehmend auch die zukunftsorientierten, pragmatischen, cleveren und fleißigen Asiaten wie Japan, Taiwan, Malaysien, Indonesien, Indien usw. Und was passiert, wenn die sich einer Technik bemächtigen, wissen wir - wir verlieren, weil wir zu kompliziert und zu teuer sind und an den Bedürfnissen der Kunden vorbei produzieren.


    Die Bedürfnisse der Kunden sind aber gerade in der Raumfahrt so klar definiert wie sonst in keinem anderen Wirtschaftsbereich: die Nutzlast soll möglichst preiswert und sicher nach oben. Alles andere ist schnuppe.


    In den nächsten Jahrzehnten wird im Weltraum mit Kommunikationstechnik viel Geld verdient werden. Wo das der Fall ist, fällt auch für die zweckfreie Forschung - sprich: Mond- und Marslandungen etc. - etwas ab. Jedoch gilt auch hier: die Zeit der Phantasten, die mit tausende Tonnen schweren Raumschiffen zum Mars wollen, geht langsam zuende. Diesen Leuten verdanken wir es letzten Endes, daß wir (die Menschheit) immer noch hier sitzen ! Nur ökonomisch tragfähige Konzepte (wie z.B. die von Dr. Zubrin) werden eine Chance haben - und werden von einem preiswerten Träger ungeheuer profitieren!




    MFG


    Bak

  • Hoch hinaus mit HARP


    Gerald Vincent Bull (* 9. März 1928 in Ontario, Kanada; † 22. März 1990 in Brüssel, Belgien) war ein kanadischer Ingenieur, der durch seine Arbeiten an Artilleriegeschützen bekannt wurde.


    Anschließend arbeitete er an einem Projekt, um Satelliten mit riesigen Kanonen in den Orbit zu schießen. Für dieses High Altitude Research Project errichtete man auf der Karibikinsel Barbados ein Testzentrum. Zu Beginn der Versuche herrschte Geldknappheit, denn zur gleichen Zeit forschte Wernher von Braun mit hohem Budget an ballistischen Raketen.


    Bull benötigte leistungsstarke Kanonen, um mit seinen Geschossen auch nur annähernd in die Nähe des Orbits zu gelangen. So stellte er ab 1960 Versuche mit ausgemusterten Marinekanonen der U.S. Navy an, die ein Kaliber von 40,6 cm (16 Zoll), 20 Meter Rohrlänge und ein Gewicht von 125 Tonnen hatten. Er verlängerte die Läufe auf 36 Meter, entwickelte Spezialgeschosse (Martlets) von nur 84 kg Gewicht, bzw. bis 210 kg bei der Martlet 2 (die Original-Geschosse wogen ca. 1.200 kg), verbesserte die Treibladungspulver.


    Man erreichte damit eine Mündungsgeschwindigkeit von 3600 m/s, gegenüber ca. 825 m/s der Originalgeschosse. Mit der Kanone wurde fast senkrecht nach oben geschossen, mit leicht östlicher Richtung auf das Meer hinaus. Die erreichte Schusshöhe betrug schließlich 100 Kilometer. Diese Steigerung der Geschützleistung gegenüber der Originaltechnik wurde von Bull mit nur 10 Mio. Dollar erreicht – im Vergleich zur Raketenentwicklung ein sehr kleines Budget.


    Die erreichten Geschwindigkeiten waren jedoch zu gering, um einen Orbit zu ermöglichen, denn hierfür ist die erste kosmische Geschwindigkeit von 7.900 m/s notwendig


    HARP: Space Super-Gun



    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Projekt Babylon





    sichergestellte Komponente des Projekts Babylon


    Um seine Forschungen weiter zu finanzieren, nahm Bull den Auftrag an, für den Irak unter Saddam Hussein eine riesige Kanone zu entwickeln, ähnlich der früheren deutschen V3-Kanone. Sie sollte in der Lage sein, auch Israel zu erreichen.Das Geschütz mit dem Decknamen Baby Babylon sollte bei einem Kaliber von 35 cm einen ca. 46 m langen Lauf besitzen. Als Stellung für die Kanone wurde der Jabal Hamrayn-Berg (etwa 200 km nördlich von Bagdad) ausgewählt.


    Das Projekt wurde Anfang 1990 durch den britischen Geheimdienst Secret Intelligence Service vereitelt, der die Lieferung verschiedener Teile stoppte. Das weitere im Irak verfolgte Projekt „Babylon“, die Konstruktion einer noch größeren „Supergun“ (Kaliber 1000 mm), um Ladungen bis zu 600 kg in eine Umlaufbahn (Orbit) oder einen Sprengkopf über Distanzen bis 1000 km zu befördern, wurde ebenfalls nicht weiter verfolgt. Laut Aussage des irakischen Generals Hussein Kamel al-Maschid sollte die Waffe verwendet werden, um feindliche Satelliten lahm zu legen


    „Es war für Angriffe auf große Entfernung und für die Blendung von Spionagesatelliten ausgelegt. Unsere Wissenschaftler haben tatsächlich daran gearbeitet. Es wurde so entworfen, dass eine Granate im All explodieren und ein haftendes Material auf den Satelliten versprühen sollte, um ihn zu blenden.“


    Cannons to the Planets


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Diese Technik ist natürlich nur dazu gut um Material in den LEO ( Low Earth Orbit ) zu schaffen. Material wie z.B. Wasser, Sauerstoff oder Baumstoffe



    MFG


    Bak

  • "Star Trek"-Schutzschild für Mars-Astronauten


    Ein Flug zum Mars dauert länger als für die Gesundheit gut ist: Denn in dieser Zeit wären die Astronauten einem enormen Beschuss durch subatomare Teilchen ausgesetzt, die menschliches Genmaterial durchschneiden wie ein heißes Messer Butter. Forscher haben nun den ersten Prototypen eines Schutzschildes entwickelt.


    Ein Schutzschild wie in der Science-Fiction-Serie „Star Trek“ könnte laut Forschern Reisende auf dem Weg zum Mars vor gefährlicher kosmischer Strahlung schützen. „Die Idee funktioniert wirklich wie in Star Trek, wenn Ingenieur Scotty den Schild des Raumschiffs Enterprise zum Schutz vor Protonenstrahlen einschaltet“, sagte der Wissenschaftler Bob Bingham vom Rutherford Appleton Laboratory bei Oxford. Mit portugiesischen Kollegen hält er es nach einer Studie für machbar, mit einem Schildgenerator um eine Raumfähre ein Magnetfeld zu erzeugen, das schädliche Strahlung als dem All ablenkt.


    Die Gefahr für Raumfahrer durch kosmische Strahlung ist seit mehr als einem halben Jahrhundert bekannt. Mars-Astronauten wären davon wegen des weiten Wegs zum Roten Planeten besonders betroffen. Die Reise würde hin und zurück mindestens 18 Monate dauern. In dieser Zeit wäre die Crew einer großen Strahlenbelastung ausgesetzt, wodurch Krebs und andere Krankheiten entstehen können.


    Ein wirksamer Schutz gegen die Strahlung galt bisher als nicht machbar. So hatten einige Experten mit dem Gedanken gespielt, Raumschiffe durch riesige Blei- oder Wassertanks zu schützen. Diese in den Orbit zu heben, hätte aber Unsummen verschlungen. Schon in den 60er Jahren schlugen Wissenschaftler vor, Raumschiffe ähnlich wie die Erde mit einem Magnetfeld auszustatten. Ihren Berechnungen zufolge hätte dieses aber mehrere hundert Kilometer groß sein müssen, was enorme Energiemengen erfordern würde.


    Bingham und portugiesische Kollegen haben auf Basis dieser Idee mit heutigen Methoden der Nuklearphysik neue Berechnungen angestellt und sind zu dem Schluss gekommen, dass das Magnetfeld tatsächlich nur eine „Blase“ von einigen hundert Metern erzeugen müsste. Sie bauten im Institut für höhere Technik in Lissabon einen stark verkleinerten Prototypen des Schildgenerators. Für ein Raumschiff müsste er laut Bingham mehrere hundert Kilogramm schwer sein, würde aber nur ein Drittel der Energie eines heutigen Kommunikationssatelliten verbrauchen.


    Der Schutzschild würde praktisch alle Partikel abfangen, die durch Sonnenstürme entstehen, sagte Bingham. Gegen hochenergetische interstellare Strahlung wäre er dagegen nicht wirksam. Laut Bingham könnte das Raumschiff gegen diese Art der Strahlung aber etwa durch schussfestes Kevlar gesichert werden.


    Manchmal gibt Science Fiction der Wissenschaft wichtige Impulse – in diesem Fall die Fernsehserie „Raumschiff Enterprise“: Britische Forscher arbeiten jetzt an der Entwicklung von magnetischen Deflektorschilden nach dem Vorbild der Serie, die Astronauten in Raumschiffen vor den tödlichen kosmischen Strahlenstürmen schützen sollen.



    In den letzten Jahren haben die Raumfahrtbehörden der USA, Europas, Chinas, Japans und Indiens angekündigt, langfristig die bemannte Raumfahrt wieder aufnehmen und verstärkt fördern zu wollen. Eine der Voraussetzungen für Reisen über die unmittelbare Umgebung der Erde hinaus ist jedoch der Schutz der Astronauten gegen die tödliche kosmische Strahlung. Die Apollo-Mondmissionen erfolgten noch völlig ungeschützt, es war reiner Glücksfall, dass sich während der nur wenige Tage dauernden Flüge kein Sonnensturm ereignete. Auf der Internationalen Raumstation ISS existiert ein spezieller dickwandiger Schutzraum, in den sich die Besatzung in Zeiten erhöhter Strahlung zurückziehen kann.


    Für längere Raummissionen beispielsweise zum Mars wären solche Schutzräume jedoch ungeeignet: Zum einen würden sie das Gewicht eines Raumfahrzeugs extrem erhöhen, zum anderen können sich die Astronauten in einem so beengten Raum nicht langfristig aufhalten. Daher arbeitet jetzt ein Team von Wissenschaftlern am Rutherford Appleton Laboratory im britischen Oxfordshire an einer anderen Lösung: Sie entwickeln einen magnetischen „Deflektorschild“ ähnlich dem, den das Raumschiff Enterprise in der gleichnamigen Science-Fiction Serie besitzt. Über erste Konzepte berichteten sie jetzt auf der Jahrestagung der Royal Astronomical Society (RAS) in Preston.


    Ausgangspunkt und Vorbild des Projekts ist das irdische Magnetfeld, das als „Plasmabarriere“ die Erde vor den schädlichen Strahlen- und Teilchenströmen aus dem All abschirmt. Die Wissenschaftler haben jetzt damit begonnen, eine Art Mini-Version dieses Magnetfelds im Labor zu erzeugen um zu sehen, ob diese Technologie auch eingesetzt werden könnte, um zukünftig Raumschiffe zu schützen. Damit dies funktioniert, setzen die Forscher modernste Technologien ein, darunter Superleiter und die Magnettechnologie, die in Fusionsreaktoren eingesetzt wird. Ob sich dieser Ansatz bewährt, müssen die Experimente noch zeigen.


    Sicher und geschützt in der Plasmablase


    Gas aus geladenen Teilchen soll bei langen Raumflügen kosmische Strahlung abwehren


    Ein Schild aus gasförmigem Plasma könnte Astronauten auf zukünftigen Missionen zum Mars vor der schädlichen kosmischen Strahlung schützen, glauben amerikanische Astronomen. Wie eine Blase soll das Gas aus geladenen Teilchen dabei den Teil des Raumschiffs umgeben, in dem die Besatzung untergebracht ist. Das damit verbundene Magnetfeld wäre ein ebenso effektiver Schutz vor kosmischer Strahlung wie eine mehrere Zentimeter dicke Aluminiumschicht, würde jedoch lediglich ein paar Gramm wiegen. Sollte sich diese Vision tatsächlich umsetzen lassen, müssten die Raumschiffe der Zukunft sehr viel weniger Gewicht befördern als bislang angenommen.


    Sobald ein Astronaut das Magnetfeld der Erde verlässt, ist er den energiereichen Teilchen, die zusammenfassend als kosmische Strahlung bezeichnet werden, praktisch schutzlos ausgeliefert. Dauert diese Bestrahlung längere Zeit an, kann sie Krebs oder andere Krankheiten verursachen. Eine Möglichkeit, diese Gefahr bei längeren Raumflügen zu vermindern, wären dicke Metallplatten, die außen am Raumschiff angebracht werden und das Teilchenbombardement aufhalten können. Allerdings wäre ein solcher Schutzschild sehr schwer und könnte daher beispielsweise beim Start der Raumfähre zu Problemen führen.


    Die Lösung, die sich John Slough und sein Team von der Universität von Washington in Seattle ausgedacht haben, käme dagegen mit sehr wenig zusätzlichem Ballast aus. Sie planen, mithilfe einer Hochspannungsquelle außen am Raumschiff Wasserstoffgas in seine geladenen Bausteine Protonen und Elektronen zu zerlegen und dieses Plasma um das Raumschiff herum zu leiten. Dabei helfen soll ein ebenfalls unter Spannung stehendes supraleitendes Metallgitter, das das Fluggerät umgibt und im Plasma einen Strom erzeugt. Dieser Strom soll dann die Wolke aus geladenen Teilchen in der Nähe des Raumfahrzeuges halten. Das dabei entstehende Magnetfeld schützt die Besatzung des Schiffs.


    Der optimale Durchmesser eines solchen Schildes läge wahrscheinlich bei etwa 100 Meter, hat Studienleiter Slough berechnet. Das dazu nötige Metallgitter wäre allerdings schon so groß, dass es beim Start abgenommen und später im All wieder installiert werden müsste. Momentan untersuchen Slough und sein Team im Auftrag der Nasa, ob sich ein solcher Schild unter reellen Bedingungen umsetzen lassen würde. Besonders günstig wäre es dabei, wenn das Raumschiff Plasma auch als Treibstoff nutzen würde. In diesen Fall könnte der verbrauchte Treibstoff für den Schild recycled werden, so dass die Astronauten praktisch von ihrem eigenen Abgas geschützt würden.



    MFG


    Bak

  • Fahrstuhl zu den Sternen



    .... ist ein Science-Fiction-Roman von Arthur C. Clarke. Die Handlung spielt im 22. Jahrhundert und beschreibt den Bau eines Weltraumlifts.


    Den wir wirklich gebrauchen könnten hier ein Beispiel aus einem sehr gutem Sci-Fi Weltraum Spiel.


    I-War


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Ein Turm oder Aufzug dieser Art wäre in der Lage, ohne Raketentechnik Objekte in den Orbit zu bringen. Da ein Objekt beim Aufstieg gleichzeitig an tangentialer Geschwindigkeit gewinnen muss, hätte es beim Erreichen des Ziels gleichzeitig die nötige Energie und Geschwindigkeit, um im geostationären Orbit zu verbleiben.


    Ein Gebäude dieser Art zu errichten war unmöglich, da kein Material mit der nötigen Druckfestigkeit bekannt war. 1957 schlug dann der sowjetische Wissenschaftler Juri Arzutanow eine alternative Variante dieser Idee vor. Ein Satellit solle in eine geostationäre Umlaufbahn gebracht werden und als Aufhängung des Aufzugs dienen. Von dort könnte man dann ein Kabel zur Erdoberfläche herunterlassen. Der Schwerpunkt der Konstruktion müsste auf dem geostationären Orbit liegen, so dass bei einer Winkelgeschwindigkeit, die der Erdrotation entspricht, die Fliehkraft die Erdanziehungskraft ausgleicht.


    Ein Kabel von 35.786 Kilometern Länge ist jedoch schwierig zu realisieren.


    Seit Anfang des 21. Jahrhunderts ist mit den Kohlenstoffnanoröhren ein Material bekannt, das die Anforderungen erfüllen könnte. Anfang 2004 ist es einer Gruppe von Wissenschaftlern um Alan Windle an der Universität Cambridge gelungen, auf der Grundlage dieser Technologie einen etwa 100 Meter langen Faden herzustellen. Andre Geim, seit 2001 an der Universität von Manchester, gelang die Herstellung von Graphen. Kohlenstoffnanoröhren haben ein bis zu 100 mal besseres Verhältnis von Zugfestigkeit zu Gewicht als Stahl, deshalb ist dieser Werkstoff ein möglicher Kandidat für den Weltraumlift. Jedoch ist die Technologie noch längst nicht ausgereift: Kohlenstoffnanoröhren können bisher nur in sehr begrenzter Zahl hergestellt werden und sind dementsprechend sehr teuer. Seile aus Nanoröhren müssen beschichtet werden, weil Kohlenstoff oxidiert und erodiert.


    The Space Elevator


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Auswirkungen


    Energiebilanz beim Weltraumliftes wird vermutet, dass ein Weltraumlift die Transportkosten von derzeit 20.000 bis 80.000 US-Dollar pro kg auf bis zu 100 US-Dollar pro kg reduzieren könnte. Die wissenschaftliche Forschung würde davon durch den sehr viel billigeren Transport von Labors und Teleskopen in den Weltraum stark profitieren. Auch die industrielle Forschung kann durch Arbeiten in der Schwerelosigkeit neue Verfahren entwickeln und neue Fertigungstechnologien ermöglichen; nicht zuletzt wäre es möglich, diese Technik für den Weltraumtourismus zu erschließen


    Using a Space Elevator



    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.




    Material für Kabel und Turm


    Seildurchmesser beim Weltraumlift


    Jedes Segment des Kabels muss mindestens das Gewicht der darunterliegenden Kabelsegmente zuzüglich der Nutzlastkapazität halten können.


    Je höher das betrachtete Kabelsegment liegt, desto mehr Kabelsegmente muss es halten. Ein optimiertes Seil besitzt also mit zunehmender Höhe einen größeren Querschnitt, bis sich dieser Trend auf geostationärem Orbit umkehrt, da ab dort die resultierende Kraft der Seilsegmente erdabgewandt wirkt.


    Bei einer gegebenen spezifischen Zugfestigkeit eines Materials wird also der minimale Querschnitt an der Basisstation allein durch die Nutzlastkapazität festgelegt. Weiter ist dann auch die optimale weitere Querschnittsentwicklung festgelegt. Das Verhältnis vom größten Kabelquerschnitt zum kleinsten wird taper ratio genannt. Sie und die Nutzlastkapazität legen letztlich die Gesamtmasse des Kabels fest.


    Grafik





    Grundsätzlich lässt sich bei optimiertem Kabeldurchschnitt mit jedem Material ein Weltraumlift errichten, indem der Querschnittszuwachs entsprechend rapide gewählt wird bzw. eine große taper ratio verwendet wird. Die Ökonomie diktiert hierbei schlussendlich das Limit der noch sinnvollen Werte in dieser Größe.


    Ein gewöhnliches Stahlseil konstanten Querschnittes würde bereits ab einer Länge von vier bis fünf Kilometern unter seinem eigenen Gewicht reißen, Hochleistungsstahlseile für Seilbahnen, deren Reißfestigkeit mit Kevlar vergleichbar ist, kämen auf rund 30 Kilometer. Neue Werkstoffe, deren Reißfestigkeit weit jenseits der von Kevlar liegt, sind deswegen ein kritischer Punkt für eine zukünftige Realisierung dieses Unternehmens. Nach den bisherigen Forschungen kommen zwei Möglichkeiten in Frage:


    Kohlenstoffnanoröhren scheinen die Reißlänge von Kevlar noch einmal um einen Faktor fünf zu übertreffen, Berechnungen von Nicola Pugno des Polytechnikums in Turin ergaben jedoch, dass bei der Verwebung von Kohlenstoffnanoröhren zu längeren Kabeln die Reißfestigkeit des Kabels um ca. 70 % gegenüber der Reißfestigkeit einzelner Nanoröhren abnimmt. Grund dafür sind unvermeidliche Kristallbaufehler, welche gemäß Pugnos Modell die Belastbarkeit des Kabels auf ca. 30 Gigapascal reduziert. Berechnungen der NASA zufolge wäre jedoch ein Material mit einer Belastbarkeit von etwa 62 Gigapascal notwendig, um den auftretenden Kräften zu widerstehen. Außerdem ist es bisher keinem Labor gelungen, ein zusammenhängendes Kabel zu erschaffen, das länger als 100 Meter ist. Einen zusätzlichen Kostenfaktor stellt die Beschichtung des Kabels dar, denn Kohlenstoffnanoröhren oxidieren und erodieren.


    Vielversprechend ist auch die UHMW-Polyethylen-Faser Dyneema, welche bei vertikaler Aufhängung eine Reißlänge von 400 Kilometer erreicht und somit alle konventionellen Werkstoffe um ein Vielfaches und sogar Spinnenseide um den Faktor zwei übertrifft. Gegen die Verwendung von Dyneema spricht allerdings, dass der Schmelzpunkt von Dyneema zwischen 144 °C und 152 °C liegt, dass die Festigkeit von Dyneema zwischen 80 °C und 100 °C deutlich nachlässt, und dass Dyneema unter −150 °C brüchig wird, denn alle diese Temperaturen treten im Weltraum häufig auf.


    Künstliche Spinnenseide


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Graphen-Lift, konstanter Querschnitt


    Ein neues, noch wenig erforschtes Material ist Graphen. Der Elastizitätsmodul entspricht mit ca. 1020 GPa dem von normalem Graphit entlang der Basalebenen und ist fast so groß wie der des Diamants. Wissenschaftler der New Yorker Columbia University veröffentlichten 2008 weitergehende Messergebnisse, in denen sie hervorhoben, dass Graphen die höchste Reißfestigkeit aufweise, die je ermittelt wurde. Seine Zugfestigkeit von 42 N·m−1 oder 1,25×1011 Pa ist die höchste, die je ermittelt wurde, und rund 125 mal höher als bei Stahl. Stahl hat mit 7874 kg·m−3 eine rund 3,5 mal höhere Dichte als Graphen mit 2260 kg·m−3, so dass die Reißlänge von Graphen rund 436 mal größer ist als die von Stahl. In einem als homogen angenommenen Gravitationsfeld von 9,81 m·s−2 hätte Graphen eine Reißlänge von rund 5655 km.
    Tatsächlich wird aber die Schwerebeschleunigung mit zunehmender Höhe deutlich geringer, was die Reißlänge erhöht. Ein Band aus Graphen mit konstanter Querschnittsfläche würde in der Höhe der geostationären Umlaufbahn von 35.786 km über dem Erdäquator erst zu 87 % seiner Reißfestigkeit belastet werden . In noch größerer Höhe würde die Zugbelastung dann wieder absinken. Wenn das Graphen-Seil bei konstanter Querschnittsfläche 143.780 km lang wäre, dann würde es in völligem Gleichgewicht mit der Gravitationsbeschleunigung der Erde und der Zentrifugalbeschleunigung durch die Rotation der Erde sein. In der Höhe von 143.780 km über dem Erdäquator würde eine Nettobeschleunigung von 0,78 m·s−2 nach oben wirken, und eine Tangentialgeschwindigkeit von 10.950 m·s−1 vorhanden sein, was den Start von Raumsonden begünstigen würde. Graphen und Graphit haben einen Schmelzpunkt von rund 3700 °C. 76 cm breite, endlose Bänder aus Graphen stellt man dadurch her, dass man eine monoatomare Schicht aus Kohlenstoff auf eine Folie aus inertem Trägermaterial, wie zum Beispiel Kupfer, durch chemische Gasphasenabscheidung (CVD) aufbringt, und dann das Trägermaterial auflöst


    Errichtung des Kabels


    Bisher ist nur denkbar, das Kabel von einem geostationären Satelliten herunterzulassen. Das Verhalten von langen Seilen im Weltall ist Gegenstand aktueller Forschung. Es ist denkbar, dass initial nur ein minimal tragfähiges Seil gestartet wird, was danach sukzessive verstärkt wird, bis die finale Nutzlastdicke erreicht ist.


    Errichtung des Turms als Basisstation


    Auch die Basisstation muss starke Belastungen aushalten, denn auf der Verbindung zwischen Kabel und Basisstation lasten laut NASA bis zu 62 Gigapascal. Dadurch wird eine ausreichend tiefe, komplex zu errichtende und teure Verankerung der Basisstation im Erdreich nötig. Das liegt daran, dass beim Weltraumlift in vertikaler Richtung ein Überschuss an Zentrifugalkraft gegenüber der Gravitationskraft herrschen muss, um das Seil zu spannen, und daran, dass beim Weltraumlift in horizontaler Richtung die Corioliskraft der hinauf- oder hinabfahrenden Lasten auf die Erde übertragen wird. Ein Weltraumlift, der sich in völligem Gleichgewicht zwischen der Zentrifugalkraft und der Gravitationskraft befinden würde, würde schon durch minimale Lasten in seiner Stabilität gestört werden, und könnte daher kein Drehmoment durch die Corioliskraft zwischen der Erde und der Last übertragen. Beim straff gespannten Weltraumlift kostet nur die Überwindung des Gewichtes der Last entlang des Höhenunterschiedes Energie, denn die Corioliskraft steht immer quer zur Bewegung der Last. Jener Teil der Energie, der zur Überwindung der Corioliskraft (später dazu mehr )benötigt wird, stammt aus der Abbremsung der Erdrotation.


    Gigapascal


    Die Einheit Gigapascal (1 GPa = 1 Milliarde Pa) beschreibt Drücke, die z. B. Kohlenstoff in Diamant verwandeln.


    Graphit, zusammengepresst in einer hydraulischen Presse bei Drücken von bis zu 6 Gigapascal und Temperaturen von über 1.500 °C, wandelt sich in Diamant um.


    Bornitrid, analog zur Umwandlung von Graphit in Diamant, wandelt sich von einer hexagonalen in die kubische Modifikation um bei hoher Temperatur (1.400–1.800 °C) und hohem Druck von über 6 Gigapascal. Unter Normalbedingungen weist Bornitrid eine Festigkeit von etwa 48 Gigapascal auf (Diamant zwischen 70 und 100 Gigapascal).


    In 410 km Tiefe beträgt der Druck 14 Gigapascal; siehe 410-km-Diskontinuität. In Erdtiefen von etwa 700 km wandeln sich bei Temperaturen vieler hundert Grad Celsius bzw. bei Drücken um 25 Gigapascal viele Gesteine in andere Mineralien um.


    Die Corioliskraft ist auch für den Wirbel in der Badewanne u.s.w. verantwortlich. Dies bewirkt auf der Nordhalbkugel eine Ablenkung nach rechts, Südhalbkugel nach Links


    Energieversorgung des Liftes


    Ein weiteres Problem wäre die Energieversorgung des eigentlichen Lifts. Man kann die Energieversorgung nicht durch eine im Seil integrierte Stromleitung sichern, da der elektrische Widerstand bei bis zu 36.000 Kilometern Länge zu groß und der Energieverlust zu hoch wäre. Es gibt allerdings mehrere Möglichkeiten, die das Problem beseitigen:


    Die Versorgung wird durch eine Laserstation an der Basisstation gesichert. Dabei wird der Laser sehr präzise auf eine Fotovoltaikfläche gestrahlt und der Lift bezieht daraus seine Energie. Es gibt aber noch keinen Laser, der so stark ist, dass er den enormen Energieverlust ausgleichen kann.


    Das Sonnenlicht, das im Weltraum besonders stark ist, wird mithilfe von Solarmodulen eingefangen und in elektrische Energie umgewandelt. Die Sonnenkollektoren müssen aber sehr groß sein, damit diese genügend Energie produzieren können, um den Lift auf etwa 200 km/h zu beschleunigen.


    Man könnte eine Hybridlösung konstruieren. In der Erdatmosphäre ist die Sonneneinstrahlung niedriger als im Weltraum. Bei der Hybridlösung wird der Lift bis zu dem Punkt, an dem er die Erdatmosphäre verlässt, von einer Laserstation am Boden mit Energie versorgt. Etwa ab 100 Kilometer Höhe ist die Sonneneinstrahlung groß genug, um den Lift gut genug zu versorgen. Dann werden Sonnenkollektoren ausgefahren und der Laser abgeschaltet.


    Ein sogenannter Maser erzeugt Mikrowellen, die mit einer sehr hohen Konzentration in Richtung des Lifts geworfen werden, der diese dann in elektrische Energie umwandelt. Hier gibt es das gleiche Problem, wie bei der Laserversorgung, nämlich dass es auch noch keinen Maser gibt, der eine solche Konzentration schaffen kann.


    Man könnte einen Kleinst-Kernreaktor ähnlich dem Toshiba 4S zur Stromerzeugung verwenden. Wenn man den Kernreaktor an den Stromkabeln einige 100 m hinter der Liftkabine her zieht, dann kann man auf die schwere Strahlungsabschirmung des Reaktors verzichten. Beim Aufenthalt in der Bodenstation ruht der Kernreaktor in einem entsprechend tiefen Schacht.


    Wie ihr seht gibt es noch viele Probleme, aber stellt euch mal vor das Kabel reißt. Dann wickelt es sich ca. 1 mal um die Erde. Das würde einen Schaden von imensen Ausmaßen verursachen.


    Wir werden sehen was wird.....


    MFG


    Bak

  • Vergangenheit und Zukunft




    Bauwerke


    Vor ca. 7000 Jahren entstand der Kreisgrabenanlage von Goseck es ist das bisher älteste entdeckte Sonnenobservatorium der Welt.


    Stonehege wurde vor ca. 5000 Jahren erbaut. Die Ausrichtung erfolgte so, dass am Morgen des Mittsommertags, wenn die Sonne im Jahresverlauf am nördlichsten steht, die Sonne direkt über dem Fersenstein aufging und die Strahlen der Sonne in gerader Linie ins Innere des Bauwerks, zwischen die Hufeisenanordnung, eindrangen.
    Es ist unwahrscheinlich, dass eine solche Ausrichtung sich zufällig ergab. Der nördlichste Aufgangpnkt der Sonne ist direkt abhängig von der geografischen Breite. Damit die Ausrichtung korrekt ist, muss sie für Stonehenges geografische Breite von 51° 11' genau errechnet oder durch Beobachtung ermittelt worden sein. Diese genaue Ausrichtung muss für den Plan der Anlage und die Platzierung der Steine in zumindest einigen der Phasen von Stonehenge grundlegend gewesen sein. Der Fersenstein wird nun als ein Teil eines Sonnenkorridors gedeutet, der den Sonnenaufgang einrahmte.


    Die Bearbeitung der Steine setzt man auf etwa 20 Millionen Arbeitsstunden an, insbesondere in Anbetracht der in dieser Zeit mäßig leistungsfähigen Werkzeuge. Der allgemeine Wille zur Errichtung und Pflege dieses Bauwerks muss dementsprechend ausgesprochen stark gewesen sein und erforderte weiterhin eine stark ausgeprägte Sozialorganisation. Neben der höchst aufwändigen Organisation des Bauvorhabens (Planung, Transport, Bearbeitung und genaue Aufstellung der Steine) verlangt dieses zudem eine hohe jahrelange Überproduktion von Nahrungsmitteln, um die eigentlichen „Arbeiter“ während ihrer Tätigkeit für das Vorhaben zu ernähren.


    Pyramiden


    Die Pyramiden sind ca. 4500 Jahre alt. An dem Bau einer Pyramide waren mehrere tausend Arbeiter beschäftigt. So halfen beim Bau der Cheops-Pyramide vor Gizeh laut Überlieferung 70.000–100.000 Arbeiter, was allerdings nach heutigen Nachforschungen logistisch unmöglich erscheint. Es ist dagegen ziemlich sicher, dass in den Steinbrüchen und an der Pyramide „nur“ rund 8.000 Arbeiter beschäftigt waren. Alle Pyramiden des Gizeh-Plateaus wurden während der 4. Dynastie (2630 – 2525 v. Chr.) errichtet.


    Die gesamte Literatur über Pyramiden schwärmt von deren exakter Orientierung nach Norden und die Fragen rund um die Technik der Ausrichtung der Pyramiden nach den Himmelsrichtungen sind ein Dorado für Spekulationen. Jede bisher vorgebrachte Theorie scheitert jedoch entweder an den damals möglichen technischen Hilfsmitteln oder an hinreichender Präzision.


    Deshalb bedarf die selten vermessene Ausrichtung der Pyramiden genauerer Untersuchung unter der Perspektive, was technologiehistorisch denn denkbar und möglich war. Als absolutes Kriterium steht hier wieder die Durchführbarkeit auch auf der noch unfertigen Pyramide, dem Pyramidenstumpf, im Vordergrund. Jedes Verfahren, das umfangreiche bauliche Voraussetzungen benötigt, um zu einem exakten Ergebnis zu kommen, scheidet daher aus. Bei der enormen Höhe, sowohl der Cheops- als auch der Chefrenpyramide, sind ständige Kontrollmessungen der Ausrichtung unabdingbar. Wir müssen uns hier drei Fragen stellen:


    1.Wie war es mit der damaligen Technologie möglich, die Himmelsrichtungen derart präzise zu bestimmen?


    2.Wie wurden die Himmelsrichtungen im Fall der Einmessung der Pyramiden bestimmt? Wir werden sehen, dass die grundsätzliche Bestimmung der Himmelsrichtungen relativ einfach möglich ist, im Fall der Pyramiden aber auf Schwierigkeiten stößt, die weitere technische Lösungen verlangen.


    3.Wollten die Ägypter die Pyramiden grundsätzlich nach den Himmelsrichtungen orientieren?


    Wir wissen zwar, dass die Pyramiden einigermaßen genau nach den Himmelsrichtungen orientiert sind, wir wissen aber nicht, ob das die ursprüngliche Intention der Ägypter war. Es ist daher genauso möglich, dass die Pyramiden nach ganz anderen Zielsetzungen eingemessen wurden.


    In der Literatur werden grundsätzlich zwei Vorschläge für die Einmessung der Himmelsrichtungen vorgebracht, die im Folgenden kurz umrissen und auf ihre Realisierbarkeit hin analysiert werden sollen:


    •die Orientierung nach der Sonne


    •die Orientierung nach den Sternen


    Eine Orientierung am magnetischen Nordpol erscheint äußerst unwahrscheinlich, da es zum einen damals kein Eisen gab, schon gar kein magnetisches, zum anderen stimmt der magnetische Nordpol bekanntermaßen nicht mit dem geographischen überein. Und das war auch vor 4500 Jahren nicht anders



    Teleskope


    Bereits im 13. Jahrhundert war die vergrößernde Wirkung konkaver Spiegel bekannt und Leonardo da Vinci beschrieb 1512 deren Verwendung zur Beobachtung des Sternenhimmels


    In den Jahren 1668–1672, entwickelte Isaac Newton ein verbessertes Teleskop und führte es der Öffentlichkeit vor


    1721 gelang es den Brüdern John, Henry und George Hadley, den ungleich schwieriger zu fertigenden parabolischen Hauptspiegel herzustellen. Auf dieser Grundlage wurden dann in den nachfolgenden 150 Jahren immer größere Teleskope gebaut, bis hin zu dem 183 cm durchmessenden Leviathan


    Das Prinzip der aus massiven Glasspiegeln gebauten Ritchey-Chrétien-Cassegrain-Teleskope wurde bis zu einem Spiegeldurchmesser von etwa 5 m erfolgreich beibehalten. Das 1975 gebaute BTA-6 mit sechs Meter Durchmesser zeigte jedoch dessen Grenzen. Der 42 Tonnen schwere Glasspiegel verbog sich unter seinem eigenen Gewicht und lieferte keine scharfen Bilder mehr.



    Des Weiteren fand man in den 1980ern Verfahren, wie man große dünne Glasspiegel durch einen Schleuderguss oder mit stützenden Hohlstrukturen, meist in Wabenform, herstellen konnte. Voraussetzung hierfür sind extrem präzise Halterungen der Spiegel, die die Segmente auf den Bruchteil der Wellenlänge des Lichtes zueinander ausrichten bzw. die Verformung der dünnen Spiegel mit der gleichen Genauigkeit verhindern. Aufgrund der hierfür notwendigen aktiven Elemente in der Halterung werden solche Systeme auch als aktive Optik bezeichnet. Mit diesen Techniken gelingt es, Teleskope bis etwa zehn Meter Spiegeldurchmesser herzustellen.



    Die Raumfahrt



    Die Solarzelle


    Solarzellen wurden für die Energieversorgung von Raumflugkörpern wie Satelliten entwickelt. Wissenschaftler standen vor dem Problem, dass Treibstoffe und Batterien viel Platz brauchen, schwer sind recht schnell aufgebraucht sind, Satelliten die Erde aber über einen langen Zeitraum umkreisen sollen. Da kam die rettende Idee: Sonnenlicht ist als Energiequelle immer vorhanden



    Der Klettverschluss


    KlettverschlussKlettverschlüsse kennst du von Turnschuhen, Taschen und Jacken. Aber es gibt sie noch gar nicht so lange - und sie kommen aus der Weltraumforschung: In der Schwerelosigkeit des Weltraums kann man nichts einfach so ablegen. Alle losen Teile schweben durch die Gegend. Das ist unpracktisch, da die Astronauten nichts wiederfinden könnten. Deshalb wurde an jedes Teil an Bord eines Raumschiffes ein Stück Klettverschluss aufgeklebt, mit dem man es an die überall im Shuttle angebrachten Gegenstücke anheften kann


    Neue Materialien für Flugzeug- & Automobilbau


    Die Raumfahrt kostet viel Geld - und jedes Kilogramm mehr, das ins All befördert werden muss kostet Millionen von US-Dollar. Daher arbeiten Wissenschaftler immer daran, Raumfähren leichter zu machen. Dabei wurden immer neue, leichtere Stoffe wie Karbon, Kevlar und Glaskeramik ausprobiert und erfolgreich eingesetzt. All diese Stoffe werden dann mit ein paar Jahren Verspätung auch in Flugzeugen und in Autos eingebaut. Denn auch die verbrauen weniger, wenn sie leichter sind.


    Wettervorhersagen


    Satellit im ErdorbitWenn du im Fernsehen den Wetterbericht anguckst, dann siehst du Satellitenbilder der Erde. Wettersatelliten wie Meteosat zeigen mit anschaulichen Bildern Wolken und Wirbelstürme, aber auch Warm- und Kaltwetterfronten. Auf die Wettervorhersagen kann man sich erst wirklich verlassen, seitdem Meteorologen (Wetterkundler) sich auf die Daten von Satelliten stützen können. Das hat auch zur Folge, dass viele Menschenleben gerettet werden können, da Wirbelsturmwarnungen frühzeitig möglich sind


    Kommunikation: Fernsehen, Internet & Telefon


    Ohne Fernsehsatelliten wie ASTRA oder EUTELSAT könnten viele Menschen kaum ein Fernsehprogramm empfangen. Besonders in Gegenden, in denen kein Kabelanschluss gelegt wurde, gäbe es kaum private Fernsehsender. Und die Fernsehübertragungen aus aller Welt werden mittlerweile alle über Satellitenstrecken in die Sendezentren der Fernsehanstalten gesendet. Ohne Satelliten gäbe es auch keine Live-Übertragung von Fußball-Weltmeisterschaften oder Popkonzerten aus aller Welt


    Auto-Navigationssysteme


    AutonavigationsgerätNavigationssysteme in Autos helfen vielleicht auch deinen Eltern, sicher zum Ziel zu kommen. Dabei wird die Position von eurem Auto über einen GPS-Empfänger von etwa 30 GPS-Satelliten aus dem Weltraum aus überwacht. Dadurch können zum Beispiel auch Staus automatisch umfahren werden.


    Die Superkachel


    Eine Superkachel, die für ein deutsch-japanisches Weltraumprojekt entwickelt wurde, übersteht Temperaturen bis zu 2.700 Grad Celsius. Dabei kann man sie bei ihrer Entstehung leicht in jede Form bringen. Bald wird sie als Bremsscheibe von ICE-Zügen deren Sicherheit erhöhen. Und auch Gebäude können in Zukunft mit diesen Kacheln vor Feuer geschützt werden


    Cern und der LHC


    Das bekannteste Beispiel ist wohl das World Wide Web ( entstanden in Cern). Für die Physiker und Ingenieure, die über die Welt verteilt an einem Projekt arbeiten, ist es einfach eine praktische Notwendigkeit.


    Detektortechnologie die am CERN entwickelt wurde um elementare Prozesse sichtbar und messbar zu machen haben in der bildgebenden Diagnostik Anwendung gefunden. Beispielsweise wurde 1977 das erste Positron Emissions Tomographie (PET) Bild am CERN angefertigt. Heute ist PET ein essentielles Werkzeug in der Krebsdiagnose.



    Was möchte ich euch damit sagen. Seit Anbeginn der Erforschung der Sterne wurde die Technologie weiterentwickelt, um Dinge für die Sternenbeobachtung zu bauen. Es entstanden verschiedene Berufe wie z.B. Architekt oder Statiker. Die Mathematik musste weiter entwickelt werden sowie die Logistik. All das wurde aus diesen Projekten übernommen und dann für den normalen Gebrauch genutzt.


    Wenn ihr das nächste mal lest, dass wieder XXX Milliarden für Grundlagenforschung ausgegeben werden und wir keinen direkten Nutzen davon haben. Nach dem Motto, was sollen wir schon mit Elementarteilchen anfangen.


    Denkt bitte daran, dass der Weg das Ziel ist.



    Die Sterne haben und treiben, immer noch, unseren technologischen Fortschritt voran.




    MFG



    Bak

  • Überlichtgeschwindigkeit



    Laut ART ( Allgemeine Relativitäts Theorie ) kann nichts schneller als das Licht reisen.
    Wenn es Masse hat, nicht mal annähernd so schnell. Masselos .... mit Lichtgeschwindigkeit ... aber nicht schneller.
    Selbst Gravitationswellen breiten sich nur mit Lichtgeschwindigkeit aus.



    Was Einstein gesagt hat (verkürzt):


    1) Man kann nichts mit einer Ruhemasse >0 auf Lichtgeschwindigkeit beschleunigen.
    2) Die Lichtgeschwindigkeit ist in jedem Bezugssystem identisch, sie ist ist eine kosmische Konstante.



    Das heißt eben nicht, dass nichts schneller als Licht sein kann.



    Einstein hat 1911 die allgemeinen Relativitätstheorie aufgestellt. Seitdem ist sie wieder und wieder und wieder getested worden und das seit 100 Jahren, mehere 1000 mal.


    Wenn die ART falsch sein sollte, dann ist sie verdammt gut falsch. Eine neue Erkenntniss die, die ART in Frage stellt, muss 100 Jahre des Testens überstehen und genau so gut überprüfbar sein.


    Aber es gibt wohl Ausnahmen.....


    Superluminares Tunneln


    In der Universität Köln unter der Leitung von Günter Nimtz wurde der quantenmechanische Effekt des Superluminaren Tunnelns von Mikrowellen-Photonen, dem der Tunneleffekt zu Grunde liegt, als erstes nachgewiesen.


    Tunneleffekt ist in der Physik eine veranschaulichende Bezeichnung dafür, dass ein atomares Teilchen eine Potentialbarriere von endlicher Höhe auch dann überwinden kann, wenn seine Energie geringer als die Höhe der Barriere ist. Nach den Vorstellungen der klassischen Physik wäre dies unmöglich, nach der Quantenmechanik ist es möglich. Mit Hilfe des Tunneleffekts wird unter anderem der Alpha-Zerfall von Atomkernen erklärt. Technische Anwendungen des Tunneleffekts sind beispielsweise das Rastertunnelmikroskop und der Flash-Speicher



    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Experimente vom Nimtz-Typ mit Photonen anderer Wellenlänge, insbesondere mit sichtbarem Licht, durch andere Gruppen haben stattgefunden und haben die Beobachtungen von Nimtz bestätigt werden von den Experimentatoren wie Chiao und Steinberg aber anders interpretiert. In allen Experimenten wird festgestellt, dass sich eine superluminare Geschwindigkeit dann einstellt, wenn sich zwischen der Quelle und dem Detektor eine Barriere befindet, welche die Photonen erst überwinden (durchtunneln) müssen.


    Medienwirksam wurde dort 1994 mit frequenzmodulierten Mikrowellen ein Teil einer Mozart-Sinfonie mit übertragen, wobei Nimtz nach eigenen Angaben für das Maximum und die Anstiegsflanke des Wellenpakets eine 4,7-fache Lichtgeschwindigkeit maß. Nimtz behauptet, damit die Möglichkeit der Übertragung von Information mit Überlichtgeschwindigkeit gezeigt zu haben, was aber bestritten wurde. Definiert man die Geschwindigkeit der Informationsübertragung über die Ansprechzeit eines Detektors, gibt es keine Informationsübertragung mit Überlichtgeschwindigkeit: Ein Detektor auf einer gleich langen Vergleichsstrecke ohne „Tunnel“, auf der sich die gleiche Information (Pulsform) mit Lichtgeschwindigkeit ausbreitet, spricht zuerst an, da das Signal auf der Tunnelstrecke viel schwächer ist und zwar unabhängig von der Empfindlichkeit des Detektors.


    Diese Experimente stehen nach allgemeiner Ansicht in völliger Übereinstimmung mit einem der Axiome der Relativitätstheorie, nach dem keine Informationsausbreitung mit Überlichtgeschwindigkeit stattfindet. So kann man z. B. zeigen, dass ein Wellenzug beim Tunneln stärker im hinteren Teil gedämpft wird als im vorderen, so dass sich sein Intensitätsmaximum nach vorne verlagert. Definiert man die Lage des Maximums als Position des Wellenzuges, so kann man eine Überlichtgeschwindigkeit errechnen, ohne dass irgendein Teil des Wellenzuges mit Überlichtgeschwindigkeit vorangeschritten wäre.


    Bei Tunnelexperimenten mit einzelnen Photonen wurde bereits überlichtschnelles Tunneln nachgewiesen, siehe zum Beispiel Experimente der Chiao-Gruppe. Da beim Tunneln jedoch ein großer Teil der tunnelnden Photonen und damit der Information verloren geht, ist auch hier die Möglichkeit einer überlichtschnellen Informationsübertragung umstritten.


    Alpha Centauri - Gibt es Überlichtgeschwindingkeit


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.




    Hier wird klar gesagt das die Informationsweitergabe unmöglich ist.


    Neutrinos


    Neutrinos sind elektrisch neutrale Elementarteilchen mit sehr kleiner Masse. Im Standardmodell der Elementarteilchenphysik existieren drei Neutrinos: das Elektron-Neutrino, das Myon-Neutrino und das Tau-Neutrino


    Selbst eine Bleiplatte von einem Lichtjahr Dicke würde ein Neutrino nicht aufhalten


    Die Kerngössen in Relation zu der Elektronenwolke wurde schon in diesem Thread erleutert.


    Schaut euch noch mal an wie gross ein Neutrino ist


    http://www.newgrounds.com/portal/view/525347



    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Letzte Erkenntniss


    Das Opera-Team am Cern hatte 2011 Messergebnisse verkündet, die nahelegten, dass manche Elementarteilchen schneller als das Licht sein könnten. Dies hätte das Weltbild der Physiker erschüttert. Ende Februar erklärten die Forscher dann jedoch, Fehlerquellen bei der Messung entdeckt zu haben – darunter ein defektes Glasfaserkabel. Die Lichtgeschwindigkeit gilt laut Relativitätstheorie als absolute Tempogrenze des Universums. Sie wurde noch in keinem Versuch eindeutig durchbrochen.



    MFG


    Bak

  • Erfindungen und Entdeckungen


    Oft kommt die Antwort " das kannst du nicht wissen was wir in 1000 Jahren haben werden". Ufologen setzten uns immer supertolle neue uns unbekannte Technologien vor und sagen oder behaupten dann, eine außerirdische Rasse hat so etwas natürlich schon entwickelt.


    Im laufe dieses Threads haben wir ja heraus gefunden das es äußerst schwer ist neue Elemente herzustellen und das ein nutzen daraus zu ziehen, äußerst unwahrscheinlich ist.


    Aber wie steht es mit neuen Technologien ? Viele Erfindungen und Entdeckungen wurden in den letzten Jahrhunderten gemacht. Im 19 und 20 Jahrhundert gab es eine wahre Inflation davon.


    Eine Erfindung dagegen betrifft stets eine neue Erkenntnis,die bisher nicht dagewesen ist.



    Das heißt für uns, dass es immer schwerer wird etwas wirklich neues zu entdecken oder zu erfinden. Fast alle neuen Sachen sind Innovationen oder Weiterentwicklungen schon alter Konzepte.


    Wir wissen das überall im Universum die gleichen physikalischen Gesetze gelten, auch für unsere ET`s. Wenn sie dann mal wirklich hier ankommen, erkennen wir ihre Technologie ..... oh schau mal die haben einen Fusionsantrieb ....wir bauen erst noch einen ( Iter).


    Hier nun eine Liste der wichtigsten Entdeckungen und Erfindungen der Menschheit.


    Antike


    um 3379 vor Christus: Die Mayas dokumentieren als erstes Volk eine totale Sonnenfinsternis.
    um 580 vor Christus: Die Erde wird nach einer Theorie von Anaximander als Kugel beschrieben.
    um 550 vor Christus: Die Entdeckung von ganzzahligen Frequenzverhältnissen bei konsonanten Klängen (Pythagoras in der Schmiede) führt zur ersten überlieferten und zutreffenden quantitativen Beschreibung eines physikalischen Sachverhalts.
    um 500 vor Christus: Demokrit postuliert, dass die Natur aus Atomen zusammengesetzt sei.
    um 450 vor Christus: Vier-Elemente-Lehre von Empedokles.
    um 300 vor Christus: Euklid begründet anhand der Reflexion die geometrische Optik.
    um 265 vor Christus: Zum ersten Mal wird die Theorie des Heliozentrischen Weltbildes mit geometrischen Berechnungen von Aristarchos von Samos belegt.
    um 250 vor Christus: Archimedes entdeckt das Hebelgesetz und die statische Auftriebskraft in Flüssigkeiten, Archimedisches Prinzip.
    um 240 vor Christus: Eratosthenes bestimmt den Erdumfang mit einer Gradmessung zwischen Alexandria und Syene.
    um 150 vor Christus: Claudius Ptolemäus bestimmt experimentell die Refraktion.
    um 550 nach Christus: Philoponos setzt die Kinematik auf das Fundament einer Impetustheorie.


    Neuzeit und Moderne


    16. Jahrhundert


    1543: Nikolaus Kopernikus (1473–1543) veröffentlicht das heliozentrische Weltbild in De revolutionibus orbium coelestium („Von den Umdrehungen der Himmelssphären“).
    1554: Giovanni Battista Benedetti (1530–1590) veröffentlicht in Venedig das Werk Demonstratio proportionum motuum localium contra Aristotilem et omnes philosophos, in dem er mit einem Gedankenexperiment die irrige Hypothese des Aristoteles widerlegt, dass verschieden schwere Körper verschieden schnell fallen.
    1572: Tycho Brahe (1546–1601) erschüttert mit seinen Beobachtungen der Supernova im Sternbild Kassiopeia die aristotelische Annahme der Unveränderbarkeit der Himmelssphäre.
    1577: Tycho Brahe erkennt durch Messung der Parallaxe, dass es sich beim Kometen von 1577 nicht wie bei Aristoteles postuliert um einen Photometeor in der Erdatmosphäre, sondern um ein ferneres Gebilde handeln muss.
    1580: Tycho Brahe baut eine Sternwarte. Seine präzisen Himmelsbeobachtungen vor der Erfindung des Fernrohrs werden später von Johannes Kepler ausgewertet.
    1583: Galileo Galilei (1564–1642) untersucht Pendelschwingungen und stellt die Abhängigkeit der Schwingungsdauer von der Pendellänge fest.
    1584: Giordano Bruno (1548–1600) formuliert die Idee, dass Fixsterne Zentren von anderen Planetensystemen seien.
    1586: Simon Stevin (1548–1620): Gedankenexperiment: Theorie der schiefen Ebene, Kräfteparallelogramm, Äquivalenz von schwerer und träger Masse.
    1587: Simon Stevin (1548–1620): Druck in Flüssigkeiten, Erklärung des hydrostatischen Paradoxons, kommunizierende Röhren.
    1590: Zacharias Janssen (1580–1638) erfindet das Mikroskop und das Teleskop, vermutlich unter Mithilfe seines Vaters Hans Janssen. Jacob Metius soll nach René Descartes als erster mit Fernrohren experimentiert haben.[1]
    1592: Galileo Galilei (1564–1642) erfindet das Thermoskop, eine Vorform des Thermometers.


    17. Jahrhundert


    1600: William Gilbert (1544–1603): Untrennbarkeit der Magnetpole, Begriff Elektrizität, Erde als Kugelmagnet mit ortsfesten Magnetpolen.
    1602: Johannes Kepler (1571–1630) entdeckt das zweite Keplersche Gesetz.
    1605: Simon Stevin veröffentlicht das Stevinsche Gedankenexperiment
    1605: Johannes Kepler entdeckt das erste Keplersche Gesetz.
    1608: Hans Lipperhey (1570–1619) baut ein Fernrohr.
    1609: Galileo Galilei (1564–1642) formuliert die Fallgesetze.
    1610: Galileo Galilei (1564–1642) entdeckt vier Jupitermonde, Phasen der Venus, Mondgebirge, Sonnenflecken (1611).
    1611: Johannes Kepler veröffentlicht sein Werk Dioptrice, worin er die innere Totalreflexion beschreibt.
    1613: Christoph Scheiner baut das erste terrestrische Fernrohr.
    1613: Galileo Galilei (1564–1642) vertritt in einer Schrift über Sonnenflecken das kopernikanische Weltbild.
    1618: Johannes Kepler entdeckt das dritte Keplersche Gesetz.
    1620: Willebrord van Roijen Snell (1580–1626) entdeckt das Brechungsgesetz.
    1632: Galileo Galilei (1564–1642) veröffentlicht sein astronomisches Hauptwerk "Dialogo" über das ptolemäische und das kopernikanische Weltsystem.
    1635: Henry Gellibrand (1597–1636): Die Lage der Erdmagnetpole verändert sich im Laufe der Zeit.
    1637: René Descartes (1596–1650): Theorie der Lichtbrechung, Erklärung des Regenbogens.
    1638: Galileo Galilei (1564–1642) veröffentlicht sein physikalisches Hauptwerk Discorsi über die Mechanik.
    1640: Marin Mersenne (1588–1648) und Pierre Gassendi (1592–1655) bestimmen die Schallgeschwindigkeit in Luft.
    1643: Evangelista Torricelli (1608–1647) weist den Luftdruck und das Vakuum nach und entwickelt das Quecksilberbarometer.
    1646: Athanasius Kircher beschreibt die Laterna Magica.
    1647: Blaise Pascal (1623–1662): Nachweis der Existenz des Vakuums und Widerlegung des Horror vacui mit dem Experiment Leere in der Leere.
    1648: Blaise Pascal (1623–1662) weist die Höhenabhängigkeit des Luftdrucks experimentell nach.
    1649: Otto von Guericke entwickelt die Hubkolbenpumpe.
    1649: Pierre Gassendi (1592–1655): Erneuerung des antiken Gedankens des Atomismus.
    1656: Christiaan Huygens (1629–1695) erfindet die Pendeluhr mit Spindelhemmung durch Ankersteuerung.
    1657: Otto von Guericke (1602–1686): Versuch mit den Magdeburger Halbkugeln.
    1657: Pierre de Fermat (1601–1665) formuliert das nach ihm benannte fermatsche Prinzip für Lichtwege.
    1662: Robert Boyle (1627–1692): Gasgesetze.
    1662: Francesco Maria Grimaldi (1618–1663): Beugung des Lichts, Wellentheorie.
    1666: Isaac Newton (1643–1727) stellt das Gravitationsgesetz auf und studiert das Lichtspektrum.
    1668: John Wallis (1616–1703) formuliert den Impulserhaltungssatz.
    1668: Isaac Newton (1643–1727) erfindet das Spiegelteleskop.
    1668: Robert Hooke (1635–1703): Konstanz der Schmelz- und Siedepunkte von Stoffen.
    1669: Erasmus Bartholin (1625–1698) entdeckt die Doppelbrechung.
    1672: Isaac Newton (1643–1727): Farbenlehre, Korpuskulartheorie des Lichtes, Entdeckung der spektralen Zerlegung des Sonnenlichts.
    1673: Christiaan Huygens (1629–1695): Energieerhaltungssatz für mechanische Vorgänge.
    1676: Ole Rømer (1644–1710) zeigt die Endlichkeit der Lichtgeschwindigkeit.
    1678: Robert Hooke (1635–1703) publiziert das hookesche Gesetz über den linearen Zusammenhang zwischen Kraft und Federdehnung.
    1678: Christiaan Huygens (1629–1695): Wellentheorie des Lichtes, huygenssches Prinzip.
    1682: Isaac Newton (1643–1727) formuliert das Gravitationsgesetz.
    1687: Isaac Newton (1643–1727): Axiomatische Formulierung der newtonschen Gesetze der Mechanik.
    1699: Guillaume Amontons (1663–1705): Gasgesetze.


    18. Jahrhundert


    1700: Joseph Sauveur (1653–1716): Bestimmung von Grundtönen und Oberschwingungen von Klängen.
    1714: Daniel Gabriel Fahrenheit (1686–1736) erfindet das Quecksilber- und das Alkohol-Thermometer und definiert mit der nach ihm benannten Fahrenheit-Skala die erste Temperaturskala.
    1728: James Bradley (1693–1762) bestimmt die Lichtgeschwindigkeit über die Aberration des Lichtes von Sternen zu 283000 km/s.
    1729: Stephen Gray (1666–1736) prägt die Begriffe Leiter und Nichtleiter.
    1730: John Hadley und Thomas Godfrey entwickeln unabhängig voneinander den Sextanten.
    1733: Charles-François de Cisternay Du Fay (1698–1739): Zwei Elektrizitätsarten, anziehende und abstoßende Kräfte.
    1738: Daniel Bernoulli (1700–1782) formuliert die Grundgleichungen der Hydrodynamik, Ansätze zur kinetischen Gastheorie.
    1742: Anders Celsius (1701–1744) schlägt eine 100teilige Thermometereinteilung vor: Siedepunkt des Wassers bei 0 °C, Schmelzpunkt des Eises bei 100 °C. Erst Carl von Linné (1707–1778) kehrt die Skala zu der heute üblichen Celsius-Skala um.
    1746: Pieter van Musschenbroek erfindet die Leidener Flasche zur Speicherung von Ladung.
    1747: Benjamin Franklin (1706–1790): Begriff der elektrischen Ladung (Bezeichnungen positiv, negativ). Eigenschaften elektrischer Ladungen.
    1748: Michail Wassiljewitsch Lomonossow (1711–1765): Erhaltung von Energie und Masse.
    1752: Benjamin Franklin (1706–1790): Beim Blitz fließen elektrische Ladungen durch die Luft. Bau eines Blitzableiters.
    1756: Johann Gottlob Leidenfrost (1715–1794) beschreibt den nach ihm benannten Leidenfrost-Effekt.
    1757: John Dollond entwickelt Achromaten.
    1764: Joseph Black (1728–1799) misst spezifische Wärmen, Schmelz- und Verdampfungswärmen verschiedener Stoffe.
    1771: Henry Cavendish (1731–1810): Theorie der Elektrostatik.
    1776: Pierre-Simon Laplace (1749–1827): Determinismus, Kausalität (laplacescher Dämon).
    1781: Wilhelm Herschel (1738–1822) entdeckt den Planeten Uranus.
    1783: Antoine Laurent de Lavoisier (1743–1794): Wasser ist eine Verbindung aus Wasserstoff und Sauerstoff.
    1785: Charles Augustin de Coulomb (1736–1806) formuliert das nach ihm benannte coulombsche Gesetz über die Kräfte zwischen elektrischen Ladungen.
    1787: Ernst Florens Friedrich Chladni (1756–1827) entwickelt eine Theorie des Klangs (chladnische Klangfigur).
    1789: Luigi Galvani (1737–1798): Kontaktelektrizität.
    1791: Pierre Prévost (1751–1839) entdeckt den Strahlungswärmeaustausch.
    1796: Ernst Florens Friedrich Chladni (1756–1827) bestimmt als Erster die Schallgeschwindigkeit in Flüssigkeiten und Festkörpern.
    1798: Henry Cavendish (1731–1810) bestimmt als Erster die Gravitationskonstante mittels einer Drehwaage. Berechnung der Erdmasse zu 6,6·1024 kg.
    1798: Benjamin Thompson, Graf von Rumford (1753–1814) bestimmt das mechanische Wärmeäquivalent und erkennt die Nichtstofflichkeit der Wärme.
    1798: Pierre-Simon Laplace (1749–1827) sagt die Existenz von Schwarzen Löchern voraus.
    1799: Das Archivmeter (Urmeter) und das Archivkilogramm (Urkilogramm) werden in Sèvres bei Paris hinterlegt.
    1799: Alessandro Volta (1745–1827): Bau einer elektrochemischen Spannungsquelle ("voltasche Säule").



    Das 19 Jahrhundert kommt dann als nächstes.......


    MFG


    Bak

  • Erfindungen und Entdeckungen Teil 2


    Wie zu sehen ist fängt im 19 Jahrhundert eine wahre Flut von Entdeckungen / Erfindungen an.




    19. Jahrhundert


    1800er Jahre


    1800: Wilhelm Herschel (1738–1822) entdeckt die infrarote Strahlung im Sonnenspektrum.
    1801: Thomas Young (1773–1829): Dreifarbentheorie der Farbempfindung.
    1801: John Dalton (1766–1844): Gesetz der Partialdrücke.
    1802: William Hyde Wollaston entdeckt im Spektrum der Sonne sieben Absorptionslinien.
    1802: Johann Wilhelm Ritter (1776–1810) entdeckt die ultraviolette Strahlung durch ihre photochemische Wirkung.
    1802: Thomas Young (1773–1829): Interferenz bei Licht und damit Nachweis des Wellencharakters des Lichtes.
    1802: Joseph Louis Gay-Lussac (1778–1850) entdeckt, dass alle Gase nahezu dieselbe Wärmeausdehnung zeigen.
    1808: Étienne Louis Malus (1775–1812) entdeckt die Polarisation des Lichtes (bei der Doppelbrechung an Kalkspat).
    1808: John Dalton (1766–1844): Einfaches, mechanisches Atommodell (Kügelchenmodell, ohne Ladungen). Atomtheorie chemischer Reaktionen.


    1810er Jahre


    1811: Amedeo Avogadro (1776–1856) stellt das avogadrosches Gesetz auf.
    1811: François Arago (1786–1853) weist die Drehung der Polarisationsrichtung von Licht durch Quarz nach.
    1812: François Arago (1786–1853) weist nach, dass auch polarisiertes Licht interferiert.
    1812: Jean-Baptiste Joseph Fourier (1768–1830): Fourier-Analyse, Fourier-Synthese.
    1814: Pierre-Simon Laplace erdenkt den Laplaceschen Dämon
    1814: Joseph von Fraunhofer (1787–1826) entdeckt im Spektrum des Sonnenlichts die nach ihm benannten Absorptionslinien, die Fraunhofer-Linien.
    1815: David Brewster (1781–1868): Gesetz über die Polarisation von Licht, das an Glasflächen reflektiert und gebrochen wird (Brewster-Winkel).
    1815: Jean-Baptiste Biot (1774–1862) entdeckt die Drehung der Polarisationsebene des Lichtes durch organische Flüssigkeiten.
    1816: Augustin Jean Fresnel (1788–1827): Interferenz mittels Doppelspiegel.
    1817: Thomas Young (1773–1829) und Augustin Jean Fresnel (1788–1827): Licht als Transversalwelle in einem elastischen Äther.
    1818: Augustin Jean Fresnel erklärt die Beugung, und Siméon Denis Poisson sagt unfreiwillig die Existenz von Poisson-Flecken voraus, die daraufhin von François Arago nachwiesen werden.
    1818: Thomas Johann Seebeck (1770–1831) entdeckt die optische Aktivität von Zuckerlösungen (Drehung der Polarisationsebene).
    1819: Pierre-Louis Dulong (1785–1838) und Alexis Thérèse Petit (1791–1820): Dulong-Petit-Gesetz.
    1819: Antoine César Becquerel (1788–1878) entdeckt den piezoelektrischen Effekt.


    1820er Jahre


    1820: Hans Christian Oersted (1777–1851) entdeckt die magnetische Wirkung des elektrischen Stromes (Elektromagnetismus) und erfindet das Amperemeter.
    1820: François Arago (1786–1853): Entdeckung der Magnetisierung von Eisen durch einen stromdurchflossenen Leiter.
    1821: André-Marie Ampère (1775–1836): Theorie der Wechselwirkungen stromdurchflossener Leiter, Erklärung des Magnetismus durch „ampèresche“ Molekularströme.
    1821: Thomas Johann Seebeck (1770–1831): Thermoelektrizität (Seebeck-Effekt).
    1821: Joseph von Fraunhofer (1787–1826) erfindet das optische Gitter (300 Striche pro mm).
    1823: William Sturgeon (1783–1850) erfindet den Elektromagneten.
    1824: Nicolas Léonard Sadi Carnot (1796–1832): Kreisprozess mit größtmöglichem thermischen Wirkungsgrad (carnotscher Kreisprozess).
    1826: Georg Simon Ohm (1789–1854) formuliert das nach ihm benannte ohmsche Gesetz.
    1827: Robert Brown (1773–1858) untersucht die Bewegung sehr kleiner Teilchen in Flüssigkeiten (brownsche Bewegung).


    1830er Jahre


    1830: Friedrich Wilhelm Bessel prüft das Äquivalenzprinzip mit Pendelschwingungen.
    1831: Michael Faraday (1791–1867): Entdeckung der elektromagnetischen Induktion, magnetische Feldlinien.
    1831: Joseph Henry (1797–1878) entdeckt unabhängig von Faraday die elektromagnetische Induktion und baut den ersten Elektromotor.
    1831: Macedonio Melloni und Leopoldo Nobili beschreiben die Eigenschaften von Infrarotstrahlung.
    1832: Hippolyte Pixii (1808–1835) baut den ersten Wechselstromgenerator, 1833 den ersten Gleichstromgenerator.
    1832: Joseph Henry (1797–1878) entdeckt die Selbstinduktion.
    1834: Michael Faraday (1791–1867) stellt die Gesetze zur Elektrolyse auf.
    1834: Jean Charles Athanase Peltier (1785–1845): Thermoelektrizität (Peltier-Effekt).
    1834: Emil Lenz (1804–1865) formuliert die nach ihm benannte lenzsche Regel (Folge des Energieerhaltungssatzes).
    1835: Michael Faraday (1791–1867): Entdeckung der Selbstinduktion.
    1835: Gaspard Gustave de Coriolis (1792–1843) führt als Erster die nach ihm benannte Trägheitskraft, die Corioliskraft, zur Beschreibung mechanischer Vorgänge in rotierenden Bezugssystemen ein.
    1835: Justus von Liebig (1803–1873) erfindet den silberbeschichteten Spiegel.
    1835: Friedrich Magnus Schwerd analysiert die Beugungserscheinungen am Gitter mit Hilfe der Wellenoptik.
    1835: Louis Daguerre entwickelt die Daguerreotypie.
    1835: William Henry Fox Talbot entwickelt die Talbotypie.
    1836: John Frederic Daniell (1790–1845) baut die erste technisch geeignete elektrische Batterie (Kupfer-Zink-Batterie).
    1836: Michael Faraday baut Faradayschen Käfig.
    1837: Claude Servais Mathias Pouillet (1790–1868) bestimmt die Solarkonstante.
    1839: Antoine César Becquerel (1788–1878) entdeckt den photovoltaischen Effekt.
    1839: William Robert Grove (1811–1896): Entwicklung der Brennstoffzelle.


    1840er Jahre


    1842: James Prescott Joule (1818–1889) misst die Wärmewirkung des elektrischen Stromes.
    1842: Christian Andreas Doppler (1803–1853) entdeckt den nach ihm benannten Doppler-Effekt.
    1842: Julius Robert Mayer (1814–1878): Erweiterung des Energieerhaltungssatzes der Mechanik auf Wärmevorgänge.
    1843: James Prescott Joule (1818–1889): Mechanisches und elektrisches Wärmeäquivalent.
    1845: Michael Faraday (1791–1867): Dia- und Paramagnetismus.
    1845: Michael Faraday (1791–1867): Drehung der Polarisationsebene von Licht im Magnetfeld (Faraday-Effekt).
    1846: Der achte Planet des Sonnensystems, Neptun, wird entdeckt.
    1846: Gustav Robert Kirchhoff (1824–1887) formuliert die nach ihm benannten kirchhoffschen Regeln zur Stromverzweigung.
    1847: Hermann Ludwig Ferdinand von Helmholtz (1821–1894) formuliert den allgemeinen Energieerhaltungssatz.
    1848: William Thomson (Lord Kelvin of Largs, 1824–1907) postuliert die Existenz eines absoluten Temperaturnullpunkts.
    1848: Armand Hippolyte Louis Fizeau (1819–1896): Doppler-Effekt beim Licht.
    1849: Eugène Bourdon (1808–1884) entwickelt die Barometerdose für Luftdruckmessungen.
    1849: Armand Hippolyte Louis Fizeau (1819–1896): Erste Bestimmung der Lichtgeschwindigkeit auf einer irdischen Messstrecke (9 km, Zahnradmethode): 298000 km/s.


    1850er Jahre


    1850: Jean Bernard Léon Foucault (1819–1868): Erste Bestimmung der Lichtgeschwindigkeit im Labor mit einer Drehspiegelmethode. Sie liefert das Ergebnis 298000 km/s.
    1850: Rudolf Julius Emanuel Clausius (1822–1888): Mechanische Wärmetheorie.
    1850: William Thomson (Lord Kelvin of Largs, 1824–1907): Absolute Temperatur (Kelvin-Skala).
    1851: Jean Bernard Léon Foucault (1819–1868) demonstriert die Erdrotation mit dem nach ihm benannten foucaultschen Pendel (67 m, 28 kg) im Panthéon zu Paris.
    1851: William Thomson (Lord Kelvin of Largs, 1824–1907): Dynamische Theorie der Wärme, 2. Hauptsatz der Thermodynamik.
    1851: Franz Ernst Neumann (1798–1895) stellt die Formel für das Induktionsgesetz auf.
    1851: Hippolyte Fizeau bestimmt mit dem Fizeau-Experiment den Mitführungskooeffizienten.
    1852: William Thomson (Lord Kelvin of Largs, 1824–1907) erfindet das Prinzip der Wärmepumpe.
    1852: Johann Wilhelm Hittorf stellt die Widerstandsänderung von Selen bei der Belichtung fest (innerer Photoeffekt).
    1852: George Gabriel Stokes entdeckt die Stokes-Verschiebung bei der Fluoreszenz.
    1854: Julius Plücker (1801–1868) erfindet die Gasentladungsröhre.
    1856: Jules Célestin Jamin baut ein Jamin-Interferometer.
    1859: Gustav Robert Kirchhoff (1824–1887) und Robert Bunsen (1811–1899) begründen die Spektralanalyse.
    1859: Julius Plücker (1801–1868) entdeckt die Kathodenstrahlen und ihre Fluoreszenz auslösende Wirkung.
    1859: Gaston Planté (1834–1889) erfindet den Akkumulator.
    1859: Gustav Robert Kirchhoff (1824–1887) stellt das nach ihm benannte kirchhoffsche Strahlungsgesetz auf.


    1860er Jahre


    1860: James Clerk Maxwell (1831–1879): Geschwindigkeitsverteilung der Moleküle in einem Gas.
    1862: Anders Jonas Ångström (1814–1874) entdeckt spektroskopisch Wasserstoff auf der Sonne.
    1862: Gustav Robert Kirchhoff (1824–1887) führt den Begriff des schwarzen Körpers ein.
    1863: John Tyndall (1820–1893) weist auf die Möglichkeit des anthropogenen Treibhauseffektes hin.
    1865: Rudolf Julius Emanuel Clausius (1822–1888): Begriff der Entropie, 2. Hauptsatz der Thermodynamik.
    1865: Johann Josef Loschmidt (1821–1895) bestimmt die Anzahl der Gasmoleküle in einem Mol zu 6·1023 und die Größenordnung des Moleküldurchmessers zu 10-10 m.
    1865: James Clerk Maxwell (1831–1879) stellt die nach ihm benannten Maxwell-Gleichungen der Elektrodynamik auf.
    1866: Anders Jonas Ångström (1814–1874) bestimmt die Wellenlängen der vier sichtbaren Linien im Wasserstoffspektrum.
    1866: Werner Siemens (1816–1892): Erste selbsterregende Dynamomaschine (dynamoelektrisches Prinzip).
    1866: Georg Hermann Quincke (1834–1924) erfindet das nach ihm benannte quinckesche Interferenzrohr zur Messung der Wellenlängen akustischer Wellen.
    1866: Ludwig Boltzmann (1844–1906): Zusammenhang zwischen Entropie und Wahrscheinlichkeit eines mechanischen Zustands.
    1868: Pierre Jules César Janssen (1824–1907) entdeckt spektroskopisch Helium auf der Sonne.
    1868: William Huggins (1824–1910): Doppler-Verschiebung von Sternen-Spektren.
    1869: Dmitri Iwanowitsch Mendelejew (1834–1907) und unabhängig davon Julius Lothar Meyer (1830–1895): Periodensystem der Elemente.
    1869: Johann Wilhelm Hittorf (1824–1914) stellt die Ablenkbarkeit von Kathodenstrahlen in einem Magnetfeld fest.


    1870er Jahre


    1871: James Clerk Maxwell (1831–1879) erdenkt den Maxwellschen Dämon.
    1871: Lord Rayleigh erklärt die theoretischen Grundlagen der Rayleigh-Streuung.[2]
    1873: Johannes Diderik van der Waals (1837–1923) entwickelt die Van-der-Waals-Gleichung für reale Gase.
    1873: James Clerk Maxwell (1831–1879): Licht als elektromagnetische Welle.
    1873: Ernst Abbe bestimmt das theoretische Auflösungsvermögen von Mikroskopen.
    1875: John Kerr (1824–1907) entdeckt den nach ihm benannten elektrooptischen Kerr-Effekt und 1876 den magnetooptischen Kerr-Effekt.
    1875: Karl Ferdinand Braun (1850–1918): Entdeckung des Sperrschicht-Effekts an einer Metall-Halbleiter-Kombination.
    1875: Die internationale Meterkonvention wird zwischen 17 Staaten abgeschlossen (erstes internationales metrologisches Vertragswerk).
    1876: William Ramsay (1852–1916): Qualitative Deutung der brownschen Bewegung.
    1879: Josef Stefan (1835–1893) stellt empirisch ein Gesetz über die Strahlung eines schwarzen Körpers auf.
    1879: Edwin Herbert Hall (1855–1938) entdeckt den nach ihm benannten Hall-Effekt.


    1880er Jahre


    1880: Pierre Curie (1859–1906) und Paul-Jacques Curie (1855–1941): Elektrische Eigenschaften der Kristalle, Piezoelektrizität.
    1881: Gabriel Lippmann erklärt die theoretischen Grundlagen der Piezoelektrizität.
    1881: Hermann Ludwig Ferdinand von Helmholtz (1821–1894): Begriff der freien Energie.
    1881: Albert Abraham Michelson (1852–1931) scheitert bei dem Versuch, eine Relativbewegung zwischen Äther und Erde nachzuweisen. Genauere Messungen 1887 zusammen mit Edward Williams Morley (1838–1923) waren ebenfalls negativ (Michelson-Morley-Experiment).
    1881: Auf dem „1. Internationalen Elektrizitätskongress“ in Paris werden die elektrischen Einheiten Volt, Ampere und Ohm eingeführt.
    1882: Svante Arrhenius (1859–1927): Theorie der elektrolytischen Dissoziation.
    1883: Thomas Alva Edison (1847–1931) entdeckt den glühelektrischen Effekt (Edison-Effekt).
    1883: William Stanley (1858–1916) erfindet den Transformator.
    1884: Ludwig Boltzmann leitet das Gesetz der Schwarzkörperstrahlung theoretisch her.
    1885: Johann Jakob Balmer (1825–1898) findet durch Probieren das Bildungsgesetz für die sichtbaren Linien im Wasserstoffspektrum (Balmer-Serie).
    1885: Carl Benz baut und testet das erste durch einen Verbrennungsmotor angetriebene Automobil und erhält ein Patent darauf.
    1886: Eugen Goldstein (1850–1930) beschreibt die Kanalstrahlen.
    1886: Loránd Eötvös (1848–1919) konstruiert hochpräzise Drehwaagen zur Untersuchung der Äquivalenz von träger und schwerer Masse. 1909 im nach ihm benannten Eötvös-Experiment mit einer Genauigkeit von 10-9 bestätigt.
    1887: Heinrich Hertz (1857–1894) erzeugt elektromagnetische Wellen. Er entdeckt den äußeren lichtelektrischen Effekt.
    1887: Albert Abraham Michelson (1852–1931): Feinstruktur des Wasserstoffspektrums.
    1887: Ernst Mach (1836–1916) erforscht den Überschallknall.
    1887: Gründung der Physikalisch-Technischen Reichsanstalt zur Organisation und Kontrolle des Messwesens in Deutschland, der späteren Physikalisch-Technischen Bundesanstalt (PTB).
    1887: Woldemar Voigt stellt Näherungen der Transformationsgleichungen für die Maxwell-Gleichungen auf.
    1888: Wilhelm Ludwig Franz Hallwachs (1859–1922) untersucht den äußeren lichtelektrischen Effekt.
    1889: Johannes Robert Rydberg (1854–1919): Gesetzmäßigkeiten im Wasserstoffspektrum, Serien von Spektrallinien, Rydberg-Konstante.
    1889: Kopien des Urmeters werden an die Mitgliedsländer der Meterkonvention ausgeliefert.
    1889: Deutschland erhält die Kopie Nr. 22 des Urkilogramm-Prototyps.


    1890er Jahre


    1890: Loránd Eötvös prüft im Eötvös-Experiment das Äquivalenzprinzip mit einer Drehwaage.
    1890: Otto Wiener (1862–1927) weist stehende Lichtwellen nach.
    1891: Hendrik Antoon Lorentz (1853–1928) stellt die nach ihm benannte Lorentz-Transformation auf.
    1891: George Johnstone Stoney (1826–1911) vermutet, dass Elektrizität aus Elementarteilchen besteht. Er schlägt die Bezeichnung „Elektron“ für die kleinste Ladungseinheit vor.
    1891: Heinrich Hertz (1857–1894) bemerkt die Durchlässigkeit dünner Metallschichten für Kathodenstrahlen.
    1891: Gabriel Lippmann stellt das Lippmannverfahren vor.
    1893: Wilhelm Wien (1864–1928) stellt das nach ihm benannte wiensche Verschiebungsgesetz auf.
    1893: Charles Proteus Steinmetz (1865–1923) gelingt als Erstem die Berechnung von Wechselstromkreisen.
    1894: Philipp Lenard (1862–1947): Streuversuch mit Elektronen durch Aluminiumfolie („Lenard-Fenster“).
    1894: Pierre Curie (1859–1906): Umwandlung von Ferro- in Paramagnetismus oberhalb der Curie-Temperatur.
    1894: Heinrich Hertz (1857–1894): Radiowellen haben Lichtgeschwindigkeit, können gebrochen und polarisiert werden.
    1895: Jean Baptiste Perrin (1870–1942) weist die negative Ladung der Teilchen in Kathodenstrahlen nach.
    1895: Hendrik Antoon Lorentz (1853–1928): Einführung der „Lorentz-Kraft“ in die Elektrodynamik. Lorentz-Transformation für geringe Geschwindigkeiten.
    1895: Wilhelm Conrad Röntgen (1845–1923) entdeckt die nach ihm benannte Röntgenstrahlung.
    1895: Hendrik Antoon Lorentz (1853–1928): Elektronentheorie.
    1895: Guglielmo Marconi entwickelt die drahtlose Telegrafie.
    1896: Antoine Henri Becquerel (1852–1908) entdeckt die Radioaktivität.
    1896: Pieter Zeeman (1865–1943): Aufspaltung der Spektrallinien lichtaussendender Atome im Magnetfeld (Zeeman-Effekt).
    1897: Charles Fabry und Alfred Pérot bauen ein Fabry-Pérot-Interferometer.
    1897: Joseph John Thomson (1856–1940): Entdeckung des freien Elektrons.
    1897: Karl Ferdinand Braun (1850–1918): Elektronenstrahlröhre (braunsche Röhre).
    1897: Robert Williams Wood beobachtet als erster den Tunneleffekt bei der Feldemission von Elektronen.
    1897: Joseph Larmor formuliert die vollständige Lorentz-Transformation.
    1898: Marie Curie (1867–1934) und Pierre Curie (1859–1906) entdecken die radioaktiven Elemente Polonium und Radium.
    1898: Joseph John Thomson (1856–1940) und William Thomson (Lord Kelvin, 1824–1907): Thomsonsches Atommodell, Berücksichtigung elektrischer Ladungen.
    1898: Ernest Rutherford (1871–1937) benennt zwei Komponenten radioaktiver Strahlung des Urans mit Alpha- und Beta-Strahlung.
    1898: Karl Ferdinand Braun (1850–1918): Entwicklung des elektromagnetischen Schwingkreises zur Erzeugung elektromagnetischer Wellen für den drahtlosen Funkverkehr.
    1899: Julius Elster (1854–1920) und Hans Friedrich Geitel (1855–1923): Radioaktivität beruht auf Atomzerfall. Exponentielles Zerfallsgesetz.
    1899: Hans Friedrich Geitel (1855–1923) prägt den Begriff „Atomenergie“.
    1899: Antoine Henri Becquerel (1852–1908) entdeckt die magnetische Ablenkbarkeit der Betastrahlung.
    1899: Pjotr Nikolajewitsch Lebedev (1866–1912) weist den Lichtdruck experimentell nach.
    1899: Joseph John Thomson (1856–1940) misst die Ladung eines Elektrons.
    1899: Philipp Lenard (1862–1947) deutet den lichtelektrischen Effekt durch Freisetzung von Elektronen.



    Das 20 Jahrhundert kommt dann auch bald......


    MFG


    Bak

  • Erfindungen und Entdeckungen Teil 3


    Wie man hier sehen kann, kommt es im 20 Jahrhundert zu einer wahren Explosion an Entdeckungen und Erfindungen.



    20. Jahrhundert


    1900er Jahre


    1900: Max Planck (1858–1947) begründet die Quantenphysik: Plancksches Strahlungsgesetz schwarzer Körper, Energiequanten, Wirkungsquantum.
    1900: Paul Villard (1860–1934) entdeckt die Gamma-Strahlung.
    1900: Ernest Rutherford (1871–1937): Erstmalige Bestimmung der Halbwertszeit eines radioaktiven Elements.
    1900: Paul Drude (1863–1906) weist nach, dass Strom in Metallen auf gerichtet bewegten Elektronen beruht (Elektronentheorie der Metalle).
    1900: Henri Poincaré deutet die lorentzsche Ortszeit als Folge einer Uhrensynchronisation mit Lichtsignalen (Relativität der Gleichzeitigkeit). Schreibt elektromagnetischer Energie eine bestimmte Masse zu.
    1901: Julius Elster (1854–1920) und Hans Friedrich Geitel (1855–1923) weisen Radioaktivität in der Luft nach.
    1901: Pierre Curie (1859–1906) misst die von Radium abgestrahlte Energiemenge.
    1901: Owen Willans Richardson (1879–1959): Theoretische Deutung des schon 1883 von T. A. Edison beobachteten glühelektrischen Effekts (Edison-Effekt, Richardson-Effekt).
    1901: Walter Kaufmann (1871–1947) weist die Zunahme der Elektronenmasse bei wachsender Geschwindigkeit nach (bis v=0,94c).
    1902: Frederick Soddy (1877–1956) entdeckt die Zerfallsreihe von Uran.
    1902: Philipp Lenard (1862–1947): Beim lichtelektrischen Effekt wächst die Energie der Photoelektronen von einer unteren Grenzfrequenz mit der Frequenz des auslösenden Lichtes an und ist unabhängig von der Intensität des Lichtes.
    1903: William Ramsay (1852–1916) und Frederick Soddy (1877–1956): Beim Zerfall von Radium entsteht Helium. Vorstellung, dass jeder radioaktive Vorgang eine Element-Umwandlung ist.
    1903: Ernest Rutherford (1871–1937): Alpha-Teilchen tragen positive Ladung (Ablenkung von Alpha-Strahlung durch Magnetfeld).
    1904: Charles Glover Barkla (1877–1944): Polarisation bei Röntgenstrahlung.
    1904: Hendrik Antoon Lorentz erreicht annähernd Lorentz-Kovarianz der elektromagnetischen Gleichungen.
    1904: Henri Poincaré (1854–1912) postuliert, dass in Inertialsystemen die Naturgesetze gegenüber Lorentz-Transformationen invariant sein müssen.
    1904: Marian Smoluchowski (1872–1917): Statistische Theorie der brownschen Bewegung.
    1904: Frederick Thomas Trouton und Henry R. Noble führen das Trouton-Noble-Experiment durch.
    1905: Henri Poincaré: Vollständige Lorentz-Kovarianz der elektromagnetischen Gleichungen. Symmetrische Formulierung der Lorentz-Transformation.
    1905: Albert Einstein (1879–1955): Lichtquantenhypothese zur Erklärung des lichtelektrischen Effekts, spezielle Relativitätstheorie, Äquivalenz von Masse und Energie, molekularkinetisch-quantitative Deutung der brownschen Bewegung.
    1905: Charles Glover Barkla (1877–1944) entdeckt die charakteristische Röntgenstrahlung der Elemente.
    1905: Johannes Stark (1874–1957) entdeckt den optischen Doppler-Effekt an Kanalstrahlen.
    1905: Walther Nernst (1864–1941) formuliert den 3. Hauptsatz der Thermodynamik.
    1906: Theodore Lyman (1874–1954) entdeckt die nach ihm benannte Lyman-Serie des Wasserstoffatomspektrums.
    1906: Ernest Rutherford (1871–1937): Alpha-Teilchen sind Heliumkerne.
    1907: Albert Einstein: Äquivalenz von träger und schwerer Masse. (Äquivalenzprinzip (Physik))
    1907: Hermann Minkowski: Vierdimensionale Formulierung der Speziellen Relativitätstheorie. Raumzeit.
    1908: Jean Baptiste Perrin (1870–1942) ermittelt als Erster die ungefähre Größe von Atomen zu 10-10 m.
    1908: Johannes Wilhelm Geiger (1882–1945), Ernest Rutherford (1871–1937) und Thomas Royds (1884–1955) identifizieren experimentell Alpha-Teilchen als Kerne von Heliumatomen.
    1908: Gustav Mie beschreibt die Mie-Streuung.
    1909: Geoffrey Ingram Taylor (1886–1975): Beugungsversuche mit Licht äußerst geringer Intensität.
    1909: Otto Hahn (1879–1968) und Lise Meitner (1878–1968): Entdeckung des "radioaktiven Rückstoßes" beim Alpha-Zerfall.
    1909: Alfred Bucherer (1863–1927) weist die Zunahme der Elektronenmasse bei wachsender Geschwindigkeit gemäß der speziellen Relativitätstheorie nach (bis v=0,53c).
    1909: Ernest Rutherford und Thomas Royds weisen nach, dass Alphateilchen zweifach positiv geladene Heliumionen sind.


    1910er Jahre


    1910: Joseph John Thomson (1856–1940) weist als Erster die Existenz von Isotopen nach (Ne-20 und Ne-22).
    1910: Robert Andrews Millikan (1868–1953) bestimmt die Elementarladung mittels Öltröpfchenversuchs präzise.
    1911: Ernest Rutherford (1871–1937): Streuversuche mit Alpha-Teilchen durch Goldfolie. Atommodell (Atomkern und Atomhülle).
    1911: Heike Kamerlingh Onnes (1853–1926) entdeckt die Supraleitung an Quecksilber bei 4,2 K.
    1912: Max Felix Theodor von Laue (1879–1960) weist den Wellencharakter der Röntgenstrahlung nach (Laue-Verfahren).
    1912: Victor Franz Hess (1883–1964) entdeckt die Höhenstrahlung.
    1912: Johannes Wilhelm Geiger (1881–1945) und John Mitchell Nuttall: Verknüpfung von Energie und Halbwertszeit bei Alpha-Strahlern (Geiger-Nuttall-Regel).
    1912: Albert Einstein (1879–1955): Jede photochemische Reaktion besteht primär in der Absorption eines Lichtquants und der dadurch an einem Atom oder Molekül ausgelösten Umsetzung.
    1913: William Henry Bragg (1862–1942) und William Lawrence Bragg (1890–1971) stellen die "Bragg"-Bedingung für die Reflexion von Röntgenstrahlung an Kristallen auf (Bragg-Reflexion). Drehkristallmethode.
    1913: James Franck (1882–1964) und Gustav Ludwig Hertz (1887–1975) führen Elektronenstoßversuche durch (Franck-Hertz-Versuch): Energiequantelung in der Atomhülle.
    1913: Niels Henrick David Bohr (1885–1962) entwickelt das rutherfordsche Atommodell zum halbklassischen "bohrschen" Atommodell weiter.
    1913: Henry Gwyn Jeffrys Moseley (1887–1915) formuliert das moseleysche Gesetz. Es erlaubt die Bestimmung von Kernladungszahlen mit Hilfe der charakteristischen Röntgenstrahlung.
    1913: Charles Thomson Rees Wilson (1869–1959): Erste Expansionsnebelkammer.
    1913: Johannes Stark (1874–1957): Aufspaltung der Wasserstoff-Spektrallinien im elektrischen Feld (Stark-Effekt).
    1913: Frederick Soddy (1877–1956) und Kasimir Fajans (1887–1975) formulieren das Verschiebungsgesetz der Radioaktivität.
    1913: Alexander Meißner (1883–1958) entwickelt die Meißner-Schaltung für Röhrensender mit Rückkopplung.
    1914: Ernest Rutherford (1871–1937): Gamma-Strahlung besteht aus energiereichen Photonen. Entdeckung des Protons.
    1915: Albert Einstein (1879–1955) veröffentlicht die allgemeine Relativitätstheorie.
    1915: Arnold Sommerfeld (1868–1951) erweitert das Atommodell von Bohr (ellipsenförmige Elektronenbahnen, Nebenquantenzahl).
    1915: Peter Debye (1884–1966) und Paul Scherrer (1890–1969): Röntgenstrahlinterferenzen an Kristallpulver (Debye-Scherrer-Verfahren) zur Kristallstrukturanalyse.
    1915: William Duane (1872–1935) bringt den experimentellen Nachweis der kurzwelligen Grenze der Röntgenbremsstrahlung (zusammen mit Franklin Livingstone Hunt (* 1883)).
    1916: Robert Andrews Millikan (1868–1953) bestätigt experimentell die von Albert Einstein angegebene Energiebeziehung beim Photoeffekt.
    1916: Albert Einstein (1879–1955) postuliert die stimulierte Emission von Licht (Grundlage für den Bau von Lasern ab 1960).
    1916: Karl Schwarzschild berechnet die erste Lösung für Einsteins Feldgleichung, die nach ihm benannte Schwarzschild-Metrik.
    1918: Niels Henrick David Bohr (1885–1962): "Bohrsches" Korrespondenzprinzip.
    1919: Ernest Rutherford (1871–1937): Erste künstliche Kernumwandlung, Nachweis des Protons im Atomkern.
    1919: Arthur Stanley Eddington (1882–1944), Crommelin und Davidson bestätigen während einer Sonnenfinsternis die von Albert Einstein in der allgemeinen Relativitätstheorie vorausgesagte Lichtablenkung in Gravitationsfeldern am Sonnenrand.
    1919: Francis William Aston (1877–1945): Bau des ersten Massenspektrographen.
    1919: Heinrich Georg Barkhausen (1881–1956) findet den nach ihm benannten Barkhausen-Effekt.


    1920er Jahre


    1920: Otto Stern (1888–1969): Messung der Geschwindigkeit von Gasmolekülen.
    1920: Ernest Rutherford (1871–1937) sagt das Neutron voraus.
    1921: Maurice de Broglie (1875–1960): Kernphotoeffekt.
    1922: Arthur Holly Compton (1892–1962): Stoß zwischen Röntgenquant und Elektron (Compton-Effekt).
    1922: Otto Stern (1888–1969) und Walther Gerlach (1889–1979): Experimenteller Nachweis des Elektronenspins durch den nach ihnen benannten Stern-Gerlach-Versuch.
    1923: Adolf Smekal sagt die unelastische Streuung von Licht an Korkuskeln voraus.
    1924: Louis-Victor de Broglie (1892–1987):Theorie der Materiewellen, Bestätigung 1927 durch Versuche zur Elektronenbeugung von Clinton Joseph Davisson (1881–1958) und George Paget Thomson (1892–1975).
    1925: Wolfgang Pauli (1900–1958) formuliert das für den Aufbau der Atomhüllen fundamentale "Pauli-Prinzip".
    1925: Samuel Abraham Goudsmit (1902–1978) und George Eugene Uhlenbeck (1900–1988): Elektronenspin zur Erklärung der Aufspaltung der Natrium-D-Linie.
    1925: Werner Karl Heisenberg (1901–1976) entwickelt die Matrizenmechanik.
    1925: Pierre Victor Auger (1899–1993): Innerer Photoeffekt (Auger-Effekt).
    1926: Erwin Schrödinger (1887–1961) begründet die Wellenmechanik.
    1926: Hans Busch (1884–1973): Begründung der Elektronenoptik.
    1926: Max Born (1882–1970): Wahrscheinlichkeitswellen, statistische Deutung der Quantenmechanik.
    1926: Niels Henrick David Bohr (1885–1962) und Werner Karl Heisenberg (1901–1976): Kopenhagener Deutung der Quantenmechanik.
    1926: Friedrich Hund (1896–1997) postuliert den Tunneleffekt.
    1926: Lise Meitner (1878–1968) weist experimentell nach, dass die Gamma-Strahlung erst nach der Kernumwandlung entsteht.
    1926 Gregor Wentzel, Hendrik Anthony Kramers und Leon Brillouin entwickeln mit der WKB-Methode den Grundstein für die quantenmechanische Erklärung von Tunnelprozessen.
    1927: Clinton Joseph Davisson (1881–1958) und Lester Halbert Germer (1896–1971): Streuung von Elektronen an Nickel-Einkristallen.
    1927: George Paget Thomson (1892–1975): Streuung von Elektronen an Kristallen.
    1927: Albert Abraham Michelson (1852–1931) bestimmt die Lichtgeschwindigkeit zu 299798 km/s.
    1927: Georges Lemaître (1894–1966): Theorie einer Expansion des Weltalls nach Urknall.
    1927: Werner Karl Heisenberg (1901–1976) formuliert die nach ihm benannte heisenbergsche Unschärferelation.
    1927: Paul Adrien Maurice Dirac (1902–1984) formuliert die Quantenelektrodynamik zur Beschreibung der Wechselwirkung von Lichtquanten mit Atomen.
    1928: Ralph Howard Fowler (1889–1944) und Lothar Wolfgang Nordheim (1899–1985) entdecken und beschreiben den Tunneleffekt.
    1928: Johannes Wilhelm Geiger (1882–1945) und Walther Müller (1905–1979) bauen das erste Zählrohr.
    1928: George Anthony Gamow (1904–1968) interpretiert den Alphazerfall als Tunneleffekt.
    1928: Paul Adrien Maurice Dirac (1902–1984): Vorhersage des Positrons, das 1932 von Carl David Anderson gefunden wird.
    1928: Chandrasekhara Venkata Raman entdeckt die von Adolf Smekal vorhergesagte Raman-Streuung
    1929: Robert Jemison Van de Graaff (1901–1967) erfindet den Bandgenerator zur Erzeugung von Hochspannung.
    1929: John Douglas Cockcroft (1897–1967) und Ernest Thomas Sinton Walton (1903–1995) entwickeln den ersten Teilchenbeschleuniger mit einer Beschleunigungsspannung von 10000 V.
    1929: Edwin Powell Hubble (1889–1953) und Milton Lasell Humason (1891–1972) deuten die Rotverschiebung von Sternen als Folge einer Expansion des Universums (siehe auch Georges Lemaître 1927).
    1929: Oskar Klein entdeckt die Durchtunnelung von Barrieren mittels sehr schneller Teilchen.


    1930er Jahre


    1930: Paul Adrien Maurice Dirac (1902–1984) postuliert die Existenz von Antimaterie.
    1930: Otto Stern (1888–1969), Otto Robert Frisch (1904–1979) und Immanuel Estermann (1900–1973): Beugung von Strahlen aus Heliumatomen und Wasserstoffmolekülen an einem Lithiumfluoridkristall.
    1930: Clyde Tombaugh (1906–1997) entdeckt auf photographischem Wege den Planeten Pluto.
    1930: Wolfgang Pauli (1900–1958) postuliert das Neutrino.
    1930: Albert Einstein konfrontiert Niels Bohr mit dem quantenmechanischen Widerspruch in seinem Gedankenexperiment der Photonenwaage, den Niels Bohr einen Tag später mit Hilfe der Allgemeinen Relativitätstheorie erklären kann.
    1930: Georg Joos wiederholt das Michelson-Morley-Experiment mit sehr hoher Präzision.
    1931: Bernhard Schmidt baut das erste Schmidt-Teleskop.
    1931: Ernst August Friedrich Ruska (1906–1988) entwickelt zusammen mit Max Knoll (1897–1969) das Elektronenmikroskop.
    1931: Karl Guthe Jansky (1905–1950) stellt die Existenz kosmischer Radioquellen fest und begründet so die Radioastronomie.
    1932: James Chadwick (1891–1974) entdeckt das Neutron.
    1932: Werner Karl Heisenberg (1901–1976): Atomkerne sind nicht aus Protonen und Elektronen, sondern aus Protonen und Neutronen aufgebaut.
    1932: Ernest Orlando Lawrence (1901–1958) konstruiert das erste Zyklotron.
    1932: John Douglas Cockcroft (1897–1967) und Ernest Thomas Sinton Walton (1903–1995): Erste Kernumwandlung mit künstlich beschleunigten Protonen durch Zerlegung eines Lithiumkerns in zwei Heliumkerne.
    1932: Carl David Anderson (1905–1991) entdeckt in der Höhenstrahlung das Positron.
    1932: Harold Clayton Urey (1893–1981) entdeckt das Wasserstoffisotop Deuterium.
    1933: Siegfried Flügge (1912–1997) weist als Erster auf die Möglichkeit der technischen Verwendung von Kernenergie hin.
    1933: Patrick Maynard Stuart Blackett (1897–1974) weist die Elektron-Positron-Paarbildung aus Gammaquanten nach.
    1934: Irène Joliot-Curie (1897–1956) und Jean Frédéric Joliot-Curie (1900–1958) erzeugen künstliche Radionuklide.
    1934: Marcus Laurence Elwin Oliphant (1901–2000) stellt künstlich das Wasserstoffisotop Tritium her.
    1934: James Chadwick (1891–1974) bestimmt die Masse des Neutrons.
    1934: Paul Adrien Maurice Dirac (1902–1984): Vakuumpolarisation.
    1934: Louis-Victor de Broglie (1892–1987) prägt den Begriff des Antiteilchens.
    1934: Pawel Alexejewitsch Tscherenkow (1904–1990) beschreibt die nach ihm benannte Tscherenkow-Strahlung.
    1934: Enrico Fermi (1901–1954): Theorie des Beta-Zerfalls.
    1935: Hideki Yukawa (1907–1981): Theorie der Kernkräfte, Voraussage des K-Einfangs, Voraussage von Mesonen.
    1935: George Anthony Gamow (1904–1968): Tröpfchenmodell des Atomkerns.
    1935: Erwin Schrödinger (1887–1961): Formuliert zur Quantentheorie das Gedankenexperiment der schrödingerschen Katze.
    1935: Albert Einstein (1879–1955), Boris Podolsky (1896–1966) und Nathan Rosen (1909–1995) formulieren das Einstein-Podolsky-Rosen-Paradoxon.
    1935: Hans Albrecht Bethe (1906–2005) und Carl Friedrich von Weizsäcker (1912-2007) formulieren die nach ihnen benannte Bethe-Weizsäcker-Formel für die Bindungsenergie der Nukleonen im Atomkern.
    1936: Diffusionsnebelkammer.
    1936: Erwin Wilhelm Müller (1911–1977) erfindet das Feldelektronenmikroskop.
    1937: Luis Walter Alvarez (1911–1988): Nachweis des K-Einfangs.
    1937: Carl David Anderson (1905–1991): Nachweis von Mesonen in der Höhenstrahlung.
    1937: Emilio Gino Segrè (1905–1989) stellt erstmals das künstliche Element Technetium mit Z=43 her.
    1938: Otto Hahn (1879–1968) und Fritz Straßmann (1902–1980): Erste Kernspaltung, Deutung maßgeblich durch Lise Meitner (1878–1968) zusammen mit Otto Robert Frisch (1904–1979).
    1938: Hans Albrecht Bethe (1906-2005) und Carl Friedrich von Weizsäcker (1912-2007) formulieren den Bethe-Weizsäcker-Zyklus der Kernfusion in der Sonne.
    1938: Irène Joliot-Curie (1897–1956) und Jean Frédéric Joliot-Curie (1900–1958) sowie Leo Szilard (1898–1964) weisen darauf hin, dass die Kernspaltung bei Uran als Kettenreaktion ablaufen kann.
    1938: J. Robert Oppenheimer (1904–1967) und George Michael Volkoff (1914–2000) sagen die Existenz schnell rotierender Neutronensterne (Pulsare) voraus.
    1938: Herbert E. Ives weist im Ives-Stilwell-Experiment die Zeitdilatation nach.


    1940er Jahre


    1940: Philip Hauge Abelson (1913–2004) und Edwin Mattison McMillan (1902–1992) entdecken erstes Transuran (Neptunium, Z= 93) und zusammen mit Glenn T. Seaborg (1912–1999) Plutonium (Z=94).
    1940: Donald William Kerst (1911–1993) baut einen Beschleuniger für Elektronen, das sogenannte Betatron.
    1942: Enrico Fermi (1901–1954): Erste kontrollierte Kettenreaktion im Forschungsreaktor in Chicago mit einer Leistung von ca. 2 Watt.
    1944: Wladimir Jossifowitsch Weksler (1907–1966): Grundlagen für die Konstruktion des Synchrotrons.
    1944: John von Neumann (1903–1957) weist nach, dass die Wellenmechanik von Erwin Schrödinger und die Matrizenmechanik von Werner Karl Heisenberg mathematisch äquivalent sind.
    1944: Hannes Olof Gösta Alfvén (1908–1995): Entwicklung der Magnetohydrodynamik (MHD).
    1945: Erste Atombombe wird getestet. Abwürfe auf Hiroshima (6. August 1945) und Nagasaki (9. August 1945).
    1946: Erstes Synchrozyklotron zur Erzeugung hochenergetischer Alphateilchen (University of California, Berkeley).
    1946: Felix Bloch (1905–1983) und unabhängig davon Edward Mills Purcell (1912–1997) entwickeln die Methode der Kernspinresonanz (NMR), die Grundlage für die Kernspintomografie.
    1947: Hartmut Kallmann (1898–1976): Szintillationszähler.
    1947: Cecil Frank Powell (1903–1969) entdeckt in der Höhenstrahlung das Pi-Meson.
    1947: Willis Eugene Lamb (1913–2008): Hyperfeinstruktur des Wasserstoffspektrums (Lambverschiebung).
    1947: Entdeckung der Synchrotronstrahlung.
    1947: Willard Frank Libby (1908–1980): Radiokohlenstoffmethode mit dem Isotop 14C zur archäologischen Altersbestimmung.
    1948: John Bardeen (1908–1991), Walter Houser Brattain (1902–1987) und William Bradford Shockley (1910–1989) entwickeln den ersten Transistor.
    1948: Dennis Gábor (1900–1979) entwickelt die Holografie. Technische Realisierung erstmals 1965 gelungen.
    1948: George Gamow (1904–1968) entwickelt die Urknall-Theorie zur Entstehung des Kosmos.
    1948: Richard Phillips Feynman (1918–1988): Quantenelektrodynamik (QED), Feynman-Graphen (1949).
    1948: Hans Boersch entdeckt den Boersch-Effekt.
    1949: Harold Lyons (* 1913) entwickelt die erste Atomuhr.
    1949: Maria Goeppert-Mayer (1906–1972) und unabhängig davon Johannes Hans Daniel Jensen (1907–1973) und Otto Haxel (1909–1998): Schalenmodell des Atomkerns.

  • 1950er Jahre


    1950: R. C. Mobley und R. A. Laubenstein bestimmen die Masse des Neutrons über den Massendefekt von Deuterium.
    1951: Erwin Wilhelm Müller (1911–1977) erfindet das Feldionenmikroskop.
    1952: Donald Arthur Glaser (1926–2013) entwickelt die Blasenkammer für die Untersuchung energiereicher Teilchen anhand ihrer Bahnspuren.
    1952: Die erste Wasserstoffbombe (Kernfusionswaffe) wird auf dem Eniwetok-Atoll im Pazifik getestet.
    1953: Erstmaliger Nachweis von Neutrinos, deren Existenz 1931 von Wolfgang Pauli postuliert wurde.
    1953: Charles Hard Townes (* 1915): Maser.
    1954: Erste Solarzelle entwickelt.
    1955: Owen Chamberlain (1920–2006) und Emilio Gino Segrè (1905–1989) weisen das Antiproton nach.
    1956: B. Cork, G. R. Lambertson, Oreste Piccioni (1915–2002) und William A. Wenzel entdecken das Antineutron.
    1956: Frederick Reines (1918–1998) und Clyde Lorrain Cowan (1920–1974): Nachweis des Antineutrinos.
    1956: Tsung-Dao Lee, Chen Ning Yang und Chien-Shiung Wu entdecken die Paritätsverletzung beim Betazerfall.
    1956: Gerald Maurice Clemence weist die relativistische Periheldrehung der Planeten nach.
    1957: Hugh Everett (1930–1982): Viele-Welten-Interpretation der Quantenmechanik.
    1957: Leo Esaki entwickelt die erste Tunneldiode.
    1958: Charles Hard Townes (* 1915) und Arthur Leonard Schawlow (1921–1999): Theorie des Lasers.
    1958: Rudolf Mößbauer (1929–2011) entdeckt den nach ihm benannten Mößbauer-Effekt.
    1958: Allan Rex Sandage bestimmt erneut die Hubble-Konstante.
    1959: Wolfgang Paul (1913–1993) und Hans Georg Dehmelt (* 1922) entwickeln die Ionenkäfig-Technik (Paul-Falle und Penning-Falle) zum Studium einzelner Elektronen und Ionen.
    1959: Saburu Fukui und Shotaro Miyamoto (1912–1992) bauen die erste Funkenkammer zur Beobachtung hochenergetischer subatomarer Teilchen.


    1960er Jahre


    1960: Robert Pound und Glen Rebka weisen mit Hilfe des Mößbauer-Effektes die terrestrische Rotverschiebung von Gamma-Strahlung nach.
    1960: Theodore Maiman (1927–2007) baut den ersten Laser (Rubin-Laser).
    1960: Donald Richard Herriott, Ali Javan und William R. Bennett bauen den ersten Gaslaser.
    1960: Die Längeneinheit Meter wird über die Wellenlänge einer Strahlung des Krypton-86-Atoms definiert.
    1960: Allan Rex Sandage (1926–2010) entdeckt einen ersten Quasar.
    1960: Ivar Giaever und J. C. Fisher entdecken das Ein-Elektronen-Tunneln zwischen zwei Supraleitern.
    1961: Claus Jönsson (* 1930): Beugung von Elektronen an Einzel- und Mehrfachspalt (Doppelspaltexperiment).
    1961: Robert Hofstadter (1915–1990) entdeckt anhand der Streuung hochenergetischer Elektronen an leichten Atomkernen die Existenz innerer Strukturen in Proton und Neutron.
    1961: Edward N. Lorenz (1917–2008) entdeckte in einem vereinfachten Wettermodell chaotisches Verhalten.
    1962: Annäherung an den absoluten Temperaturnullpunkt bis auf ein Millionstel Kelvin.
    1962 Brian D. Josephson entdeckt, dass Cooper-Paare tunneln können (Josephson-Effekt).
    1963: Murray Gell-Mann (* 1929) und unabhängig von ihm George Zweig (* 1937) stellen das Quark-Modell auf.
    1963: Philip W. Anderson, J. M. Rowell und D. E. Thomas weisen den Josephson-Effekt für den Gleichstromfall experimentell nach.
    1963 Sidney Shapiro weist den Josephson-Effekt für den Wechselstromfall experimentell nach.
    1964: Deutsches Elektronen-Synchrotron (DESY) in Hamburg: Bahndurchmesser etwa 100 m, Elektronenenergien von 9 GeV.
    1964: Nachweis des Ω−-Baryons, welches zuvor durch das Quark-Modell vorhergesagt wurde und als dessen Bestätigung gilt.
    1965: Arno Penzias (* 1933) und Robert Woodrow Wilson (* 1936): Entdeckung der kosmischen Hintergrundstrahlung.
    1965: Frederick Reines (1918–1998) und J. P. F. Sellshop weisen erstmals Neutrinos nach und zwar in der kosmischen Strahlung.
    1965: Emmett Leith und Juris Upatnieks stellen zum ersten Mal holografische Abbildungen her.
    1966: Fritz Peter Schäfer (1931–2011) erfindet den Farbstofflaser.
    1967: Jocelyn Bell (* 1943) entdeckt schnell rotierende Neutronensterne (Pulsare).
    1967: Die Zeiteinheit Sekunde wird über eine Strahlung des Caesium-133-Atoms definiert.


    1970er Jahre


    1970: Jerome I. Friedman (* 1930), Henry W. Kendall (1926–1999) und Richard E. Taylor (* 1929): Bestätigung des Quarkmodells durch Streuung von Elektronen an Protonen und Neutronen.
    1970: Erfindung der Schadt-Helfrich-Zelle (Flüssigkristall-Anzeige) durch Martin Schadt und Wolfgang Helfrich.
    1971: Einführung der Einheit Mol als Basiseinheit in das Internationale Einheitensystem (SI).
    1971: Im Sternbild Schwan wird mit dem Objekt Cygnus X-1 erstmals ein Schwarzes Loch entdeckt.
    1972: J. C. Hafele und Richard E. Keating beweisen mit einem Uhren-Experiment in Flugzeugen die Zeitdilatation der speziellen Relativitätstheorie.
    1972: Murray Gell-Mann (* 1929): Ansätze zur Quantenchromodynamik (QCD).
    1973: Kernfusion mit Laserstrahlen.
    1973: Begründung der Gammaastronomie.
    1974: Russell Hulse und Joseph Hooton Taylor Jr.: Entdeckung des Hulse-Taylor-Doppelpulsars, mit dem Gravitationswellen indirekt nachgewiesen werden konnten.
    1976: Super Proton Synchrotron (CERN) bei Genf: Bahndurchmesser etwa 200 m, Protonenenergien von 450 GeV.
    1977: Benoît B. Mandelbrot (1924–2010): "The Fractal Geometry of Nature".


    1980er Jahre


    1980: Klaus von Klitzing (* 1943) entdeckt den quantisierten Hall-Effekt.
    1981: Gerd Binnig (* 1947) und Heinrich Rohrer (1933–2013) entwickeln das Rastertunnelmikroskop.
    1983: Die 17. Generalkonferenz für Maß und Gewicht (CGPM) legt das Meter als die Länge der Strecke fest, die das Licht während der Dauer von 1/299792458 s im Vakuum zurücklegt.
    1986: Johannes Georg Bednorz (* 1950) und Karl Alex Müller (* 1927) finden Hochtemperatursupraleiter mit einer Sprungtemperatur von −238 °C.
    1988: James Van House und Arthur Rich: Entwicklung des Positronenmikroskops.
    1989: Betriebsbeginn des Large Electron-Positron Collider (LEP), einem Speicherring für Elektronen und Positronen, am CERN bei Genf: Teilchenenergien von 55 GeV.


    1990er Jahre


    1990: Start des Weltraumteleskops HUBBLE in den USA.
    1990: Start des Röntgensatelliten ROSAT.
    1991: Elektron-Proton-Speicherringanlage HERA beim Deutschen Elektronen-Synchrotron (DESY) in Hamburg: Bahndurchmesser der Speicherringe etwa 2 km, Kollision gegensinnig umlaufender Elektronen (bis 30 GeV) und Protonen (bis 800 GeV).
    1991: Im europäischen Gemeinschaftsexperiment Joint European Torus (JET) in Culham (England) konnte für die Dauer von 2 Sekunden eine Kernfusionsleistung von 1,8 MW erzielt werden.
    1994: Nachweis des Top-Quarks bei CERN in Genf.
    1994: Element mit der Ordnungszahl 110 (Darmstadtium) erzeugt (Gesellschaft für Schwerionenforschung (GSI) in Darmstadt).
    1995: Herstellung eines Bose-Einstein-Kondensats in Boulder (Colorado) aus rund 2000 Rubidium-87-Atomen bei etwa 1,7·10-7 Kelvin.
    1996: Herstellung von Antiwasserstoffatomen bei CERN in Genf für wenige Nanosekunden.
    1997: Bau des ersten funktionsfähigen Atomlasers im Massachusetts Institute of Technology (MIT).
    1998: Die Ergebnisse des Supernova Cosmology Projects belegen eine beschleunigte Ausdehnung des Universums und zeigen, dass Einsteins Kosmologische Konstante doch existiert.


    MFG


    Bak

  • Das 21 Jahrhundert




    2000er Jahre


    2000: Interferenz von molekularen Fullerenen am Gitter (Universität Wien).
    2008: Erste Inbetriebnahme des Large Hadron Colliders (LHC) beim CERN in Genf, der Protonen-Schwerpunktsenergieen von bis zu 14 TeV erreichen soll.


    2010er Jahre


    2012: Entdeckung eines neuen Bosons am LHC, das in seinen Eigenschaften mit hoher Wahrscheinlichkeit dem vorhergesagten Higgs-Boson entspricht.
    2012: Nachweis von Gravitationswellen anhand eines Doppelsternsystems mit zwei Weißen Zwergen



    Was hier natürlich auffällt ist, dass es kaum noch Entdeckungen und Erfindungen im 21 Jahrhundert gibt. Natürlich ist diese Liste nicht gepflegt worden und hier und da könnten noch ein paar dazu kommen.


    Aber das Grundprinzip bleibt ....


    Die Grundlage für die meisten Entwicklungen im 21 Jahrhundert wurden im 19 oder im 20 Jahrhundert gelegt.


    Hier noch ein schönes Beispiel.....




    Dyson-Sphäre



    Solch eine Struktur wurde erstmals von dem Physiker Freeman Dyson in der Juni-Ausgabe der Zeitschrift Science im Jahr 1960 beschrieben.[1] Dabei ging es darum, bei der Suche nach fortgeschrittenen außerirdischen Intelligenzen nach Infrarotquellen zu suchen, da die Energie des jeweiligen Zentralgestirns auch nach ihrer vollständigen Nutzung für die Zwecke jener Zivilisation wieder abgegeben werden muss (siehe Energieerhaltungssatz). Das würde aber, nachdem die Energie des kurzwelligen Lichts dazu genutzt wurde, um die Entropie des Systems zu verringern, in langwelligerer Form, und daher im Infrarotbereich, geschehen.


    Der Originalvorschlag von Dyson ging nicht weiter auf die Details der Konstruktion eines solchen Objektes ein, sondern konzentrierte sich mehr auf das fundamentalere Thema, wie eine fortgeschrittene Zivilisation ihre Energieproduktion auf das für ein Planetensystem erreichbare Maximum ausweiten kann. Eine solche Zivilisation würde als Typ II nach der Kardaschow-Skala, welche von dem Astronomen Nikolai Kardaschow entwickelt wurde, klassifiziert.



    Obwohl Dyson als „Erfinder“ der Dyson-Sphäre gilt, wurde er nach eigener Angabe von ähnlichen Ideen in Olaf Stapledons Science-Fiction-Roman Star Maker, der 1937 erschien, inspiriert. Eine noch frühere mögliche Anregung sowohl für Stapledon als auch für Dyson ist die Bernal-Sphäre, die erstmals 1929 von John Desmond Bernal beschrieben wurde. Dyson selbst hat seine Theorie später als „joke“ (Scherz) bezeichnet.



    Wer ist jetzt der Erfinder ? Der sich so etwas ausdenkt oder der so etwas letztendlich baut ????


    MFG


    Bak

  • O’Neill-Kolonien



    O’Neill-Kolonien sind hypothetische Weltraumkolonien, die vom Physiker Gerard K. O’Neill vorgeschlagen wurden


    Aufbau


    Form Kugel oder Zylinder


    Länge bis zu 30 km


    Durchmesser bis zu 6,5 km


    Einwohnerzahl zwischen 100 000 und mehreren Millionen


    geschätzte Kosten 100 Milliarden bis 100 Billionen Dollar (alte Schätzung)





    Kosten der ISS


    Wie viel das Projekt insgesamt kosten wird, ist umstritten. Nachdem die NASA beim Anfangsbetrag von 40 Milliarden US-Dollar diverse Korrekturen nach oben vornehmen musste, gibt sie heute keine neuen Kostenschätzungen mehr heraus. Nach Angaben der ESA werden sich die Gesamtkosten auf etwa 100 Milliarden Euro belaufen. Darin enthalten sind Entwicklung, Aufbau und die ersten zehn Jahre der Nutzung. 8 Milliarden Euro davon entfallen auf die Länder der ESA. 41 Prozent der europäischen Kosten werden von Deutschland getragen. Die Schweiz trägt 2,5 Prozent und Österreich weniger als 0,4 Prozent


    Derzeitige kosten um 1 Kg Material in die Umlaufbahn zu bringen breträgt ca. 10.000 $


    Kosten einer Mondkolonie


    colony supporting 1,000 people would cost ~$4 trillion to develop, $100 billion to deliver, and >$6 billion/year to
    staff and supply. We estimate that an alternative architecture can create this 1,000 person lunar colony for a
    development cost of ~$2 billion, transportation cost of ~$5 billion, and annual support cost of $1 billion.


    Wenn man die Raumstation mit einem Antrieb versieht und es als Generationsraumschiff nimmt, kommt natürlich noch eine Menge Geld obendrauf.



    Die Vorstellungen der O’Neill-Anhänger bezüglich der Größe dieser Stationen waren gigantisch, angefangen bei einer Hohlkugel für 100.000 Bewohner bis hin zu einem Zylinder von 30 km Länge und 6,5 km Durchmesser für Millionen von Menschen. Die Kolonien sollten ihren Bewohnern eine dauerhafte Heimat bieten. Deshalb ist es auch nicht verwunderlich, dass in der großzügigen Konstruktion neben landwirtschaftlichen Nutzflächen auch Parks, Seen und Häuser eingeplant waren.


    Die Kolonien sollten riesige Fensterflächen besitzen, durch die dann mit Hilfe ebenso großer Spiegel das Sonnenlicht in das Innere der Kugel oder des Zylinders gelenkt werden würde. Damit ein dauerhaftes Leben im Weltall überhaupt möglich ist, muss eine künstliche Gravitation geschaffen werden. Diese sollte durch Rotation jeder Kolonie erreicht werden. Ein Mantel aus Mondgestein sollte zudem den notwendigen Schutz vor der im Weltraum gefährlichen Sonnenstrahlung gewährleisten.


    Standort


    Wichtiges Element in der Planung der O’Neill-Kolonien war die Versorgung mit Rohstoffen vom Mond aus, zum Einen als Ausgangsprodukt für die Herstellung von Bauteilen, zum Anderen aber auch für den erwähnten Mantel aus Mondgestein, der vor der Sonnenstrahlung schützen sollte. Hierzu, so war die Idee, könnte auf dem Mond ein sogenannter Massenbeschleuniger errichtet werden. Er würde die benötigten Rohstoffe zum Bauplatz der Kolonien schleudern.


    Hierbei ist es natürlich von Bedeutung, dass die geschleuderten Objekte und natürlich auch das Konstrukt selber an Ort und Stelle bleiben. Deshalb hat sich O’Neill für seine Kolonien einen besonderen Standort ausgesucht: die Gleichgewichts-, Librations- oder Lagrange-Punkte L4 und L5. An diesen Punkten halten sich in einem System zwischen zwei Körpern – also in diesem Fall zwischen Erde und Mond – die Fliehkraft des rotierenden Systems und die Anziehungskraft der beiden Körper die Waage. Diesem Umstand ist es zu verdanken, dass ein an diesen Orten positioniertes Objekt an seiner Stelle bleibt.


    Die Lagrange-Punkte oder Librations-Punkte sind die nach Joseph-Louis Lagrange benannten Gleichgewichtpunkte des eingeschränkten Dreikörperproblems der Himmelsmechanik. An diesen Punkten im Weltraum heben sich die Gravitationskräfte benachbarter Himmelskörper und die Zentrifugalkraft der Bewegung gegenseitig auf, so dass jeder der drei Körper in seinem Bezugssystem kräftefrei ist und bezüglich der anderen beiden Körper immer denselben Ort einnimmt.


    Kann man im All parken?


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Leben in der O’Neill-Kolonie


    Das Innere einer O’Neill-KolonieDas Leben in den O’Neill-Kolonien ist von Autarkie gekennzeichnet. Die Bewohner sollen sich mit allen lebensnotwendigen Dingen selbst versorgen können.


    Zur Nahrungsversorgung werden Mais-, Sojabohnen- und Luzernefelder auf der mittleren Ebene angelegt. Die Wasserversorgung erfolgt aus künstlich angelegten Teichen auf der obersten Ebene. So kann es optimal zur Bewässerung der Felder verwendet werden. Mit dem Rest des Wassers könnten dann die Nutztiere versorgt werden, deren Ställe sich auf der untersten Terrasse befänden. Ausgehend von einer Bewohnerzahl von 10.000 Kolonisten könnten dort etwa 60.000 Hühner, 30.000 Kaninchen und eine beträchtliche Anzahl von Rindern gehalten werden.


    Anschließend würde das Wasser in einer Aufbereitungsanlage gereinigt und dem Kreislauf erneut zugeführt werden. So wäre eine gesunde Mischdiät möglich, die die Bewohner jeden Tag mit etwa 2400 Kilokalorien versorgen würde. Die Felder und Parks hätten zudem die Aufgabe, einen Großteil des Kohlendioxids aus der Luft aufzunehmen und Sauerstoff sowie Wasserdampf freizusetzen. Den restlichen Bedarf müsste dann die Hochtechnologie leisten.


    Die Chancen für eine Realisierbarkeit macht eine einfache Überschlagsrechnung deutlich: Bei der oben erwähnten Größe der Kolonie wöge alleine die Luft im Inneren ca 1,2 Milliarden Tonnen (normalen Atmosphärendruck vorausgesetzt).


    Ein gutes Beispiel für eine Rotierende Raumstation ist auch Babylon 5


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    MFG


    Bak

  • Tod im Weltraum




    Ich habe mal wieder 2001 gesehen und mich gefragt ob diese Scene realistisch ist.


    2001 - Into The Airlock


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    oder diese Scene von Mission to Mars


    Mission To Mars - Brian De Palma - Point Of No Return


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Nun ja ... ich dachte mal wieder ich wüsste es besser und wollte meinen Klugscheisser raushängen lassen
    Aber nach einigen Googeln fand ich doch interessante sachen und die NASA hat wohl einen Bericht darüber verfasst. Nennt sich Bioastronautics Data Book


    Hier einige Auszüge daraus: (Googel Translator)


    Könntest du im All überleben ?


    "Ein gewisses Maß an Bewusstsein wird wahrscheinlich für 9 bis 11 Sekunden gehalten werden. In rascher Folge danach, Lähmungen durch generalisierte Krampfanfälle . Während dieser Zeit bildet sich Wasserdampf in der nähe der Weichteile und etwas weniger im venösen Blut. Diese Entwicklung des Wasser-Dampf führt dazu, das sich der Körper bis auf das zweifache ausdehnen kann, ES SEI DENN er wird von einem Druckanzug zurückhalten. Herzfrequenz kann zunächst ansteigen, danach aber schnell wieder fallen . Der arterielle Blutdruck wird über einen Zeitraum fallen in einem Zeitraum von 30 bis 60 Sekunden, während der venöse Druck steigt, aufgrund der Ausdehnung des Venensystems von Gas und Dampf. Der venöse Druck übertrifft den Blutdruck innerhalb einer Minute. Es gibt dann praktisch keine Zirkulation ím Blut. Nach einem anfänglichen Ansturm von Gas aus der Lunge während der Dekompression, Gas-und Wasserdampf wird auch weiterhin nach außen durch die Atemwege fließen. Das Verdampfen von Wasser aus dem Mund und wird nahe dem Gefrierpunkt Nase/ Mund zufrieren lassen. Der Rest des Körpers auch zu gekühlt, aber langsamer.


    Man geht davon aus das der Mensch ca. 15 sec hat sich selbst zu helfen oder helfen zu lassen.dann Ohnmacht. Nach 15 Minuten droht der Hirntod.


    Würde Ihr Blut kochen?


    Nein.


    Der Blutdruck ist in dieser Umgebung höher als die äußere Umgebung. Eine typische Blutdruck könnte 75/120 sein. (gleich etwa 100 mbar). Der Siedepunkt von Wasser liegt bei 46 Grad Celsius (115 F) bei 100 mbar. Dies liegt deutlich über Körpertemperatur von 37 C (98,6 F). Blut wird nicht kochen, weil der elastische Druck der Blutgefäße hoch genug ist, dass es so unter dem Siedepunkt hält - zumindest, bis das Herz zu schlagen aufhört . Aber dann hat man andere Probleme


    Würden sie sofort erfrieren ?


    Jain (nicht so schnell wie im Film)


    Einige Hollywood-Filme zeigen Menschen die sofort erfrieren wenn sie dem Vakuum ausgesetzt sind. Das ist falsch.
    Aber sonst ist die Kälte des Weltraums nicht das Hauptproblem: Da kein Medium im Vakuum die Wärme ableitet, verliert der Körper nur durch Wärmestrahlung seine Hitze und damit vergleichsweise langsam.


    Hat irgend jemand das einmal Überlebt, im wirklichen Leben ?


    1966 ging bei einem Test im Vakuum ein Rauamnzug kaputt. Der Techniker darin verlor in 12 bis 15 Sekunden das Bewusstsein. Als nach 30 Sekunden wieder Normaldruck herrschte, kam er ohne einen bleibenden Schaden wieder zu Bewusstsein.



    Tja ...2001 kommt schon sehr nahe drann, aber Bowman hätte nicht einatmen dürfen, denn das wird dann wirklich böse und gibt dem Satz " Explosive Dekompession " ganz neue Bedeutung.


    Hier der Bericht


    http://www.geoffreylandis.com/vacuum.html



    Sci Xpert: 026 Wie stirbt man im Weltall?


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.




    Ich denke da hat Harald nicht lang genug Gegoogelt



    MFG


    Bak

  • Zeitreisen


    Zeitreisen sind wohl doch noch in einigen Köpfen Ok. Reden wir mal drüber.


    Warum Zeitreisen nicht funzen...



    Wenn wir es wie bei Star Trek machen.... mit einer bestimmten Geschwindigkeit zur Sonne fliegen und so durch die Zeit reisen. Was brauen wir ?


    Eine Energiequelle um das Raumschiff zu beschleunigen


    Beschleunigungskompensator


    Künstliche Gravitation


    und und und was so ein Raumschiff so alles braucht.


    Ein Tor durch das man in der Zeit reisen kann....


    Energiequelle


    da hab ich noch nicht mal Alpträume von so viel wäre das...
    mehere hundert oder tausend Sonnen wären da nötig...
    .



    Dann gibt es noch das Großvater-Paradoxon


    Es ist das am häufigsten verwendete Beispiel, um Probleme mit der Kausalität bei Zeitreisen zu illustrieren. Es handelt sich dabei um folgendes Szenario:


    Jemand, der über die Möglichkeit der Zeitreise verfügt, reist zurück in die Vergangenheit vor der Zeugung seines Vaters und tötet dort seinen Großvater. Das Paradoxon in dieser Situation entsteht durch die Tatsache, dass der Zeitreisende ohne die Existenz seines Vaters, der nun wegen des Todes des Großvaters nicht geboren wird, selbst nicht geboren werden kann und folglich auch nicht hätte in der Zeit zurückreisen können, um seinen eigenen Großvater zu töten.


    Man muss ja nicht seinen Großvater umbringen um die Vergangenheit zu ändern. Die bloße Anwesenheit führt schon zu einer änderung der Zeitlinie.


    Denn wenn einer aus der Zukunft hier wäre, dann kommt es zum Butterfly Effect und schon sind wir in der Chaos Theorie



    Als Schmetterlingseffekt (englisch butterfly effect) bezeichnet man den Effekt, dass in komplexen, nichtlinearen dynamischen Systemen eine große Empfindlichkeit auf kleine Abweichungen in den Anfangsbedingungen besteht. Geringfügig veränderte Anfangsbedingungen können im langfristigen Verlauf zu einer völlig anderen Entwicklung führen. Es gibt hierzu eine bildhafte Veranschaulichung dieses Effekts am Beispiel des Wetters, welche namensgebend für den Schmetterlingseffekt ist:


    „Vorhersagbarkeit: Kann der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas auslösen?“


    Chaos Theory


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Also Fakt ist ... wenn es jemand schaffen sollte in die Vergangenheit zu reisen, wird er niemals niemals niemals wieder in seine eigene Zeitlinie zurückkehren können.


    Wie z.B. in "Stargate SG1" der Folge Moebius.


    Col. O’Neill sagt in einer Videobotschaft, in der Orginal Zeitlinie, dass es in seinem Teich keine Fische gibt, nicht einen einzigen.


    In der neuen Zeitlinie springen Fische in seinem Teich rum.


    Jegliche Art der Zeitreise, wird auch die Zeitlinie ändern, gewollt oder ungewollt.


    Also vergesst bitte Zeitreisen, dass ist Sci-Fi





    MFG


    Bak

  • Die Chaos Theorie



    So nun weiter mit dem Zeitreisen...wieso es net funzen kann.....


    Die Chaosforschung ist ein Teilgebiet der Mathematik und Physik und befasst sich im Wesentlichen mit Ordnungen in dynamischen Systemen, deren Dynamik unter bestimmten Bedingungen empfindlich von den Anfangsbedingungen abhängt, sodass ihr Verhalten nicht langfristig vorhersagbar ist. Da diese Dynamik einerseits den physikalischen Gesetzen unterliegt, andererseits aber irregulär erscheint, bezeichnet man sie als deterministisches Chaos. Chaotische dynamische Systeme sind nichtlinear. (nicht berechenbar)


    Chaospendel


    Externer Inhalt vimeo.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Grenzen der Vorhersagbarkeit


    Liegt chaotisches Verhalten vor, dann führen selbst geringste Änderungen der Anfangswerte nach einer gewissen Zeit zu einem völlig anderen Verhalten (sensitive Abhängigkeit von den Anfangsbedingungen). Es zeigt sich also ein nichtvorhersagbares Verhalten, das sich zeitlich scheinbar irregulär entwickelt. Dabei kann das Verhalten des Systems bei bestimmten Anfangswerten völlig regulär sein, wenn es sich z. B. um einen periodischen Orbit handelt. Jede auch noch so kleine Änderung der Anfangswerte kann jedoch zu einem ganz anderen, auch vollkommen unregelmäßigen Verhalten führen. Um das Systemverhalten für eine bestimmte zukünftige Zeit berechnen zu können, müssen die Anfangsbedingungen deshalb mit unendlich genauer Präzision bekannt sein und berechnet werden, was praktisch unmöglich ist. Obwohl auch solche Systeme determiniert und damit prinzipiell bestimmbar sind, sind daher praktische Vorhersagen nur für mehr oder weniger kurze Zeitspannen möglich.



    Dieses Phänomen ist auch unter dem Schlagwort Schmetterlingseffekt in der Öffentlichkeit bekannt geworden, wonach selbst der Flügelschlag eines Schmetterlings auf lange Sicht zu einem anderen Ablauf des großräumigen Wettergeschehens führen kann.


    The Butterfly Effect - Wisebits


    Externer Inhalt vimeo.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Quantentheorie und Determinismus


    Während im Sinne der klassischen Physik die Vorhersagbarkeit realer komplexer Systeme an praktisch nie vollkommen exakten Messungen der Anfangsbedingungen scheitert, zeigt die Berücksichtigung der Erkenntnisse der Quantentheorie, dass deren Verhalten prinzipiell nicht determiniert ist. So besagt die Heisenbergsche Unschärferelation, dass Ort und Impuls eines Objektes nicht gleichzeitig beliebig genau bestimmbar sind. Diese Einschränkung bezieht sich nicht auf Unzulänglichkeiten des Beobachtungsvorgangs, sondern ist prinzipieller Natur. Diese Unschärfe ist bei makroskopischen Systemen gewöhnlich vernachlässigbar. Da sie bei chaotischen Systemen jedoch beliebig wächst, nimmt sie früher oder später makroskopische Dimensionen an. Bei dem Gerät zur Ziehung der Lottozahlen mit Kugeln ist das bereits nach etwa 20 Stößen der Fall. Die Vorhersagbarkeit chaotischer Systeme scheitert daher spätestens an der Unschärferelation. Das bedeutet, dass reale Systeme prinzipiell nicht im klassischen Sinn deterministisch sein können im Gegensatz zu den sie beschreibenden mathematischen Modellen.


    Die Chaos-Theorie (Quarks&Co)


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    MFG


    Bak

  • Planet X



    Es gibt viel Wissen aber auch genau so viel Mist im Internet.....hier mal etwas von dem Blödsinn der so oft verzapft wird.....



    Welt der Wunder - 2012 / Planet-X Teil


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Der Planet X Survival Guide - Teil 1 - deutsch - Grundwissen zum Thema Planet X / Nibiru



    http://www.youtube.com/watch?v=MMucPBR5nDc Teil 1


    http://www.youtube.com/watch?v=fYL26...feature=relmfu Teil 2


    http://www.youtube.com/watch?v=UsJFl...feature=relmfu Teil 3


    http://www.youtube.com/watch?v=00JAJ...feature=relmfu Teil 4


    http://www.youtube.com/watch?v=0b2KC...feature=relmfu Teil 5



    So ...das war erstmal genug blödsinn an einem Tag



    Zu Planet X / Nibiru



    Mit ein wenig Verstand lässt es sich klären....


    (deutsch) Nibiru - Die NASA schafft Klarheit


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    warum es denn Planet X nicht geben kann !!!


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Alpha Centauri Welche kosmischen Gefahren bedrohen uns


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    harald lesch wie war ihr 5 mai? Lesch flippt aus


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Alpha Centauri - Staffel 2 Episode 61: Gibt es einen 10 Planeten?


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    So .. ich hoffe das hat etwas Licht in die Denkhöle geschafft. Fallt bitte nicht auf solche Spinner rein, die mit eurer Angst ....Geld machen wollen.


    MFG


    Bak

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!