Eine Erfindung ist eine schöpferische Leistung, durch die eine neue Problemlösung, also die Erreichung eines neuen Zieles mit bekannten Mitteln oder eines bekannten Zieles mit neuen Mitteln oder eines neuen Zieles mit neuen Mitteln, ermöglicht wird. Von Erfindungen wird besonders oft im Zusammenhang mit technischen Problemlösungen gesprochen, etwa von der Erfindung des Motors oder des Dynamits
Vom Begriff der Erfindung ist die Entdeckung abzugrenzen. Eine Entdeckung betrifft etwas bereits Vorhandenes, das bislang unbekannt und dessen Nutzen unbestimmt ist. Damit hat sich infolge der Entdeckung nichts geändert (außer der damit verbundene Wissenszuwachs eines Einzelnen oder der Allgemeinheit). Beispiele sind die Entdeckung der Schwerkraft, eines Planetoiden, eines chemischen Stoffes oder einer Tierart.
Eine Erfindung dagegen betrifft stets eine neue Erkenntnis, die bisher nicht dagewesen ist.
Diese Sache steht jedoch mit bereits Bekanntem in einem Zusammenhang, sie tritt nicht als etwas völlig Neues auf. Es werden an bekannten Gegenständen oder Verfahren Veränderungen vorgenommen, so dass ihre Wirkung qualitativ oder quantitativ verbessert wird.
Heute neigt man dazu, Erfindungen nur auf technische Verfahren oder Gegenstände zu beziehen und abstrakte Dinge, wie etwa die Erfindung eines neuen Versmaßes, davon auszunehmen.
Eine exaktere Definition lautet:
Entdeckung ist die erstmalige Beschreibung eines Naturgesetzes (z. B. elektrische Kraft zwischen Atomen, Coulombpotential) oder eines aus Naturgesetzen abgeleiteten Gesetzes (Reaktionsgeschwindigkeit einer chemischen Reaktion).
Erfindung hingegen ist die Anwendung der Naturgesetze in bisher nicht dagewesener Konstellation zur Lösung eines gegebenen Problems (Technik). Somit ist jede erstmalige Beschreibung oder Anwendung einer Technik eine Erfindung, zum Beispiel ein Sonnensegel für Raumschiffe. Ein neues Versmaß wendet keine Naturgesetze an und ist damit keine Erfindung, selbst wenn diese Schöpfung neu und genial wäre.
Wenn eine Firma etwas neues hat ...sagen sie ja nicht ....das haben wir erfunden, sondern ...das haben wir entwickelt ..was dann der völlig korrekte Ausdruck ist .
Ich will nicht abstreiten das, laut Definition, es früher Erfindungen gegeben hat. Aber heutzutage wird es echt schwer etwas wirklich zu "erfinden".
Du malst mit dem Finger ein Bild in den Sand = 100 % deins Punkt 2
Du malst ein Bild auf ein Blatt Papier = 95 % deins
Entwicklung des Papiers Entwicklung des Stiftes
Punkt 3
Du baust einen Tisch = 80 % deins
Entwicklung des Hammers Entwicklung des Leims Entwicklung der Schrauben Entwicklung der Säge
Punkt 4
Du baust ein Haus = 60 % deins
Entwicklung der Geometrie Entwicklung des Mörtels Entwicklung Betongs Entwicklung der Dämmstoffe
Punkt 5
Du baust ein Raumschiff = 20 % deins
Entwicklung der Ingenieurberufs Entwicklung der Entwicklung der Mikrochips Entwicklung des höheren Mathematik Entwicklung der Metallurgie Entwicklung der Elektronik Entwicklung der Mechanik Entwicklung der Chemie
Also wie viel ist dein geistiges Eigentum um so höher entwickelt und komplizierter etwas wird ????
Du greifst immer auf die Erfahrung von abertausenden Jahren zurück ...........egal was du machst .....
Laut ART ( Allgemeine Relativitäts Theorie ) kann nichts schneller als das Licht reisen. Wenn es Masse hat, nicht mal annähernd so schnell. Masselos .... mit Lichtgeschwindigkeit ... aber nicht schneller. Selbst Gravitationswellen breiten sich nur mit Lichtgeschwindigkeit aus.
Was Einstein gesagt hat (verkürzt):
1) Man kann nichts mit einer Ruhemasse >0 auf Lichtgeschwindigkeit beschleunigen. 2) Die Lichtgeschwindigkeit ist in jedem Bezugssystem identisch, sie ist ist eine kosmische Konstante.
Das heißt eben nicht, dass nichts schneller als Licht sein kann.
Einstein hat 1911 die allgemeinen Relativitätstheorie aufgestellt. Seitdem ist sie wieder und wieder und wieder getested worden und das seit 100 Jahren, mehere 1000 mal.
Wenn die ART falsch sein sollte, dann ist sie verdammt gut falsch. Eine neue Erkenntniss die, die ART in Frage stellt, muss 100 Jahre des Testens überstehen und genau so gut überprüfbar sein.
Aber es gibt wohl Ausnahmen.....
Superluminares Tunneln
In der Universität Köln unter der Leitung von Günter Nimtz wurde der quantenmechanische Effekt des Superluminaren Tunnelns von Mikrowellen-Photonen, dem der Tunneleffekt zu Grunde liegt, als erstes nachgewiesen.
Tunneleffekt ist in der Physik eine veranschaulichende Bezeichnung dafür, dass ein atomares Teilchen eine Potentialbarriere von endlicher Höhe auch dann überwinden kann, wenn seine Energie geringer als die Höhe der Barriere ist. Nach den Vorstellungen der klassischen Physik wäre dies unmöglich, nach der Quantenmechanik ist es möglich. Mit Hilfe des Tunneleffekts wird unter anderem der Alpha-Zerfall von Atomkernen erklärt. Technische Anwendungen des Tunneleffekts sind beispielsweise das Rastertunnelmikroskop und der Flash-Speicher
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Experimente vom Nimtz-Typ mit Photonen anderer Wellenlänge, insbesondere mit sichtbarem Licht, durch andere Gruppen haben stattgefunden und haben die Beobachtungen von Nimtz bestätigt werden von den Experimentatoren wie Chiao und Steinberg aber anders interpretiert. In allen Experimenten wird festgestellt, dass sich eine superluminare Geschwindigkeit dann einstellt, wenn sich zwischen der Quelle und dem Detektor eine Barriere befindet, welche die Photonen erst überwinden (durchtunneln) müssen.
Medienwirksam wurde dort 1994 mit frequenzmodulierten Mikrowellen ein Teil einer Mozart-Sinfonie mit übertragen, wobei Nimtz nach eigenen Angaben für das Maximum und die Anstiegsflanke des Wellenpakets eine 4,7-fache Lichtgeschwindigkeit maß. Nimtz behauptet, damit die Möglichkeit der Übertragung von Information mit Überlichtgeschwindigkeit gezeigt zu haben, was aber bestritten wurde. Definiert man die Geschwindigkeit der Informationsübertragung über die Ansprechzeit eines Detektors, gibt es keine Informationsübertragung mit Überlichtgeschwindigkeit: Ein Detektor auf einer gleich langen Vergleichsstrecke ohne „Tunnel“, auf der sich die gleiche Information (Pulsform) mit Lichtgeschwindigkeit ausbreitet, spricht zuerst an, da das Signal auf der Tunnelstrecke viel schwächer ist und zwar unabhängig von der Empfindlichkeit des Detektors.
Diese Experimente stehen nach allgemeiner Ansicht in völliger Übereinstimmung mit einem der Axiome der Relativitätstheorie, nach dem keine Informationsausbreitung mit Überlichtgeschwindigkeit stattfindet. So kann man z. B. zeigen, dass ein Wellenzug beim Tunneln stärker im hinteren Teil gedämpft wird als im vorderen, so dass sich sein Intensitätsmaximum nach vorne verlagert. Definiert man die Lage des Maximums als Position des Wellenzuges, so kann man eine Überlichtgeschwindigkeit errechnen, ohne dass irgendein Teil des Wellenzuges mit Überlichtgeschwindigkeit vorangeschritten wäre.
Bei Tunnelexperimenten mit einzelnen Photonen wurde bereits überlichtschnelles Tunneln nachgewiesen, siehe zum Beispiel Experimente der Chiao-Gruppe. Da beim Tunneln jedoch ein großer Teil der tunnelnden Photonen und damit der Information verloren geht, ist auch hier die Möglichkeit einer überlichtschnellen Informationsübertragung umstritten.
Alpha Centauri - Gibt es Überlichtgeschwindingkeit
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Hier wird klar gesagt das die Informationsweitergabe unmöglich ist.
Neutrinos
Neutrinos sind elektrisch neutrale Elementarteilchen mit sehr kleiner Masse. Im Standardmodell der Elementarteilchenphysik existieren drei Neutrinos: das Elektron-Neutrino, das Myon-Neutrino und das Tau-Neutrino
Selbst eine Bleiplatte von einem Lichtjahr Dicke würde ein Neutrino nicht aufhalten
Die Kerngössen in Relation zu der Elektronenwolke wurde schon in diesem Thread erleutert.
Schaut euch noch mal an wie gross ein Neutrino ist
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Letzte Erkenntniss
Das Opera-Team am Cern hatte 2011 Messergebnisse verkündet, die nahelegten, dass manche Elementarteilchen schneller als das Licht sein könnten. Dies hätte das Weltbild der Physiker erschüttert. Ende Februar erklärten die Forscher dann jedoch, Fehlerquellen bei der Messung entdeckt zu haben – darunter ein defektes Glasfaserkabel. Die Lichtgeschwindigkeit gilt laut Relativitätstheorie als absolute Tempogrenze des Universums. Sie wurde noch in keinem Versuch eindeutig durchbrochen.
@ Bak; wenn wir dann negativer Materie in 20 Jahren in Massenverwendung für Hovercars usw haben, wirste sicherlich immernoch Sagen; " Alle erfindungen Sind schon gemacht worden und es gibt nur noch verbesserungen "
Die ersten Räder waren ein- oder mehrteilige Scheibenräder mit Durchmessern zwischen 40 und 80 cm, mit fester, loser oder ohne Nabenbuchse oder fester Achse (und quadratischen Achslöchern). Erste Nachweise von Karren, Rädern, Wagen oder deren Modellen gibt es aus der zweiten Hälfte des 4. Jahrtausends v. Chr
1678 soll Ferdinand Verbiest im Dienste des Kaisers von China ein Dampfauto gebaut haben.
1816 erfand Robert Stirling den später nach ihm benannten Heißgasmotor. Er suchte nach einer Maschine ohne den explosionsgefährdeten Kessel.
Einer der ersten brauchbaren Verbrennungsmotoren – ein Gasmotor nach dem Zweitaktprinzip – wurde von Étienne Lenoir erfunden, 1862
Nicolaus August Otto war ein Erfinder vieler heute noch in Verbrennungsmotoren verwendeter Details und ein Miterfinder des Viertaktprinzips. Der heutige Begriff Ottomotor bezeichnet aber nicht seinen damaligen Motor, sondern wurde zu seiner Ehrung 1936 vom VDI für alle Motoren mit Fremdzündung und Hubkolbenantrieb vorgeschlagen, was erstmals 1946 in einer DIN-Norm erfolgte. Als Autodidakt absolvierte er nie ein Hochschulstudium, erhielt aber später die Ehrendoktorwürde.
Das Jahr 1886 gilt mit dem Benz Patent-Motorwagen Nummer 1 vom deutschen Erfinder Carl Benz.
Also wann bitte ist das erste Fahrzeug erfunden worden, was nicht durch menschliche Muskelkraft bewegt worden ist ??????
Exotische Materie
Aufgrund theoretischer Überlegungen wurde diese Art von exotischer Materie schon 1984 von Edward Witten vorgeschlagen.
In April 1958, Ford engineers demonstrated the Glideair
Vor ca. 7000 Jahren entstand der Kreisgrabenanlage von Goseck es ist das bisher älteste entdeckte Sonnenobservatorium der Welt.
Stonehege wurde vor ca. 5000 Jahren erbaut. Die Ausrichtung erfolgte so, dass am Morgen des Mittsommertags, wenn die Sonne im Jahresverlauf am nördlichsten steht, die Sonne direkt über dem Fersenstein aufging und die Strahlen der Sonne in gerader Linie ins Innere des Bauwerks, zwischen die Hufeisenanordnung, eindrangen. Es ist unwahrscheinlich, dass eine solche Ausrichtung sich zufällig ergab. Der nördlichste Aufgangpnkt der Sonne ist direkt abhängig von der geografischen Breite. Damit die Ausrichtung korrekt ist, muss sie für Stonehenges geografische Breite von 51° 11' genau errechnet oder durch Beobachtung ermittelt worden sein. Diese genaue Ausrichtung muss für den Plan der Anlage und die Platzierung der Steine in zumindest einigen der Phasen von Stonehenge grundlegend gewesen sein. Der Fersenstein wird nun als ein Teil eines Sonnenkorridors gedeutet, der den Sonnenaufgang einrahmte.
Die Bearbeitung der Steine setzt man auf etwa 20 Millionen Arbeitsstunden an, insbesondere in Anbetracht der in dieser Zeit mäßig leistungsfähigen Werkzeuge. Der allgemeine Wille zur Errichtung und Pflege dieses Bauwerks muss dementsprechend ausgesprochen stark gewesen sein und erforderte weiterhin eine stark ausgeprägte Sozialorganisation. Neben der höchst aufwändigen Organisation des Bauvorhabens (Planung, Transport, Bearbeitung und genaue Aufstellung der Steine) verlangt dieses zudem eine hohe jahrelange Überproduktion von Nahrungsmitteln, um die eigentlichen „Arbeiter“ während ihrer Tätigkeit für das Vorhaben zu ernähren.
Pyramiden
Die Pyramiden sind ca. 4500 Jahre alt. An dem Bau einer Pyramide waren mehrere tausend Arbeiter beschäftigt. So halfen beim Bau der Cheops-Pyramide vor Gizeh laut Überlieferung 70.000–100.000 Arbeiter, was allerdings nach heutigen Nachforschungen logistisch unmöglich erscheint. Es ist dagegen ziemlich sicher, dass in den Steinbrüchen und an der Pyramide „nur“ rund 8.000 Arbeiter beschäftigt waren. Alle Pyramiden des Gizeh-Plateaus wurden während der 4. Dynastie (2630 – 2525 v. Chr.) errichtet.
Die gesamte Literatur über Pyramiden schwärmt von deren exakter Orientierung nach Norden und die Fragen rund um die Technik der Ausrichtung der Pyramiden nach den Himmelsrichtungen sind ein Dorado für Spekulationen. Jede bisher vorgebrachte Theorie scheitert jedoch entweder an den damals möglichen technischen Hilfsmitteln oder an hinreichender Präzision.
Deshalb bedarf die selten vermessene Ausrichtung der Pyramiden genauerer Untersuchung unter der Perspektive, was technologiehistorisch denn denkbar und möglich war. Als absolutes Kriterium steht hier wieder die Durchführbarkeit auch auf der noch unfertigen Pyramide, dem Pyramidenstumpf, im Vordergrund. Jedes Verfahren, das umfangreiche bauliche Voraussetzungen benötigt, um zu einem exakten Ergebnis zu kommen, scheidet daher aus. Bei der enormen Höhe, sowohl der Cheops- als auch der Chefrenpyramide, sind ständige Kontrollmessungen der Ausrichtung unabdingbar. Wir müssen uns hier drei Fragen stellen:
1.Wie war es mit der damaligen Technologie möglich, die Himmelsrichtungen derart präzise zu bestimmen?
2.Wie wurden die Himmelsrichtungen im Fall der Einmessung der Pyramiden bestimmt? Wir werden sehen, dass die grundsätzliche Bestimmung der Himmelsrichtungen relativ einfach möglich ist, im Fall der Pyramiden aber auf Schwierigkeiten stößt, die weitere technische Lösungen verlangen.
3.Wollten die Ägypter die Pyramiden grundsätzlich nach den Himmelsrichtungen orientieren?
Wir wissen zwar, dass die Pyramiden einigermaßen genau nach den Himmelsrichtungen orientiert sind, wir wissen aber nicht, ob das die ursprüngliche Intention der Ägypter war. Es ist daher genauso möglich, dass die Pyramiden nach ganz anderen Zielsetzungen eingemessen wurden.
In der Literatur werden grundsätzlich zwei Vorschläge für die Einmessung der Himmelsrichtungen vorgebracht, die im Folgenden kurz umrissen und auf ihre Realisierbarkeit hin analysiert werden sollen:
•die Orientierung nach der Sonne
•die Orientierung nach den Sternen
Eine Orientierung am magnetischen Nordpol erscheint äußerst unwahrscheinlich, da es zum einen damals kein Eisen gab, schon gar kein magnetisches, zum anderen stimmt der magnetische Nordpol bekanntermaßen nicht mit dem geographischen überein. Und das war auch vor 4500 Jahren nicht anders
Teleskope
Bereits im 13. Jahrhundert war die vergrößernde Wirkung konkaver Spiegel bekannt und Leonardo da Vinci beschrieb 1512 deren Verwendung zur Beobachtung des Sternenhimmels
In den Jahren 1668–1672, entwickelte Isaac Newton ein verbessertes Teleskop und führte es der Öffentlichkeit vor
1721 gelang es den Brüdern John, Henry und George Hadley, den ungleich schwieriger zu fertigenden parabolischen Hauptspiegel herzustellen. Auf dieser Grundlage wurden dann in den nachfolgenden 150 Jahren immer größere Teleskope gebaut, bis hin zu dem 183 cm durchmessenden Leviathan
Das Prinzip der aus massiven Glasspiegeln gebauten Ritchey-Chrétien-Cassegrain-Teleskope wurde bis zu einem Spiegeldurchmesser von etwa 5 m erfolgreich beibehalten. Das 1975 gebaute BTA-6 mit sechs Meter Durchmesser zeigte jedoch dessen Grenzen. Der 42 Tonnen schwere Glasspiegel verbog sich unter seinem eigenen Gewicht und lieferte keine scharfen Bilder mehr.
Des Weiteren fand man in den 1980ern Verfahren, wie man große dünne Glasspiegel durch einen Schleuderguss oder mit stützenden Hohlstrukturen, meist in Wabenform, herstellen konnte. Voraussetzung hierfür sind extrem präzise Halterungen der Spiegel, die die Segmente auf den Bruchteil der Wellenlänge des Lichtes zueinander ausrichten bzw. die Verformung der dünnen Spiegel mit der gleichen Genauigkeit verhindern. Aufgrund der hierfür notwendigen aktiven Elemente in der Halterung werden solche Systeme auch als aktive Optik bezeichnet. Mit diesen Techniken gelingt es, Teleskope bis etwa zehn Meter Spiegeldurchmesser herzustellen.
Die Raumfahrt
Die Solarzelle
Solarzellen wurden für die Energieversorgung von Raumflugkörpern wie Satelliten entwickelt. Wissenschaftler standen vor dem Problem, dass Treibstoffe und Batterien viel Platz brauchen, schwer sind recht schnell aufgebraucht sind, Satelliten die Erde aber über einen langen Zeitraum umkreisen sollen. Da kam die rettende Idee: Sonnenlicht ist als Energiequelle immer vorhanden
Der Klettverschluss
KlettverschlussKlettverschlüsse kennst du von Turnschuhen, Taschen und Jacken. Aber es gibt sie noch gar nicht so lange - und sie kommen aus der Weltraumforschung: In der Schwerelosigkeit des Weltraums kann man nichts einfach so ablegen. Alle losen Teile schweben durch die Gegend. Das ist unpracktisch, da die Astronauten nichts wiederfinden könnten. Deshalb wurde an jedes Teil an Bord eines Raumschiffes ein Stück Klettverschluss aufgeklebt, mit dem man es an die überall im Shuttle angebrachten Gegenstücke anheften kann
Neue Materialien für Flugzeug- & Automobilbau
Die Raumfahrt kostet viel Geld - und jedes Kilogramm mehr, das ins All befördert werden muss kostet Millionen von US-Dollar. Daher arbeiten Wissenschaftler immer daran, Raumfähren leichter zu machen. Dabei wurden immer neue, leichtere Stoffe wie Karbon, Kevlar und Glaskeramik ausprobiert und erfolgreich eingesetzt. All diese Stoffe werden dann mit ein paar Jahren Verspätung auch in Flugzeugen und in Autos eingebaut. Denn auch die verbrauen weniger, wenn sie leichter sind.
Wettervorhersagen
Satellit im ErdorbitWenn du im Fernsehen den Wetterbericht anguckst, dann siehst du Satellitenbilder der Erde. Wettersatelliten wie Meteosat zeigen mit anschaulichen Bildern Wolken und Wirbelstürme, aber auch Warm- und Kaltwetterfronten. Auf die Wettervorhersagen kann man sich erst wirklich verlassen, seitdem Meteorologen (Wetterkundler) sich auf die Daten von Satelliten stützen können. Das hat auch zur Folge, dass viele Menschenleben gerettet werden können, da Wirbelsturmwarnungen frühzeitig möglich sind
Kommunikation: Fernsehen, Internet & Telefon
Ohne Fernsehsatelliten wie ASTRA oder EUTELSAT könnten viele Menschen kaum ein Fernsehprogramm empfangen. Besonders in Gegenden, in denen kein Kabelanschluss gelegt wurde, gäbe es kaum private Fernsehsender. Und die Fernsehübertragungen aus aller Welt werden mittlerweile alle über Satellitenstrecken in die Sendezentren der Fernsehanstalten gesendet. Ohne Satelliten gäbe es auch keine Live-Übertragung von Fußball-Weltmeisterschaften oder Popkonzerten aus aller Welt
Auto-Navigationssysteme
AutonavigationsgerätNavigationssysteme in Autos helfen vielleicht auch deinen Eltern, sicher zum Ziel zu kommen. Dabei wird die Position von eurem Auto über einen GPS-Empfänger von etwa 30 GPS-Satelliten aus dem Weltraum aus überwacht. Dadurch können zum Beispiel auch Staus automatisch umfahren werden.
Die Superkachel
Eine Superkachel, die für ein deutsch-japanisches Weltraumprojekt entwickelt wurde, übersteht Temperaturen bis zu 2.700 Grad Celsius. Dabei kann man sie bei ihrer Entstehung leicht in jede Form bringen. Bald wird sie als Bremsscheibe von ICE-Zügen deren Sicherheit erhöhen. Und auch Gebäude können in Zukunft mit diesen Kacheln vor Feuer geschützt werden
Cern und der LHC
Das bekannteste Beispiel ist wohl das World Wide Web ( entstanden in Cern). Für die Physiker und Ingenieure, die über die Welt verteilt an einem Projekt arbeiten, ist es einfach eine praktische Notwendigkeit.
Detektortechnologie die am CERN entwickelt wurde um elementare Prozesse sichtbar und messbar zu machen haben in der bildgebenden Diagnostik Anwendung gefunden. Beispielsweise wurde 1977 das erste Positron Emissions Tomographie (PET) Bild am CERN angefertigt. Heute ist PET ein essentielles Werkzeug in der Krebsdiagnose.
Was möchte ich euch damit sagen. Seit Anbeginn der Erforschung der Sterne wurde die Technologie weiterentwickelt, um Dinge für die Sternenbeobachtung zu bauen. Es entstanden verschiedene Berufe wie z.B. Architekt oder Statiker. Die Mathematik musste weiter entwickelt werden sowie die Logistik. All das wurde aus diesen Projekten übernommen und dann für den normalen Gebrauch genutzt.
Wenn ihr das nächste mal lest, dass wieder XXX Milliarden für Grundlagenforschung ausgegeben werden und wir keinen direkten Nutzen davon haben. Nach dem Motto, was sollen wir schon mit Elementarteilchen anfangen.
Denkt bitte daran, dass der Weg das Ziel ist.
Die Sterne haben und treiben, immer noch, unseren technologischen Fortschritt voran.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Ein Turm oder Aufzug dieser Art wäre in der Lage, ohne Raketentechnik Objekte in den Orbit zu bringen. Da ein Objekt beim Aufstieg gleichzeitig an tangentialer Geschwindigkeit gewinnen muss, hätte es beim Erreichen des Ziels gleichzeitig die nötige Energie und Geschwindigkeit, um im geostationären Orbit zu verbleiben.
Ein Gebäude dieser Art zu errichten war unmöglich, da kein Material mit der nötigen Druckfestigkeit bekannt war. 1957 schlug dann der sowjetische Wissenschaftler Juri Arzutanow eine alternative Variante dieser Idee vor. Ein Satellit solle in eine geostationäre Umlaufbahn gebracht werden und als Aufhängung des Aufzugs dienen. Von dort könnte man dann ein Kabel zur Erdoberfläche herunterlassen. Der Schwerpunkt der Konstruktion müsste auf dem geostationären Orbit liegen, so dass bei einer Winkelgeschwindigkeit, die der Erdrotation entspricht, die Fliehkraft die Erdanziehungskraft ausgleicht.
Ein Kabel von 35.786 Kilometern Länge ist jedoch schwierig zu realisieren.
Seit Anfang des 21. Jahrhunderts ist mit den Kohlenstoffnanoröhren ein Material bekannt, das die Anforderungen erfüllen könnte. Anfang 2004 ist es einer Gruppe von Wissenschaftlern um Alan Windle an der Universität Cambridge gelungen, auf der Grundlage dieser Technologie einen etwa 100 Meter langen Faden herzustellen. Andre Geim, seit 2001 an der Universität von Manchester, gelang die Herstellung von Graphen. Kohlenstoffnanoröhren haben ein bis zu 100 mal besseres Verhältnis von Zugfestigkeit zu Gewicht als Stahl, deshalb ist dieser Werkstoff ein möglicher Kandidat für den Weltraumlift. Jedoch ist die Technologie noch längst nicht ausgereift: Kohlenstoffnanoröhren können bisher nur in sehr begrenzter Zahl hergestellt werden und sind dementsprechend sehr teuer. Seile aus Nanoröhren müssen beschichtet werden, weil Kohlenstoff oxidiert und erodiert.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Auswirkungen
Energiebilanz beim Weltraumliftes wird vermutet, dass ein Weltraumlift die Transportkosten von derzeit 20.000 bis 80.000 US-Dollar pro kg auf bis zu 100 US-Dollar pro kg reduzieren könnte. Die wissenschaftliche Forschung würde davon durch den sehr viel billigeren Transport von Labors und Teleskopen in den Weltraum stark profitieren. Auch die industrielle Forschung kann durch Arbeiten in der Schwerelosigkeit neue Verfahren entwickeln und neue Fertigungstechnologien ermöglichen; nicht zuletzt wäre es möglich, diese Technik für den Weltraumtourismus zu erschließen
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Material für Kabel und Turm
Seildurchmesser beim Weltraumlift
Jedes Segment des Kabels muss mindestens das Gewicht der darunterliegenden Kabelsegmente zuzüglich der Nutzlastkapazität halten können.
Je höher das betrachtete Kabelsegment liegt, desto mehr Kabelsegmente muss es halten. Ein optimiertes Seil besitzt also mit zunehmender Höhe einen größeren Querschnitt, bis sich dieser Trend auf geostationärem Orbit umkehrt, da ab dort die resultierende Kraft der Seilsegmente erdabgewandt wirkt.
Bei einer gegebenen spezifischen Zugfestigkeit eines Materials wird also der minimale Querschnitt an der Basisstation allein durch die Nutzlastkapazität festgelegt. Weiter ist dann auch die optimale weitere Querschnittsentwicklung festgelegt. Das Verhältnis vom größten Kabelquerschnitt zum kleinsten wird taper ratio genannt. Sie und die Nutzlastkapazität legen letztlich die Gesamtmasse des Kabels fest.
Grafik
Grundsätzlich lässt sich bei optimiertem Kabeldurchschnitt mit jedem Material ein Weltraumlift errichten, indem der Querschnittszuwachs entsprechend rapide gewählt wird bzw. eine große taper ratio verwendet wird. Die Ökonomie diktiert hierbei schlussendlich das Limit der noch sinnvollen Werte in dieser Größe.
Ein gewöhnliches Stahlseil konstanten Querschnittes würde bereits ab einer Länge von vier bis fünf Kilometern unter seinem eigenen Gewicht reißen, Hochleistungsstahlseile für Seilbahnen, deren Reißfestigkeit mit Kevlar vergleichbar ist, kämen auf rund 30 Kilometer. Neue Werkstoffe, deren Reißfestigkeit weit jenseits der von Kevlar liegt, sind deswegen ein kritischer Punkt für eine zukünftige Realisierung dieses Unternehmens. Nach den bisherigen Forschungen kommen zwei Möglichkeiten in Frage:
Kohlenstoffnanoröhren scheinen die Reißlänge von Kevlar noch einmal um einen Faktor fünf zu übertreffen, Berechnungen von Nicola Pugno des Polytechnikums in Turin ergaben jedoch, dass bei der Verwebung von Kohlenstoffnanoröhren zu längeren Kabeln die Reißfestigkeit des Kabels um ca. 70 % gegenüber der Reißfestigkeit einzelner Nanoröhren abnimmt. Grund dafür sind unvermeidliche Kristallbaufehler, welche gemäß Pugnos Modell die Belastbarkeit des Kabels auf ca. 30 Gigapascal reduziert. Berechnungen der NASA zufolge wäre jedoch ein Material mit einer Belastbarkeit von etwa 62 Gigapascal notwendig, um den auftretenden Kräften zu widerstehen. Außerdem ist es bisher keinem Labor gelungen, ein zusammenhängendes Kabel zu erschaffen, das länger als 100 Meter ist. Einen zusätzlichen Kostenfaktor stellt die Beschichtung des Kabels dar, denn Kohlenstoffnanoröhren oxidieren und erodieren.
Vielversprechend ist auch die UHMW-Polyethylen-Faser Dyneema, welche bei vertikaler Aufhängung eine Reißlänge von 400 Kilometer erreicht und somit alle konventionellen Werkstoffe um ein Vielfaches und sogar Spinnenseide um den Faktor zwei übertrifft. Gegen die Verwendung von Dyneema spricht allerdings, dass der Schmelzpunkt von Dyneema zwischen 144 °C und 152 °C liegt, dass die Festigkeit von Dyneema zwischen 80 °C und 100 °C deutlich nachlässt, und dass Dyneema unter −150 °C brüchig wird, denn alle diese Temperaturen treten im Weltraum häufig auf.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Graphen-Lift, konstanter Querschnitt
Ein neues, noch wenig erforschtes Material ist Graphen. Der Elastizitätsmodul entspricht mit ca. 1020 GPa dem von normalem Graphit entlang der Basalebenen und ist fast so groß wie der des Diamants. Wissenschaftler der New Yorker Columbia University veröffentlichten 2008 weitergehende Messergebnisse, in denen sie hervorhoben, dass Graphen die höchste Reißfestigkeit aufweise, die je ermittelt wurde. Seine Zugfestigkeit von 42 N·m−1 oder 1,25×1011 Pa ist die höchste, die je ermittelt wurde, und rund 125 mal höher als bei Stahl. Stahl hat mit 7874 kg·m−3 eine rund 3,5 mal höhere Dichte als Graphen mit 2260 kg·m−3, so dass die Reißlänge von Graphen rund 436 mal größer ist als die von Stahl. In einem als homogen angenommenen Gravitationsfeld von 9,81 m·s−2 hätte Graphen eine Reißlänge von rund 5655 km. Tatsächlich wird aber die Schwerebeschleunigung mit zunehmender Höhe deutlich geringer, was die Reißlänge erhöht. Ein Band aus Graphen mit konstanter Querschnittsfläche würde in der Höhe der geostationären Umlaufbahn von 35.786 km über dem Erdäquator erst zu 87 % seiner Reißfestigkeit belastet werden . In noch größerer Höhe würde die Zugbelastung dann wieder absinken. Wenn das Graphen-Seil bei konstanter Querschnittsfläche 143.780 km lang wäre, dann würde es in völligem Gleichgewicht mit der Gravitationsbeschleunigung der Erde und der Zentrifugalbeschleunigung durch die Rotation der Erde sein. In der Höhe von 143.780 km über dem Erdäquator würde eine Nettobeschleunigung von 0,78 m·s−2 nach oben wirken, und eine Tangentialgeschwindigkeit von 10.950 m·s−1 vorhanden sein, was den Start von Raumsonden begünstigen würde. Graphen und Graphit haben einen Schmelzpunkt von rund 3700 °C. 76 cm breite, endlose Bänder aus Graphen stellt man dadurch her, dass man eine monoatomare Schicht aus Kohlenstoff auf eine Folie aus inertem Trägermaterial, wie zum Beispiel Kupfer, durch chemische Gasphasenabscheidung (CVD) aufbringt, und dann das Trägermaterial auflöst
Errichtung des Kabels
Bisher ist nur denkbar, das Kabel von einem geostationären Satelliten herunterzulassen. Das Verhalten von langen Seilen im Weltall ist Gegenstand aktueller Forschung. Es ist denkbar, dass initial nur ein minimal tragfähiges Seil gestartet wird, was danach sukzessive verstärkt wird, bis die finale Nutzlastdicke erreicht ist.
Errichtung des Turms als Basisstation
Auch die Basisstation muss starke Belastungen aushalten, denn auf der Verbindung zwischen Kabel und Basisstation lasten laut NASA bis zu 62 Gigapascal. Dadurch wird eine ausreichend tiefe, komplex zu errichtende und teure Verankerung der Basisstation im Erdreich nötig. Das liegt daran, dass beim Weltraumlift in vertikaler Richtung ein Überschuss an Zentrifugalkraft gegenüber der Gravitationskraft herrschen muss, um das Seil zu spannen, und daran, dass beim Weltraumlift in horizontaler Richtung die Corioliskraft der hinauf- oder hinabfahrenden Lasten auf die Erde übertragen wird. Ein Weltraumlift, der sich in völligem Gleichgewicht zwischen der Zentrifugalkraft und der Gravitationskraft befinden würde, würde schon durch minimale Lasten in seiner Stabilität gestört werden, und könnte daher kein Drehmoment durch die Corioliskraft zwischen der Erde und der Last übertragen. Beim straff gespannten Weltraumlift kostet nur die Überwindung des Gewichtes der Last entlang des Höhenunterschiedes Energie, denn die Corioliskraft steht immer quer zur Bewegung der Last. Jener Teil der Energie, der zur Überwindung der Corioliskraft (später dazu mehr )benötigt wird, stammt aus der Abbremsung der Erdrotation.
Gigapascal
Die Einheit Gigapascal (1 GPa = 1 Milliarde Pa) beschreibt Drücke, die z. B. Kohlenstoff in Diamant verwandeln.
Graphit, zusammengepresst in einer hydraulischen Presse bei Drücken von bis zu 6 Gigapascal und Temperaturen von über 1.500 °C, wandelt sich in Diamant um.
Bornitrid, analog zur Umwandlung von Graphit in Diamant, wandelt sich von einer hexagonalen in die kubische Modifikation um bei hoher Temperatur (1.400–1.800 °C) und hohem Druck von über 6 Gigapascal. Unter Normalbedingungen weist Bornitrid eine Festigkeit von etwa 48 Gigapascal auf (Diamant zwischen 70 und 100 Gigapascal).
In 410 km Tiefe beträgt der Druck 14 Gigapascal; siehe 410-km-Diskontinuität. In Erdtiefen von etwa 700 km wandeln sich bei Temperaturen vieler hundert Grad Celsius bzw. bei Drücken um 25 Gigapascal viele Gesteine in andere Mineralien um.
Die Corioliskraft ist auch für den Wirbel in der Badewanne u.s.w. verantwortlich. Dies bewirkt auf der Nordhalbkugel eine Ablenkung nach rechts, Südhalbkugel nach Links
Energieversorgung des Liftes
Ein weiteres Problem wäre die Energieversorgung des eigentlichen Lifts. Man kann die Energieversorgung nicht durch eine im Seil integrierte Stromleitung sichern, da der elektrische Widerstand bei bis zu 36.000 Kilometern Länge zu groß und der Energieverlust zu hoch wäre. Es gibt allerdings mehrere Möglichkeiten, die das Problem beseitigen:
Die Versorgung wird durch eine Laserstation an der Basisstation gesichert. Dabei wird der Laser sehr präzise auf eine Fotovoltaikfläche gestrahlt und der Lift bezieht daraus seine Energie. Es gibt aber noch keinen Laser, der so stark ist, dass er den enormen Energieverlust ausgleichen kann.
Das Sonnenlicht, das im Weltraum besonders stark ist, wird mithilfe von Solarmodulen eingefangen und in elektrische Energie umgewandelt. Die Sonnenkollektoren müssen aber sehr groß sein, damit diese genügend Energie produzieren können, um den Lift auf etwa 200 km/h zu beschleunigen.
Man könnte eine Hybridlösung konstruieren. In der Erdatmosphäre ist die Sonneneinstrahlung niedriger als im Weltraum. Bei der Hybridlösung wird der Lift bis zu dem Punkt, an dem er die Erdatmosphäre verlässt, von einer Laserstation am Boden mit Energie versorgt. Etwa ab 100 Kilometer Höhe ist die Sonneneinstrahlung groß genug, um den Lift gut genug zu versorgen. Dann werden Sonnenkollektoren ausgefahren und der Laser abgeschaltet.
Ein sogenannter Maser erzeugt Mikrowellen, die mit einer sehr hohen Konzentration in Richtung des Lifts geworfen werden, der diese dann in elektrische Energie umwandelt. Hier gibt es das gleiche Problem, wie bei der Laserversorgung, nämlich dass es auch noch keinen Maser gibt, der eine solche Konzentration schaffen kann.
Man könnte einen Kleinst-Kernreaktor ähnlich dem Toshiba 4S zur Stromerzeugung verwenden. Wenn man den Kernreaktor an den Stromkabeln einige 100 m hinter der Liftkabine her zieht, dann kann man auf die schwere Strahlungsabschirmung des Reaktors verzichten. Beim Aufenthalt in der Bodenstation ruht der Kernreaktor in einem entsprechend tiefen Schacht.
Wie ihr seht gibt es noch viele Probleme, aber stellt euch mal vor das Kabel reißt. Dann wickelt es sich ca. 1 mal um die Erde. Das würde einen Schaden von imensen Ausmaßen verursachen.
Ein Flug zum Mars dauert länger als für die Gesundheit gut ist: Denn in dieser Zeit wären die Astronauten einem enormen Beschuss durch subatomare Teilchen ausgesetzt, die menschliches Genmaterial durchschneiden wie ein heißes Messer Butter. Forscher haben nun den ersten Prototypen eines Schutzschildes entwickelt.
Ein Schutzschild wie in der Science-Fiction-Serie „Star Trek“ könnte laut Forschern Reisende auf dem Weg zum Mars vor gefährlicher kosmischer Strahlung schützen. „Die Idee funktioniert wirklich wie in Star Trek, wenn Ingenieur Scotty den Schild des Raumschiffs Enterprise zum Schutz vor Protonenstrahlen einschaltet“, sagte der Wissenschaftler Bob Bingham vom Rutherford Appleton Laboratory bei Oxford. Mit portugiesischen Kollegen hält er es nach einer Studie für machbar, mit einem Schildgenerator um eine Raumfähre ein Magnetfeld zu erzeugen, das schädliche Strahlung als dem All ablenkt.
Die Gefahr für Raumfahrer durch kosmische Strahlung ist seit mehr als einem halben Jahrhundert bekannt. Mars-Astronauten wären davon wegen des weiten Wegs zum Roten Planeten besonders betroffen. Die Reise würde hin und zurück mindestens 18 Monate dauern. In dieser Zeit wäre die Crew einer großen Strahlenbelastung ausgesetzt, wodurch Krebs und andere Krankheiten entstehen können.
Ein wirksamer Schutz gegen die Strahlung galt bisher als nicht machbar. So hatten einige Experten mit dem Gedanken gespielt, Raumschiffe durch riesige Blei- oder Wassertanks zu schützen. Diese in den Orbit zu heben, hätte aber Unsummen verschlungen. Schon in den 60er Jahren schlugen Wissenschaftler vor, Raumschiffe ähnlich wie die Erde mit einem Magnetfeld auszustatten. Ihren Berechnungen zufolge hätte dieses aber mehrere hundert Kilometer groß sein müssen, was enorme Energiemengen erfordern würde.
Bingham und portugiesische Kollegen haben auf Basis dieser Idee mit heutigen Methoden der Nuklearphysik neue Berechnungen angestellt und sind zu dem Schluss gekommen, dass das Magnetfeld tatsächlich nur eine „Blase“ von einigen hundert Metern erzeugen müsste. Sie bauten im Institut für höhere Technik in Lissabon einen stark verkleinerten Prototypen des Schildgenerators. Für ein Raumschiff müsste er laut Bingham mehrere hundert Kilogramm schwer sein, würde aber nur ein Drittel der Energie eines heutigen Kommunikationssatelliten verbrauchen.
Der Schutzschild würde praktisch alle Partikel abfangen, die durch Sonnenstürme entstehen, sagte Bingham. Gegen hochenergetische interstellare Strahlung wäre er dagegen nicht wirksam. Laut Bingham könnte das Raumschiff gegen diese Art der Strahlung aber etwa durch schussfestes Kevlar gesichert werden.
Manchmal gibt Science Fiction der Wissenschaft wichtige Impulse – in diesem Fall die Fernsehserie „Raumschiff Enterprise“: Britische Forscher arbeiten jetzt an der Entwicklung von magnetischen Deflektorschilden nach dem Vorbild der Serie, die Astronauten in Raumschiffen vor den tödlichen kosmischen Strahlenstürmen schützen sollen.
In den letzten Jahren haben die Raumfahrtbehörden der USA, Europas, Chinas, Japans und Indiens angekündigt, langfristig die bemannte Raumfahrt wieder aufnehmen und verstärkt fördern zu wollen. Eine der Voraussetzungen für Reisen über die unmittelbare Umgebung der Erde hinaus ist jedoch der Schutz der Astronauten gegen die tödliche kosmische Strahlung. Die Apollo-Mondmissionen erfolgten noch völlig ungeschützt, es war reiner Glücksfall, dass sich während der nur wenige Tage dauernden Flüge kein Sonnensturm ereignete. Auf der Internationalen Raumstation ISS existiert ein spezieller dickwandiger Schutzraum, in den sich die Besatzung in Zeiten erhöhter Strahlung zurückziehen kann.
Für längere Raummissionen beispielsweise zum Mars wären solche Schutzräume jedoch ungeeignet: Zum einen würden sie das Gewicht eines Raumfahrzeugs extrem erhöhen, zum anderen können sich die Astronauten in einem so beengten Raum nicht langfristig aufhalten. Daher arbeitet jetzt ein Team von Wissenschaftlern am Rutherford Appleton Laboratory im britischen Oxfordshire an einer anderen Lösung: Sie entwickeln einen magnetischen „Deflektorschild“ ähnlich dem, den das Raumschiff Enterprise in der gleichnamigen Science-Fiction Serie besitzt. Über erste Konzepte berichteten sie jetzt auf der Jahrestagung der Royal Astronomical Society (RAS) in Preston.
Ausgangspunkt und Vorbild des Projekts ist das irdische Magnetfeld, das als „Plasmabarriere“ die Erde vor den schädlichen Strahlen- und Teilchenströmen aus dem All abschirmt. Die Wissenschaftler haben jetzt damit begonnen, eine Art Mini-Version dieses Magnetfelds im Labor zu erzeugen um zu sehen, ob diese Technologie auch eingesetzt werden könnte, um zukünftig Raumschiffe zu schützen. Damit dies funktioniert, setzen die Forscher modernste Technologien ein, darunter Superleiter und die Magnettechnologie, die in Fusionsreaktoren eingesetzt wird. Ob sich dieser Ansatz bewährt, müssen die Experimente noch zeigen.
Sicher und geschützt in der Plasmablase
Gas aus geladenen Teilchen soll bei langen Raumflügen kosmische Strahlung abwehren
Ein Schild aus gasförmigem Plasma könnte Astronauten auf zukünftigen Missionen zum Mars vor der schädlichen kosmischen Strahlung schützen, glauben amerikanische Astronomen. Wie eine Blase soll das Gas aus geladenen Teilchen dabei den Teil des Raumschiffs umgeben, in dem die Besatzung untergebracht ist. Das damit verbundene Magnetfeld wäre ein ebenso effektiver Schutz vor kosmischer Strahlung wie eine mehrere Zentimeter dicke Aluminiumschicht, würde jedoch lediglich ein paar Gramm wiegen. Sollte sich diese Vision tatsächlich umsetzen lassen, müssten die Raumschiffe der Zukunft sehr viel weniger Gewicht befördern als bislang angenommen.
Sobald ein Astronaut das Magnetfeld der Erde verlässt, ist er den energiereichen Teilchen, die zusammenfassend als kosmische Strahlung bezeichnet werden, praktisch schutzlos ausgeliefert. Dauert diese Bestrahlung längere Zeit an, kann sie Krebs oder andere Krankheiten verursachen. Eine Möglichkeit, diese Gefahr bei längeren Raumflügen zu vermindern, wären dicke Metallplatten, die außen am Raumschiff angebracht werden und das Teilchenbombardement aufhalten können. Allerdings wäre ein solcher Schutzschild sehr schwer und könnte daher beispielsweise beim Start der Raumfähre zu Problemen führen.
Die Lösung, die sich John Slough und sein Team von der Universität von Washington in Seattle ausgedacht haben, käme dagegen mit sehr wenig zusätzlichem Ballast aus. Sie planen, mithilfe einer Hochspannungsquelle außen am Raumschiff Wasserstoffgas in seine geladenen Bausteine Protonen und Elektronen zu zerlegen und dieses Plasma um das Raumschiff herum zu leiten. Dabei helfen soll ein ebenfalls unter Spannung stehendes supraleitendes Metallgitter, das das Fluggerät umgibt und im Plasma einen Strom erzeugt. Dieser Strom soll dann die Wolke aus geladenen Teilchen in der Nähe des Raumfahrzeuges halten. Das dabei entstehende Magnetfeld schützt die Besatzung des Schiffs.
Der optimale Durchmesser eines solchen Schildes läge wahrscheinlich bei etwa 100 Meter, hat Studienleiter Slough berechnet. Das dazu nötige Metallgitter wäre allerdings schon so groß, dass es beim Start abgenommen und später im All wieder installiert werden müsste. Momentan untersuchen Slough und sein Team im Auftrag der Nasa, ob sich ein solcher Schild unter reellen Bedingungen umsetzen lassen würde. Besonders günstig wäre es dabei, wenn das Raumschiff Plasma auch als Treibstoff nutzen würde. In diesen Fall könnte der verbrauchte Treibstoff für den Schild recycled werden, so dass die Astronauten praktisch von ihrem eigenen Abgas geschützt würden.
Gerald Vincent Bull (* 9. März 1928 in Ontario, Kanada; † 22. März 1990 in Brüssel, Belgien) war ein kanadischer Ingenieur, der durch seine Arbeiten an Artilleriegeschützen bekannt wurde.
Anschließend arbeitete er an einem Projekt, um Satelliten mit riesigen Kanonen in den Orbit zu schießen. Für dieses High Altitude Research Project errichtete man auf der Karibikinsel Barbados ein Testzentrum. Zu Beginn der Versuche herrschte Geldknappheit, denn zur gleichen Zeit forschte Wernher von Braun mit hohem Budget an ballistischen Raketen.
Bull benötigte leistungsstarke Kanonen, um mit seinen Geschossen auch nur annähernd in die Nähe des Orbits zu gelangen. So stellte er ab 1960 Versuche mit ausgemusterten Marinekanonen der U.S. Navy an, die ein Kaliber von 40,6 cm (16 Zoll), 20 Meter Rohrlänge und ein Gewicht von 125 Tonnen hatten. Er verlängerte die Läufe auf 36 Meter, entwickelte Spezialgeschosse (Martlets) von nur 84 kg Gewicht, bzw. bis 210 kg bei der Martlet 2 (die Original-Geschosse wogen ca. 1.200 kg), verbesserte die Treibladungspulver.
Man erreichte damit eine Mündungsgeschwindigkeit von 3600 m/s, gegenüber ca. 825 m/s der Originalgeschosse. Mit der Kanone wurde fast senkrecht nach oben geschossen, mit leicht östlicher Richtung auf das Meer hinaus. Die erreichte Schusshöhe betrug schließlich 100 Kilometer. Diese Steigerung der Geschützleistung gegenüber der Originaltechnik wurde von Bull mit nur 10 Mio. Dollar erreicht – im Vergleich zur Raketenentwicklung ein sehr kleines Budget.
Die erreichten Geschwindigkeiten waren jedoch zu gering, um einen Orbit zu ermöglichen, denn hierfür ist die erste kosmische Geschwindigkeit von 7.900 m/s notwendig
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Projekt Babylon
sichergestellte Komponente des Projekts Babylon
Um seine Forschungen weiter zu finanzieren, nahm Bull den Auftrag an, für den Irak unter Saddam Hussein eine riesige Kanone zu entwickeln, ähnlich der früheren deutschen V3-Kanone. Sie sollte in der Lage sein, auch Israel zu erreichen.Das Geschütz mit dem Decknamen Baby Babylon sollte bei einem Kaliber von 35 cm einen ca. 46 m langen Lauf besitzen. Als Stellung für die Kanone wurde der Jabal Hamrayn-Berg (etwa 200 km nördlich von Bagdad) ausgewählt.
Das Projekt wurde Anfang 1990 durch den britischen Geheimdienst Secret Intelligence Service vereitelt, der die Lieferung verschiedener Teile stoppte. Das weitere im Irak verfolgte Projekt „Babylon“, die Konstruktion einer noch größeren „Supergun“ (Kaliber 1000 mm), um Ladungen bis zu 600 kg in eine Umlaufbahn (Orbit) oder einen Sprengkopf über Distanzen bis 1000 km zu befördern, wurde ebenfalls nicht weiter verfolgt. Laut Aussage des irakischen Generals Hussein Kamel al-Maschid sollte die Waffe verwendet werden, um feindliche Satelliten lahm zu legen
„Es war für Angriffe auf große Entfernung und für die Blendung von Spionagesatelliten ausgelegt. Unsere Wissenschaftler haben tatsächlich daran gearbeitet. Es wurde so entworfen, dass eine Granate im All explodieren und ein haftendes Material auf den Satelliten versprühen sollte, um ihn zu blenden.“
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Diese Technik ist natürlich nur dazu gut um Material in den LEO ( Low Earth Orbit ) zu schaffen. Material wie z.B. Wasser, Sauerstoff oder Baumstoffe
Diese treiben die Kosten besonders in die Höhe. Es ist doch klar, daß eine Firma, die einen Auftrag für irgendeine Raketen- oder Weltraumhardware erhalten hat, gar kein Interesse daran hat, diese billig und mit einfachen Methoden herzustellen - im Gegenteil. Je teurer desto besser. Dies gilt, wie gesagt, wenn man den Auftrag erst einmal hat. Nun gibt es aber gar nicht so viele Firmen in unserem Land, die überhaupt in der Lage sind, Hardware zu bauen, jedenfalls dann nicht, wenn es um Luftfahrt-High Tech geht und nicht um Schiffsbautoleranzen. Insofern gibt es also gar nicht soviel Konkurrenz. Ein ideales Umfeld also für Preistreiber und für überzogene Budgets.
Nun möchte man meinen, daß Politiker als Vertreter der Steuerzahler ein Interesse daran hätten, die Kosten gering zu halten. Tatsächlich hat Kennedy hier schon 1961 die Antwort gegeben: "wir fliegen zum Mond ... nicht weil es leicht ist, sondern weil es schwierig ist". Er hätte auch sagen können: wir fliegen, nicht weil es billig ist, sondern teuer. Denn billig beeindruckt keinen.
Politische Kontrollmechanismen versagen aus einer Vielzahl von Gründen, nicht nur bei Raumfahrtentscheidungen. Einer ist, daß Politiker von Mathematik und den Wissenschaften meistens keinen blassen Schimmer haben. Ich erinnere mich an einen Film über das SDI-Projekt. Hier stellte eine Arbeitsgruppe ihre Fortschritte bei Hochenergielasern einer Kommission vor, die Reagan direkt berichten sollte. Sie führten aus, daß sie einen Energielevel von 10 hoch 10 erreicht hätten, aber für die geplante Anwendung müßten sie auf 10 hoch 20 kommen. Worauf die Reagan Leute sagten: "au fein, dann habt ihr ja schon die Hälfte". Das sagt alles.
Zweitens haben auch Politiker ein Interesse an kostspieligen High Tech Projekten. Denn nur solche Projekte bringen „Ruhm und Ehre“ und bringen hochbezahlte Arbeitsplätze in’s jeweilige Bundesland und Spenden in die Parteikasse.
Hohe Kosten bedingen natürlich auch einen hohen bürokratischen Apparat. Da braucht man Überwachungseinheiten, Referenten, Lenkungsausschüsse, Ministerkonfernzen, Reisen, Unterschriften etc. All das verzögert natürlich die eigentliche Arbeit. Bürokratie wächst wie Krebs. Niemals begrenzt sie sich selber. Und fällt meistens denen in den Rücken, die die eigentlich Produktiven sind, zu Lasten des gesetzten Zieles.
Aber auch die föderale Struktur verursacht Kosten. Wiederum ist hierfür der Space Shuttle ein gutes Beispiel, obwohl wir genausogut die Ariane oder die laufenden Diskussionen über eine Restrukturierung des Airbuskonsortiums heranziehen könnten.. Die USA sind ja, genau wie unser Land, föderal organisiert. Das bedeutet nichts anderes, als daß bei einem so riesigen Subventionsfaß wie der Raumfahrt (immerhin mehr als 10 Mrd. Dollar pro Jahr in den USA) jeder Bundesstaat etwas vom Kuchen abbekommen muß, sonst gibt’s Zoff. So werden z.B. die Seitenbooster des Space Shuttle von einer Firma (Morton Thiokol) gebaut, die in Utah ansässig ist, also mehr als 1000 km von jeder Küste entfernt, mehr als 2500 km vom Startort weg. Gerade die Booster aber sind ja wiederverwertbar, das heißt sie müssen jedesmal hin- und hertransportiert werden. Nicht gerade sehr sinnvoll und auch gefährlich, wenn man bedenkt, daß die mit 750 Tonnen Sprengstoff gefüllten Booster quer durch das ganze Land gefahren werden müssen. Eine solche Entscheidung kann einfach nicht unter logischen Gesichtspunkten alleine getroffen worden sein! Zumindest hätte dann die Wiederbefüllung auch am Startort erfolgen müssen.
Wasserstoff als Treibstoff
Wasserstoff als Treibstoff bedarf eigentlich einer eigenen Diskussion. Wenn man die „reine Mathematik“ des Raketenfluges betrachtet, macht Wasserstoff als besonders leistungsfähiger Treibstoff natürlich Sinn. Deshalb wird er von den Ingenieuren, die elegante Systeme liefern wollen, auch eingesetzt. Nicht jedoch unter ökonomischen Gesichtspunkten. Hier ist Wasserstoff ein echter Preistreiber. Zum einen ist der Treibstoff selbst nicht preiswert (bezogen auf eine per kg Basis). Der Preis ist übrigens auch kaum mengenelastisch, denn die Hauptkosten in der Wasserstoffproduktion sind Energiekosten. Zum anderen ist der Treibstoff kompliziert und gefährlich im Umgang wie in der Anwendung. Durch die tiefen Temperaturen nahe dem absoluten Nullpunkt werden Metalle spröde, Leitungen müssen vorgekühlt werden, Wasserstoff diffundiert durch Schweißnähte, Leckmengen müssen verblasen werden, damit sie sich nicht unter Abdeckungen ansammeln und zu Explosionen führen etc. Wasserstoff hat ein geringes spezifisches Gewicht, was zu besonders großen Tankvolumina führt und seine Vorteile als Treibstoff teilweise wieder auffwiegt, es sei denn, man setzt nur die leichtgewichtigsten Legierungen wie Aluminium-Litium ein etc.
Wir sind - wie übrigens auch viele andere - zu dem Schluß gekommen, daß Kerosin der ideale Raketenbrennstoff ist - oder eben ein Hybridbrennstoff mit den besonderen Vorteilen dieser Technik. Kerosin gibt es überall, es ist billig, wird vielfältig eingesetzt, ist sicher im Umgang, ist sauber etc. Diese Meinung könnte sich ändern, wenn Wasserstoff einen breiten Durchbruch alls Flugzeugtreibstoff erleben würde. Danach sieht es aber momentan nicht aus - die Industrie ist diesbezüglich gerade auf dem Rückmarsch.
Fazit:
Die Prinzipien des Raketenbaus sollten völlig neu überdacht werden. Am besten von Leuten, die noch nicht durch eine allzulange Karriere in der Luft- und Raumfahrtindustrie vorbelastet sind. Hierbei sollte intensiv nach bereits vorhandener und verfügbarer Hardware gescannt werden. Verwendet werden sollten gängige und preiswerte Materialien, also Stahl, Alu und Fieberglas (auch preiswert). Gleiches gilt für Herstellungsverfahren. Die eigentliche Konstruktion und Tests sollte von kleinen, möglichst unabhängigen Teams durchgeführt werden, die eigenständig entscheiden können und nur ergebnisorientiert arbeiten müssen. Je weniger Hände eingreifen desto besser. Die Dokumentation sollte auf Notwendiges beschränkt werden und möglichst papierlos erfolgen. Jede Designentscheidung muß auf ihre ökonomische Tragfähigkeit überprüft werden. Ökonomie muß von vorne herein gleichberechtigtes Designkriterium sein. Gleiches gilt für die später zu erwartenden Betriebskosten. Hier gilt die Faustregel: komplex ist teuer - Treibstoff dagegen ist billig.
In den 60er und 70er Jahren haben einige US-Firmen, z.B. TRW, die die Abstiegstriebwerke der Mondfähre mit einem Low-Tech Ansatz (Druckgasförderung, keine Turbopumpen, auf Sicherheit und 100 %ige Zuverlässigkeit ausgelegt) gebaut haben, mit Low Cost Triebweken experimentiert. TRW hat z.B. ein 80 Tonnen (Schub) Kerosin/LOX Triebwerk gebaut. Das ganze wurde bei einer ortsansässigen Heizkesselfirma regelrecht zusammengeschweißt. Es funktionierte prima und kostete 33.000 US-$. Ja, sie haben richtig gelesen ! Andere Firmen haben ebenfalls mit diesem Technologieansatz experimentiert und haben Triebwerke mit bis zu 2500 Tonnen Schub gebaut. Alle diese Vorstöße kamen jedoch zum Erliegen , als sich die USA für den Space Shuttle als einzigen (!) Nutzlastträger entschieden. Damit war damals klar, daß es für billige Träger keinen Markt geben wird. Eine schlimme verpaßte Chance und für Raumfahrtenthusiasten ein echter Träumekiller.
Was wir in der Raumfahrt brauchen, ist ein robuster LKW. Das, was für die Luftfahrt die DC3 oder die Tante Ju war. Wir müssen nicht gleich beim Lear Jet einsteigen !
Von einer Kostensenkung bei den Startkosten würden übrigens alle beteiligten Parteien profitieren, auch die „etablierten“ Raumfahrtfirmen, indem nämlich der Gesamtmarkt wächst. So ist es auch mit der EDV gewesen - diese nahm einen geradezu gigantischen Aufschwung, nachdem die Preise für Computer um einige Zehnerpotenzen gefallen sind. IBM führt zwar heute nicht mehr den Markt und die Trends an, ist aber größer denn je.
Umgekehrt gilt: wenn wir die Trendwende bei den Startkosten nicht schaffen, müssen etablierte Firmen vorsichtig sein, nicht aus dem Feld geschlagen zu werden. Gerade die Raketentechnik hat in den letzten Jahren eine beeindruckende Proliferation erfahren - und es sind nicht nur Länder wie der Iran oder Irak, die sich um diese Technik bemühen, sondern auch Länder wie Brasilien oder Australien und natürlich zunehmend auch die zukunftsorientierten, pragmatischen, cleveren und fleißigen Asiaten wie Japan, Taiwan, Malaysien, Indonesien, Indien usw. Und was passiert, wenn die sich einer Technik bemächtigen, wissen wir - wir verlieren, weil wir zu kompliziert und zu teuer sind und an den Bedürfnissen der Kunden vorbei produzieren.
Die Bedürfnisse der Kunden sind aber gerade in der Raumfahrt so klar definiert wie sonst in keinem anderen Wirtschaftsbereich: die Nutzlast soll möglichst preiswert und sicher nach oben. Alles andere ist schnuppe.
In den nächsten Jahrzehnten wird im Weltraum mit Kommunikationstechnik viel Geld verdient werden. Wo das der Fall ist, fällt auch für die zweckfreie Forschung - sprich: Mond- und Marslandungen etc. - etwas ab. Jedoch gilt auch hier: die Zeit der Phantasten, die mit tausende Tonnen schweren Raumschiffen zum Mars wollen, geht langsam zuende. Diesen Leuten verdanken wir es letzten Endes, daß wir (die Menschheit) immer noch hier sitzen ! Nur ökonomisch tragfähige Konzepte (wie z.B. die von Dr. Zubrin) werden eine Chance haben - und werden von einem preiswerten Träger ungeheuer profitieren!
Man wird sich natürlich fragen, warum die Firmen, die mit Raumfahrt beschäftigt sind, die obigen Überlegungen nicht schon längst nachvollzogen haben. Die Antwort überrascht: sie haben !
Es gibt vielfältige Studien, die von der US-Raumfahrtindustrie und dem DOD (Department of Defense) bereits in den 60er Jahren angestellt wurden. Sie alle kamen zu dem gleichen Ergebnis: Raumfahrt wird dann billiger, wenn wir auf High Tech verzichten (der Verzicht auf High Tech gilt für die Booster, nicht unbedingt für die Satelliten).
Danach wurden zunächst die Kostentreiber analysiert. Dies ist eindeutig nicht die Größe der Rakete (wie ja auch unsere obigen Betrachtungen gezeigt haben), sondern
die Anzahl der Teile der Hang zur Optimierung und zu High Tech eine Aversion zur Verwendung von Standardkomponenten, alles wird „neu gemacht“ die Übertragung von Luftfahrttechniken auf die Raumfahrt der fast ideologische Zwang zur Wiederverwertung, egal ob diese Sinn macht die Dokumentationsvorschriften und Führung der Projekte politische Einmischung und „Rahmenbedingungen“ der Einsatz von Wasserstoff als Treibstoff Komplexität und Anzahl der Teile
Hauptkostentreiber Nummer 1 ist die Komplexität, mit der heute Raketen gebaut werden. Das Haupttriebwerk des Space Shuttle z.B. besteht z.B. aus mehr als 70.000 Einzelteilen. Davon entfällt übrigens mehr als die Hälfte auf die Turbopumpen. Von diesen Triebwerken gibt es drei. Macht also 210.000 Einzelteile. Wenn wir nur ein entsprechend größeres Triebwerk hätten, wären wir wieder bei 70.000 oder 66% weniger. Natürlich bedeutet ein Triebwerk bei Ausfall den Abbruch oder sogar den Verlust der Mission. Andererseits ist der Ausfall bei einem Triebwek mit 66% weniger Teilen dreimal weniger wahrscheinlich.
Es ist logisch leicht nachvollziehbar, daß „viele Teile“ auch „viel Geld“ kosten und weniger Teile weniger Geld. Selbst beim Automotor gilt diese Aussage, denn die Herstellungskosten machen den Preis, nicht der Metallwert. Ganz offensichtlich ist ein Automotor auch komplex aufgebaut, jedoch werden hier die Entwicklungskosten hier über hohe Stückzahlen wieder aufgefangen - ein Verfahren, welches wir im Raketenbau nicht nutzen können, es sei denn, wir würden standartisierte Launcher am Fließband bauen. Das Verhältnis Teile zu Kosten ist jedoch nicht linear, sondern vermutlich steigen die Kosten exponentiell mit der Teilezahl. Viele Teile bedeuten viele Fehlerquellen, viel mehr Überwachung, Testen, Dokumentation, viele Interface zwischen den Komponenten, sowohl in technischer Hinsicht wie auch im Umgang der Designer, Ingenieure, Tester, Bediener und Leute an der Drehbank untereinander. Das bedeutet Reisen, Konferenzen, Meetings, Diskussionen, Abgleich, endlose Dokumentationen etc. Alleine diese Kosten machen nach einer DoD Studie bis zu 2/3 der Gesamtkosten eines Systems aus.
High Tech um jeden Preis
Raumfahrtingenieure kommen hauptsächlich aus der Luftfahrt und/oder haben einen militärischen Hintergrund. Z.B. hatten alle Konstrukteure der ersten Stunde (um W. von Braun) einen militärischen Hintergrund. Da mußte niemand auf das Geld achten. Entsprechend dieser arbeitsmäßigen Herkunft werden viele Konzepte der Luftfahrt auf die Raumfahrt übertragen. Diese Leute sehen Raumfahrt gewissermaßen als eine „Fortsetzung der Luftfahrt mit anderen Mitteln“ (Clausewitz ?).
Original -> Der Krieg ist nichts anderes als eine Fortsetzung des politischen Verkehrs mit Einmischung anderer Mittel.
Diese Einstellung zeigt sich schon an der Sprache: wir sprechen von der Luft- und Raumfahrtindustrie, von Raumflug, von der NASA = Aeronautics and Space ... Man sieht es auch deutlich am Beispiel des Space Shuttle, der ja - für jedermann erkennbar - „halb Flugzeug ist“. Den Ingenieuren erschien es damals offensichtlich nicht mehr akzeptabel, rückkehrende Astronauten in einer Kapsel an einem Fallschirm in’s Wasser plumpsen zu lassen. Eine elegantere Methode der Landung mußte her: die Landung auf einer Rollbahn. Alleine diese Designentscheidung bedeutet für den Space Shuttle, daß er Flügel haben muß, ein Fahrwerk, eine komplizierte Avionik, daß Pilotentraining erforderlich ist usw. Hätte er all dies nicht, dann könnte er 50 % (also etwa 50 Tonnen !) leichter sein, oder aber das 3-fache an Nutzlast tragen (75 statt 25 Tonnen). All dieses Potential wurde verschenkt für den Gewinn einer bequemen wie gleichwohl äußerst seltenen Landung auf einer Rollbahn. Und nicht nur das - beim Start stören die Flügel nur. Während des Starts verhindern sie Vollschub und im Weltraum sind sie ganz offensichtlich völlig nutzlos. Außerdem machen sie die Hauptfläche der Hitzekachelung aus, die nach jedem Flug kontrolliert werden muß.
Nochmal: der Shuttle ist eine unglaubliche Flugmaschine und ein ingenieurtechnisches Wunderwerk, aber er hat die gestellte Aufgabe nicht erfüllt.
Nochmal: es geht nicht gegen den Space Shuttle ansich. Wir Europäer sind kaum besser. Hier wurde noch Werbung für Hermes gemacht, als längst klar war, daß der Shuttle versagt hatte.
Tatsächlich haben Luft- und Raumfahrt nicht viel miteiander zu tun.
Ein Raketenstart ist ein Beschleunigungsvorgang bis zu einer bestimmten Endgeschwindigkeit. Bei der Raumfahrt geht es darum, die Atmosphäre möglichst schnell zu verlassen, um frei von aerodynamischen Belastungen „richtig“ beschleunigen zu können. Flugzeuge dagegen fliegen nur atmosphärisch und benötigen die Anströmung von Luft um überhaupt in der Luft bleiben zu können, um zu steuern usw. Dies bedingt große Flügel, wechselnde aerodynamische Belastungen, leichte und gleichzeitig feste Strukturen, die wechselnde Belastungen aushalten müssen, und das jahrelang etc. Flugzeuge müssen überall starten und landen können, denn das ist der Sinn ihrer Existenz. Gewichtsersparnis übersetzt sich bei Flugzeugen in operativen Gewinn. Jede Tonne weniger Flugzeuggewicht ist eine Tonne mehr, die man mitnehmen kann. Jede Tonne gespartes Raketengewicht bei einer Unterstufe ist dagegen nur ein Bruchteil einer Tonne Nutzlastverbesserung.
Bei Flugzeugen macht Optimierung auch Sinn wegen der hohen Flugfrequenzen. Hierzu ein kleines Beispiel. Wir alle kennen die kleinen Verwirbelungsflügel an den Flügelspitzen großer Jets, die selbst so aussehen wie kleine Flugzeuge und die vor ca. 10 Jahren Einzug in die Luftfahrt gehalten haben und bis zu 2 % Treibstoff sparen.
Eine solche Innovation macht Sinn. Betrachten wir den Jumbo Jet 747. Den gibt es seit 30 Jahren. Es fliegt eine Flotte von 1000 Flugzeugen alleine von diesem Flugzeugtyp, diese fliegen jeden Tag und verbrennen dabei ca. 200 bis 250 Tonnen Kerosin. Eine Optimierung am Design, die 2% spart, wirkt sich also 1000 Flugzeuge X 365 Flugtage X 30 Jahre Typen-Betrieb aus. Solche Flugfrequenzen werden wir aber in der Raumfahrt noch lange nicht erreichen. Zum Vergleich: die Saturn V flog nur ca. 15 x , der Space Shuttle in immerhin 15 Jahren nur ca. 100 mal, die Ariane 4 ebenfalls nur ca. 100 mal in 10 Jahren .Also macht eine Gewichtsoptimierung „um Treibstoff zu sparen“ faktisch keinen Sinn. Im Gegenteil: Gewichtsoptimierung bedeutet exotische Materialien (jetzt kommt Aluminium-Lithium), komplizierte Verarbeitung, hoher Prüfaufwand, hohe Fehleranfälligkeit etc. Sicherlich käme keiner auf die Idee, einen Jumbo Jet aus Blech zu bauen, um beim Material Geld zu sparen. Umgekehrt käme aber auch keiner auf die Idee, einen Tanker aus Karbonfaserverbundwerkstoff zu bauen, nur damit er ein paar Tonnen mehr Öl mitnehmen kann.
Auch die Triebwerke von Luft- und Raumfahrzeugen haben nichts miteinander gemeinsam. Triebwerke für die Luftfahrt sind Düsenstrahltriebwerke mit äußerst komplexem Aufbau und hoch beanspruchten Teilen (Rotation, Hitze, Temperaturwechsel, Schütteln und Schlag etc.) bei angestrebten langen Lebens- und Betriebsdauern. Ich wüßte momentan nicht, wo man hier etwas vereinfachen könnte, zumal die Vorgaben durch Umweltüberlegungen, Lärmthematik, Ozon etc. hier ganz andere sind. Raketentriebwerke dagegen sind (Zitat) "Einzylinderverbrennungsmotoren ohne Kolben". „Da wo das Loch ist“ strömt unter hohem Druck Gas aus. Raketen haben also mehr etwas mit „fliegenden Boilern“ zu tun. Das Ganze muß bei unseren heutigen Wegwerfraketen meist nicht länger als ein paar Minuten (typisch 2 bis 3) Betrieb aushalten.
Wir erheben insgesamt die provokante Behauptung, daß Luffahrtingenieure aufgrund ihrer verinnerlichten Denkweise vermutlich gar keine guten Raketenkonstrukteure sein können. Sie wären ja auch keine guten Schiffsbauer und Schiffsbauer keine guten Flugzeugentwickler. Großraketen zu bauen ist aber tatsächlich eher eine Aufgabe für unsere Schiffswerften.
Optimierungskosten schlagen sich natürlich auch auf die Nutzlastkosten nieder.
Wären die Startkosten billiger, dann bräuchte man die Nutzlasten nicht so zu optimieren etc. Auch hierzu gibt es Studien. Analysten gehen davon aus, daß eine Einsparung bei den Startkosten um 50 % einen ähnlichen Kostenrückgang auch bei den Nutzlasten nach sich ziehen würde. Mit anderen Worten: wir könnten die gleiche „Menge“ Raumfahrt mit dem halben Budget betreiben, oder aber mit dem gleichen Budget doppelt soviel. Wir könnten mehrere gleiche Nutzlasten auf den Weg bringen. Wenn die NASA den einzigen Sojourner verliert, verliert sie ihr Gesicht. Wenn Sie einen Sojourner von 20 verliert, würden die Leute sagen: Alles in allem eine enorme Leistung....
Alles neu ....
Dies wird wieder am Beispiel Space Shuttle deutlich. Hier kam man auf die glorreiche Idee - um Geld zu sparen - die großen Feststoff-Seitenbooster zu konstruieren. Dabei hatte die NASA durchaus eine Alternative, denn es gab ja die großen F1-Triebwerke der ersten Stufe der Saturn. Diese haben in etwa 15 Starts jeweils zu 100 % funktioniert, die Entwicklungskosten waren bezahlt und die Betriebskosten lagen entsprechend niedrig, da es eingespielte Wartungsmannschaften gab und außerdem billige Treibstoffe (Kerosin und LOX) verwendet wurden. Zwei F1 Triebwerke liefern den gleichen Schub wie ein Space Shuttle Booster. Das F1-Triebwek war als Triebwerk der Saturn natürlich nur für den Einmalbetrieb vorgesehen, man hätte es aber sicher leicht für eine Wiederverwendung umkonstruieren können. Zusätzlich hätte man noch eine Menge Gewicht gespart, denn das F1 Triebwerk verwendet Turbopumpen (deren Entwicklung ja ebenfalls bezahlt war), während die Seitenbooster gewissermaßen Druckgastriebwerke sind. Umgekehrt hätte man das Triebwerk bei Verzicht auf Turbopumpen (Druckgasförderung) sicher noch weiter vereinfachen können. Von den Sicherheitsaspekten, die immerhin Menschen mit ihrem Leben bezahlen mußten und von den Umweltbelastungen durch ca. 100 Tonnen Salzsäure, die der Space Shuttle bei jedem Start herausbläst, wollen wir hier gar nicht reden.
F1 Triebwerk der Saturn
Also viele Optionen auf der Basis eines Triebwerkes, das schon existierte. Ingenieure aber konstruieren lieber alles neu, anstatt sich auf dem Markt umzusehen, was es bereits schon gibt. Das gilt auch für die Ariane V. Diese hat eine Nutzlastkapazität von 20 Tonnen, also ein Bereich, der von den Russen und Amerikanern bereits vor Jahrzehnten "geknackt" wurde. Entwicklungskosten bisher 12 Mrd. Mark. Natürlich muß Europa ein eigenes Wasserstoff/Sauerstofftriebwerk haben, denn das ist ja State-of-the-Art. Entwicklungskosten bisher 2 Mrd. Mark. Natürlich müssen es Feststoffbooster sein. Mit einem Low-Tech Ansatz und Kerosin/LOX hätte man vermutlich das ganze System für 2 bis 3 Mrd. Mark bauen können. Das bedeutet: wir hätten rund 10 Mrd. Mark gespart, oder aber wir hätten für 10 Mrd. Mark Nutzlast bauen und transportieren können. Selbst wenn die Rakete dann im Betrieb nicht billiger geworden wäre, als sie es voraussichtlich sein soll (also 20 to Nutzlast für 100 Mio Mark), dann hätte man für diesen Betrag also 2000 Tonnen Nutzlast in den Orbit bringen können. Oder wir hätten Geld für die Fusionsforschung ausgeben können. Oder für die Krebsforschung. Stattdessen bekommen wir nichts. Und zusätzlich müssen wir jetzt Angst haben, daß die Russen uns bei den Startkosten mit ihrer Kerosin/LOX Technologie mächtig unterbieten werden (und das werden sie).
Wiederverwendung
Wiederverwendbarkeit wird von vielen als der Schlüssel zu einer preiswerten Raumfahrt gesehen. Dies erscheint logisch, ist aber nicht in allen Bereichen selbstverständlich. Tatsache ist, daß Wiederverwendbarkeit nur bei hohen Flugfrequenzen Sinn macht. Dies zeigt wiederum das Beispiel des Space Shuttle. Hier werden z.B. die Seitenbooster wiederverwendet. Diese werden von einer speziellen Bergungsflotte geborgen. Hierfür werden zwei Spezialschiffe (extra für den Zweck gebaut) mit Manmschaft vorgehalten. Es gibt einen eigenen Hafen für die Anlandung der Boostergeähuse, Gebäude für die Disassemblierung, Spezialfahrzeuge für die Versendung nach Utah (wo sie wiederbefüllt werden), ein eigenes Gebäude zum Waschen der Fallschirme etc. Für jeden Arbeitsschritt benötigt man natürlich Bedienungsmannschaften etc. Diese kommen bei der jetzigen Flugfrequenz natürlich nur ca. 1 mal pro Monat zum Einsatz. Nicht gerade sehr effektiv.
Tatsächlich gibt es viele Bereiche der Wirtschaft, die gar nichts mit Raumfahrt zu tun haben, die wiederverwerten könnten, es aber nicht tun. Ein Beispiel das wir alle kennen ist McDonald’s, die ihre Pappteller lieber wegwerfen als zu waschen. Ich bin sicher, McDonalds hat die Kosten einer Wiederverwertung z.B. in Form von Tellern, die gespült werden müßten, bis auf den Bruchteil eines Pfennigs durchgerechnet und ist wohl zu dem Schluß gekommen, daß „ex und hopp“ für ihr spezielles Geschäft „Hamburgerverkauf“ billiger ist. Wäre es nicht so, dann würden die doch wie verrückt Teller waschen.
Wiederverwertung gibt es sogar in solchen Bereichen nicht, in denen das "Transportgerät" den Wert der "Nutzlast" in hohem Maße übersteigt. Als Beispiel sei wiederum etwas angeführt, das wir alle aus dem täglichen Leben kennen, nämlich ein Glas saurer Gurken. Hier kostet die Füllung (so wurde berichtet) nur ca. 9 Pfennige, das Glas mit Deckel aber schon 17 Pfennige (das Transportgerät ist also fast 100 % teurer als die Nutzlast) ! Letztendlich zählt in der freien Wirtschaft eben nur, ob man unter dem Strich einen Profit erzielt. Man muß also schon genau rechnen.
Trotzdem wird natürlich eine Wiederverwendbarkeit, wo es geht, angestrebt. So kann man z.B. eine Startstufe sicher in den meisten Fällen bergen und wiederverwenden. Es ist interessant zu bemerken, daß dies umso leichter mit einer Stufe gelingen wird, die schwer und robust gebaut ist, denn immerhin muß sie einen Sturz aus großer Höhe und einen heftigen Klatsch in’s Wasser überstehen. Dies dürfte mit einer aus Stahl konstruierten Stufe besser zu bewerkstelligen sein, als mit einer Stufe aus Aluminium-Litium Legierung, die dickenmäßig an ihre Grenzen konstruiert wurde und sich schon beim Eindrücken mit dem Zeigefinger verbiegt.
Wiederverwenden kann man sicher auch die Spitze der Rakete, die z.B. als Nutzlasthülle, Transportkapsel usw. ausgelegt ist. Hier sollte sich u.a. das „Gehirn“ des Systems befinden, also sämtliche Computer, Überwachungsgeräte, Lagekontrolle, Kommunikation, Stromversorgung, Lebenserhaltungssysteme bei bemannten Systemen etc., eben alles was teuer ist und was man deshalb wiederhaben will. Dieser Systemteil sollte unseres Erachtens als Kapsel ausgeführt sein, die an einem Fallschirm im Wasser landet und dort geborgen wird. Ggf. muß der Hitzeschild nach jedem Flug oder alle paar Flüge ausgetauscht werden. Dies geschieht am besten in einem Stück.
Somit bleibt noch eine Stufe (wir benötigen ja mindestens zwei Stufen, wenn wir nicht mit Wasserstoff fliegen), die wiederzuverwenden wäre. Wenn wir diese Stufe wiederverwenden wollen, dann müßte sie entweder eigenständig in die Erdatmosphäre eintauchen, was ein eigenes Hitzeschild und Landesystem notwendig macht, oder aber wir integrieren diese Stufe zusammen mit der Kapsel in ein kombiniertes landefähiges Gerät. Dieses sollte aber immer noch wassern, um die Sache simpel zu halten.
Oder aber wir denken um und ersetzen den Begriff Wiederverwendbarkeit durch den Begriff vollständige Verwendbarkeit.
Was heißt das? Nun, die Endstufe ist ja auch Gewicht, was wir bereits in den Orbit transportiert haben. Dieses Gewicht könnte wertvolle Nutzlast sein. Bei den hohen Startkosten, selbst wenn wir diese auf 500 $ pro kg senken könnten, macht es gar keinen Sinn, diese Stufe wieder zur Erde zurückzubringen, wenn wir sie für etwas anderes verwenden könnten. Im Gegenteil - alles was einmal oben ist und irgendwie verwendet werden kann sollte wennmöglich oben bleiben. Aus ausgebrannten Raketenstufen, wenn sie eine gewisse Größe aufweisen und standartisiert werden, könnte man z.B. prima Habitate (Blocks für Raumstationen, Lunarstationen, Marstransporter etc.) konstruieren. Dies gilt besonders für LOX-Tanks. Diese könnte man von vorne herein innen mit 19“ Racks für Experimentiereinschübe ausstatten und sukzessive ausbauen. So würde das Gewicht der Oberstufe der Nutzlast zugeschlagen, was das Gesamtmassenverhältnis einer Rakete wesentlich verbessern würde.
1) vom Energiestandpunkt sind Raketen nicht so uneffizient wie die meisten Menschen denken!
Vielmehr bewegt sich der Treibstoffaufwand in Dimensionen, die in der Luftfahrt als akzeptiert gelten. Die landläufige Meinung, daß Raketen teuer sind weil sie groß sind (und groß heißt ja: viel Treibstoff) ist also ganz klar falsch!
2) Für die Erschließung des LEO sind keine exotischen neuen oder extreme, an ihre Grenzen konstruierte Technologien nötig.
3) Der obige fiktive Ticketpreis entspräche einer Reduktion der heutigen Kosten um mehr als 99 % !
Selbst wenn für Teile der o.g. Rechnung schlechtere Werte angenommen werden und sich das Endresultat mehr als verzehnfachen würde, so scheint doch eine Reduktion um 90 % bis 95 % gegenüber heutigen typischen Startkosten möglich und würde einen Trip in den Weltraum für viele von uns - wenngleich immer noch teuer, so doch „erschwinglich“ machen.
90 % Ersparnis bei den Startkosten heißt z.B. für die USA, die ca. 5 Mrd. $ für Startdienste pro Jahr ausgeben, daß 4,5 Mrd. $ eingespahrt werden könnten. Jedes Jahr. Mit dem Geld könnte man dann Sozialwohnungen bauen. Oder die Wale retten. Oder was auch immer. Ohne daß es "weniger Weltraumfahrt" gäbe ! Oder aber wir könnten das Geld für die Konstruktion von Nutzlasten ausgegeben. Oder zum Mond fliegen. Oder zum Mars. Das Geld könnten die USA jedes Jahr einsparen! Selbst wenn die Konstruktion eines Billigboosters 4,5 Mrd. $ kosten würde, würde sich die Sache nach nur einem Jahr schon amortisiert haben.
4) Es sind auch Transportprobleme denkbar, bei denen der Strukturanteil zur Unterstützung der Nutzlast sogar geringer ausfällt als in der obigen Rechnung. Dies ist z.B. dann der Fall, wenn es sich nicht um eine Rückkehrkapsel handelt, sondern die ganze Nutzlast (z.B. ein Raumlabor) im Orbit bleiben soll. Hierbei wird die umgebende Startschutzstruktur üblicherweise früh im Flug abgeworfen. In diesem Falle würde sich die Rechnung um den Faktor „Strukturanteil“ sogar verbessern.
Dies ist interessanterweise eigentlich sogar der Regelfall der Raumfahrt.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Nutzlast ist nicht gleich Nutzlast
Die USA transportieren heute nahezu jede Nutzlast mit dem Space Shuttle. Ganz selten starten einige planetare Raumsonden, Satelliten und militärische Nutzlasten auch mit der Delta-Rakete. Umgekehrt haben die USA eine grandiose Transportmöglichkeiten für Schwerlasten (nämlich die Saturn V mit 150 to in den LEO) verfallen lassen - von dieser großartigen Rakete gibt es heute noch nicht mal mehr einen vollständigen Satz Blaupausen. Alle Nutzlasten auf den Space Shuttle zu bringen war erklärtes Ziel der US-Raumfahrtpolitik. Schließlich nahm man an, das System könne sich nur dann amortisieren.
Mal abgesehen davon, daß der Space Shuttle aufgrund der wesentlich schlechter als angenommenen Flugfrequenz und aus anderen Gründen gar nicht alle Nutzlasten transportieren kann, ist es aber auch nicht sinnvoll, jede Nutzlast gleich zu behandeln. Der Space Shuttle gilt als „Man Rated“ und ist damit besonders aufwendig hinsichtlich seiner Betriebskosten. Dieser Aufwand ist jedoch für die meisten Nutzlasten gar nicht erforderlich. In Analogie kann man sagen: auf der Erde transportieren wir „Säcke mit Kohle“ ja auch nicht mit dem gleichen Gerät wie Menschen. Auf der Erde haben wir vielmehr einen Mix von Transportgeräten. Kohle fährt auf dem Schiff, Sojabohnen auch, Videorekorder und Schweinehälften kommen auf dem LKW und Menschen fliegen oder fahren Auto - eben weil Nutzlast nicht gleich Nutzlast ist.
Wenn wir den Weltraum „erobern“ möchten, dann können wir im wesentlichen drei Arten von Nutzlasten transportieren:
1) Menschen
2) Gerät und Ausrüstung wie z.B. Computer, Raumanzüge, Mondautos, Kommunikationsmittel, Lebenserhaltungssysteme, Sonnenzellen, Experimente und dergl.
3) Große Strukturen wie z.B. Aluminiumbehälter als Habitat. Vor allem aber Treibstoffe, speziell Sauerstoff, Wasser, aber auch Lebensmittel, Bier (gut für die Crew Stimmung) und der gleichen.
In dieser Reihenfolge fallen einige Dinge auf:
Erstens: von 1) bis 3) nimmt der Wert des Transportgutes deutlich ab.
Ganz zweifellos sind Menschen das Kostbarste, was wir zu transportieren haben. Hier gilt „maximale Sicherheitsstufe“.
Haben Sie schon einmal darüber nachgedacht, in welcher Richtung in der Raumfahrt die Dinge transportiert werden ? Blöde Frage ? Klar, die Haupttransportrichtung ist ganz offensichtlich „von unten nach oben“. Nur die Menschen (und vielleicht ein paar Datenträger, Filme und Bodenproben) sollen wieder nach Hause. Der Rest (massenmäßig bestimmt 99 %) kann und sollte sogar oben bleiben. Bei den Ausrüstungsgegenständen handelt es sich meistens um Unikate, die entsprechend teuer sind, weil ihr Konstruktionsaufwand hoch war, aber nicht umbedingt, weil die Fertigung so teuer ist. Motto: zwei Mondautos sind nicht doppelt so teuer wie eins!
In der letzten Gruppe finden sich durchweg Nutzlasten, die im Vergleich zu den Transportkosten in den LEO geradezu wertlos sind ! Eine erstaunliche Feststellung, oder ? Nehmen wir z.B. einmal Wasser (Wasser ist nach Elektrolyse natürlich auch Treibstoff bzw. Sauerstoff). Die Tonne Wasser (ein Kubikmeter) kostet kaum mehr als DM 5,- (es fallen definitiv keine Kanalgebühren an !). Ihr Transport mit dem Space Shuttle dagegen würde heute mit 35.000.000,- DM zu Buche schlagen.
Somit sind tatsächlich viele Nutzlasten im Vergleich zu ihren Transportkosten völlig wertlos.
Gleiches gilt übrigens für flüssigen Sauerstoff (ca. DM 250,- / to), für Treibstoff, für Großstrukturen, für Lebensmittel (wenn’s nicht gerade Kaviar, Trüffel und 57er Dom Perignon Schampus sind). Machen wir uns das mal klar: Treibstoffe, Wasser, Lebensmittel und „grobe Strukturen“ würden typischerweise min. 80% einer größeren Mission (Mond oder Mars) ausmachen. Alleine der Treibstoff schlägt hier mit 60 bis 70 Gewichts-Prozent zu Buche (auch bei einem Zubrin Missionsprofil). Massenmäßig bilden die wertlosen und nahezu wertlosen Nutzlasten also eindeutig den größten Anteil. Wenn wir auf die Kosten achten müssen, dann scheint es folglich nicht sinnvoll, diese Dinge mit dem gleichen Aufwand zu transportieren wie Menschen. Wir fahren unsere Kohle ja auch nicht im Merzedes.
Ganz offensichtlich ist somit der Space Shuttle also nicht das geeignetste Transportgerät für 80 % aller Nutzlasten. Und die kaum billigere Ariane V auch nicht !
Vielmehr muß ein Billigtransporter her, der „das ganze Zeug nur so ‘raufschmeißt“. Hierbei gilt: je billiger desto besser. Wenn eine Transport verloren geht - so what !
Umgekehrt gilt: Da wir im wesentlichen nur Menschen zurücktransportieren wollen und die ohnehin nicht so häufig fliegen, ist jedes Raumflugkonzept, welches sich vorrangig mit dem Rücktransport beschäftigt, offensichtlich nur sehr beschränkt sinnvoll. Hierzu gehören alle Konzepte mit einer geflügelten Struktur und Fahrwerk („damit man wie ein Flugzeug landen kann“), egal ob diese Fahrzeuge Space Shuttle, Sänger, Hermes oder Hotol heißen. Auch das neuerliche X-33 Projekt der NASA fällt in diese Kategorie. Flügel, Fahrwerk etc. sind beim Start und im Weltraum nur Ballast auf Kosten einer echten Nutzlast, die diesen Namen auch verdient! Die Vorgabe, daß ein Raumfahrzeug so landen muß wie ein Flugzeug ist ungefähr so sinnvoll, als würden wir Flugzeuge mit der Auflage konstruieren, daß diese an einem Bahnhof landen können sollen. Außerdem tragen Flügel, Landeklappen und dergl. nur zur Komplexität des technischen Aufwandes (Hydraulik, Steuerung etc.) und damit zu den Kosten bei. Somit droht der NASA nach dem Space Shuttle wohlmöglich jetzt der nächste Milliardenflop. Tatsächlich ist für den Ausnahmefall des Rücktransportes (von Menschen) eine Kapsel mit Landung am Fallschirm und Wasserung völlig akzeptabel und die preiswerteste Lösung.
Die obigen Erkenntnisse sind eigentlich trivial und - wie wir meinen - für jedermann nachvollziehbar. Und doch sehen die Konzepte der Institutionen anders aus.
Selbst Befürworter der Weltraumfahrt geben es heute offen zu - und die Gegner der Weltraumfahrt wußten es ja sowieso schon immer: Die Kosten der Raumfahrt sind zu hoch. Da nützt es auch nichts, dem Vorwurf auszuweichen, indem man aufzeigt, daß wir für Kartoffelchips und Opernbesuche ja noch sehr viel mehr Geld ausgeben. Alle Träume von der Eroberung des Kosmos, von Weltraumtourismus und dergleichen werden Makulatur bleiben wenn es nicht gelingt, die Kosten drastisch zu senken.
Kosten der Raumfahrt - das sind hauptsächlich die Zugangskosten in den Weltraum, also z.B. in den erdnahen Orbit (Low Earth Orbit = LEO). Diese Kosten werden üblicherweise in DM/kg Nutzlast angegeben. Genaue Beträge sind meist nicht zu erhalten, zumal öffentliche Stellen die Kostenstruktur gerne günstiger aussehen lassen möchten. So werden z.B. die Entwicklungskosten für Raketen, für Infrastruktur etc. als „allgemeine Wissenschaftsförderung“ unter den Tisch gekehrt (hierzu ein Beispiel zur Ariane V). Somit ist es schwer, konkrete Zahlen zu bekommen oder sich auf „offizielle“ Kosten zu einigen. Trotzdem gilt für den Space Shuttle eine Zahl vonDM 35.000,- / kg (18.500 US-$) heute als allgemein akzeptiert(die Kosten pro Start werden selbst von der NASA mit ca. 550 Millionen US-$ angegeben. Alle Zahlen Stand 1993). Der Shuttle, der einstmals konstruiert wurde, um die Kosten zu senken, ist übrigens das teuerste Transportgerät überhaupt. In einem gewissen Sinne ist der Shuttle somit wie ein Schulaufsatz: Interessant, aber am Thema vorbei....
Zum Vergleich: DM 35.000,- / kg - das ist weit mehr als ein kg Gold kostet! Würde im Weltraum das Gold also nur so ‘rumschweben, dann würde es sich schon nicht mehr lohnen, mit dem Space Shuttle hinzufliegen und es einzusammeln. Dieser Preis bedeutet, daß ein 85 kg schwerer Astronaut mit 15 kg „Handgepäck“ (100 kg insgesamt - da läßt es sich leichter rechnen) somit 3.500.000,- DM auf den Tisch des Hauses blättern muß, wenn er fliegen will. Bei diesen Preisen ist Weltraumtourismus offensichtlich nur etwas für Bill Gates und Anhang.
Wie hoch aber könnten die Transportkosten tatsächlich sein ? Welchen Preis können wir auf der Basis einer existierenden oder absehbaren Technologie überhaupt erreichen ? Und welchen Preis würden wir als „preiswert“ akzeptieren ?
Überlegungen zu dieser Thematik sind häufig nebulös und erschöpfen sich in allgemeinen Betrachtungen. Fairerweise muß man hierzu allerdings sagen, daß es schwierig ist, Konstenprojektionen abzugeben, wenn kein konkretes Design auf dem Tisch liegt. Gelegentlich wird Raumfahrt jedoch mit der Luftfahrt verglichen. Thema: was wäre, wenn wir Raumschiffe wie Flugzeuge betreiben könnten? Diesen Gedanken wollen wir einmal aufgreifen.
Kosten der Luftfahrt
An der Luftfahrt nehmen wir alle teil. Nahezu jeder von uns hat schon einmal eine Flugreise unternommen. Insofern gelten die Kosten einer Flugreise allgemein als akzeptabel. Nun werden wir Raumflüge in naher Zukunft kaum mit der gleichen Selbstverständlichkeit unternehmen können wie z.B. eine Flugreise nach Mallorca. Raumflug wird sicher noch eine Weile etwas Besonderes bleiben. Betrachten wir also eine Flugreise, die ebenfalls etwas besonderes ist, nämlich einen Flug mit der Concorde. Der ist ja bekanntermaßen auch nicht gerade billig, aber es gibt genug Leute, die ihn sich leisten können. Der Flug mit der Concorde ist etwas besonderes und trotzdem alltäglich.
Über die Concorde sind folgende Daten verfügbar: Max Startgewicht 186.000 kg Treibstoffzuladung 96.000 kg Passagierzahl 100 Für einen Flug mit maximaler Reichweite (Paris - New York plus etwas 10 % Treibstoffreserve als Sicherheitszuschlag ) werden also bei vollbesetzter Maschine ca. 1000 kg Treibstoff pro Passagier aufgewendet. Das ist sicherlich nicht gerade die energetisch günstigste Form der Flugreise, gilt aber als akzeptiert. (Man kann an dieser Stelle übrigens noch bemerken, daß Paris - New York nicht die weiteste denkbare Flugstrecke ist - Reisen nach Australien sind fast doppelt so weit und gelten auch als akzeptiert. Sie werden mit der Concorde bloß deshalb nicht beflogen, weil sich die meisten Länder erfolgreich dagegen gewehrt haben, der Concorde Landerechte zu gewähren.)
Doch halt:
Wer nach New York fliegt, kommt in aller Regel auch auf die gleiche Weise zurück. Das sind also 2000 kg Treibstoff pro Passagier für eine typische Rundreise. Dies ist keine Spitzfindigkeit, denn im Vergleich zur Raumfahrt ist es ja so, daß bei einem Raumflug die Rückkehr zur Erde aus dem LEO ja energetisch kostenlos ist - ein wichtiger Unterschied zu einer typischen Flugreise.
2000 kg Kerosin pro 100 kg Passagier gelten also als akzeptabel. Nun ist es aber so, daß das Kerosin noch verbrannt werden muß. Hierzu sind nochmal ca. 7000 kg Sauerstoff erforderlich (bei stöchiometrischer Verbrennung im Verhältnis 3,5 : 1), den das Flugzeug bekanntermaßen einfach aus der Atmosphäre entnimmt. Dies ist (heute) kostenlos.
Auch die Rakete (die wir anschließend betrachten werden) benötigt natürlich Sauerstoff zur Verbrennung ihres Treibstoffes. Der Unterschied zum Flugzeug besteht ganz offensichtlich darin, daß die Rakete, die sich ja im luftleeren Raum bewegt, ihren Sauerstoff ebenfalls „wie Treibstoff“ mitführen muß, und zwar in verflüssigter Form (LOX). Auch die Rakete erhält ihren Sauerstoff letztendlich aus der Atmosphäre „umsonst“, es fallen (lediglich) Verflüssigungskosten an. Den Sauerstoff können wir also für einen fairen Vergleich nicht einfach „vergessen“, sondern müssen ihn der Treibstoffbilanz zuschlagen.
Ein Flug mit der Concorde verbraucht also 2000 kg Benzin plus 7000 kg Sauerstoff = 9000 kg Treibstoff pro 100 kg Passagier. Anders ausgedrückt: Passagiere sind die einzige Nutzlast der Concorde (sie ist ja kein Frachtflieger). Somit ist die treibstoffmäßige Nutzlastbilanz der Concorde 90 kg Treibstoff pro 1 kg Nutzlast oder 90:1.
Sind Raketen ineffizient ?
Betrachten wir nun die Rakete. Ganz sicher wird die Rakete in den nächsten Jahren (wahrscheinlich sogar in den nächsten 30 bis 50 Jahren) das einzige technisch einsetzbare Gerät sein, mit dem Menschen und Material in großtechnischen Mengen in den Weltraum gelangen können. Zumindest macht es derzeit keinen Sinn, heute über andere Möglickeiten zu diskutieren, wenn nicht zumindest theoretisch gangbare Konzepte vorliegen. Stellen wir uns deshalb eine Rakete vor, die sich ganz im Rahmen der heutigen Technik bewegt und einem Vergleich mit der Luftfahrt standhält. Das wäre eine Rakete, die mit Kerosin als Treibstoff und (flüssigem) Sauerstoff betrieben wird (ganz so wie die russischen Startraketen). Diese Rakete setzt also keine exotischen Treibstoffe, keinen problematischen Wasserstoff und keine besondere Infrastruktur voraus - Kerosin gibt es in jeder größeren Stadt der Welt zu kaufen und flüssigen Sauerstoff übrigens ebenfalls.
Mathematische und physikalische Betrachtungen zur Raketentechnik haben gezeigt, daß eine solche Rakete (Kerosin und LOX), die in den LEO fliegen soll, nicht einstufig sein kann. Zwei Stufen sind aber realistisch. Hierbei gehen wir vorläufig davon aus, daß beide Stufen wiederverwendet werden können (ist auch machbar), ohne uns im Moment mit einem detailierten Konzept zu befassen. Die Effizienz einer Rakete drückt man üblicherweise über das sog. Massenverhältnis aus. Ohne allzu große Mühe ist es sicher möglich, Kerosin/LOX Raketen mit einem Gesamt-Massenverhältnis von 30:1 zu bauen (hierzu eine Modellrechnung). Das Massenverhältnis ist das Gewichstsverhältnis der startfähigen, vollbetankten Rakete zu ihrem Leergewicht.
Das heißt aber nichts anderes als daß wir 30 kg Treibstoff (Kerosin UND Sauerstoff) für den Transport von einem kg Nutzlast „aus dem Stand“ in den LEO aufwenden müssen. Das ist erstaunlicherweise sehr viel besser (nämlich 3 x besser) als bei der Concorde ! Wie das ?
Ganz offenichtlich transportiert ja die Concorde auch ihr Eigengewicht. Dies ist zwar im eigentlichen Sinne keine Nutzlast, aber natürlich können auch bei der Rakete die Menschen als Nutzlast nicht einfach „oben ohne“ fliegen, sondern benötigen irgendeine umgebende Struktur, Sitze und dergl. Bei der Concorde liegt diese Strukturmasse für 100 Passagiere a 100 kg = 10.000 kg Nutzlast bei ca. 100.000 kg (nämlich eben das Leergewicht des Flugzeugs mit allem Drum und dran). Dies ist ein Nutzlast / Strukturverhältnis von 1 : 10. Nun gehören aber zum Flugzeug eine ganze Menge Elemente, die eine Rakete gerade nicht benötigt und die besonders schwer sind, z.B. Flügel (die nützen im Orbit nichts und stören beim Start nur), ein Fahrwerk etc. Auch viele Ausstattungselemente, die für ein Flugzeug typisch sind wie z.B. bequeme Liegesitze, Hutablage, Bordkino, eine Küche, Bordverpflegung, Toiletten und Stewardessen, die einem Bier bringen (na ja, das vielleicht schon) benötigt der Raketentransporter nicht, denn üblicherweise dauert der Flug in den Orbit kaum länger als eine Stunde. Hier könnte dann an eine Raumstation angedockt werden. Bitte beachten Sie weiterhin, daß die Antriebsstruktur wie z.B. Düsen, das Tankgewicht etc. der Oberstufe ebenfalls nicht in die Berechnung eingehen, denn diese Elemente sind ja bei unserer Modellrechnung der Rakete der zweiten Stufe zugeschlagen, die zwar ebenfalls in den Orbit gelangt, aber nicht zur Nutzlast gehört.
Somit können wir für die Transportkapsel der Rakete ein Nutzlast / Strukturverhältnis annehmen, daß offensichtlich deutlich unter 10 liegen kann. Nehmen wir einmal an, das Verhältnis läge bei 1 zu 4 (ein sicher machbarer Wert - die meisten Autos, die nicht gerade gewichtsoptimiert sind, weisen sogar noch ein sehr viel besseres Verhältnis auf, sogar der Space Shuttle bringt es auf 1 (kg Nutzlast) zu 3 (kg Struktur), wäre er "flügellos", würde er sogar 1:1 "chaffen" - aber wir rechnen mit dem schlechteren Wert von 1:4), dann bedeutet das, daß wir pro kg Nutzlast insgesamt 5 kg Gesamtmasse in den Orbit transportieren müssen, und zwar bei einem Massenverhältnis von 30 zu 1.
Also: 1 kg „echte“ Nutzlast benörigt 150 kg Treibstoff. Das ist somit schlechter als bei der Concorde (90 kg), aber nicht so schlecht wie viele von uns angesichts der riesigen Raketen wohl gedacht hätten ! Wenn man die Concorde als Fluggerät akzeptiert, dann ist dieser Wert für eine Rakete ganz sicher auch noch akzeptabel, speziell dann, wenn man sich vor Augen hält, was Raumflug wirklich ist !
Raketen sind also nicht „völlig uneffizient“. Auch sind sie nicht "zu groß".
Jedenfalls haben wir jetzt ein realistisches Maß für die Treibstoffkosten. Die Kosten für Kerosin und flüssigen Sauerstoff liegen heute bei ca. 0,25 DM / kg (Weltmarktpreise, in großtechnischen Mengen, ohne Steuern). Dann kostet das kg Nutzlast also 150 kg Treibstoff x 0,25 DM / kg Treibstoff = 35,- DM. Der „ganze Mann“ (von 100 kg) muß also DM 3500,- für den Treibstoff seines Fluges in den LEO bezahlen. Nun sind wir mit der Kostenrechnung aber immer noch nicht am Ende. Denn Treibstoffkosten sind schließlich nur ein Teil einer genauen Kostenanalyse. Es kommen Infrastrukturkosten, Kosten für den Kapitaldienst des Fluggerätes, Gehälter, Werbungskosten etc. und natürlich der kalkulatorische Gewinn hinzu. Wenn wir beim Vergleich mit der Luftfahrt zu bleiben (wo Treibstoffkosten 10 bis 25 % der Gesamtrechnung ausmachen), müssen wir hierfür noch einmal 10.500,- DM ansetzen. Die abschließenden Ticketkosten lägen dann bei 14.000,- DM. Das wäre übrigens kaum teurer als ein Flug mit der Concorde von London nach New York ! Sehr viel weniger als eine zünftige Kreuzfahrt.
Das Fazit
Obige Berechnungen sind sog. Screening Calculations, um Größenordnungen abzuschätzen. Vielleicht haben Sie Lust, selbst etwas herumzurechnen. Rechnen Sie mit anderen Treibstoffkosten, mit anderen Masseverhältnissen, z.B. 50:1 (für eine Rakete mit Druckgasförderung) oder gar mit 100:1 (für eine wirklich einfache, aus Stahl aufgebaute Rakete mit Druckgasförderung) etc. Vermutlich werden auch Sie herausfinden, daß die Größe der Rakete nicht die Kosten ausmacht. Für jemanden, der schon einmal vor einer Rakete gestanden hat und sich gewundert hat, wie groß die sind, ein ungewöhnliches Ergebnis.
Groß ist nicht teuer, solange wir das KISS-Prinzip auf die Konstruktion anwenden - Keep It Simple Stupid !
Nun wird niemand ernsthaft erwarten, daß wir in nächster Zukunft für 14.000,- DM in den LEO fliegen können. Auch enthält die obige Rechnung eine Reihe von Annahmen wie z.B. die Annahme eines Gesamtmassenverhältnisses, die ohne Spezifikation des Fluggerätes natürlich vage ist (wenngleich die Modellrechnung sicherlich korrekt ist). Auch die Verhältniszahl von Strukturmasse zu Nutzlast bleibt ohne Konzept für das Fluggerät gleichfalls vage. Dennoch sind diese beiden Faktoren m.E. größenordnungsmäßig korrekt eingeschätzt. Schwammig hingegen ist die Annahme, daß von den Treibstoffkosten auf die Betriebskosten geschlossen werden kann. Diese Annahme ist - wie gesagt - aus der Luftfahrt entlehnt (und hier ist die Zahl ganz gut belegt, ändert sich allerdings ständig mit dem Dollar- und Ölpreis), sie ist aber vorerst keinesfalls auf die Raumfahrt übertragbar. In der Luftfahrt ist sie zudem ja ein Ergebnis eines weltweiten Massenbetriebs, der in der Raumfahrt ebenfalls so schnell nicht erreicht werden wird. Andererseits wollten wir ja untersuchen, was „sein könnte“, wenn wir die operativen Strukturen der Luftfahrt auf die Raumfahrt übertragen könnten. Das heißt nicht, daß Raketen so gebaut werden sollten oder so aussehen sollten wie Flugzeuge.
Als Weltraumbahnhof oder kurz Raumhafen (für den Raumflughafen oder Weltraumhafen) bezeichnet man unter anderem einen Raketenstartplatz, an dem auch Trägerraketen für orbitale und interplanetare Weltraummissionen starten können. Dabei kann es sich um unbemannte Satelliten- oder Raumsondenstarts oder bemannte Raumflüge handeln. In Russland und China ist auch der Begriff Kosmodrom geläufig. Die meisten Weltraumbahnhöfe verfügen auch über Startanlagen für Höhenforschungsraketen und/oder für militärische Raketen zu Versuchszwecken.
Weltraumbahnhöfe werden derzeit von einzelnen Weltraumnationen, Staatenorganisationen (wie der ESA) oder privaten Unternehmen (Sea Launch) unterhalten.
Standortbedingungen
Die Kriterien für den Standort eines Weltraumbahnhofs sind vielfältig. Er sollte wenn möglich nahe am Äquator liegen: Durch die Erdrotation hat die Rakete dort bereits die auf der Erdoberfläche maximal vermittelte Grundgeschwindigkeit und muss weniger beschleunigen, um insgesamt auf die im Orbit notwendige Geschwindigkeit zu kommen. Zudem erleichtert die Lage das Erreichen der Umlaufbahn. Nur für Starts in polare Orbits sind polnahe Standorte günstiger (zum Beispiel Plessezk).
Ein Raketenbahnhof sollte sich in einem politisch stabilen Staat befinden, da sein Aufbau mit großen Investitionen verbunden ist. Er sollte abseits von dicht besiedeltem Gebiet liegen und in östlicher Richtung einen Ozean oder ein sehr dünn besiedeltes Gebiet haben. Denn fast alle Raketenstarts erfolgen mit der Erdrotation (aus oben genanntem Grunde) in östlicher Richtung. Wenn es zu einem Fehlstart kommt, könnten sonst Menschen durch nieder stürzende Trümmer und Treibstoffe gefährdet werden. Zudem ist der Standort auf die politische Einflusssphäre des errichtenden Staats oder der Staatenorganisation beschränkt.
Der Weltraumbahnhof sollte an einem geologisch stabilen Ort gebaut werden, der von größeren und vielen Unwettern verschont wird, da Raketenstarts bei Regen oder Sturm meist abgesagt werden müssen. Schließlich sollte genügend Raum vorhanden sein, um ihn gegebenenfalls ausbauen zu können.
Der ideale Standort für einen Weltraumbahnhof existiert jedoch nicht und bei der Wahl müssen Kompromisse eingegangen werden.
Beispiel: Kourou
Der europäische Weltraumbahnhof Centre Spatial Guyanais in Kourou besitzt von ähnlichen Einrichtungen weltweit die günstigste Lage. Er liegt im französischen Übersee-Departement Französisch-Guayana im Norden Südamerikas (politisch stabil) und liegt sehr dicht am Äquator (günstige Starteigenschaften, maximaler Geschwindigkeitsbonus durch Erdrotation). Die Region ist sehr dünn besiedelt und grenzt im Nordosten an den Atlantik (geringe Gefährdung für Menschen). Da der Weltraumbahnhof direkt an ein ausgedehntes Waldgebiet grenzt, ist auch sein Ausbau problemlos möglich. Zwar besitzt Kourou ein subtropisches Klima, wird jedoch von den meisten Atlantikstürmen verschont. Zudem lassen sich Material und Güter aufgrund der Küstenlage sehr einfach und schnell dorthin transportieren. Er liegt jedoch sehr weit von den Betreiberstaaten (Frankreich, ESA) entfernt.
Raketentypen
Bild anklicken um es zu vergrößern
LEO = Low Earth Orbit / TLI = Trans Lunar Injection
Energija fehlt hier eigentlich....
...ist eine sowjetische Trägerrakete, die entwickelt wurde, um die Raumfähre Buran in den Orbit zu transportieren. Die Rakete kam zweimal, 1987 und 1988, erfolgreich zum Einsatz. Die Energija wurde ebenso wie die Raumfähre Buran vom Konstruktionsbüro OKB-1 Koroljow, heute RKK Energija, entwickelt
Die Rakete ist zweistufig mit einer Höhe von 58,8 m und einem Startschub von 35.000 kN. Sie konnte eine Nutzlast von ca. 96 t in eine erdnahe Umlaufbahn und ca. 22 t in eine Geostationäre Transferbahn transportieren und ist damit bis heute neben der Saturn V und der N-1 die stärkste jemals gebaute Rakete
Wie ihr seht gibt es weniger als eine Handvoll Raketen die überhaupt bis zum Mond fliegen können und die sind wirklich riesig.
Hoffe es hat euch mal wieder gefallen hier rein zu schnuppern.....
Fusion von Deuterium und Helium-3 liefert Energie von mehreren Hundertmillionen Megajoule pro Kilogramm Brennstoff. Je nach Effizienz des Antriebs könnten damit irgendwann Ausströmgeschwindigkeiten um 5 Prozent der Lichtgeschwindigkeit erreicht werden. Wenn leichte Antriebe gebaut werden können und das Verhältnis von Startgewicht zu Leergewicht des Raumschiffs günstig ist, könnte damit als Endgeschwindigleit etwa 10 Prozent der Lichtgeschwindigkeit erreicht werden. Die Reisezeit zu unserem Nachbarsonnensystem Alpha Centauri (4,4 Lichtjahre) würde dann innerhalb der Spanne eines Menschenlebens liegen.
Schub.
Die Ausström- geschwindigkeiten chemischer Raketenantriebe liegen im Bereich von wenigen km/s. Für Fusionsantriebe werden zurzeit Ausströmgeschwindigkeiten im Bereich von bis zu 1.000 km/s als möglich angesehen bei einem Schub-Gewicht-Verhältnis des Antriebs von etwa 1 zu 1000. (Ein noch wirksamerer Fusionsantrieb wäre mit den heutigen Fusionstechniken auch schwerer.) Mit jedem Gramm Fusionstreibstoff, das pro Sekunde die Antriebsdüse verlässt, würde damit der Schub von 1.000 Newton erzeugt. Zum Vergleich: Um den Schub von etwa 5x7.000.000 Newton zu erzeugen, musste die erste Stufe der Trägerrakete Saturn V, der größten und stärksten bisher von Menschen gebaute Maschine, pro Sekunde etwa 13.400 Kilogramm Treibstoffmasse ausstoßen.
Ein Fusionsantrieb könnte den gleichen Schub mit 35 Kilogramm pro Sekunde erzielen.
Die Fusion der beiden Wasserstoffisotope Deuterium und Tritium ist am einfachsten zu erzielen und wird gegenwärtig in Forschungsreaktoren untersucht. Ihr Nachteil ist, dass dabei Neutronen erzeugt werden. Sie sind elektrisch neutral, können daher nicht im Magnetfeld eingeschlossen werden und bombardieren die Wände der Plasmakammer, wodurch sie nach und nach beschädigt und radioaktiv werden. Das Tritium muss außerdem aus Lithium durch Neutronenbeschuss erzeugt werden. Denn es ist kurzlebig radioaktiv ist und kommt daher in der Natur kaum vor.
Die Fusion von Deuterium (D) und Helium-3 (He3) hat diese Nachteile weitgehend nicht. Einige Neutronen werden trotzdem durch nebenher stattfindende D-D-Fusionen erzeugt. Deuterium und Helium-3 verschmelzen etwas schwieriger als Deuterium und Tritium; der Wirkungsquerschnitt der D-He3-Fusion ist etwa 1/10 des Wirkungsquerschnitts der D-T-Fusion. Und: Helium-3 kommt in und auf unserem Planeten praktisch nicht vor, aber: beispielsweise auf dem Mond. Dort wird es vom Sonnenwind abgelagert und kann prinzipiell abgebaut werden.
Der mögliche Aufbau des Fusionsantriebes besteht aus einem großen zylinderförmigen Spulensystem, in der das Plasma magnetisch eingeschlossen wird. Da es eine Temperatur im Bereich von 100 Millionen °C besitzt, darf es mit materiellen Wänden nicht in Berührung kommen. Das Plasma kann beispielsweise durch magnetische Kompression oder Mikrowellenstrahlung auf die Zündtemperatur der Kernfusion aufgeheizt werde. An den Enden des Spulensystems sind weitere Spulen angebracht, die als magnetische Spiegel das Plasma in den Innenraum reflektieren. Der eine Spiegel ist jedoch teildurchlässig, so dass ständig ein Teil des Plasmas als Antriebsstrahl entweichen kann.
Ein weiterer Ansatz geht von dem reifenförmigen Tokamak-Reaktor aus, der eine Öffnung für den Antriebsstrahl besitzt. Mehr zum Thema Tokamak ...
Fusionsantrieb im Experiment.
Bei der Nasa wird theoretisch und experimentell die Machbarkeit des Antriebsprinzips untersucht. Das Experiment des gasdynamischen Spiegels beispielsweise besteht aus einer langen, schlanken Spulenanordnung, die die Vakuumkammer mit dem Plasma umgibt. Es soll herausgefunden werden, wie sich das Plasma im Betrieb verhält und wie es stabil gehalten werden kann. Das Foto zeigt einen Ingenieur des Nasa Marshall Space Flight Center, der eine ringförmige Magnetspule begutachtet. Foto: Nasa Marshall Space Flight Center
Ausströmgeschwindigkeit
Überschlagsrechnung: Bei der Fusion von z. B. Deuterium und Helium-3 wird die Energie 18,3 MeV = 2,9x10-12 J frei (1 Joule = 1 Wattsekunde). Sie verleiht den Reaktionsprodukten, 1 Helium-4 + 1 Proton, eine gewisse Geschwindigkeit v. Die Gesamtmasse M der Reaktionsprodukte beträgt etwa 8x10-27 kg. Setzen wir die kinetische Energie ½Mv² gleich der freiwerdenden Energie, folgt v = 27000 km/s. D. h., theoretisch beträgt die Ausströmgeschwindigkeit des Antriebsstrahls etwa 9% der Lichtgeschwindigkeit. Wann das praktisch erreicht wird, bleibt abzuwarten.
Wir rechnen für die Ausströmgeschwindigkeit im Folgenden mit optimistischen 5% Lichtgeschwindigkeit (0,05c) und nehmen an, dass irgendwann der Erfindungsreichtum des Menschen für solch einen Antrieb schwere Magnetspulen überflüssig macht.
Endgeschwindigkeit
Die Endgeschwindigkeit, die das Raumschiff erreichen kann, hängt ab von der Ausströmgeschwindigkeit des Treibstoffs (hier die Reaktionsprodukte) und vom Verhältnis seiner Massen bei Triebwerkszündung und Brennschluss (Massenverhältnis), siehe auch Die Raketengrundgleichung. Prinzipiell sollten daher 10% Lichtgeschwindigkeit (0,1c) mit Fusionsantrieb erreichbar sein.
Weil's Spaß macht: eine interstellare Mission
Treibstoffbedarf
Das Raumschiff mit der Leermasse m=10.000 kg muss den Treibstoff mit der Masse M1 zur Beschleunigung und mit der Masse M2 zur Abbremsung mitführen. Für seine interstellare Reise, beispielsweise zum 4,4 Lichtjahre entfernten Alpha Centauri, soll es im freien Weltraum starten und nicht von der Erdoberfläche. Die Ausströmgeschwindigkeit des Antriebsstrahl setzen wir mit w=5% Lichtgeschwindigkeit (w=0,05c) an (siehe oben).
Das Raumschiff wird mit der Treibstoffmasse M1 von v1=0 auf v2=0,1c beschleunigt. Mit der Treibstoffmasse M2 muss vor der Ankunft noch die Leermasse m (+ verbliebenem Treibstoff) von v2=0,1c auf v1=0 abgebremst werden. Nach der Raketengrundgleichung, Δv=v1-v2=-w ln[(m+M2)/m], ist dafür M2=me2-m=63.891 kg nötig.
Um m+M2 von v1=0 auf v2=0,1c beschleunigen ist wegen Δv=v2-v1=w ln[(m+M1+M2)/(M2+m)] die Treibstoffmasse M1=(M2+m)e2-(M2+m)=472.094 kg nötig.
Die Gesamttreibstoffmasse ist daher M1+M2=535.985 kg.
Zum Vergleich: Treibstoffmasse der Saturn V mit chemischem Antrieb und Start vom Erdboden: 2.530.500 kg.
(Durch Abwerfen des Tanks für die Treibstoffmasse M1 kann der Treibstoffbedarf verringert werden, da entsprechend weniger Masse abgebremst werden muss. Wer allerdings wieder zurück will, sollte den Tank behalten und falls möglich an einem Gasplaneten auftanken.)
Leistungsbedarf
Die Leistung (Energie/Sekunde), die die Triebwerke liefern müssen, hängt davon ab, wie schnell beschleunigt werden soll. Wenn wir innerhalb von 0,5 Jahren von 0 auf 0,1c beschleunigen wollen, müssen wir die Treibstoffmasse M1 innerhalb dieses Zeitraums T durch die Reaktoren jagen und in Schub umsetzen. Der Massendurchsatz ist demnach M1/T=0,03 kg/s. Pro Kilogramm Fusionstreibstoff können etwa 3,4x1014 Ws Energie freigesetzt werden. Die Leistung der Antriebsreaktoren muss daher etwa 1013 W oder 10.000 Gigawatt betragen.
Etwas bescheidener:
Wir beschleunigen innerhalb von 10 Jahren auf 0,1c. Dann benötigen wir Antriebsreaktoren mit der Leistung 500 Gigawatt. Zum Vergleich: Für Fusionskraftwerke der Zukunft vom Typ Tokamak oder Stellerator werden als minimale thermische Leistung 30 Gigawatt angesehen (relativ großes Plasmavolumen, um Abstrahlverluste beim Aufheizen klein zu halten). Fusionsantriebe werden sich voraussichtlich einfacher und leichter bauen lassen als Fusionskraftwerke. Denn im Weltraum ist das nötige Vakuum schon vorhanden.
Die Abbremsphase ist deutlich kürzer, da die Masse des Raumschiffs dann schon wesentlich kleiner ist.
Die Überschlagsrechnung zeigt, interstellare Raumfahrt ist selbst mit Fusionsantrieb schwierig, allerdings auch nicht unmöglich. Besser wäre es, wenn man Antimaterie und Materie direkt in Energie umsetzen könnte . Denn der Energieinhalt des Treibstoffs wäre dann etwa 100 Mal höher als bei der Kernfusion und die Reaktionsprodukte wären im Wesentlichen Strahlung. Die Ausströmgeschwindigkeit w wäre dann die Lichtgeschwindigkeit und der Treibstoffbedarf wesentlich geringer. Die Hauptprobleme: Antimaterie sicher handhaben und die mörderische Strahlung bändigen.
Als Gendrift bezeichnet man in der Populationsgenetik eine zufällige Veränderung der Genfrequenz innerhalb des Genpools einer Population. Gendrift ist ein Evolutionsfaktor. Eine quantitative Erweiterung stellt die Genshift dar, bei der ganze Segmente von Genen zusammen ausgetauscht werden. Dies hat oft besonders ausgeprägte funktional-qualitative Änderungen zur Folge.
Gendrift und Genshift stellen eine Art Komplement zur natürlichen Selektion dar. Die natürliche Selektion hat keinen zufälligen Einfluss auf die Änderung der Genfrequenz einer Population, sondern ist direkt gekoppelt an den Überlebens- und Reproduktionserfolg von Individuen, also deren Angepasstheit an ihre Umwelt. Die genetische Drift bzw. Shift dagegen hat keine derartigen Ursachen, sondern ist rein zufallsbestimmt (stochastisch).
Da eine zufällige Änderung der Genfrequenz in kleineren Populationen statistisch mehr ins Gewicht fällt, stellen die Gendrift und Genshift einen wichtigen Faktor der Evolution von Gründerpopulationen und somit für die Artbildung dar. Sie basiert auf der Tatsache, dass eine abgeschnittene Zufallspopulation, die in einem bestimmten Gebiet lebt, nur einen kleinen Ausschnitt der möglichen Genfrequenzen besitzt, die außerdem in einem anderen Verhältnis zueinander stehen als in der Gesamtpopulation. Die evolutionäre Weiterentwicklung dieser Population ist abhängig von diesen verschobenen Genfrequenzen.
Als Flaschenhalseffekt wird eine besondere Art der Gendrift bezeichnet, bei der die Allelfrequenz durch ein zufälliges Ereignis, wie zum Beispiel einen Vulkanausbruch, stark vermindert und somit auch die in der Population vorkommende Variabilität verringert wird. Die Art wird nun den neuen Umweltgegebenheiten angepasst und bildet eine neue Vielfalt von Genen. Die Frequenzen unterscheiden sich dabei meist von der ursprünglich dort lebenden Population.
Genetischer Flaschenhals beim Menschen
Statistische Analysen der mitochondrialen DNA (mtDNA) des Menschen (Homo sapiens) haben eine unerwartet geringe genetische Vielfalt ergeben und zur Annahme geführt, dass es vor rund 70.000 bis 80.000 Jahren auch beim Menschen einen genetischen Flaschenhals gegeben haben könnte. Seinerzeit hätten demnach nur etwa 1000 bis 10.000 Individuen von Homosapiens, größtenteils in Afrika, gelebt.
Nach einer umstrittenen Hypothese des Anthropologen Stanley Ambrose (Toba-Katastrophen-Theorie) ist dieser genetische Flaschenhals zurückzuführen auf die Super-Eruption des Vulkans Toba auf Sumatra vor etwa 74.000 Jahren. Dieser Eruption sei eine extreme Kälteperiode gefolgt (vulkanischer Winter), die Homo sapiens an den Rand des Aussterbens gebracht habe. Diese Hypothese verbindet zwei widerstreitende Befunde zur genetischen Entwicklung von Homo sapiens: Zum einen ist, beginnend in Afrika, eine relativ zügige Ausbreitung des Menschen durch Fossilienfunde belegbar, die sich auch anhand von mitochondrialen Unterschieden nachweisen lässt. Beides kann herangezogen werden zur Erklärung der sehr geringen genetischen Variabilität der heute lebenden Menschen (vergl. mitochondriale Eva und Adam des Y-Chromosoms). Zum anderen besteht die Ansicht, dass nach der ersten Ausbreitung eine regional unterschiedliche, isolierte Entwicklung auftrat, in deren Folge sich das äußere Erscheinungsbild der Menschen zu differenzieren begann, was frühere Anthropologen zur Definition von diversen sogenannten Großrassen und Rassen veranlasste
Gendrift kann auch in größeren panmiktischen Populationen auftreten, nach Aufteilung in kleinere Teilpopulationen. Voraussetzung sind zufällige Veränderung von Genen und Weitergabe der veränderten Gene. Gendrift kann dabei phänotypische Veränderungen bewirken, muss es aber nicht.
Bedeutungserweiterung: Als Gendrift wird auch die Verbreitung solcher Veränderungen in größere Populationen bezeichnet. Heute bezeichnet man als Gendrift auch das Eindringen bewusst oder zufällig veränderter Gene in andere Bereiche.
Genfrequenzen
Aus der Sicht der Populationsgenetik ist die Gendrift ein Wahrscheinlichkeitseffekt. Die Gene, die an die nachfolgende Generation weitergegeben werden, sind keine vollständige Kopie der Gene der erfolgreichen Mitglieder der Elterngeneration. Sie sind eine zufällige (stochastische) Auswahl, eine Stichprobe mit zufälligen Schwankungen. Durch zufällige statistische Schwankungen weicht die Zusammensetzung der Genfrequenz in der Elternpopulation von der in der Kinderpopulation ab. Die Genfrequenzen im Genpool sind gedriftet. Gendrift ist umso stärker bemerkbar, je kleiner eine Population ist. Dies hat statistische Ursachen. Beispiel: Beim Werfen von Münzen erscheint Kopf oder Zahl im Durchschnitt mit der gleichen Wahrscheinlichkeit. Doch bei nur wenigen Würfen ist es unwahrscheinlich, dass Kopf und Zahl exakt mit derselben Häufigkeit erscheinen. Je größer die Zahl der Würfe, desto näher kommt man einem Verhältnis von 50 : 50. Deshalb sind bei kleinen Populationen die Fluktuationen bei den Genfrequenzen größer als bei Populationen mit vielen Individuen (effektive Populationsgröße).
Driftende Allele haben oft eine begrenzte Lebenszeit. Wenn die Häufigkeit eines Allels in den aufeinanderfolgenden Generationen stark zu- oder abnimmt, dann kann ein Allel in der Population ganz verschwinden oder es wird das einzige Allel in der Population (Fixierung). Die genetische Vielfalt wird verringert, der Genpool verarmt.
Gendrift und Genshift gegen natürliche Selektion
Gendrift bzw. Genshift und natürliche Selektion sind Evolutionsfaktoren und wirken gleichzeitig. Durch sie ändert sich die Zusammensetzung des Genpools. Die Häufigkeit von Allelen (Genvariationen) und damit die vorherrschenden phänotypischen Merkmale in einer Population werden über die Zeit geändert. Bei Gendrift und Genshift ist die Veränderung in der Häufigkeit der Allele unabhängig davon, ob sie vorteilhaft oder nachteilig auf den Phänotyp sind. Gendrift ist zufallsbedingt und ist unabhängig von der genetischen Fitness. Im Gegensatz dazu werden bei der natürlichen Selektion diejenigen phänotypischen Merkmale und damit diejenigen Allele bevorzugt, welche die genetische Fitness erhöhen. In großen Populationen, in denen die Gendrift klein ist, wird die natürliche Selektion selbst bei niedrigem Selektionsdruck den größeren Betrag zur Veränderung der Genfrequenzen haben. In kleinen Populationen dagegen werden die größeren statistischen Schwankungen durch die Gendrift die Änderungen durch die Selektion überlagern.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Evolutionsfaktor
Als Evolutionsfaktor bezeichnet man in der Biologie Prozesse, durch die der Genpool – das ist die Gesamtheit aller Genvariationen in einer Population – verändert wird. Eine exakte Definition des Begriffs liefert die Populationsgenetik: Evolutionsfaktoren sind Prozesse, die zu Veränderungen der Allelfrequenzen im Genpool einer Population führen oder Allele auf den Chromosomen neu kombinieren. Nach der Synthetischen Evolutionstheorie sind diese Prozesse Ursache aller evolutionären Veränderungen.
Die wesentlichen Evolutionsfaktoren sind Rekombination, Mutation, Selektion und Gendrift. Durch Rekombination, die durch die Meiose bei der Keimzellenbildung und die Kernverschmelzung bei der Befruchtung erfolgt, werden die Erbanlagen der Eltern neu kombiniert, so dass Nachkommen mit individuellen (einzigartigen) Kombinationen von Erbanlagen entstehen. Bei der Rekombination bleiben die relativen Häufigkeiten der Erbanlagen in einer Population unverändert, aber die (insbesondere phänotypische) Variabilität der Individuen in einer Population wird wirksam erhöht. Rekombination findet bei ungeschlechtlicher Fortpflanzung nicht statt und ist auch nicht wirksam zwischen eineiigen Zwillingen, die aus einer gemeinsamen befruchteten Eizelle entstehen. Durch Mutationen, spontane Veränderungen der Basensequenzen der DNA, entstehen fortwährend neue Erbanlagen. Findet eine Mutation in einer Zelle statt, aus der später Keimzellen hervorgehen, so wird die veränderte Erbanlage über die befruchtete Eizelle auf die Nachkommen übertragen und verändert damit den Genpool der Population. Die neue Erbanlage führt zu Merkmalsausprägungen, die bisher in der Population nicht vorkamen. Ob es zu einer nachhaltigen Veränderung des Genpools kommt, hängt entscheidend davon ab, wie die Selektion auf die neue Merkmalsausprägung wirkt. Erbanlagen, die zu nachteiligen Merkmalsausprägungen führen, verschwinden wieder aus dem Genpool oder bleiben selten.
Die Selektion ist die natürliche Auslese durch die Umwelt. Eine Voraussetzung für Selektion ist die durch Rekombination und Mutation verursachte Variabilität in einer Population. In den meisten Populationen werden viel mehr Nachkommen erzeugt, als in ihrem Lebensraum überleben können. So sterben viele Individuen einer Generation, bevor sie sich fortpflanzen können, oder bekommen weniger Nachkommen als andere Individuen mit vorteilhafteren Merkmalsausprägungen. Die Individuen leisten also einen unterschiedlichen Beitrag zum Genpool der Folgegeneration. Die relativen Häufigkeiten der Erbanlagen mit günstigen Merkmalsausprägungen nehmen in der Population zu, während die relativen Häufigkeiten der Erbanlagen mit ungünstigen Merkmalsausprägungen abnehmen.
Unter Gendrift versteht man eine zufallsbedingte Änderung des Genpools. Sie ist in kleinen Populationen wirksamer als in großen. So kann zum Beispiel bei einer Naturkatastrophe oder einer Seuche eine Gruppe von Trägern bestimmter Merkmale plötzlich aussterben. Es breitet sich der überlebende Teil der Population mit etwas anderer genetischer Zusammensetzung aus, beim zufälligen Überleben von Individuen mit nachteiligen Erbanlagen breiten sich sogar diese aus. Ein weiteres Beispiel für Gendrift ist die Besiedlung eines neuen Lebensraums durch eine kleine Gründerpopulation. Die neue Population weist die Häufigkeitsverteilung der Erbanlagen der Gründerpopulation auf, die sich zufallsbedingt von der der Stammpopulation unterscheiden.
Evolutionsfaktoren im weiteren Sinne sind auch Migration, Genfluss, Isolation, Horizontaler und Vertikaler Gentransfer und Hybridisierung.
Gendrift und Genshift in Populationen
Genshift und Gendrift können tiefgreifende und oft bizarre Auswirkungen auf die Evolutionsgeschichte einer Population haben. Dies kann sogar zum Aussterben einer Population führen. Wenn eine Population auf eine geringe Größe zusammenschrumpft und dann wieder wächst (man nimmt an, dass dies während der menschlichen Evolutionsgeschichte geschehen ist), dann kann die Gendrift zu plötzlichen und dramatischen Änderungen in der Genfrequenz führen, unabhängig von natürlicher Selektion. Bei solchen Gelegenheiten können viele vorteilhafte Anpassungen verloren gehen (genetischer Flaschenhals).
Auf ähnliche Weise kommt der Gründereffekt bei zum Beispiel wandernden Populationen zustande, bei dem nur wenige Individuen mit einer seltenen Allelzusammensetzung den Ausgangspunkt einer neuen Population bilden. Hier können die Genfrequenzen im Widerspruch zur bisherigen natürlichen Selektion stehen. Der Gründereffekt wird manchmal für das gehäufte Auftreten von Erbkrankheiten verantwortlich gemacht.
50/500
Im Jahr 2002, hat der Anthropologe John H. Moore geschätzt, dass eine Bevölkerung von 150-180 würde eine normale Wiedergabe für 60 bis 80 Generationen ermöglichen würde - das entspricht 2000 Jahren.
Na ja .. hier steht das es unter optimalen Bedingungen funktionieren kann. Also... wenn ca. 200 Menschen für ca. 2000 Jahre reichen, sollten 1000 - 2000 Menschen für ca. 10.000 - mehr Jahre reichen.
Obwohl man unter anderem 10.000 Jahre für eine Grenze der Lebensspanne einer Zivilisation ansieht.
Verlässt ein Raumschiff (bemannt oder unbemannt) das innere Sonnensystem, so kann dieses die benötigte Energie nicht mehr mittels Solarpanels aus der Sonnenstrahlung generieren, es benötigt eine eigene Energiequelle. Bisherige Sonden verwendeten die Radionuklidbatterie.
Eine Radionuklidbatterie, auch Radioisotopengenerator, Atombatterie oder kurz RTG (für radioisotope thermoelectric generator), wandelt thermische Energie des spontanen Kernzerfalls eines Radionuklids in elektrische Energie um. Sie gewinnt ihre Energie aus radioaktivem Zerfall, somit nicht aus Kernspaltung mit Kettenreaktion, und ist daher von Kernreaktoren zu unterscheiden.
Weiterhin müsste das Raumschiff mit einem nennenswerten Bruchteil der Lichtgeschwindigkeit fliegen, um innerhalb einer angemessenen Zeit (d.h. innerhalb von Jahrzehnten oder Jahrhunderten) das Ziel erreichen zu können. Ein solches Raumschiff müsste autonom funktionieren, um den Zielort ohne Hilfe von der Erde aus, ansteuern und untersuchen zu können, da Signale von der Erde zum Raumschiff mehrere Jahre benötigen würden. Die Datensignale würden fortlaufend zur Erde oder zum Raumschiff gesandt werden. Ein weiteres Problem, dass sich aus den Entfernungen ergibt, ist die Missionsdauer und der Bezug zur Lebensdauer der Systeme. Vor allem die Elektronik ist hiervon betroffen. Aufgrund des noch jungen Technologiezweiges (Beginn etwa in den 1960er Jahren) existieren noch zahlreiche Fragen und Arbeiten die eine Aussage zur Lebensdauer von elektronischen Komponenten/Systemen treffen. Die Lebensdauer von elektronischen Komponenten / Satelliten ist auf einer solchen Mission zwar ein kritischer aber kein unmöglicher Aspekt, da z.B. der ATS-3 Satellit 2008 sein 41jähriges Jubiläum hatte und dabei immer noch aktiv war.
Zusammengefasst sind folgende Parameter bedeutend:
Eine Geschwindigkeit von ungefähr 0,1*c ( 10 % der Lichtgeschindigkeit) sollte erreicht werden, um das Ziel innerhalb eines angemessenen Zeitraums erreichen zu können.
Die hohe Geschwindigkeit erfordert Schutzsysteme aufgrund der Bremsstrahlung und vor Objekten entlang des Flugweges.
Bremsstrahlung ist die elektromagnetische Strahlung, die entsteht, wenn ein geladenes Teilchen, zum Beispiel ein Elektron, beschleunigt wird. Jede Geschwindigkeitsänderung eines geladenen Teilchens erzeugt Strahlung. Von Bremsstrahlung im engeren Sinne spricht man, wenn Teilchen in Materie gebremst werden.
Raumfahrtantriebe
Die Probleme der interstellaren Raumfahrt können vor allem in der benötigten Energiekonvertierung, d.h. der Verwendung eines passenden Raumschiffantriebs, gesehen werden. Soll das Objekt den nächstgelegenen Stern innerhalb eines überschaubaren Zeitraums (~ ein halbes Jahrhundert) erreichen, muss das Objekt innerhalb eines kurzen Zeitraums auf eine annähernd relativistische Geschwindigkeit (z.B. ~ 0,1c) beschleunigen.
Um eine hohe Geschwindigkeitsänderung zu erhalten, wird eine hohe effektive Ausströmgeschwindigkeit des Reaktionsgases bzw. ein hoher spezifischer Impuls benötigt. Weiterhin muss viel Treibstoff umgewandelt werden, um die benötigte Energie zu erzeugen. Deshalb ist eine hohe Schubkraft notwendig, die die notwendige Beschleunigungsenergie innerhalb eines „kurzen“ Zeitraums erzeugt.
Aus dieser Überlegung heraus, können deshalb zwei Triebwerkskategorien ausgeschlossen werden:
1.Chemische Triebwerke:
Diese Triebwerke besitzen zwar eine hohe Schubkraft, aber aufgrund der Verwendung von chemischer Energie ist die Effizienz dieser Triebwerke sehr gering.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
2.Elektrische Antriebe:
Die Effizienz dieser Triebwerke ist hoch, jedoch ist der Treibstoffausstoß, aufgrund der Verwendung von elektrischen Ladungen und deren Abstoßung untereinander, eher gering.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
In einigen Konzepten wird deshalb Hauptsächlich der nukleare Pulsantrieb favorisiert, der aus heutiger Sicht realisierbar wäre.
Der Nukleare Pulsantrieb ist ein Vorschlag für den Antrieb von Raumschiffen, dem zufolge durch Atomexplosionen Schub erzeugt würde. Die plötzlich auftretenden G-Kräfte würden aber der Besatzung auch noch ganz schön zu schaffen machen, falls sie es überleben. Von der Strahlung mal abgesehen.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Auch der Antimaterie-Antrieb könnte in ferner Zukunft viel versprechend sein.Aufgrund des Energieaufwands zur Beschleunigung der Treibstoffmassen, bevorzugen einige Wissenschaftler den treibstofflosen Antrieb, der mittels Krafteinwirkung durch äußere Felder das Objekt beschleunigt. Eine mögliche Fragestellung hierbei ist auch, ob die Gravitationsfelder der benachbarten Sternensysteme einen Einfluss auf den Flugweg eines Objektes haben könnten. In einer ESA-Studie konnte gezeigt werden, dass ein Mehrkörperproblem im interstellaren Raum vernachlässigbar ist, was bedeutet, dass nur die Einfluss-Sphäre eines Sternensystems von Bedeutung ist. D.h. ein Objekt kann im interstellaren Raum, außerhalb der Einfluss-Sphären, eine Position einnehmen, ohne durch die Gravitationskräfte der Sternensysteme wesentlich von der Position abgebracht zu werden.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Konzepte für eine bemannte interstellare Raumfahrt
Die bemannte interstellare Raumfahrt hat das Ziel, entfernte Sternensysteme zu erforschen oder in entfernten Sternensystemen Kolonien zu begründen. Wegen der sehr langen Reisedauer würden solche Missionen als einfache Fahrt gestaltet werden; die Raumfahrer würden nach Abschluss der Mission nicht zurück zur Erde fliegen.
Generationenschiffe
Das Prinzip des Generationenraumschiffs ist, dass nicht die Raumfahrer, die die Erde verlassen, sondern ihre Kinder oder Enkelkinder diejenigen sind, die am Ziel ankommen. Solche Generationenschiffe müssten ganz autark sein, d. h. an Bord des Schiffes müssten beispielsweise Nahrungsanbau, sowie Trinkwasser- und Sauerstoff-Recycling möglich sein.
Der Vorteil des Generationenschiffs ist es, dass nur eine geringe Geschwindigkeit erreicht zu werden braucht und Reisedauern von mehreren hundert Jahren kein Problem sind, so dass einfache Antriebskonzepte angewandt werden könnten. Der Nachteil sind mögliche psychische Probleme der Mannschaft. Das größte Problem ist, dass die meisten Mitglieder die Ankunft am Ziel selbst nie erleben würden und daher das Schiff als ihre Heimat betrachten müssten.
Schläferschiffe
Die Besatzung des Schiffs wird nach Abflug von der Erde in den so genannten Kryoschlaf, eine Art „künstlichen Winterschlaf“ versetzt und bei der Ankunft am Ziel wieder aufgeweckt.
Der Vorteil dieses Konzeptes ist, dass auf groß angelegte Nahrungsproduktion und Unterhaltungseinrichtungen verzichtet werden kann. Auch würden die meisten Raumfahrer die Ankunft miterleben. Ein weiterer Vorteil wäre, dass man auch mit niedrigen Geschwindigkeiten fliegen könnte. Allerdings sind die Auswirkungen eines solchen Kryoschlafs, so er technisch möglich wäre, beim Menschen noch unbekannt.
Embryonentransport
Bei dieser Art von Raumschiff würden tiefgefrorene menschliche Embryos auf die Reise geschickt. Ein paar Jahre vor Ankunft am Ziel würden diese aufgetaut und von Robotern großgezogen. Abgesehen von technischen Herausforderungen ist diese Methode auch ethisch umstritten.
Relativistischer Flug
Wird ein Raumschiff auf einen großen Bruchteil der Lichtgeschwindigkeit (≫0,9 c) beschleunigt, sieht ein Beobachter außerhalb des Schiffes, dass die Zeit an Bord des Schiffes deutlich langsamer verstreicht. Es wäre so möglich, innerhalb eines Menschenlebens kosmische Distanzen zurückzulegen. Bei einer zunächst positiven und dann negativen Beschleunigung, die der Erdschwerebeschleunigung entspräche und daher für den Menschen gut erträglich wäre, würde man eine entsprechend hohe Eigengeschwindigkeit allerdings nur so langsam erreichen, dass man auch einen Flug nach dem uns am nächsten gelegenen Sternsystem Alpha Centauri noch als länger denn die 4,34 Jahre empfinden würde, die das Licht dorthin benötigt. Für Beobachter auf der Erde würde ein Raumschiff, dessen Besatzung die Zeitdilatation ( kommt noch was )für eine subjektive Verkürzung der Reisedauer ausnutzt, weiterhin Tausende, Millionen und Milliarden Jahre benötigen, um entfernte Sterne oder gar Galaxien zu erreichen.
Populationsgröße
Im Jahr 2002 hat der Anthropologe John H. Moore geschätzt, dass eine Population von 150-180 Personen für 60 bis 80 Generationen reichen würde - das entspricht ca. 2000 Jahren.
Eine viel kleinere anfängliche Bevölkerung ist auch möglich wenn die Astronauten weiblich sind. Solange Embryonen zur Verfügung stehen Die Verwendung einer Samenbank von der Erde ermöglicht auch einen kleineren Ausgangsbasis mit vernachlässigbarer Inzucht .
Forscher in Conservation Biology neigten dazu, die "50/500" Faustregel zu erlassen. Diese Regel besagt eine kurzfristige effektive Populationsgröße (N e) von 50 benötigt wird, um eine inakzeptable Rate von Inzucht zu verhindern, während ein langfristiger N e von 500 erforderlich ist , um insgesamt genetische Variabilität zu erhalten. Die Gleichung entspricht einer Inzucht-Rate von 1% pro Generation.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Zu lösende Probleme
Unabhängig vom Antrieb müssen folgende Probleme für einen bemannten interstellaren Raumflug gelöst werden:
Künstliche Schwerkraft Strahlenschutz Versorgung: Nahrung, Trinkwasser und Sauerstoff Zusammenhalt der Gruppe Kollision mit interstellarer Materie (Staubteilchen sind bei hohen Geschwindigkeiten ein großes Risiko)
Wie ihr seht gibt es riesige und zum Teil unüberwindbare Gegebenheiten die es uns erschweren zu den Sternen zu gelangen. Diese Probleme haben aber auch alle anderen Zivilisationen im Universum
Raumfahrt mit mehr als Lichtgeschwindigkeit ist nach derzeitigem Stand der Physik leider nicht möglich. Die vielversprechendsten Konzepte kommen lediglich auf maximal10%, und das heißt, die Reise zu den Sternen kann ein langwieriges Unternehmen werden. Selbst ein Besuch unseres nächsten Nachbarn Proxima Centauri, in einem Abstand von nur 4,24 Lichtjahren, würde so über 40 Jahre dauern und das schließt noch nicht die Zeit ein, um das Raumschiff zu beschleunigen und am Ziel wieder abzubremsen, was ebenfalls mehrere Jahre dauern würde.
Es bleibt also nur die Möglichkeit, die extreme Reisedauer in die Planungen mit einzubeziehen und damit zu rechnen, dass es mehrere Generationen brauchen würde, um einen fernen Stern zu erreichen. Generationenschiffe sind also die derzeit einzige denkbare Möglichkeit.
Man könnte sich überlegen, dass eine Weltraumstation im Orbit der Erde ein guter Ausgangspunkt für so eine Weltraumarche wäre, doch sind diese Konstruktionen, wie zum Beispiel eineO'Neill-Kolonie(kommt noch) – ein riesiger rotierender Zylinder, indem Landschaften nachgebildet sind - immer noch stark von der Erde und der Sonne abhängig, um zu funktionieren und für den interstellaren Einsatz möglichweise zu fragil oder zu teuer, wenn man diese Begrenzungen überwinden möchte. Für die Aufgaben einer interstellaren Reise muss man wahrscheinlich einen anderen Ansatz wählen.
Für die veranschlagte Reisezeit muss das Raumschiff außerordentlich robust sein und seine Insassen nicht nur vor Mikrometeoriten, sondern auch vor der kosmischen Strahlung effektiv schützen. Eine konventionelle Konstruktion kommt deswegen eigentlich kaum in Betracht, statt dessen erscheint es sinnvoll, sich einen Asteroiden zu schnappen und diesen auszuhöhlen. Wie man einen Asteroiden in den Erdorbit bringt, ist natürlich ein Problem, aber wenn man soweit gekommen ist, einen Antrieb zu entwerfen, der 10% Lichtgeschwindigkeit erreichen kann, dürfte das nicht mehr unlösbar sein.
Die Verwendung eines Asteroiden hätte zwei Vorteile, zum einen bietet er schon durch seine Masse Schutz vor den kosmischen Widrigkeiten. Außerdem stellt er, wenn man ihn gezielt aussucht, schon eine Reihe an Rohstoffen für den Bau des Raumschiffes zur Verfügung und vermindert damit die Transportprobleme von der Erde in den Orbit. Natürlich muss dann die nötige Industrie, und nicht die Güter allein zum Asteroiden gebracht werden, aber dieses Problem muss auch bei einem erdgestützten Aufbau gelöst werden, da für Reparaturen und Umbauten während des Flugs alle entsprechenden Einrichtungen ohnehin unverzichtbar sind.
Eine Variante zum Asteroiden ist die Verwendung eines Kometen, der im Gegensatz zum Asteroiden nicht aus Gestein, sondern hauptsächlich aus Eis besteht. Es muss abgewägt werden, welche Ressourcen auf lange Sicht sinnvoller sind, oder ob man nicht gleich zwei Generationenschiffe baut, eines aus einem Asteroiden und eines aus einem Kometen, in Bezug auf die Redundanz der Systeme und die Ausfallsicherheit ist diese Überlegung nicht abwegig.
In einem solchen Generationenschiff würden die Habitate für die Bewohner wahrscheinlich ringförmig angelegt und eine Rotation würde für künstliche Schwerkraft sorgen. Eine vollständige Aushöhlung des Kerns wäre aber ökonomisch und in Hinblick auf die Stabilität nicht unbedingt sinnvoll und auch die Außenhülle muss massiv genug bleiben, um ihre Schutzfunktion nicht einzubüßen.
Die Konstruktion ist aber nur ein Teil der Überlegung. Ganz wichtig sind auch die Menschen, die man auf eine solche Reise schicken möchte.
John H. Moore, von der University of Florida, meint, dass schon eine Besatzung von 180 Personen ausreicht, um eine überlebensfähige Population für 60 - 80 Generationenzu bilden. Diese Zahl ermöglicht eine ausreichende Reproduktionsrate und wäre groß genug, um genügend genetische Variation zu erlauben – lediglich mit gezielter Geburtenplanung bei ausgewählten Partnern ließe sich diese Zahl wahrscheinlich noch etwas verringern. Statt der militärischen Struktur und Hierarchie, die heute bei Weltraummissionen gebräuchlich ist, würde ein Generationenschiff eher wie eine Sippe mit Familienstrukturen funktionieren.
Ein großes Problem kann die Gruppendynamik werden, die auf engem Raum und mit wenig Ausweichmöglichkeiten schnell zu Konflikten führen kann. ( siehe Seite 6 - Leben auf anderen Planeten - Biosphäre 2 )
Und schließlich muss für ein künstliches Ökosystem gesorgt werden, das sich selbst unabhängig erhalten kann. Mit den überschüssigen Rohstoffen, die das aus einem Asteroiden oder Kometen bestehende Schiff ausmachen, können sicher Schwankungen ausgeglichen werden, aber das ist nur eine Notlösung, wenn das System dauerhaft bestand haben soll.
Bisherige Versuche, wie Biosphäre 2 sind gute Ausgangpunte, zeigen aber auch deutlich die Schwierigkeiten, bei dem Versuch ein Ökosystem nachzubilden. Dabei war das Projekt Biosphäre 2 vielleicht nur ein wenig zu ambitioniert, weil versucht wurde, ein zu komplexes Ökosystem nachzubilden (einen Strich durch die ersten Versuche machten Mikroorganismen im Boden, die Kohlendioxid produzierten und die Sauerstoffaufnahme des Betons).
Überlegungen werden auch in den Ackerbau gehen müssen; um die in einem Raumschiff notwendigen Arbeiten (Wartung, Reparatur, wissenschaftliche Fragestellungen) neben der Nahrungsmittelproduktion durchführen zu können, wird man kaum auf konventionellen Ackerbau zurückgreifen können, sondern künstliche Aufzucht in Nährlösungen, Hydrokulturen usw. in Betracht ziehen müssen.
Viele dieser Probleme können aber beseitigt werden, wenn man sich nicht auf ein Schiff verlässt, sondern immer wieder neue Schiffe mit verbesserter Technologie hinterherschickt, die genetische Diversität wäre gewährleistet, Vorräte und Ressourcen können aufgestockt werden und die Verbindung zum Heimatplaneten bliebe bestehen, was auch psychologische Probleme abmildert. Es ist jedoch fragwürdig, ob diese Vorgehensweise über hunderte von Jahren aufrecht erhalten werden könnte.
Derzeit ist ein Generationenschiff die einzige technisch überhaupt denkbare Möglichkeit ferne Sterne zu erreichen, aber die Verpflichtung, die eine Gesellschaft damit einginge, wären enorm, was wohl in Grund dafür ist, dass diese Konzepte derzeit viel eher in Science-Fiction zu finden sind als in konkreten Überlegungen der Weltraumagenturen. Immerhin ist das ethische Problem, das damit verbunden ist, Mensch auf eine Reise ohne Wiederkehr zu schicken, noch nicht einmal diskutiert worden - aber sehr viel anders wie die ersten Entdeckungsreisen oder Auswanderungen in die neue Welt wäre es auch wieder nicht.
Diese Idee, ein Raumschiff in einen Asteroiden zu bauen, hatte man auch schon bei Captain Future ( Erster von 3 Teilen )
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Ich habe gestern eine super Doku gesehen und dachte mal .... schreib mal einen Artiker darüber
Der Text wurde mit dem Googel Übersetzer verarbeitet ... meine Rechtschreibung ist zwar schlimm ... aber nicht sooo schlimm
Die Welt war noch nie so technologisch als sie es jetzt ist, aber das bedeutet nicht, dass einige Dinge nicht auf dem Weg verloren gegangen sind. Viele der Technologien, Erfindungen und Herstellungsverfahren der Antike sind einfach im Laufe der Zeit verschwunden, während andere noch nicht vollständig durch moderne Wissenschaftler verstanden worden sind. Einige wurden inzwischen wieder entdeckt (innen Sanitär-, Straßen- Gebäude), aber viele der mysteriösen verloren Technologien haben das Zeug um zur Legende zu werden. Hier sind zehn berühmte Beispiele:
10. Stradivari-Geigen
Eine verlorene Technik des 17 Jahrhunderts ist der Prozess, durch den die berühmten Stradivari-Geigen und andere Streichinstrumente gebaut wurden. Die Geigen, zusammen mit verschiedenen Bratschen, Celli und Gitarren wurden von der Stradivari-Familie in Italien von etwa 1650-1750 gebaut. Die Geigen wurden in ihren Tagen geschätzt, aber sie sind inzwischen weltweit berühmt dafür, eine beispiellose und nicht zu reproduzieren-Klangqualität zu haben. Heute gibt es nur rund 600 der Instrumente , und die meisten sind im Wert von mehreren hunderttausend Dollar. In der Tat hat der Name Stradivari, so ein Synonym für Qualität, dass er nun ein beschreibender Begriff für alles als das beste in seinem Gebiet zu sein.
Wie ging es verloren?
Die Technik für den Bau Stradivari-Instrumenten war ein Familiengeheimnis nur durch Patriarchen Antonio Stradivari und seine Söhne, Omobono und Francesco bekannt. Nachdem sie starben, starb auch der Prozess mit ihnen, aber das hält nicht etwa von dem Versuch ab, den versuch zu starten es zu reproduzieren. Forscher haben alles aus probiert. Pilze im Wald, die die einzigartige Gestaltung der Körper verwendet wurde, um die berühmten Resonanz von der Stradivari-Sammlung zu erreichen. Die führende Hypothese scheint zu sein, dass die Dichte der verwendeten Holz-Komponenten für den klang verantwortlich sind. In der Tat, schloss zumindest eine Studie, dass die meisten Menschen nicht einmal einen Unterschied feststellen in der Klangqualität zwischen einer Stradivari Geige und ein modernes Gegenstück.
9. Nepenthe
Die schiere Komplexität der Technologie von den alten Griechen und Römern ausgeübt wird ist oft ganz erstaunlich, vor allem wenn es um Medizin ging . Unter anderem wurden die Griechen bekannt, die Hinterbliebenen von verstorbenen mit Nepenthe, eine primitive Anti-Depressiva, zu versorgen. Die Droge wird häufig in der griechischen Literatur, wie Homers Odyssee erwähnt. Einige behaupten, dass es vielleicht fiktiven ursprung hat, aber andere haben argumentiert, dass das Medikament echte ürsprünge hat und weit in das antike Griechenland verwendet wurde. Es wird behaupted das Nepenthe in Ägypten entstanden sei und seine Wirkung als "eine Droge des Vergessens" .
Wie ging es verloren?
Oft gibt es die "verlorenen" Technologien noch, und es ist nur unsere Unfähigkeit, ihre moderne Entsprechung, die sie geheimnisvoll macht zu identifizieren. Angenommen, dass es wirklich existiert, ist dies wahrscheinlich der Fall mit Nepenthe. Das Medikament wird wahrscheinlich heute noch verwendet, aber Historiker sind nicht nur was die moderne Substanz die Griechen damit meinten genau zu bestimmen.Opium ist definitiv die beliebteste Wahl, aber auch andere Spitzenreitern zählen Wermut -Extrakt und Scopolamin.
8. Der Antikythera-Mechanismus
Einer der geheimnisvollsten aller archäologischen Artefakten ist, was als der Antikythera-Mechanismus, eine Bronze-Maschine, die von Tauchern vor der Küste der griechischen Insel Antikythera in den frühen 1900er Jahren entdeckt wurde, bekannt. Der Mechanismus besteht aus einer Reihe von über 30 Gänge, Kurbeln, und wählt, die manipuliert werden, um die astronomischen Positionen der Sonne, des Mondes und anderer Planeten . Das Gerät wurde unter den Resten eines Schiffswracks, dass Wissenschaftler auf der 1. oder 2. Jahrhundert v. Chr. datiert gefunden. Seine wahre Absicht ist noch nicht vollständig bekannt, und das Geheimnis hinter seiner Konstruktion und Einsatz ,hat Forscher seit Jahren verwirrt. Der Konsens scheint zu sein, dass der Antikythera-Mechanismus eine Art primitive Uhr, die Mondphasen und Solar-Jahre zeigt.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Wie ging es verloren?
Die Raffinesse und Präzision deutlich in der Gestaltung des Mechanismus lässt vermuten, dass es nicht das einzige Gerät seiner Art war und viele Wissenschaftler haben spekuliert, dass seine Verwendung weit verbreitet gewesen sein mag. Dennoch ist die Existenz von anderen Geräten wie der Antikythera-Mechanismus nicht auf den historischen Aufzeichnungen angezeigt, bis im 14. Jahrhundert, was bedeuten würde, dass die Technologie für fast 1400 Jahre verloren ging. Warum und wie wird wohl ein Geheimnis bleiben, zumal der Mechanismus ist immer noch als die einzige alte Entdeckung seiner Art bekannt.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
also ich binn dann eher für die ARTE Doku
7. Die Telharmonium
Oft als das weltweit erste elektronische Musikinstrument bekannt, war das Telharmonium eine große Orgel-ähnliches Gerät, dass Tonräder kreative synthetische Noten hatte, die dann durch Drähte zu einer Reihe von Lautsprechern übertragen wurden. Das Telharmonium wurde von dem Erfinder Thaddeus Cahill im Jahr 1897 entwickelt, und zu der Zeit war es eines der größten Instrumente jemals gebaut wurde. Cahill hat schließlich drei Versionen davon gebaut, von denen eines angeblich rund 200 Tonnen wiegen und genügend Platz brauchte, um einen ganzen Raum zu füllen war. Seine Einrichtung bestand aus einer Sammlung von Tastaturen und Fußpedale, die der Benutzer zu bedienen musste, um die Klänge der anderen Instrumente, vor allem Holzblasinstrumente wie Flöten, Fagotte und Klarinetten zu reproduzieren. Die erste öffentliche Ausstellungen der Telharmonium wurde ein großer Erfolg. Die Leute kamen in Scharen, um öffentliche Auftritte der primitiven Synthesizer zu sehen.
Wie ging es verloren?
Nach ihren ersten Erfolgen entwickelt Cahill große Pläne für seine Telharmonium. Aufgrund seiner Fähigkeit, ein Signal über Telefonleitungen zu übertragen, hatte er eine Vision Telharmonium Musik aus der Ferne als Hintergrund-Sound in Orten wie Restaurants, Hotels und private Haushalte zu bauen. Leider erwies sich das Gerät als seiner Zeit weit voraus. Sein massiver Energieverbrauch belastete die frühen Stromnetze und bei einem Preis von satte $ 200.000, war das Instrument einfach zu teuer, um es im großen Maßstab zu bauen. Musik über das Telefon zu senden waren katastrophal, der Klang war grauenhaft. Nach einer weile ließ die Faszination an dem Gerät nach, und die verschiedenen Versionen davon wurden schließlich verschrottet. Auch heute noch ist nichts von der ursprünglichen drei Telharmoniums vorhanden, nicht einmal Tonaufnahmen.
6. Die Bibliothek von Alexandria
Obwohl ...es war keine Technologie, die legendäre Bibliothek von Alexandria garantiert einen Platz auf dieser Liste, wenn auch nur, weil ihre Zerstörung bedeutete, dass so viel von dem gesammelten Wissen der Antike für immer verloren war. Die Bibliothek wurde in Alexandria, Ägypten in etwa 300 v. Chr., wahrscheinlich während der Herrschaft von Ptolemäus Soter gegründet. Es war der erste ernsthafte Versuch, alle bekannten Informationen über die Außenwelt an einem Ort zu sammeln. Die Größe seiner Sammlung ist nicht bekannt (obwohl die Zahl geschätzt wurde, ca. Million Schriftrollen), sondern die Bibliothek zog einige der großen Geister seiner Zeit, darunter Zenodot und Aristophones von Byzanz nach Alexandria. Die Bibliothek wurde so wichtig, dass es auch eine Legende entsand, dass alle Besucher der Stadt müssten bei ihrer Einreise ...Bücher abgeben , so dass eine Kopie für die Lagerung in der großen Bibliothek gemacht werden könnte.
Wie ging es verloren?
Die Bibliothek von Alexandria und alle Inhalte verbrannten irgendwann um den ersten oder zweiten Jahrhundert nach Christus. Wissenschaftler sind noch unsicher, wie das Feuer begonnen hatte, aber es gibt ein paar konkurrierenden Theorien. Die erste, die durch historische Dokumente gesichert ist, lässt vermuten, dass Julius Caesar versehentlich die Bibliothek abbrannte. Andere Theorien behaupten, dass die Bibliothek geplündert und niedergebrannt wurde ,durch Eindringlinge, mit dem Kaiser Aurelian, Theodosius I, und die arabischen Eroberer Amr ibn al 'Aas, die als die wichtigsten Konkurrenten galten. Doch als die Bibliothek von Alexandria zerstört wurde, gibt es wenig Zweifel daran, dass viele der Geheimnisse des Altertums zusammen damit verloren gingen. Wir werden nie ganz sicher wissen, was verloren gegangen ist.
5. Damaskus-Stahl
Damaszener Stahl war eine unglaublich starke Art des Metalls, die weit in den Nahen Osten von 1100-1700 n. Chr. benutzt wurde. Es ist sehr stark mit Schwertern und Messern verbunden. Schwerter die aus Damaszener Stahl geschmiedet wurden, sind für ihre erstaunliche Kraft und Schneiden Fähigkeit bekannt und waren so in der Lage , Felsen und anderen Metallen einschließlich der Klingen der schwächeren Schwerter-sauber in zwei Hälften zu schneiden. Die Klingen sind vermutlich erstellt mit Wootz-Stahl, der wahrscheinlich aus Indien und Sri Lanka importiert wurde und geformt und vermischt, um eine gemusterte Klinge zu schaffen.
Wie ging es verloren?
Das besondere Verfahren zum Schmieden Damaszener-Stahl war irgendwann um 1750 n. Chr. verschwunden. Die genaue Ursache für den Verlust der Technik ist unbekannt, aber es gibt mehrere Theorien. Am beliebtesten ist, dass die Lieferung von Erzen für die spezielle Rezeptur für Damaszener Stahl die benötigt wurde zur Neige ging. Die Entscheidungsträger waren gezwungen, andere Techniken zu entwickeln. Stattdessen fingen sie an einfach Schwerter en masse herzustellen und testen sie, um zu bestimmen, ob die zur Erfüllung der Standards der Damaszener-Stahl erreichten. Unabhängig von der Technik ist Damaszener-Stahl eine Technologie, die modernen Experimentatoren nicht vollständig reproduzieren können.
4. Apollo / Gemini Space Programm Technologie
Nicht alle verlorenen Technologie stammen aus der Antike,schnell ist etwas so veraltet, dass es nicht mehr kompatibel ist. Die Apollo-und Gemini-Raumfahrtprogramm der 50er, 60er und 70er Jahre waren für die größten Erfolge der NASA verantwortlich, darunter auch einige der ersten bemannten Raumflüge und die erste Reise zum Mond. Gemini, die von 1965 bis 66 lief, war verantwortlich für die viel von der frühen Forschung und Entwicklung in der Mechanik der bemannten Raumfahrt. Apollo, die kurz darauf folgte, war mit dem Ziel der Landung eine Crew auf der Oberfläche des Mondes, die i im Juli 1969 ins Leben gerufen wurde.
Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
Wie ging es verloren?
Die Apollo-und Gemini-Programme sind nicht wirklich verloren. Es gibt noch ein oder zwei Saturn V Raketen die herumliegen, und es gibt viele Teile aus dem Raumschiff Kapseln die weiterhin zur Verfügung stehen. Moderne Wissenschaftler können die Teile nicht deuten, sie haben nicht das Wissen es zu verstehen, wie oder warum sie funktionieren, oder wie sie es taten. In der Tat sind nur sehr wenige Schaltpläne oder Datensätze aus der Original-Programme immer noch da. Dieser Mangel an Aufzeichnungen ist ein Nebenprodukt der frenetische Tempo, mit dem das amerikanische Raumfahrtprogramm voran ging ( Kalter Krieg). Nicht nur das, sondern in den meisten Fällen waren private Unternehmer in der Produktion. Sobald die Programme beendet waren, gingen diese Ingenieure, zusammen mit all ihren Wissen woanders hin. Nichts davon wäre ein Problem, aber jetzt, plant die NASA eine Reise zum Mond. Eine Menge Informationen darüber, wie die Ingenieure der 1960er Jahre machte, ist von unschätzbarem Wert. Erstaunlicherweise bleiben die Datensätze so unorganisiert und unvollständig, dass die NASA zurückgegriffen Engineering bestehender Raumsonde Teile machen muss, die sie herumliegen haben auf Schrotthalden, als eine Möglichkeit der Verständigung, wie der Gemini-und Apollo-Programme so gut funktionieren konnte umgekehrt.
3. Silphium
Verlorene Technologien sind nicht immer die Folge von zu viel Geheimhaltung oder schlechte Buchführung, manchmal bricht die Natur einfach zusammen. Dies war der Fall mit Silphium, ein pflanzliches Wundermittel, dass die Römer als eine der frühesten Formen der Geburtenkontrolle eingesetzten. Es wurde auf die Frucht einer bestimmten Gattung der Fenchel-Anlage, eine blühende Pflanze, die nur entlang einer bestimmten Küste im heutigen Libyen aufgewachsen ist . Die herzförmige Frucht des Silphium Anlage wurde bekannt, dass so etwas wie ein Allheilmittel sein, und wurde benutzt, um Warzen, Fieber, Verdauungsstörungen und eine ganze Reihe von anderen Erkrankungen zu behandeln. Aber Silphium war auch als Verhütungsmittel bekannt, dass es so als eines der wertvollsten Substanzen in der römischen Welt bekannt wurde. Mit dem Kraut würde sogar kündigen eine bestehende Schwangerschaft, wenn richtig eingesetzt, die machen Silphium eine der ältesten Methoden der Abtreibung würde.
Wie ging es verloren?
Silphium war einer der begehrtesten Medikamente der alten Welt zu suchen, und seine Verwendung breitete sich rasch in ganz Europa und in Asien. Aber trotz seiner bemerkenswerten Effekte gedieh die besondere Gattung der Pflanze nur in einem Bereich entlang der Mittelmeerküste in Nordafrika. Seine Knappheit, mit einer überwältigenden Nachfrage kombiniert, mehr als wahrscheinlich, um über die Ernte, die die Pflanze zum Aussterben trieb geführt haben.
2. Römischer Cement
Moderner Beton wurde in den 17 Jahrhundert entwickelt, und heute ist die einfache Mischung aus Zement, Wasser, Sand und Felsen ist das am häufigsten verwendete Baustoff der Welt. Aber das Rezept wurde im 18. Jahrhundert entwickelt und nicht zum ersten Mal konkret erfunden wurde. In der Tat war Beton weit über der Antike durch die Perser, Ägypter, Assyrer und Römer bekannt. Die Römer in allem, machte umfangreiche Verwendung von Beton, und sie waren verantwortlich für die erste Vervollkommnung der Rezeptur durch Mischen von Branntkalk mit Schotter und Wasser.Ihre Beherrschung der Nutzung erlaubte ihnen, viele ihrer berühmtesten Strukturen aufbauen, darunter das Pantheon, das Kolosseum, die Wasserleitungen und die Römischen Bäder.
Wie ging es verloren ?
Wie so viele Technologien der Griechen und Römer war das Rezept für Beton während des Abstiegs in das dunkle Mittelalter verloren, warum blieb es ein Geheimnis. Die populärste Theorie ist, dass das Rezept so etwas wie ein Geschäftsgeheimnis unter Steinmetze war und dass die Verfahren zur Herstellung von Zement und Beton, starb zusammen mit denen, die sie kannte. Vielleicht noch interessanter als das Verschwinden der römischen Zement sind die besonderen Qualitäten, die sie getrennt von moderner Portland Zement, der die häufigste Form von Zement das heutzutage verwendet wird. Strukturen mit römischen Zement, wie das Kolosseum, dort ist es gelungen tausende von Jahren den Elementen zu trotzen und stehen zu bleiben. Gebäude die mit Portland-Zement gebaut werden sind bekannt dafür zu zermürben.
1. Griechisches Feuer
Vielleicht ist der berühmteste von allen verloren Technologien ist, was als griechische Feuer bekannt ist. Eine Brandbombe Waffe, die von den Militärs des Byzantinischen Reiches verwendet wurde. Eine primitive Form von Napalm war die griechische Feuer eine Art "immer brendendes Feuer", dass weiterhin brennen konnte auch im Wasser. Die Byzantiner... am berühmtesten wurde es während des 11. Jahrhunderts , als es mit half von zwei Belagerungen von Konstantinopel durch die arabischen Eindringlinge abzuwehren. Griechisches Feuer konnte auf viele verschiedene Arten eingesetzt werden. In seiner frühesten Form wurde es in Gläser gegossen und auf Gegner geworfen wie eine Granate oder einen Molotow-Cocktail. Später wurden riesige Bronze Röhren auf Kriegsschiffen montiert und Siphons sprühten das Feuer auf feindliche Schiffe. Es gab sogar eine Art tragbare Siphon, die von Hand in den Stil eines modernen Flammenwerfer betrieben werden könnte.
Wie ging es verloren?
Die Technologie hinter griechischem Feuer ist sicherlich nicht völlig fremd. Immerhin haben moderne Armeen nun mit ähnlichen Waffen seit Jahren. Dennoch war der nächste Gegenstück zu griechischem Feuer, Napalm, nicht bis in die frühen 1940er Jahre, was bedeuten die Technologie für mehrere hundert Jahre verloren war. Die Waffe scheint nach dem Untergang des Byzantinischen Reiches verschwunden zu sein, aber gerade deshalb ist nichts bekannt. Inzwischen hat man die mögliche chemische Zusammensetzung des griechischen Feuers weithin von Historikern und Wissenschaftlern untersucht. Eine frühe Theorie war, dass die Mischung einer starken Dosis von Salpeter, die es chemisch ähnlich Schießpulver würde enthalten. Diese Idee wurde inzwischen abgelehnt, weil Salpeter nicht in Wasser brennet. Stattdessen schlagen modernen Theorien vor, dass die Waffe eher ein Cocktail aus Erdöl und andere Chemikalien, eventuell auch Kalk, Salpeter oder Schwefel war.
Es gibt noch mehr Technologien die verloren gingen, aber das sollte ja nur ein Beispiel sein was so alles verloren gegengen ist .....
MFG
Bak
Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklärst du dich damit einverstanden, dass wir Cookies setzen.Weitere InformationenSchließen