Archiv der Kategorie: Physik, Chemie, Technik

Positronen: Forschung mit der anderen Seite der Marterie

Positronen leuchten besser
Entdeckung: Leuchtstoffe werden von Elektronen schwächer angeregt als von ihren Antiteilchen

Leuchtstoffe
werden schon lange benutzt, im Alltag zum Beispiel im Bildschirm von
Fernsehgeräten oder in PC-Monitoren, in der Wissenschaft zum Untersuchen
von Plasmen, Teilchen- oder Antiteilchenstrahlen. Gleich ob Teilchen
oder Antiteilchen – treffen sie auf einen Leuchtstoff auf, regen sie ihn
zum Lumineszieren an. Unbekannt war jedoch bisher, dass
die Lichtausbeute mit Elektronen wesentlich niedriger ist als mit
Positronen, ihren Antiteilchen. Dies hat Dr. Eve Stenson im
Max-Planck-Institut für Plasmaphysik (IPP) in Garching und Greifswald
jetzt beim Vorbereiten von Experimenten mit Materie-Antimaterie-Plasmen
entdeckt.

"Wäre Antimaterie nicht so schwierig
herzustellen, könnte man auf eine Ära
hochleuchtender Niederspannungs-Displays hoffen, in der die
Leuchtschirme nicht von Elektronen, sondern von Positronen angeregt
werden", meint Dr. Eve Stenson augenzwinkernd zu ihrer Entdeckung. "Das
ist aber leider nicht machbar". Trotzdem könnte es eine Zukunft für
Positronen-induzierte Lumineszenz geben.

Dazu
müsse man sich klarmachen, so Eve Stenson, warum Positronen Leuchtstoffe
so viel stärker anregen als gleich schnelle Elektronen: Beide,
Elektronen und Positronen, geben ihre Bewegungsenergie beim Aufprall an
das Leuchtmittel ab. Bei diesem Zusammenstoß werden Elektronen des
Leuchtstoffs aus einem tieferen auf ein höheres Energieniveau gehoben.
Beim Zurückfallen geben sie die freiwerdende Energie als Licht wieder
ab – der Stoff leuchtet an der getroffenen Stelle auf.

Im
Fall eines aufprallenden Positrons tritt jedoch noch ein zweiter Effekt
auf: Nachdem es seine Energie im Leuchtstoff abgegeben hat, kann sich
das Positron dort mit einem Elektron, seinem Antiteilchen, vernichten.
Es bleibt ein Loch im See der Elektronen des Leuchtstoffs, in das andere
Elektronen aus höheren Energieniveaus fallen können, was zu einer
nochmaligen Lichtaussendung führt. Insgesamt erklärt dies die höhere
Lichtausbeute der Positronen. "Dieses ‚zweite‘ Licht könnte jedoch auch
Informationen über die Materialeigenschaften des Leuchtstoffs und den
Mechanismus der Lumineszenz liefern", sagt Eve Stenson. Denn obwohl
lumineszierende Stoffe und Leuchtschirme seit Jahrzehnten verwendet
werden – in Fernsehern, Displays, Hinweisschildern, physikalischen
Sensoren oder als Nanopartikel in der Medizin – sind wichtige
physikalische Details ihres Verhaltens noch nicht geklärt.

Gefunden
hat Eve Stenson die unterschiedliche Wirkung von Elektronen und
Positronen, als sie den Leuchtschirm an einer Teilchen-Falle kalibrieren
wollte, die Elektronen oder auch Positronen speichern kann. Zu ihrer
Verblüffung ergaben sich für die beiden Teilchensorten zwei ganz
unterschiedliche Kurvenverläufe: Positronen einer Energie von einigen
zehn Elektronenvolt erzeugten in den von Eve Stenson untersuchten
Leuchtschirmen aus Zinksulfid oder Zinkoxid so viel Licht wie Elektronen
mit mehreren tausend Elektronenvolt: "Um das zu verstehen, fand ich
mich plötzlich auf einem ungeplanten Abstecher aus der Plasmaphysik tief
in die Festkörperphysik wieder". Denn sie musste feststellen, dass die
von Elektronen und Positronen ausgelöste Lumineszenz für niedrige
Energien bislang offensichtlich noch nie verglichen worden war, obwohl
beide Teilchensorten routinemäßig mit Leuchtschirmen
nachgewiesen werden.

Die Teilchenfalle
gehört zu einem gerade entstehenden experimentellen Aufbau, mit dem ein
Team unter Leitung von IPP-Wissenschaftler Professor Dr. Thomas Sunn
Pedersen erstmals ein Materie-Antimaterie-Plasma aus Elektronen und
Positronen herstellen will (siehe IPP-Presseinformation 3/2017).        
                                                                       
                     

Europäische Studie zu künftigen Fusionskraftwerken

Keine Endlagerung des Abfalls / katastrophenfreie Technik

Technische Realisierbarkeit, zu erwartende Sicherheits- und
Umwelteigenschaften sowie Kosten eines künftigen Fusionskraftwerks
untersucht die kürzlich fertig gestellte europäische Kraftwerksstudie
"European Fusion Power Plant Conceptual Study". Aufbauend auf neuesten
Ergebnissen aus Plasmaphysik, Technologie- und Materialforschung wurden
vier verschiedene Kraftwerksmodelle entwickelt, die ein weites Spektrum
physikalischer und technischer Möglichkeiten beleuchten. Deren Analyse
hinsichtlich ökologischer und ökonomischer Eigenschaften hat die
günstigen Resultate früherer Untersuchungen bekräftigt: Nach heutigem
Wissen sind katastrophale Unfälle in einem Fusionskraftwerk unmöglich,
eine Endlagerung des Abfalls ist bei Rezyklierung nicht nötig. Der
Strompreis wird dem anderer umweltfreundlicher Energietechniken
entsprechen.

—-

Ziel der Fusionsforschung ist es, die Energieproduktion der Sonne in
einem Kraftwerk auf der Erde nachzuvollziehen und aus der Verschmelzung
von Atomkernen Energie zu gewinnen. Brennstoff ist ein dünnes
ionisiertes Gas – ein "Plasma" – aus den beiden Wasserstoffsorten
Deuterium und Tritium. Zum Zünden des Fusionsfeuers wird der Brennstoff
in einem Magnetfeldkäfig eingeschlossen und aufgeheizt. Ab einer
Temperatur von 100 Millionen Grad beginnt das Plasma zu "brennen": Die
Wasserstoffkerne verschmelzen miteinander zu Helium, es werden
Neutronen frei sowie große Mengen von Energie. Dass ein solches Energie
lieferndes Fusionsfeuer möglich ist, soll mit 500 Megawatt erzeugter
Fusionsleistung die internationale Testanlage ITER (lat. "der Weg")
zeigen. Geplant wurde ITER mit den heute verfügbaren Materialien und
Technologien, die noch nicht vollständig für die Fusion optimiert sind.
Dies ist Aufgabe eines parallelen Physik- und Technologieprogramms.
Alle Arbeiten bereiten ein Demonstrationskraftwerk vor; kommerzielle
Anlagen könnten damit ab der Jahrhundertmitte ans Netz gehen.

Vier Modelle für ein künftiges Kraftwerk

Ziel der "European Power Plant Conceptual Study" ist es auszuloten,
welche ökonomischen und ökologischen Eigenschaften ein künftiges
Kraftwerk erwarten lässt und welche Entwicklungsrichtungen am
aussichtsreichsten sind. Auf der Grundlage neuester
Forschungsergebnisse wurden daher vier verschiedene Entwürfe für ein
Fusionskraftwerk untersucht: Alle vier Modelle besitzen eine
elektrische Leistung von etwa 1500 Megawatt und sind wie ITER vom
Bautyp "Tokamak". Um ein breites Spektrum physikalischer und
technischer Möglichkeiten zu beleuchten, liegen ihnen jedoch
unterschiedlich weit in die Zukunft greifende Extrapolationen der
heutigen Plasmaphysik und Technologie zugrunde.

Verglichen mit ITER reichen Modell A und B am wenigsten in die Zukunft:
Die Annahmen zum Plasmaverhalten – zum Beispiel zu seiner Stabilität –
sind nur etwa 30 Prozent besser als die sehr vorsichtig für ITER
angesetzten Daten. Baumaterial ist, anders als bei ITER, ein
niedrig-aktivierbarer Stahl, der zurzeit im Europäischen
Fusionsprogramm untersucht wird. Die größten Unterschiede betreffen
technische Komponenten des Kraftwerks, zum Beispiel das so genannte
"Blanket": In dieser inneren Verkleidung des Plasmagefäßes werden die
bei der Fusion entstehenden schnellen Neutronen abgebremst. Sie geben
ihre gesamte Bewegungsenergie in Form von Wärme an ein Kühlmittel ab
und erzeugen außerdem aus Lithium den Brennstoffbestandteil Tritium.
Für diese Aufgaben ist Modell A mit einem Flüssigmetall-Blanket
ausgerüstet: Es nutzt ein flüssiges Lithium-Blei-Gemisch zur
Tritiumerzeugung, die Fusionswärme wird mit Wasser aufgenommen und
weitergeleitet. Dagegen besitzt Modell B ein Kugelbett-Blanket mit
Kügelchen aus Lithiumkeramik und Beryllium. Das hier gewählte
Kühlmittel Helium erlaubt höhere Temperaturen als Wasser – statt 300
bis zu 500 Grad Celsius – und damit höhere Wirkungsgrade für die
anschließende Stromerzeugung. Beide Blanket-Varianten werden im
Europäischen Fusionsprogramm entwickelt; Testversionen sollen in ITER
untersucht werden.
 

Im Unterschied zu A und B gehen das weiter in die Zukunft greifende
Modell C und das eher futuristische Modell D von deutlichen
Fortschritten in der Plasmaphysik aus. Verbesserte Plasmazustände sind
mit leistungsstärkeren Blanket-Konzepten kombiniert, die allerdings in
Europa bereits entwickelt werden: Im "Dual Coolant-Blanket" von Modell
C wird die erste Wand mit Helium gekühlt, der Hauptteil der erzeugten
Wärme jedoch durch Umwälzung von Flüssigmetall zum Wärmetauscher
transportiert. Einsätze aus Siliziumkarbid isolieren die Struktur vom
strömenden Flüssigmetall. Durch die höhere Kühlmitteltemperatur von
rund 700 Grad kann die Fusionswärme effizienter in Strom umgewandelt
werden. Noch fortschrittlicher nutzt Modell D ein sich selbst kühlendes
Blanket: Flüssigmetall (bis 1100 Grad) dient sowohl zur Kühlung als
auch zur Tritiumerzeugung; die Strukturen bestehen aus Siliziumkarbid.

Sicherheitseigenschaften

Die Sicherheitsüberlegungen gelten dem radioaktiven Tritium und den
energiereichen Fusionsneutronen, welche die Wände des Plasmagefäßes
aktivieren. Um die Folgen aller schweren Unfälle kennen zu lernen,
wurden die beiden zeitnahen Modelle A und B genauer analysiert: Als
Unfallauslöser wird der schlagartige und totale Ausfall der Kühlung
angenommen; anschließend bleibt das Kraftwerk ohne jede Gegenmaßnahme
sich selbst überlassen. Ergebnis: Die Störung der Betriebsbedingungen
bringt über Plasmainstabilitäten den Brennvorgang sofort zum Erlöschen;
die Nachwärme in den Wänden reicht nicht aus, um Bauteile stark zu
schwächen oder gar zu schmelzen. Das Kraftwerk enthält auch keine
andere Energiequelle, die seine Sicherheitshülle zerstören könnte. Die
Hülle bleibt also stets intakt.

Untersucht wurde nun, wie viel Tritium und aktiviertes Material durch
den Temperaturanstieg mobilisiert und aus der Anlage entweichen 
könnte. Schließlich wurde – für ungünstigste Wetterbedingungen – die
daraus resultierende radioaktive Belastung am Kraftwerkszaun bestimmt:
Für Modell A und B kommt man auf Werte, die weit – ein bis zwei
Größenordnungen – unter der Dosis liegen, ab der eine Evakuierung der
Bevölkerung in der Nähe des Kraftwerks nötig wäre. Ähnliches gilt für
Modell C, die Werte für Modell D liegen nochmals deutlich niedriger.
Damit haben sich die aus früheren Studien bekannten attraktiven
Sicherheitseigenschaften in der neuen Studie bestätigt: Katastrophale
Unfälle sind in einem Fusionskraftwerk unmöglich.

Abfall

Auch die Abfallsituation wurde erneut untersucht: Das von den
Fusionsneutronen aktivierte Material verliert seine Radioaktivität in
allen vier Modellen relativ schnell. In hundert Jahren sinkt sie auf
ein Zehntausendstel des Anfangswerts. Für das zeitnahe Modell B zum
Beispiel ist hundert Jahre nach Betriebsende knapp die Hälfte des
Materials nicht mehr radioaktiv und kann für beliebige Nutzung
freigegeben werden. Die andere Hälfte könnte – entsprechende Techniken
vorausgesetzt – rezykliert und in neuen Kraftwerken wieder verwendet
werden: Eine Endlagerung wäre dann nicht nötig. Ähnliches gilt für die
anderen drei Modelle.

Kostenfragen

Von Modell A bis D steigt die Effizienz, mit der die Fusionsenergie aus
dem Blanket abgezapft werden kann sowie – mit steigender
Kühlmitteltemperatur – der Wirkungsgrad der Stromerzeugung. Zudem
werden von A bis hin zu D immer günstigere Plasmazustände erreicht: die
Belastung der Wände nimmt ab, weniger elektrische Leistung muss zur
Eigenversorgung in das Kraftwerk zurückgespeist werden. Daher reichen
von Modell A bis D immer kleinere Fusionsleistungen zur Erzeugung von
rund 1500 Megawatt elektrischer Leistung aus. Zudem nimmt das
Plasmavolumen von Modell A bis D um mehr als die Hälfte ab, d.h. die
Anlagen können insgesamt kleiner gebaut werden. Entsprechend lassen die
vier Kraftwerksmodelle unterschiedliche Strompreise erwarten: Modell A
führt zu den höchsten Stromkosten, gefolgt von Modell B und C. Das
avantgardistische Modell D hat die niedrigsten Kosten. Selbst B und C
wären jedoch mit Stromgestehungskosten von 5 bis 10 Cent pro
Kilowattstunde wettbewerbsfähig.

Fazit

Insgesamt lässt die Studie erwarten, dass bereits die erste Generation
kommerzieller Fusionskraftwerke – repräsentiert in den beiden zeitnahen
Modellen A und B, deren Entwicklung keine erheblichen Fortschritte in
der Plasmaphysik und Materialforschung voraussetzt – günstige
Sicherheits- und Umwelteigenschaften besitzen und wirtschaftlich
akzeptabel arbeiten wird. Die Modelle C und D zeigen das große
Potential für weitere physikalische und technologische
Verbesserungen.                                                             

Energiewende- Quantität und Qualität

Sehr geehrter Herr Gerber,
danke für diese Einschätzung.
Ich möchte als ehemaliger Wissenschafts–Redakteur des WDR, der dort die
Naturwissenschafts-Redaktion gegründet hat, noch folgenden
Hinweis geben:
Was mir in der Kommunikation über Energie und
Energiewende extrem zu kurz kommt, sind die Darstellungen der Zusammenhänge
sowie die Folgen und die Risiken in der Zukunft. Auch unsere Kollegen sind sich
nicht immer im Klaren, wenn sie irgendeinen Teilaspekt herausheben, was das
technisch aber auch kommunikativ für Folgen mit sich bringt. So wurden den
Bürgern die Gefahren z. B. der Kern-Energie zwar richtig dargestellt, aber die
Risikobewertung des plötzlichen Abschaltens bisheriger und künftiger Meiler
heruntergespielt. Vermittelt wurde nicht, dass der deutsche Alleingang die
Sicherheit der europäischen Kernenergie-Scene keineswegs verbessert, sondern
eher vergößert hat, denn die deutsche Sicherheits-Technologie war führend in der
Welt und sie wurde meines Erachtens vor allen Dingen durch Siemens gestrichen.
Diskutiert wird selten die Tatsache, dass die Kosten der Energiewende vor allen
Dingen der Bürger zu tragen hat, die vom Export abhängigen energieaufwendigen
Industriebereiche nicht mehr konkurieren können und auf lange Sicht auswandern.
Noch problematischer halte ich das Unwissen darüber, dass die
Starkstrom-Verbund-Netze auf lange Sicht extrem störanfällig werden, denn zu
erwarten sind plötzliche Zusammenbrüche großer Netzbereiche. Leider verhalten
sich diese Netze nicht linear, sondern entweder oder, ohne besondere
Vorankündigungen. Was ich aber für noch schlimmer halte ist, dass die Kosten des
Abbaus der Kernenergie-Zentralen zwei- bis dreimal teurer wird als ihr Bau, wer
soll das bezahlen? Natürlich der Bürger als Steuerzahler.
 Zu diesen Themen gibt es natürlich noch viel anderes zu sagen,
aber leider wird das alles dem Medienkunde, d. h. dem Leser, dem Hörer, dem
Zuschauer, vorenthalten. Meine damals im Zusammenhang mit Journalistenausbildung
geäußerte Bemerkung, dass ein Journalist auch didaktisches Vermögen haben muß,
wird leider fast nirgendwo beherzigt.
Mit freundlichen Grüßen
Jean
Pütz

Alex Gerber, Webmail"  schrieb:
> Viel hilft nicht immer viel: Obwohl die Energiewende häufig Thema in den
> Medien ist, lässt die Qualität der Beiträge oft zu wünschen übrig.
>
> Zu diesem Ergebnis kommt jedenfalls die Studie "Kommunikation zur
> Energiewende" des Instituts für Sozialwissenschaften der
> Heinrich-Heine-Universität Düsseldorf, in Kooperation mit der Fachgruppe
> Energie des Bundesverbands Deutscher Pressesprecher und der Kölner
> Agentur K1. Mehr als die Hälfte der befragten Kommunikationsexperten aus
> der Energiebranche bewerten Relevanz der Beiträge, Glaubwürdigkeit,
> Vielfältigkeit und Darstellung komplexer Sachverhalte als gering. Dies
> schlage sich in der Wahrnehmung der Bürger nieder: Die Kommunikation zur
> Energiewende erscheine vielen als kompliziert, demotivierend, abstrakt
> und unverständlich. In einem Punkt sind sich die Befragten nahezu einig:
> Kommunikation ist für eine breite Akzeptanz der Energiewende unabdingbar.

"Mein Minister und ich"
> Kommunikationsexperten diskutieren Studienergebnisse in Berlin
>
> Das Quadriga-Forum in Berlin war Schauplatz der exklusiven
> Veröffentlichung von Ergebnissen aus der von der Kölner Agentur K1
> iniierten Studie "Kommunikation zur Energiewende".
>
> Gut 50 Besucher und ein exzellent besetztes Podium bildeten den Rahmen
> der Veranstaltung. Eingeladen hatte die Fachgruppe Energie des
> Bundesverbands deutscher Pressesprecher e. V. (BdP) – der BdP hatte die
> Studie auch unterstützt.
>
> Am Ende war sich der Beobachter nicht sicher, worüber er sich mehr
> wundern sollte: über die Ergebnisse der Studie, nach der die Deutschen
> die Kommunikation zur Energiewende – in den Augen der
> Kommunikationsfachleute – als kompliziert, unverständlich, abstrakt und
> demotivierend wahrnehmen. Oder über die Experten selbst, die sich von
> den teilweise schockierenden Ergebnissen kaum überrascht zeigten: Die
> Energiewende sei eben komplex und kompliziert, und daran scheitere die
> Kommunikation derzeit ziemlich oft, so das Credo.
>
> So bekannte beispielsweise Dr. Dominik Geißler, Sprecher von
> Bundesumweltminister Peter Altmaier, wie sehr er und sein Team
> tagtäglich mit der Komplexität der Materie kämpften. "Mein Minister und
> ich – wir haben eine fast unlösbare Aufgabe." – "Kein Wunder", befand
> Rainer Knauber, Leiter Konzernkommunikation der Berliner Gaswerke AG.
> "Was wir hier alle machen, ist Energiewende 1.0. Dafür gibt es keine
> Vorlage." In der Komplexitätsfalle wähnten sich mehr oder minder alle
> Podiumsteilnehmer, mit Ausnahme von Gergely Kispál, Referent für Presse-
> und Öffentlichkeitsarbeit beim BUND Baden-Württemberg. Sein Rat: "Die
> Komplexität des Themas müssen wir uns reinziehen."
>
> Die Vielschichtigkeit besonders gut vermitteln kann offenbar die
> Präsidentin des Bundesverbands der Energie- und Wasserwirtschaft e. V.
> (BDEW). Hildegard Müller erzielte in der Befragung die besten
> Professionalitätswerte. Ihr Sprecher Mathias Bucksteeg weiß, warum:
> "Frau Müller gibt häufiger mal den ‚Erklärbär‘, das schätzen die Leute
> offenbar mehr als die andauerende Statement-Kommunikation." Vielleicht
> helfe es auch, einfach mal weniger zu kommunizieren, schlug Moderator
> Benedikt Reuter von Wiwo Green vor. Altmaier-Sprecher Dominik Geißler
> erteilte dem eine klare Absage: "Wir müssen jetzt kommunizieren, nicht
> erst dann, wenn die Strompreise erhöht werden."
>
> Mit welchen Mitteln kommuniziert werde, hatte die Studie auch gefragt
> und als Ergebnis den "Dauerbrenner" Pressearbeit vorn gesehen.
> Zustimmung bei den meisten Beteiligten, wenn auch Ministersprecher
> Geißler die Twitter-Wut seines Chefs verteidigte: "Über Social Media
> erreichern wir die Bürger direkt und ohne Filter der Medien."
>
> "Vielleicht bildet die Befragung der Kommunikatoren ja tatsächlich die
> Einstellung der Bevölkerung zur Energiewende insgesamt ab", vermutete
> Björn Peter Emde, bis zur Insolvenz als PR Manager bei Suntech Power
> International Ltd., zu Beginn der Diskussion. An deren Ende hatte
> Christian Bügel, Partner der Agentur K1, einen guten Ratschlag für die
> Beteiligten: "Seien Sie in Zukunft einfach etwas weniger kritisch mit
> sich selbst."
>
> Intensität hui – Qualität pfui
> Wissenschaftliche Umfrage untersucht Kommunikation zur Energiewende
>
> Köln/Düsseldorf. Die Kommunikation zur Energiewende empfinden die
> Deutschen als eher kompliziert, demotivierend, abstrakt, unverständlich
> und ineffizient — das glauben zumindest
> die Kommunikationsexperten aus der Energiebranche. Besorgniserregend:
> Nahezu jeder zweite Verantwortliche ist der Meinung, dass die
> Kommunikation von vielen Bürgern als eher nachteilig für das
> Gesamtprojekt Energiewende wahrgenommen wird.
>
> 150 PR-Profis nahmen teil
> Das Institut für Sozialwissenschaften der Heinrich-Heine-Universität
> Düsseldorf befragte Ende Januar — in Kooperation mit der Fachgruppe
> Energie des Bundesverbands Deutscher Pressesprecher und der Kölner
> Agentur K1 — rund 500 Kommunikationsexperten über die strategische
> Kommunikation zur Energiewende. An der anonymisierten Online-Befragung
> unter Leitung von Prof. Ulrich Rosar nahmen rund 150 PR-Profis aus
> Unternehmen, Institutionen, Stadtwerken, NGOs und Verbänden teil.
>
> Intensive Kommunikation — schlechte Qualität
>
> Die Intensität der Kommunikation zur Energiewende stufen über 70 Prozent
> der befragten Profis als hoch oder sehr hoch ein. Allerdings, so ihre
> Einschätzung, lasse die Qualität noch zu wünschen übrig: Fast 60 Prozent
> bewerten die Qualität als gering bis sehr gering — gefragt war an
> dieser Stelle nach der Relevanz der Beiträge, der Glaubwürdigkeit der
> Beteiligten, der Einbringung unterschiedlicher Standpunkte oder der
> verständlichen Darstellung komplexer Zusammenhänge. Immerhin: 90 Prozent
> der Befragten glauben, Kommunikation könne mithelfen, dass die
> Energiewende von allen gesellschaftlichen Schichten getragen werde.
>
> Keine Vorreiterrolle für NGO’s
>
> Auf die Frage, wer in der Kommunikation mit der Bevölkerung zukünftig
> die Vorreiterrolle übernehmen solle, nennen die PR-Profis Politik,
> Wirtschaft und regionale Versorger. In der aktuellen öffentlichen
> Diskussion werden aber auch Umwelt- und Naturschutz- sowie
> Verbraucherschutzorganisationen wahrgenommen. Nach dem Bundesministerium
> für Umwelt, Naturschutz und Reaktorsicherheit und den Energiekonzernen
> werden sie als nächste genannt.
>
> Pressearbeit ist das wichtigste Instrument
>
> Befragt nach zusätzlichem Personal und Budgets zeigen sich die
> Kommunikationsmanager wenig optimistisch: Gut die Hälfte der Befragten
> weiß jetzt schon, dass kein zusätzliches Budget bereitsteht, zwei
> Drittel bestätigen, dass kein zusätzliches Personal zum Einsatz kommt.
> Klarheit auch bei der Frage, welche Instrumente die Experten bei der
> Kommunikation zur Energiewende für wichtig erachten. Hier rangiert
> Pressearbeit mit weitem Abstand vor Personaler Kommunikation und Public
> Affairs. Als weniger wichtig für das eigene Unternehmen werden Social
> Media und TV/Radio eingestuft — für den gesamten Prozess der
> Energiewende wird Fernsehen und Radio hingegen eine hohe Bedeutung
> beigemessen.
>
> Politiker kommunizieren nicht professionell
>
> Bei den handelnden Personen ergibt sich eine durchgängige Diskrepanz
> zwischen der Wahrnehmung in der öffentlichen Diskussion und der
> Professionalität der Beiträge. So werden die Politiker Altmaier, Rösler,
> Merkel, Oettinger und Trittin zwar am meisten wahrgenommen,
> professionelles Auftreten attestiert man aber allenfalls dem
> Fraktionschef der Grünen Jürgen Trittin und dem Bundesumweltminister
> Peter Altmaier. Bei den Verbänden ragt besonders Hildegard Müller
> heraus. Die Hauptgeschäftsführerin des Bundesverbands der Energie- und
> Wasserwirtschaft (BDEW) erhält in der Bewertung der Professionalität den
> höchsten Wert aller abgefragten Persönlichkeiten.
>
> Die Kölner PR-Agentur hat die Studie "Kommunikation zur Energiewende"
> initiiert und in Zusammenarbeit mit dem Institut für
> Sozialwissenschaften der Heinrich-Heine-Universität Düsseldorf und der
> Fachgruppe Energie des Bundesverbandes deutscher Pressesprecher e. V.
> Anfang 2013 durchgeführt. Die Ergebnisse wurden am 26. März im
> Quadriga-Forum präsentiert. Kommunikationsexperten aus der
> Energiebranche diskutierten die Ergebnisse anschließend auf dem Podium.
> Sowohl eine Management Summary mit den wichtigsten Ergebnissen als auch
> die vollständigen Untersuchungsergebnisse können hier bestellt werden.
>
> "Aktuell trägt Kommunikation nicht zur Akzeptanz der Energiewende bei"
> Statement von Gunter Ortlieb, Agentur K1
>
> Die Ergebnisse unserer Umfrage zur "Kommunikation zur Energiewende" sind
> da — und auf den ersten Blick überraschen sie. Fehlende Qualität,
> schlecht informierte Bürger, wenig professionelle Hauptdarsteller. Man
> kann, man muss zu dem Ergebnis kommen: Aktuell trägt die Kommunikation
> nicht zur Akzeptanz der Energiewende bei.
>
> Bei näherem Betrachten verwundern die Ergebnisse nicht. Zu komplex ist
> das Thema Energiewende, zu kompliziert und vor allem: Es ist nicht
> kohärent, nichts hängt mit dem anderen zusammen. Wenn hier über
> Pumpspeicherkraftwerke, dort über Netzstudien, da über
> Hochspannungsgleichstromübertragung und nebenan über Smart Meter
> gesprochen wird, dann käme man nicht auf die Idee, dass über jedem
> dieser Teilthemen das Jahrhundertprojekt Energiewende als Junktim steht.
>
> Unter Kommunikationsaspekten bringt diese Konstellation zweierlei
> Konsequenzen mit sich:
>
> 1. Es fällt derzeit nicht schwer, alle paar Tage eine neue (Themen-)Sau
> durchs Dorf zu treiben. Dementsprechend oft wird das Gatter geöffnet…
>
> 2. Statements werden mehr als genug mit der Zielsetzung ausgearbeitet,
> dass sie möglichst lange unwidersprochen bleiben.
>
> So weit, so schlecht. Denn bei einem so komplizierten Thema wie der
> Energiewende wäre es angebracht, weniger oft den Weg über die
> Öffentlichkeit zu suchen und sich stattdessen untereinander
> auszutauschen. Hilfreich könnte es auch sein, wenn man das
> Agenda-Setting weniger oft politisch motiviert betriebe, was nämlich zur
> Folge hat, dass klassisch Statement-orientiert kommuniziert wird.
> Stattdessen dürfen die Kommunikatoren häufiger mal den Erkläronkel geben
> und Themen behandeln, die kommunizierbar, sprich erklärbar sind.
>
> Und wie macht man das? Durch Pressearbeit, so eines der Ergebnisse
> unserer Untersuchung. Aber vielleicht versucht man es auch mal mit
> guter, alter PR! Konzeptionell, im Dialog, um Vertrauen bemüht, mehr auf
> Qualität als auf Quantität setzend und das Positive betonend.
> Kommunikations-Profis der deutschen Energiebranche: Macht das so!
> Spätestens im nächsten Frühjahr fragen wir wieder nach.
>

150 Jahre Periodensystem der Elemente

Am 29. Januar 2019 eröffnet die UNESCO das
Internationale Jahr des Periodensystems, dessen erste Publikation sich
nun zum 150. Mal jährt. Die typische Darstellungsform der chemischen
Elemente ist vielen aus dem Schulunterricht bekannt: Das System
„sortiert“ Elemente nach ihren chemischen Eigenschaften in Gruppen. Nur
so lassen sich chemische Reaktionen kalkulieren – ohne diese Grundlage
gäbe es heute keine systematische Chemie und Materialforschung.

Als einer der Väter des Periodensystems der
Elemente, kurz PSE, gilt Lothar Meyer, der von 1868 bis 1877 an einer
der Vorgängerinstitutionen des KIT, dem Polytechnikum Karlsruhe,
forschte.

Bis heute ist das PSE aus den Naturwissenschaften
nicht wegzudenken. „Die Erklärung des Aufbaus des Periodensystems und
damit verbunden des Aufbaus von Atomen war ein wichtiges Ziel der
Quantenphysiker“, erläutert der Chemiker Professor Manfred Kappes vom
KIT. „Das Periodensystem hat maßgeblich zur Entwicklung der
Quantenmechanik beigetragen und dieser theoretische Ansatz wird
heutzutage auch in der Materialforschung genutzt.“ Denn mit der
Quantenmechanik lassen sich die elektronischen Strukturen von Atomen und
Molekülen detailliert beschreiben und die Auswirkungen auf ihre
physikalischen Eigenschaften und chemische Reaktionsfähigkeit
modellieren. Diese Berechnungen sind die Arbeitsgrundlage der
Materialwissenschaftler. 

„Das Periodensystem, das viele von uns kennen,
organisiert und sortiert die chemischen Elemente nach ihren
Eigenschaften“, erklärt der Chemiker und Materialforscher Manfred
Wilhelm vom KIT. „Daraus lässt sich ablesen, wie und ob die Elemente mit
anderen Elementen reagieren, um so eine Vielzahl an neuen Molekülen und
Verbindungen zu erzeugen.“ Das PSE ist somit das Rüstzeug, um die
Zusammenhänge bei chemischen Reaktionen zu verstehen und ist in der
Materialforschung essenziell.   

Im Jahr 1869 erstellten – unabhängig voneinander –
der russische Chemiker Dimitri Mendelejew und der Deutsche Lothar Meyer
das PSE als Ordnungssystem für damals bekannte Elemente.

„Die Aufstellung des Systems war eine Leistung, die
auf der Bildung eines einheitlichen Atombegriffs und einer
einheitlichen Nomenklatur der chemischen Elemente aufbaute“, erläutert
Dr. Klaus Nippert, Leiter des KIT-Archivs. „In diesen Punkten war die
Fachwelt um die Mitte des 19. Jahrhunderts noch nicht zu allgemein
anerkannten Übereinkünften gelangt“. Aus diesem Grund fand 1860 in
Karlsruhe der erste internationale Chemikerkongress statt, an dem auch
Lothar Meyer teilnahm. Einen ersten Entwurf des Periodensystems
veröffentlichte er bereits 1864, im Jahr 1868 übernahm er den Lehrstuhl
für Chemie in Karlsruhe.

Jüngste Ergänzung im Periodensystem ist das Element
Oganesson mit einer Ordnungszahl von 118 und einer Halbwertszeit von
0,89 Millisekunden. Das PSE wächst stetig, neue Elemente werden an
Schwerionenbeschleunigern entdeckt. Das Element mit der Ordnungszahl 1
ist übrigens – für alle, die sich nicht mehr an der Chemieunterricht
erinnern – der Wasserstoff.

Design-Enzyme“ revolutionieren Waschmittel

pte20160915004 Forschung/Technologie, Produkte/Innovationen

"Design-Enzyme" revolutionieren Waschmittel

Effiziente und kostengünstige Methode zur Herstellung entwickelt

Waschmittel: Lassen sich bald günstiger herstellen (Foto: pixelio.de, siepmannH)
Waschmittel: Lassen sich bald günstiger herstellen (Foto: pixelio.de, siepmannH)

Leipzig (pte004/15.09.2016/06:10) –

Forscher der Universität Leipzig http://uni-leipzig.de haben eine effiziente und kostengünstige Methode zur Herstellung
maßgeschneiderter Enzyme entwickelt, die für die chemische und die
Waschmittelindustrie sowie andere Branchen unerlässlich sind. Dabei
entstehen speziell designte Enzyme auf einem Biochip mit 96 Elektroden.
Diese lassen sich bei jeder klassischen chemischen Synthese als
natürliche Katalysatoren nutzen.

Kein Ko-Faktor zur Aktivierung

Bei dem komplizierten Verfahren werden Mikroelektroden
auf einer Biochip-Platte und ein darauf aufgebrachtes Enzym unter Strom
gesetzt. Das Enzym und die Mikroelektroden sind so optimiert, dass
dadurch die Elektronen direkt auf das Enzym übertragen werden können.
Dadurch wird das Enzym aktiviert und ist in der Lage, eine chemische
Reaktion zu katalysieren. Diese derart optimierten "Design-Enzyme" sind
beispielsweise eine wichtige Grundlage für die Herstellung von
Waschmitteln.

"Ziel ist es, eine chemische Reaktion zu ermöglichen –
ohne den teuren Ko-Faktor zur Aktivierung des Enzyms. Das ist uns jetzt
gelungen", sagt Forscherin Andrea Robitzki. Da der Biochip über 96
Elektroden verfügt, können bis zu 96 verschiedene Enzyme gleichzeitig
mit verschiedenen Substanzen in Verbindung gebracht werden. So können
die Wissenschaftler viel einfacher und schneller als bisher überprüfen,
welches Enzym sich am besten beispielsweise für die
Waschmittelherstellung eignet, etwa die Reinigungskraft verbessert.

Nutzung im industriellen Maßstab

Noch befindet sich der Prototyp aus Robitzkis
Arbeitsgruppe in der Entwicklung. Der entscheidende Schritt ist jedoch
geschafft. Ziel ist eine industrielle Nutzung dieser maßgeschneiderten
Enzyme. "Dafür haben wir jetzt die Grundlage geschaffen", ergänzt
Biochemiker Heinz-Georg Jahnke, der auch Ko-Autor des im Fachmagazin
"Biosensors and Bioelectronics" erschienenen Papers ist. Die Leipziger
Forscher denken, dass ihr Prototyp in zwei bis drei Jahren im großen
Maßstab für die industrielle Katalyse einsetzbar sein wird.

Luftfahrt will mit Flugzeug-Taxi Milliarden sparen

Luftfahrt will mit Flugzeug-Taxi Milliarden sparen

Airbus und Israel Aerospace bauen spezielles Schleppfahrzeug

Reges Treiben:
Reges Treiben: "Taxibot" soll Sprit sparen (Foto: pixelio.de, Karsten Schneider)

Werbung

Hamburg (pte019/19.07.2012/12:30) – Der Flugzeughersteller und EADS-Ableger Airbus http://airbus.com fertigt gemeinsam mit dem größten israelischen Luftfahrtunternehmen Israel Aerospace Industries (IAI) http://www.iai.co.il ein spezielles Flugzeug-Taxi. Dieses soll die Maschinen vom Flugsteig
direkt zur Landebahn und retour ziehen. Die Triebwerke müssen somit erst
unmittelbar vor dem Start eingeschaltet und können direkt nach der
Landung abgedreht werden. Für die Fluggesellschaften eine erfreuliche
Nachricht angesichts der stetig steigenden Energiekosten. Die Branche
erhofft sich dadurch Milliardeneinsparungen.

Alle profitieren

"Von dieser Entwicklung profitieren alle Beteiligten. Treibstoff- und
Kerosinkosten werden gespart, zusätzliche Arbeitsplätze geschaffen, die
Umwelt geschont und die Lärmbelästigung der Anrainer aufgrund weniger
Rollverkehr durch Triebwerke reduziert", erklärt Luftfahrtexperte Cord
Schellenberg http://luftfahrtexperte.de im Gespräch mit pressetext.

Für die Realisierung dieses Vorhabens fehlte nur mehr das "Ok" der
Wettbewerbsaufsicht der EU. Diese hat nun nach eingehender Prüfung
grünes Licht gegeben. Das heißt, die Fertigung des innovativen
Flugzeugschleppers kann in Serie gehen und vertrieben werden. Airbus und
IAI nennen ihn "Taxibot". Dieses halbautomatische Taxi hat einen
Elektro-Diesel-Hybridantrieb und ist in der Lage, sämtliche Airbus- und
Boeing-Modelle von und zur Startbahn zu schleppen. Mittels Sensoren,
einer GPS-Steuerung und Geschwindigkeitsregelung wird das Fahrzeug dabei
direkt vom Piloten über die Cockpit-Lenkung manövriert.

Anrollen kostet Geld

Es wird geschätzt, dass das durchschnittliche 17-minütige Anrollen einer
Boeing 747 bis zur Landebahn rund 1.250 Liter Treibstoff verschlingt.
Der Schlepper benötigt dafür lediglich 25 bis 30 Liter Treibstoff.
"Diese Geschäftsidee ist sowohl ökonomisch als auch ökologisch sinnvoll
und ein guter Weg, um Kosten zu sparen", unterstreicht Schellenberg die
Wichtigkeit einer dringend benötigten Entlastung der Luftfahrtkonzerne.

Die Flughafenausrüstergruppe TLD http://tld-gse.com, die von den beiden Konzernen den Auftrag für die Fertigung erhalten
haben, glaubt an ein enormes Einsparungspotential. Die Kosten aus
Kerosinverbrauch, Beschädigung und Abnutzung der Triebwerke sowie aus
Umweltsteuern könnten in der gesamten Branche jährlich von 8,7 Mrd. auf
2,9 Mrd. Dollar reduziert werden. Weltweit könne man damit rund 20 Mio.
CO2-Emissionen einsparen, so heißt es.

Amerikaner mit erster Bestellung

Auch die USA haben bereits ihr Interesse an dem Schlepper bekundet. Die
dort ansässige Finanzierungsgesellschaft Bankers Capital Transportation
Leasing hat sich mit IAI schon auf einen Kauf in der Höhe von 97 Mio.
Dollar verständigt. Nach ersten Testläufen im Sommer 2011 sollen nun zu
Beginn des kommenden Jahres drei Taxibot-Schlepper für
Kurzstreckenflugzeuge in normaler operativer Umgebung am Frankfurter
Flughafen zum Einsatz kommen. Die Lufthansa Technik-Tochter Leos ist für
die Abwicklung zuständig.

Kunststoff mit ungeahnten Eigenschaften

pte20190109018 Forschung/Technologie, Produkte/Innovationen

Polymer aus Wien revolutioniert die Medizin

PPVs bestehen laut TU-Forschern aus einer nützlichen langen, festen Kohlenwasserstoff-Struktur

Hochspezialisierte S-PPV-Polymere in leuchtenden Farben (Foto: tuwien.at)
Hochspezialisierte S-PPV-Polymere in leuchtenden Farben (Foto: tuwien.at)

Wien (pte018/09.01.2019/10:30) – Forscher der Technischen Universität Wien (TU Wien) http://tuwien.at haben eine neue chemische Synthesemethode zur Herstellung komplexer und
in der Industrie breit anwendbarer S-PPV-Polymere patentieren lassen.
Diese spezielle Sorte von Polymeren bietet sich für unterschiedlichste
Anwendungen an, von Solarzellen bis zur Medizin – aber ihre Herstellung
war bisher kaum möglich.

Wunderbare Eigenschaften

"PPVs sind Polymere mit technologisch wunderbaren Eigenschaften", sagt
Florian Glöcklhofer vom Institut für Angewandte Synthesechemie der TU
Wien. "Sie leiten elektrischen Strom und sie interagieren mit Licht auf
eine Weise, die sie für Solarzellen oder LEDs hochinteressant macht."
Sie bestehen aus einer langen, festen Kohlenwasserstoff-Struktur, an der
bestimmte Seitengruppen angehängt sind. Durch die Wahl
unterschiedlicher Seitengruppen kann man die elektronischen
Eigenschaften des Materials einstellen.

Bisher wurden PPVs verwendet, deren Seitengruppen über ein
Sauerstoffatom mit dem Rest des Polymers verbunden sind – sogenannte
O-PPVs. "Wenn es gelingt, diese Sauerstoff-Seitengruppen durch
Schwefel-Seitengruppen zu ersetzen, dann entsteht ein neues Polymer, ein
S-PPV, mit deutlich verbesserten Eigenschaften. Wir wussten, dass das
zu einem besseren Transport elektrischer Ladung durch das Molekül führen
kann und dass die Stabilität dadurch verbessert wird", so Glöcklhofer.
Als er beschloss, solche S-PPVs herzustellen, wurde ihm von Kollegen
zunächst davon abgeraten. "Es hieß, das sei zu schwierig", so der
Forscher.

Nützliche Mikrowellenstrahlung

Mithilfe von Mikrowellenstrahlung wurden passende Monomere hergestellt.
Sie wurden polymerisiert und an den Seitengruppen modifiziert. Das
funktioniert gut und die Reaktion läuft binnen Sekunden ab. Die Farbe
ändert sich zudem. Laut Glöcklhofer kommt das neue Syntheseverfahren mit
kostengünstigen Ausgangsmaterialien aus. Palladium-Katalysatoren oder
ähnliche teure Zwischenschritte entfallen. Auch sei die Methode auf
industrielle Mengen skalierbar und das Verfahren sei gut reproduzierbar
und liefere ein Produkt, das nicht nur verbesserte elektronische
Eigenschaften, sondern auch eine höhere Stabilität aufweist.

Tropfen werden zu Mikroskop- und Handy-Linsen

Tropfen werden zu Mikroskop- und Handy-Linsen
Revolutionäres Hightech-Verfahren macht Herstellung extrem billig

Canberra (pte004/25.04.2014/06:15) – Wissenschaftler der Australian National University http://anu.edu.au haben eine neue und sehr kostengünstige Technik entwickelt, um optische Linsen für Mikroskope, Smartphones und andere Anwendungen herzustellen. Dabei nutzen sie die Tatsache aus, dass Tropfen aus klaren Flüssigkeiten das Licht bündeln können. Bei der Methode fertigen die Forscher Linsen mit verschiedener Brennweite, indem sie Tropfen eines gel-ähnlichen Materials hängen und aushärten lassen. Details stehen im Journal Biomedical Optics Express.

Formung durch Gravitation

"Ich bin wirklich davon begeistert, dass es eine Linsenherstellungs-Technologie ermöglicht", zitiert phys.org Steve Lee von der Australian National University. Konventionelle Linsen werden normalerweise hergestellt, indem flache Glasscheiben geschliffen und poliert werden, um sie in eine besonders gekrümmte Form zu bringen. Bei anderen Verfahren kommen gel-ähnliche Materialien und Gussformen zum Einsatz.

All das braucht man bei der neuen Herstellungsmethode nicht mehr: "Was ich gemacht habe, ist, die Krümmung, die ein simpler Tropfen mit Hilfe der Gravitation erhält, fein abzustimmen, ohne irgendwelche Gussformen", so Lee. Obwohl bereits seit langem bekannt sei, dass ein Tropfen wie eine Linse wirken kann, habe nie jemand versucht herauszufinden, wie gut eine derartige Linsenwirkung wirklich ist. Jetzt habe sein Team ein Verfahren entwickelt, welches die Grenzen des Konzepts austestet.

Anwendung bei Smartphones

Nötig sind nur ein Ofen, ein Glas-Objektträger für Mikroskope und gel-ähnliches Silizium namens Polydimethylsiloxan (PDMS). Erst muss man eine kleine Menge von PDMS auf das Glasplättchen tropfen. Dann wird das Material auf 70 Grad erhitzt, um es auszuhärten, so dass es eine Basis bildet. Sodann gibt man einen weiteren Klecks auf diese Basis und dreht das Glasplättchen um. Die Gravitation wird den neuen Tropfen zu einer Parabol-Form anziehen. Um die Linse fest werden zu lassen, steckt man das Ganze wieder in den Ofen.

Fast wie ein Kochrezept zum Selberbacken: "Es ist ein kostengünstiges und einfaches Rezept zur Erstellung von Linsen", erklärt Lee. Die Forscher haben bereits Linsen mit einer 160-fachen Vergrößerungskraft erstellt. Außerdem haben sie ein Smartphone mit einer derartigen Linse ausgestattet, um so ein Haut-Mikroskop zu erhalten, womit zum Beispiel Melanome erkannt werden können. Normalerweise kosten diese Mikroskope über 350 Euro, die Handy-Version dagegen nur knapp 1,50 Euro.

Robotermuskel stärker als der Mensch

pte20140116012 Produkte/Innovationen, Forschung/Technologie

Robotermuskel 1.000 Mal stärker als der Mensch

Forscher erzielen "Terminator"-Durchbruch mithilfe von Vanadiumdioxid

(pte012/16.01.2014/11:15) – Techniker der University of California http://universityofcalifornia.edu haben in Kooperation mit dem Lawrence Berkeley National Laboratory http://lbl.gov einen Robotermuskel entwickelt, der 1.000 Mal stärker als der eines
Menschen ist. Das Team erreichte diesen Durchbruch durch Verwendung von
Vanadiumdioxid. Der künstliche Muskel kann Objekte katapultieren, die 50
Mal schwerer als er selbst sind. Das funktioniert über eine Distanz,
die fünf Mal länger als er selbst ist – und zwar innerhalb von 60
Millisekunden. Das ist schneller als ein Blinzeln mit den Augen.

Gleichzeitig Isolator und Leiter

Vanadiumdioxid ist schon lange ein Star in der Welt der Materialien,
anerkannt für seine Fähigkeit, die Größe, Form und physische
Eigenschaften ändern zu können. Jetzt zählt auch noch Muskelkraft zu
seinen herausragenden Attributen. Was Vanadiumdioxid besonders dafür
prädestiniert: Es ist eines der wenigen Materialien, das gleichzeitig
isoliert und leitet. Bei niedrigen Temperaturen fungiert es als ein
Nichtleiter, bei 67 Grad Celsius hingegen wird das Material prompt zu
einem Leiter.

Zudem kommt es zu einer temperaturgesteuerten strukturellen Umwandlung
des Vanadiumdioxid-Kristalls, wenn es erwärmt wird. Das führt dazu, dass
es in einer Dimension kontrahiert, während es in den anderen beiden
Dimensionen expandiert. All das macht Vanadiumdioxid zum perfekten
Material, um künstliche Muskeln zu erzeugen. Laut dem Report,
veröffentlicht im Journal Advanced Materials, kann die künstliche
Muskelvorrichtung auch mit einem Sensor verbunden werden, der dann ein
Objekt wahrnimmt und daraufhin die Form des Muskels ändert.

Simulation neuromuskulärer Systeme

Die aktuellen Forschungsergebnisse verdeutlichen das Potenzial, komplexe
Systeme aus Vanadiumdioxid-Muskeln zu schaffen. "Multiple Mikro-Muskeln
können in einem mikro-robotischen System zusammengefügt werden und ein
aktives neuromuskulares System simulieren", erklärt Junqiao Wu, Leiter
des Forschungsprojekts. "Damit können lebende Körper simuliert werden,
wo Neuronen Stimuli fühlen und an die Muskeln weiterleiten, die sich
dann bewegen."

1938 – Entdeckung der Kernspaltung und deren Folgen

80 Jahre nukleare Kernspaltung – Erklärung der NaturwissenschaftlerInnen-Initiative

„[…]
Aufgrund ihrer Dichte und dem starken Energieaustausch ist zu erwarten,
dass sich die Teilchen in einem schweren Atomkern in einer kollektiven
Weise bewegen, vergleichbar mit der Bewegung eines Flüssigkeitstropfens.
Wird diese Bewegung durch Energiezufuhr ausreichend stark angeregt,
könnte sich ein solcher Tropfen in zwei kleinere Tropfen trennen. […] Es
erscheint daher möglich, dass der Uran-Kern in seiner Form instabil
ist. Er könnte sich daher nach der Aufnahme eines Neutrons in zwei Kerne
von etwa gleicher Größe teilen. Diese beiden Kerne werden sich
gegenseitig abstoßen und sollten, ausgehend von ihrem Kernradius und
ihrer Ladung, insgesamt eine kinetische Energie von ca. 200 MeV
entwickeln.” (Lise Meitner/Otto Frisch 1939, Nature, No. 3615, S. 239)

Mit
diesen Worten lieferten Lise Meitner und Otto Frisch 1939 aus dem Exil
die erste plausible theoretische Begründung für die revolutionäre
Entdeckung der Kernspaltung am 17. Dezember 1938 durch Otto Hahn und
Fritz Straßmann in Berlin. Revolutionär nicht nur, weil damit das
Atomzeitalter der Menschheit anbrach mit allen seinen Folgen. Vielmehr
widerlegte das Experiment die damals gängige Annahme des á
tomos,
der unteilbaren kleinsten Bausteine der Materie. Bisher war es gängige
Lehrmeinung gewesen, dass der Beschuss eines Atomkerns mit Neutronen
sogenannte Transurane mit höherer Masse hervorbrachte. Der italienische
Kernphysiker Enrico Fermi hatte bereits 1934 mit dieser Art von
Experimenten begonnen. Hahn und Straßmann konnten mit Hilfe
verschiedener Verfahren nachweisen, dass es sich jedoch um radioaktive
Bariumisotope handelt, die eine geringere Masse als Uran aufweisen. Mit
dem experimentellen Nachweis und der theoretischen Erklärung mit Hilfe
des Tropfen-Modells durch Meitner und Frisch war daher eine
kopernikanische Wende im Verständnis der Atome eingetreten, die auch in
ihren – im Sinne des Wortes – gewaltigen Folgen schon früh von
WissenschaftlerInnen antizipiert wurden.

Mit
der Entdeckung der Freisetzung weiterer Neutronen im Spaltprozess wurde
rasch deutlich, dass eine Kettenreaktion möglich ist, die große Mengen
an Energie freisetzt. Ein Mechanismus, der für den Einsatz in einer
Bombe nutzbar gemacht werden könnte. Zunächst fand die Idee zur zivilen
Energieerzeugung in der Wissenschaft weitestgehende Zustimmung. Unter
den Umständen des Zweiten Weltkriegs jedoch stand die Möglichkeit einer
Atombombe im Fokus des Interesses von Entscheidungsträgern. Insbesondere
die Furcht vor der Entwicklung einer „Deutschen Bombe“ trieb auch
Wissenschaftler wie Albert Einstein um. Auf Drängen der emigrierten
ungarischen Physiker in den USA, Le
ó Szilárd,
Eugene Wigner und Edward Teller, verfasste Einstein einen Brief an
Präsident Franklin D. Roosevelt. Darin enthalten war der Hinweis auf die
Möglichkeit der Entwicklung einer amerikanischen Atombombe und die
Empfehlung für eine Ausweitung der Mittel für das bisher bescheidene
nukleare Forschungsprogramm der USA. Nach der theoretischen Begründung
wurde ab 1942 das Manhatten-Projekt zum Bau einer Bombe
lanciert. Die im Sommer 1945 fertig gestellten Atomwaffen wurden bewusst
gegen Japan und seine Zivilbevölkerung eingesetzt – mit verheerenden
Folgen.

Was
trieb die Wissenschaftler an, bei diesem Projekt mitzuarbeiten? Lise
Meitner selbst verweigerte sich jeder Forschung für eine alliierte
Atombombe. Eugene Wigner beschrieb die Hoffnung, mit der Entwicklung der
Bombe dem grausamen Zweiten Weltkrieg ein Ende zu bereiten. Doch
bereits in dieser Zeit wurde die Überlegung diskutiert, dass durch ein
Gleichgewicht des Schreckens zwischen den Atommächten nicht nur der
Einsatz von Atomwaffen verhindert, sondern automatisch auch ein Ende
jeglicher Kriege erreicht werden könne. Beide Hoffnungen blieben
trügerisch, wie die Zerstörung von Hiroshima und Nagasaki, mehrere
Beinahe-Atomwaffeneinsätze und zahlreiche Kriege der folgenden
Jahrzehnte zeigen sollten.

In
der Rückschau schreibt der Physiker Victor Weisskopf, einer der
jüngeren Emigranten, der von Beginn an in Los Alamos an dem
Manhatten-Projekt arbeitete, in seiner Autobiographie: „Heute bin ich
mir nicht ganz sicher, ob mein Entschluß, mich an diesem ungeheuren –
und ungeheuerlichen – Vorhaben zu beteiligen, allein auf der Befürchtung
beruhte, die Nazis würden uns zuvorkommen. Es war vielleicht ganz
einfach der Drang, an der bedeutsamen Arbeit teilzuhaben, die meine
Freunde und Kollegen taten. Sicherlich spielte auch ein Gefühl des
Stolzes mit, an einem einzigartigen, sensationellen Unternehmen
mitzuwirken. Zudem bot es Gelegenheit, der Welt zu zeigen, wie
kraftvoll, einflußreich und pragmatisch die esoterische Wissenschaft der
Kernphysik sein konnte.“ In der Zeit nach 1945 war es die Verantwortung
für die Verwendung ihrer Forschung, die viele Wissenschaftler in der
Folge beschäftigte. Ebenso wie die Gewissheit, beteiligt zu sein, an der
Produktion und dem Einsatz von Waffen, und dem Wettrüsten, das den
Kalten Krieg prägte.

Einige
von ihnen haben Wege gefunden, ihre Position als Experten zu nutzen, um
Orientierungen zu geben für die öffentliche Diskussion, die Ausrichtung
der Forschung und politische Richtungsentscheidungen. Beispiele für
dieses wissenschaftlich-demokratische Selbstverständnis sind das
Russell-Einstein-Manifest, die Mainauer Erklärung, der Appell der
Göttinger 18. Ihnen gemeinsam ist die Einsicht in die Notwendigkeit, die
eigene Position, das Wissen und die Fähigkeiten für die Förderung von
Frieden und Verantwortung – und in diesem Falle – gegen nukleare
Aufrüstung einzusetzen.

Mit
der einseitigen Kündigung des INF-Vertrags durch den Präsidenten der
USA steht die Weltgemeinschaft heute an einem historischen Punkt, an dem
der Imperativ der atomaren Abrüstung in Frage steht. Doch in einer
technologiebasierten Welt sind es die NaturwissenschaftlerInnen und
IngenieurInnen, denen Verantwortung in immer neuen Bereichen zukommt.
Der Nutzen von Künstlicher Intelligenz bei der Automatisierung der
Kriegsführung, die kaum absehbaren Folgen von Eingriffen in das
(menschliche) Genom, die Konsequenzen der computergestützten
Verarbeitung großer Datenmengen für die Unverletzlichkeit der
Privatsphäre aller sind nur einige Beispiele für aktuelle
Herausforderungen, bei denen WissenschaftlerInnen Verantwortung
übernehmen können. Das Vorsorgeprinzip (Precautionary Principle), der
Bericht „Late lessons from early warnings“ der Europäischen
Umweltagentur und nicht zuletzt die Rolle der WissenschaftlerInnen in
der Geschichte der Kernspaltung sind Orientierungspunkte, die wir heute
nutzen können, um unsere Verantwortung wahrzunehmen. Dazu gehört auch,
dass wissenschaftliche Arbeitsbedingungen Reflexionsprozesse
ermöglichen, die verantwortungsbewusste Forschung fördern.

Warnendes
Beispiel sind die Verstrickungen der deutschen Physiker mit dem
NS-Regime. Für NatWiss ist dies die Bestätigung, dass Verantwortung und
Wissenschaft immer wieder neu und zusammen gedacht wie auch praktiziert
werden müssen. Besonders dringlich ist die Bewahrung bestehender
Abkommen für nuklear Rüstungskontrolle und Abrüstung wie den INF-Vertrag
und die Durchsetzung neuer Verträge zum Verbot und Abschaffung aller
Atomwaffen.

Die
kommenden Jahre bergen zahlreiche Herausforderungen. 80 Jahre atomares
Zeitalter haben Generationen von Menschen, Umwelt und Gesellschaft
geprägt, ermöglicht, bedroht und vernichtet. Die Kenntnis dieser
Geschichte ist uns Erinnerung an die Verantwortung Einzelner und in
seiner wissenschaftlichen Faszination Antrieb unserer Forschung.