Archiv der Kategorie: Physik, Chemie, Technik

Drahtesel: Federn und federn lassen

Optimal justiert sind Federungen am Fahrrad eine feine Sache. Der pressedienst-fahrrad erklärt, was es dabei zu beachten gibt und wie die Einstellung funktioniert.

Komfort beim Radfahren steht hoch im Kurs: Die meisten Trekking-, Alltags- und Reiseräder werden mit einer Federung verkauft — Mountainbikes sowieso. Sei es, um bei schneller Geländefahrt optimale Bodenhaftung und Traktion zu erreichen; sei es, um im Stadtverkehr auch mal ein Schlagloch oder eine Bordsteinkante mitnehmen zu können. Immer wieder kommt es jedoch vor, dass die Federung nicht den gewünschten Effekt hat — man spürt die Federung gar nicht oder überfordert sie schon bei kleinsten Unebenheiten. Was ist da bloß passiert?
"Wer ein Fahrrad erwirbt, kann optimale Funktion der Federung nur erwarten, wenn Gabel und Hinterbaudämpfer von vornherein professionell auf Fahrer und Einsatzzweck abgestimmt wurden", erklärt Dirk Belling vom Federungs-Spezialisten RockShox (www.rockshox.de). Das beginnt bei der Wahl des Federwegs: Einfache Gabeln fürs Tourenrad weisen teilweise nur drei Zentimeter Einfederung auf, am Downhill-Bike können es schon mal 25 cm sein. Während mancher beim Brötchenholen schon für die Minimal-Federung auf den Bordstein dankbar ist, stellen Profi-Biker hohe Ansprüche ans Ein- und Ausfederungsverhalten ihrer Dämpfungselemente.

Kleine Kinder federn schlecht
"Wichtig ist erst einmal das Körpergewicht", erläutert Mario Moeschler vom Mountainbike-Hersteller Haibike (www.haibike.de). "Die Federung darf natürlich nicht so hart sein, dass die Kraft, die zu ihrer Aktivierung notwendig ist, größer ist als die Gewichtskraft des Fahrers." Beispiel Kinderrad: Hier kommen oft genug extrem einfache Federgabeln zum Einsatz, deren innere Reibung so groß ist, dass sie kein bisschen nachgeben — es sei denn, Papa setzt sich drauf. "Deshalb verbauen wir überhaupt keine Federgabeln", erklärt Ralf Puslat vom Kinderradhersteller Puky (www.puky.de).

Negativfederweg
Als Indikator dafür, dass die Federung richtig eingestellt ist, dient der Negativfederweg (englisch: "Sag"). Das Fahrergewicht muss die Federung um einen bestimmten Prozentsatz zusammendrücken, der je nach Fahrradtyp variiert — beim Cross-Country-Rennmountainbike sind es zehn bis 15 Prozent, beim langhubigen Downhillbike über 30 Prozent. Der Negativfederweg hat verschiedene Aufgaben: Beim Fahren durch Schlaglöcher sorgt er dafür, dass die Gabel binnen Bruchteilen einer Sekunde durch Ausfedern das Schlagloch ausgleicht, der Fahrer gleitet mit einem seichten Absacken über das Loch hinweg. Je mehr Federweg und Negativfederweg eine Gabel ausweist, desto besser wirkt dieser Effekt.
Zum anderen sorgt der "Sag" dafür, dass der Gesamtfederweg überhaupt ausgenutzt werden kann — "auf schweren Strecken durchaus so weit, dass die Federelemente auch mal durchschlagen", so Haibike-Teamfahrerin Elisabeth Brandau.

Einfache Einstellung
Um den Negativfederweg einzustellen, braucht es nur einen Zollstock und einen Kabelbinder. Am hinteren Dämpfer eines vollgefederten Fahrrades übernimmt ein auf dem Dämpferkolben sitzender O-Ring die Aufgabe des Kabelbinders. Und so wird’s gemacht: Man schiebt Kabelbinder beziehungsweise O-Ring im ausgefederten Zustand ganz nach unten, also dahin, wo das Standrohr der Gabel ins Tauchrohr beziehungsweise der Dämpferkolben in den Dämpfer gleitet. Setzt man sich nun aufs Rad, werden Kabelbinder bzw. Ring durch das Eintauchen verschoben. Steigt man ab, federt das Element wieder aus; der Weg, um den sich unsere Messfühler nach oben geschoben haben, ist der Negativfederweg. Nun muss man nur noch den Gesamtfederweg kennen, den man der Produktbeschreibung entnimmt, oder auf die oben beschriebene Weise ermitteln kann — indem man Gabel oder Dämpfer mehrfach mit vollem Gewicht einfedert. Mit Kenntnis dieser beiden Werte lässt sich der Federdruck mittels einer Dämpferpumpe jetzt passend
einstellen.
Bike-Profis wie die Haibike-Teamfahrer erwarten von ihrer Federung deutlich mehr Einstellungsmöglichkeiten; für sie ist zusätzlich die Zugstufe wichtig, mit der das Ausfederungsverhalten kontrolliert wird. Von hier an wird’s dann richtig kompliziert: Bei manchen Gabeln und Dämpfern lassen sich auch die Progression (die Veränderung der Federhärte während des Einfederns) und das Losbrechmoment einstellen. Doch um hier Unterschiede wahrzunehmen, muss man schon sehr erfahren sein.

Der Komfort zählt
"Am Alltags- und Reiserad ist der Negativfederweg ebenso wie die Federvorspannung vor allem eine Sache des individuellen Komfortbedürfnisses", erklärt Heiko Müller von riese und müller, einem führenden Hersteller voll gefederter Alltags- und Reiseräder (www.r-m.de). "Um die 25 Prozent liegt hier der Richtwert für den Negativfederweg", so der Ingenieur. "Besonders wichtig ist natürlich, ein Reiserad nach dem Beladen an das höhere Gesamtgewicht anzupassen", erklärt Müller. Kritisch sieht er die Verwendung einfachster Federgabeln an vielen Trekkingrädern. "Bei vielen Modellen gibt es nicht einmal eine funktionierende Federvorspannung, gleichzeitig ist der tatsächliche Federweg minimal und das Losbrechmoment hoch." Solche Gabeln federn mit ihren drei bis fünf Zentimetern allenfalls gröbste Stöße ab. Da sie keine Zugstufendämpfung besitzen, die das Ausfedern kontrolliert, knallen sie dabei häufig mit lautem Klacken in ihren Anschlag. Das Darmstädter Unternehmen bietet Reise- und
Stadträder ausschließlich voll gefedert und mit 26-Zoll-Laufrädern an. "Ein Hauptgrund dafür ist, dass mit dieser Rad-Größe der optimale Querschnitt aus Fahrdynamik, Geometrie und Ergonomie erreicht werden kann", erklärt Müller. Besonders durch die Produktvielfalt bei den
Mountainbikes sind Federgabeln für 26-Zoll-Räder in größerer Auswahl und besserer Qualität zu erhalten."

Stützen, die federn
Vor mehreren Jahren lagen voll gefederte Trekkingräder noch voll im Trend, doch inzwischen hat sich die Erkenntnis durchgesetzt, dass nur Spezialhersteller wie riese und müller mit durchaus hochpreisigen Produkten auf dem Markt bestehen können. Das Standard-Trekkingrad der Gegenwart weist keinen gefederten Hinterbau mehr auf, sondern ist zwecks Komfortgewinn mit einer Federsattelstütze ausgerüstet. "Wer eine Federstütze nachrüstet, sollte auf Qualität achten", rät Rolf Häcker, Entwickler beim Komponentenhersteller Humpert (www.humpert.com). Einfache Modelle würden aufgrund der hohen inneren Reibung und oftmals schlechten Lagerführung oft nicht sinnvoll funktionieren, erklärt Häcker. "Oder das Spiel der Gleitlagerung ist so groß, dass die Stütze bei jedem Pedaltritt hin und her wackelt und irgendwann verkantet." Er empfiehlt 20 Prozent Negativfederweg für die Federstütze; ideal sind Exemplare mit austauschbaren Elastomer-Einsätzen, die durch unterschiedliche Härtegrade genau
aufs Körpergewicht des Nutzers abgestimmt werden können. "Ein Modell wie die X-Act SP 9.0 stellt ihre 40 mm Federweg dann wirklich allen Nutzern zur Verfügung", so Häcker.

Zu viel Technik, das alles?
Wer dem Thema Federtechnik skeptisch gegenübersteht, kann natürlich auch auf simplere Weise Komfort gewinnen. Eine Luftfederung der besonderen Art bietet Reifenproduzent Schwalbe (www.schwalbe.com) mit dem Big Apple an, einem leicht laufenden Ballonreifen in 50 oder 60 mm Breite. "Der passt zwar nicht in jedes Rad, doch bieten zahlreiche Hersteller auf die dicken Reifen hin optimierte Modelle", erklärt Carsten Zahn von Schwalbe.
Aus gutem Grunde lege man beispielsweise beim Fahrradhersteller Utopia (www.utopia-fahrrad.de) alle Rahmen für die fetten Reifen aus, erklärt Geschäftsführer Ralf Klagges. "Kombiniert man die flexiblen Eigenschaften von hochwertigen Stahlrahmen mit den dicken Reifen, erreicht man einen Fahrkomfort, der durch geringes Systemgewicht, wenig Wartungsbedarf und hoch dynamisches Ansprechverhalten punktet." So bewege sich eine gute starre Stahlgabel horizontal bis zu vier Zentimeter, erklärt Klagges, dämpfe also frontale Schläge und solche von schräg unten, wie sie etwa durch kleine Stufen verursacht werden. "Gerade für unsere Klasse der Genuss-Reise- und -Stadträder halte ich den Ballonreifen für die ideale Federung", so Klagges weiter — "und eine einfache Luftpumpe reicht, um sie einzustellen."
Dem entgegnet Heiko Müller, dass neben dem Komfort auch fahrdynamische Aspekte beachtet werden müssten und "nur eine Vollfederung maximale Fahrsicherheit bietet. Schließlich sind Formel 1 Autos nicht gefedert, um es dem Fahrer bequem zu machen, sondern um sicher hohes Tempo zu fahren."
Für den Fachjournalisten Caspar Gebel schließt sich hier der Kreis: "Auch bei technischen Themen wie der Federung gibt es keine für alle Radler verbindliche Empfehlung. Federung und Fahrrad kann man durchaus philosophisch betrachten. Fakt bleibt aber: Ohne richtige Einstellung bleibt die beste Federung unter ihren Möglichkeiten!"

Global Data erwartet weltweit rückläufigen Wechselrichtermarkt

Global Data erwartet weltweit rückläufigen Wechselrichtermarkt


© Carl-Heinz Daxl / photon-pictures.com
25.03.2015:
Das britische Marktforschungsunternehmen Global Data rechnet damit,
dass sich das Volumen des weltweiten Marktes für
Photovoltaikwechselrichter von geschätzten 5,7 Milliarden Dollar (5,2
Milliarden Euro) im Jahr 2014 um knapp neun Prozent auf 5,2 Milliarden
Dollar (4,8 Milliarden Euro) im Jahr 2020 verringern wird. In ihrer
aktuellen Studie » Solar PV Inverter Market, Update 2015 � Segmentation,
Market Size, Competitive Landscape, and Analysis to 2020« legen die
Marktforscher dar, dass sich trotz der weiter schnell zunehmenden
verkauften Gesamtleistung in Megawatt der Umsatz der
Wechselrichterhersteller wegen rapide sinkender leistungsbezogenen
Preise verringern wird.
Global Date rechnet mit Rückgängen um 25 Prozent auf dann
durchschnittlich 13 US-Cent (12 Cent) je Watt Leistung. 2010 seien
Wechselrichter noch für durchschnittlich 48 US-Cent (44 Cent) je Watt
verkauft worden, in den folgenden vier Jahren seien die Preise um 60
Prozent gesunken. Dies entspräche allerdings immer noch gut 19 US-Cent
(17 Cent) � ein Preis, zu dem nach Erhebungen von PHOTON in vielen
Märkten nur kleine Geräte bis ungefähr zehn Kilowatt verkäuflich sind.
2014 war nach Erhebungen von Global Data die deutsche SMA Solar
Technology AG mit einem Anteil von neu bis elf Prozent Weltmarktführer,
dicht gefolgt von Sungrow (China) mit neun bis 10,5 Prozent. Der
Technologiekonzern ABB hat demnach seinen zweiten Platz aus dem Jahr
2013 mit damals rund zehn Prozent Weltmarktanteil nicht halten können
und ist auf vier bis fünf Prozent im vergangenen Jahr abgerutscht.
© PHOTON

Verlässliche Stromnetze für die Zukunft

Verlässliche Stromnetze für die Zukunft

Wissenschaftler diskutieren mit Firmen und Netzbetreibern

Am
22. und 23. November treffen sich die Partner des CoNDyNet (Collective
Nonlinear Dynamics of Complex Electricity Grids) Projektes mit Firmen
und Netzbetreibern um zu diskutieren, wie eine nachhaltige Stabilität
der Stromnetze, unter immer größer werdenden Anteilen von erneuerbaren
Energien, erreicht werden kann. Denn gerade bei Sonnen- und Windenergie
schwanken die in das Stromnetz eingespeisten Strommengen quasi im
Minuten-Takt. 

Alle Bereiche unserer Gesellschaft sind heutzutage auf eine verlässliche Stromversorgung und damit eine stabile Verteilung elektrischer Energie angewiesen. Da konventionelle Energieversorgungssysteme zentral organisiert
sind und auch weitgehend zentral kontrolliert werden, stehen sie durch
den Umbau der Stromerzeugung, hin zu einem höheren Anteil von
erneuerbaren Energien, vor großen Herausforderungen.

Erneuerbare
Energien werden meistens an vielen kleinen, oft stark verbreiteten,
Quellen erzeugt. Im Gegensatz dazu kommen konventionell erzeugte
Energien in der Regel aus Großanlagen. Zusätzlich unterliegen
gerade Sonnen- und Windenergie Schwankungen, die nur eingeschränkt vorhersagbar sind. Langfristig
benötigen wir also eine systemübergreifende Betrachtung der kollektiven
Dynamik des Stromnetzes, unter Berücksichtigung von Fluktuationen. Im
Workshop werden akademische Forscher zusammen mit Vertretern der
Industrie zusammengebracht, um Erfahrungen auszutauschen und die
Herausforderung im Detail zu besprechen.

Hersteller
wie ABB und Siemens und die Übertragungs-Netzbetreiber TenneT und
TransnetBW sowie weitere Industriepartner treffen im Rahmen des
Workshops Wissenschaftler aus ganz Deutschland. In Kooperation mit dem
Potsdam-Institut für Klimafolgenforschung, dem Max-Planck-Institut für
Dynamik und Selbstorganisation in Göttingen, der Jacobs University
Bremen und dem Forschungszentrum Jülich arbeiten Wissenschaftler des
FIAS im Verbundprojekt „CoNDyNet“ daran, grundlegende Kriterien zur
Stabilität, Ausfallsicherheit, Risiken und Marktanbindung
zukunftsfähiger Stromnetze, zu definieren. Die umfassende Versorgung
mittels erneuerbarer Energiequellen im gesamten europäischen Raum steht
dabei im Fokus.

Hierzu
entwickeln die Wissenschaftler mathematische Methoden, erweitern
Resultate der Nichtlinearen Dynamik und der Statistischen Physik,
kombinieren diese mit Modelluntersuchungen und Simulationsstudien der
Elektrotechnik und untersuchen kritische Netzzustände, Risiko-Szenarien
und Optimierungsoptionen. Schließlich ergründen sie die
Umsetzungsmöglichkeiten ihrer Ergebnisse für eine effiziente
Netzausbauplanung und robuste Netzkontrolle auch in Zusammenarbeit mit
angewandten Forschungseinrichtungen und Industriepartnern.

Weitere Informationen und Kontakt:

Kontakt:
Frankfurt Institute of Advanced Studies, Ruth-Moufang-Straße 1, 60438 Frankfurt am Main.

Europäisches Team entwickelt universelle „Sprache“ für Weltraumforschung

FP7 PROJEKT IMPEX:

Europäisches Team entwickelt universelle "Sprache" für Weltraumforschung

Graz,
8. April 2015 � Einem Konsortium aus europäischen Wissenschaftlern ist
es gelungen, eine gemeinsame Informationsdrehscheibe zu entwickeln, um
Daten aus verschiedenen Weltraummissionen vergleichbar zu machen. Eine
Aufgabe, die bislang durch unterschiedliche Datenverarbeitungsstandards
einzelner Missionen erheblich erschwert wurde. So ist es nun möglich,
Messdaten mit Daten, die aus theoretischen Modellen gewonnen wurden, zu
vergleichen � unabhängig von den verwendeten Datenprotokollen. Das neu
entwickelte System mit dem Namen IMPEx (Integrated Medium for Planetary
Exploration) hilft Wissenschaftlern, komplexe Messdaten besser zu
verstehen, Lücken in den Messungen mit Simulationsdaten aufzufüllen und
Simulationen besser mit tatsächlichen Beobachtungen zu vergleichen.
Erste Anwendungen erlauben detaillierte Vergleiche von Daten der
Weltraummissionen Venus Express (ESA) und Messenger (NASA) mit bereits
existierenden Modellen. Auch für die berühmte Rosetta-Mission werden in
naher Zukunft Vergleiche zwischen Simulations- und Messdaten möglich
sein.

Weltraummissionen sind ein bisschen wie smart phones;
es existiert eine Vielzahl an Standards für die Datenverarbeitung.
Aufgrund der enormen Komplexität von Weltraummissionen kommen bei deren
Instrumenten und Geräten meist Einzelanfertigungen zum Einsatz. Auch die
Datenerfassung und Auswertung folgt in der Regel den proprietären
Standards der jeweiligen Mission. Der Nachteil: Austausch und Vergleich
von Messdaten zwischen verschiedenen Missionen und den meist von
Dritt-Instituten entwickelten theoretischen Modellen sind praktisch
unmöglich. Doch es gibt bereits eine Anzahl an Initiativen, die
versuchen, diese Diversität zu überbrücken, indem sie Standards für
bestimmte Bereiche der Physik definieren. Das EU-Konsortium IMPEx
leistet hier einen signifikanten Beitrag im Hinblick auf modellierte
Daten durch die Erweiterung des Datenmodells SPASE (Space Physics
Archive Search and Extract). Das Projektteam konnte durch die Einführung
des IMPEx-Portals, dem Benutzer-front-end des IMPEx-Protokolls, einen
gebündelten Zugang zu einer beeindruckenden Sammlung an Funktionalitäten
und Werkzeugen bereitstellen, um die Arbeit mit verschiedensten Mess-
und Modellierungsdaten aus dem Bereich der Plasmaphysik zu ermöglichen.

WERKZEUGKISTE FÜR WELTRAUMFORSCHER

Projekt-Koordinator
und Senior-Wissenschaftler Dr. Maxim Khodachenko vom Institut für
Weltraumforschung (IWF, Graz) der Österreichischen Akademie der
Wissenschaften kommentiert diesen Erfolg folgendermaßen: "Das
IMPEx-Portal bietet Werkzeuge für die Visualisierung und Analyse von
Datensätzen verschiedener Weltraummissionen. Zusätzlich sind mehrere
Simulations-Datenbanken in das System integriert." Und in der Tat, die
Möglichkeiten des IMPEx-Portals sind beeindruckend. So bietet es Zugriff
auf eine Vielzahl an Messdaten sowie Simulationsläufen des Magnetfeldes
und der Plasmaumgebung verschiedener Monde und Kometen des
Sonnensystems, die auch Ziele mehrerer vergangener, aktueller und
zukünftiger europäischer und internationaler Weltraummissionen waren und
sind. Internetdienste (engl. web services), die vom Modellierungssektor
von IMPEx unterstützt werden, erlauben die Reproduktion der
Magnetfelder sowie der Plasmaumgebungen verschiedener Planeten.
Jederzeit abrufbar und zum Teil sogar in Echtzeit.

Ausgangspunkt
für die Datenverarbeitung im IMPEx-Portal ist das Tool CDPP-AMDA
(Automated Multi-Dataset Analysis). AMDA ermöglicht eine effektive
Verarbeitung von Daten durch Zugriff auf einfach zu benutzende
Funktionen zur Datenauswertung. Die web-basierte Applikation ist auf die
Analyse und Visualisierung von Mess- und Simulationsdaten spezialisiert
� der Schwerpunkt liegt dabei auf Weltraumplasmaphysik. Ein weiteres
Werkzeug mit Zugriff auf IMPEx ist CDPP 3DView. Mit seinen umfangreichen
Funktionen im Bereich der 3D-Visualisierung erlaubt es die Darstellung
von Raumschiff-Trajektorien und Planetenbewegungen sowie die
wissenschaftliche Repräsentation von Mess- und Simulationsdaten.
Tatsächlich sind alle IMPEx-Datenbanken auch direkt in 3DView verfügbar,
wodurch eine interaktive Kombination aus Raumschiff-Orbits und
entsprechender Messungen vor Ort möglich wird.

VENUS & MERKUR

Unlängst
lieferte 3DView bereits beeindruckende Ergebnisse, als
Observationsdaten des Magnetfeldes, gemessen im Rahmen der Venus Express
Mission, mit einem speziellen Simulationsmodell für Magnetosphären
verglichen wurden. Und in der Tat zeigt dieser Vergleich die
weitreichenden Möglichkeiten des IMPEx-Protokolls auf. Der
Projekt-Partner FMI (Finnish Meteorological Institute) entwickelte eine
Datenbank für hybride Modelle, die Simulationen der Magnetfeldumgebung
der Venus erlaubt. Einige davon wurden mithilfe des IMPEx-Portals und
seiner Tools weiter verarbeitet. So wurde ein Simulationslauf entlang
der Trajektorie des Venus Express Orbiters interpoliert, um die
Messdaten mit der Modellierung zu vergleichen. Letztlich konnten beide
Datensätze � die Messungen und die Simulation � direkt am Orbit von
Venus Express visualisiert werden. Ein ähnlicher Vergleich wurde auch
mit von Messenger gemessenen Magnetfelddaten des Merkur durchgeführt.
Mithilfe von IMPEx web services wurde eine Simulation entlang der
Trajektorie des Orbiters interpoliert und in 3DView dargestellt.

Grafische Impressionen der Funktionalität und Visualisierungsvielfalt der IMPEx Umgebung finden sich unter:
http://tinyurl.com/impex-images

Vincent
Génot, hauptverantwortlicher Wissenschaftler des IMPEx-Projekts von
CNRS/IRAP dazu: "Die Möglichkeit, komplexe Simulationen mit Messungen
direkt vor Ort in einem einzigen Analysewerkzeug zu kombinieren, ist
eine der größten Errungenschaften von IMPEx. Bald wird das System auch
Vergleiche von Messdaten der bekannten Rosetta-Mission mit Simulationen
der Umgebung des Kometen erlauben. Das wird einen großen Beitrag dazu
leisten, die Bausteine des jungen Sonnensystems besser zu verstehen. Das
leistungsfähige IMPEx-System wird die Forschung auf dem Gebiet der
Plasma- und Magnetfeldumgebungen erleichtern und weiter verbreiten, und
zwar nicht nur von "Tschury", Venus und Merkur, sondern auch von
weiteren Objekten im Sonnensystem. Von Mars zum Beispiel, von Jupiter,
Saturn und schließlich auch der Erde selbst."

Das erfolgreiche
Konsortium, das neben dem IWF und FMI auch aus den französischen
Partnern CNRS/IRAP und CNRS/LATMOS sowie dem russischen Partner SINP-MSU
besteht, ruht sich indes aber keinesfalls auf den wissenschaftlichen
Lorbeeren aus, sondern schmiedet bereits Pläne, IMPEx in die Wolken zu
heben. Tarek Al-Ubaidi, Projektmanager und technischer Experte erklärt
dazu: "Wir würden die Idee von IMPEx sehr gerne durch cloud-Ressourcen
und big-data-Dienstleistungen weiterentwickeln bzw. komplettieren. Vor
allem die Durchführung von Modellrechnungen in der cloud wäre für die
wissenschaftliche Gemeinde von großem Vorteil. Wir würden das Konzept
gerne mit einer noch flexibleren Architektur, umfassendem Zugriff auf
Archive für Messdaten und ausgefeilten Technologien zur
Datenverarbeitung und Analyse kombinieren. Wir haben diesbezüglich
bereits mehrere Projektvorschläge unterbreitet und hoffen, dass wir die
Möglichkeit erhalten, diese umzusetzen � Daumen halten!"

Weitere Informationen finden Sie auf der IMPEx-Website: http://impex-fp7.oeaw.ac.at

The
FP7-Project IMPEx (Integrated Medium for Planetary Exploration) is
supported by the European Union Grant agreement number 262863.

IMPEx core team:
Maxim Khodachenko (Coordinator), IWF, Austria
Esa Kallio (Deputy Coordinator), FMI, Finland
Vincent Génot (Project Scientist), CNRS/IRAP, France
Igor Alexeev (Work Package Leader), SINP-MSU, Russia
Tarek Al-Ubaidi (Project Manager and IT Expert) , IWF, Austria
Michel Gangloff (Work Package Leader), CNRS/IRAP, France
Walter Schmidt (Work Package Leader), FMI, Finland
Ronan Modolo (Task Leader), CNRS/LATMOS, France
Manuel Scherf (Scientific user support and validation), IWF, Austria

Mix aus schneller und konventioneller Ladung schont die Batterie

Mix aus schneller und konventioneller Ladung schont die Batterie
Störungsfreies Laden ist eine wesentliche Voraussetzung für den wirtschaftlichen Einsatz von Elektrofahrzeugen. Mit knapp 120.000 gefahrenen Kilometern hat das Projekt RheinMobil nachgewiesen, dass für die Batterieleistung eine Kombination aus schnellem und herkömmlichem Laden ideal ist: Der gesteuerte Mix ermöglicht eine hohe Auslastung der Fahrzeuge und schont die Batterie. RheinMobil ist ein gemeinsames Projekt von Michelin, Siemens, dem Karlsruher Institut für Technologie (KIT), dem Fraunhofer-Institut für System- und Innovationsforschung ISI sowie dem Mobilitätsdienstleister e-Motion Line (eML). Das Projekt ist Teil des „LivingLab BWe mobil“ und wird im Schaufenster Elektromobilität vom Bund gefördert.

Ziel von RheinMobil ist es, am Beispiel von Dienst- und Pendlerfahrten zwischen Karlsruhe und dem Elsass zu zeigen, dass bestimmte Einsatzprofile einen wirtschaftlichen Betrieb von Elektrofahrzeugen möglich machen. Dazu sind im Zuge der schrittweisen Einführung der Fahrzeuge derzeit täglich sechs siebensitzige Kleinbusse im Pendelverkehr bei Michelin sowie ein Fahrzeug der Kompaktklasse im Dienstwagenverkehr bei Siemens unterwegs. Die monatliche Fahrleistung pro Fahrzeug liegt durchschnittlich bei 3.000 Kilometern. „Seit dem Projektstart im vergangenen Frühjahr konnten wir nachweisen, dass sich konventionelle Fahrzeuge in beiden Einsatzprofilen im Alltag ersetzen lassen. Lokal haben wir so auch bereits acht Tonnen Kohlendioxid (CO2) eingespart“, sagt Dr. Olaf Wollersheim, einer der beiden RheinMobil-Projektleiter am KIT. „Außerdem haben wir in den Wintermonaten gesehen, dass Witterung und Temperaturschwankungen zwar für einen Anstieg des Energieverbrauchs sorgen, die Betriebsfähigkeit und Verfügbarkeit der Fahrzeuge aber nicht einschränken“, so Dr. Kevin Stella, der das Projekt zusammen mit Wollersheim koordiniert.

Nächster Schritt wird nun sein, die Fahrzeuge bei Michelin – an den Schichtplan angepasst – mit mehreren Pendlergruppen pro Fahrzeug noch stärker auszulasten, sodass die Fahrleistung auf mehrere hundert Kilometer pro Tag steigt. Voraussetzung dafür ist die Schnellladung, die derzeit rund 30 Minuten dauert. Für konventionelles Laden sind aktuell Stillstandzeiten von neun Stunden erforderlich. Das RheinMobil-Team will zeigen, dass E-Fahrzeuge auch bei häufiger Schnellladung technisch zuverlässig und auf Dauer wirtschaftlicher als vergleichbare Fahrzeuge mit Verbrennungsmotor sind. Bislang gab es zum Einfluss der Schnellladetechnologie auf die Batterieleistung kaum Erfahrungen oder wissenschaftliche Erkenntnisse aus dem realen Betrieb. „Die ersten 100.000 Kilometer haben uns nun ein wesentliches Ergebnis geliefert: Zwar ist die Schnellladung Voraussetzung für die hohe Auslastung, wir können aber nicht ausschließlich auf diese Technologie setzen. Der richtige Ansatz ist der gesteuerte Mix aus schneller und konventioneller Ladung. So können wir hohe Fahrzeugverfügbarkeit mit einer nachhaltigen Nutzung der Technologie in Einklang bringen“, so Stella.

Der Einsatz im Pendelverkehr hatte gezeigt, dass bei ausschließlicher Schnellladung kein Spannungsausgleich zwischen den einzelnen Batteriezellen erfolgte (passives Balancing): Die Zellen der Batterie wurden unterschiedlich stark ge- und entladen, damit hätte sich die nutzbare Kapazität der Batterie langfristig verringert. Die Lösung: Bei längeren Stillstandzeiten des Fahrzeugs – etwa über Nacht – setzt RheinMobil nun auf konventionelles Laden. „Das eröffnet zudem die Möglichkeit, das Fahrzeug mit batteriebetriebener Klimaanlage im Sommer wie Winter vor Fahrtantritt auf die gewünschte Temperatur zu kühlen oder zu heizen. So lässt sich der Energieverbrauch während der Fahrt reduzieren, da die notwendige Energie nicht aus der Batterie entzogen wird“, sagt Kevin Stella. Dabei werde der auch der Fahrzeugbetrieb für die Nutzerinnen und Nutzer komfortabler.

Im Winter direkt nach der Fahrt laden – Tipps für Nutzer

Aus den wissenschaftlichen Untersuchungen und Erfahrungen der Forschungspartner KIT und ISI sowie dem Mobilitätsdienstleister eML lassen sich weitere konkrete Ratschläge für Fahrerinnen und Fahrerableiten. Unter anderem sollten Fahrzeuge im Winter direkt nach einer Fahrt geladen werden. „Denn ist die Batterietemperatur zu niedrig, reduziert sich die Ladeleistung, um die Batterie zu schonen. Damit würde das Laden deutlich länger dauern“, erläutert Stella. Die Wissenschaftler werten zudem den spezifischen Energieverbrauch pro Strecke ständig aus und leiten die Faktoren ab, die diesen beeinflussen. So können Sie den Nutzerinnen und Nutzern auch konkrete Tipps zum Fahrverhalten geben, mit denen der Energieverbrauch gesenkt werden konnte.

Das Projekt RheinMobil ist eines von rund 40 Projekten im Schaufenster Elektromobilität Baden-Württemberg „LivingLabBWe mobil“ und wird mit knapp einer Million Euro vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) im Rahmen der Schaufensterinitiative der Bundesregierung gefördert. Die Bundesregierung hat im April 2012 vier Regionen in Deutschland als „Schaufenster Elektromobilität“ ausgewählt und fördert hier auf Beschluss des Deutschen Bundestags die Forschung und Entwicklung von alternativen Antrieben. Insgesamt stellt der Bund für das Schaufensterprogramm Fördermittel in Höhe von 180 Millionen Euro bereit. In den groß angelegten regionalen Demonstrations- und Pilotvorhaben wird Elektromobilität an der Schnittstelle von Energiesystem, Fahrzeug und Verkehrssystem erprobt.

Weitere Informationen unter www.schaufenster-elektromobilitaet.org

Schaufenster Elektromobilität „LivingLabBWe mobil“

Im baden-württembergischen Schaufenster „LivingLabBWe mobil“ erforschen mehr als 100 Partner aus Wirtschaft, Wissenschaft und öffentlicher Hand Elektromobilität in der Praxis. Die Projekte konzentrieren sich mit ihren Aktivitäten auf die Region Stuttgart und die Stadt Karlsruhe und sorgen auch international für eine große Sichtbarkeit. Das „LivingLabBWe mobil“ steht für einen systemischen Ansatz mit ineinandergreifenden Projekten, die Elektromobilität vom E-Bike über den E-PKW bis hin zum elektrischen Transporter und Plug-in-Linienbussen für jedermann erfahrbar machen. Die Projekte adressieren Fragestellungen zu Intermodalität, Flotten und gewerblichen Verkehren, Infrastruktur und Energie, Stadt- und Verkehrsplanung, Fahrzeugtechnologie, Kommunikation und Partizipation sowie Ausbildung und Qualifizierung. Koordiniert wird das „LivingLabBWe mobil“ durch die Landesagentur für Elektromobilität und Brennstoffzellentechnologie e-mobil BW GmbH und die Wirtschaftsförderung Region Stuttgart GmbH (WRS).

Weitere Informationen unter www.livinglab-bwe.de

Neuartige energiesparende Schaltkreise

Intel: 65nm Fertigungsverfahren reduziert Leckströme

Santa Clara/ Feldkirchen (pte/21.09.2005/11:06) – Intel
http://www.intel.com/ hat ein neues Prozessor-Fertigungsverfahren
entwickelt, das die Akkulaufzeit von mobilen Geräten verlängern soll.
Die 65nm-Methode zur Fertigung von Mikroprozessoren soll Chips für
mobile Plattformen mit kleinem Formfaktor herstellen. Bei welchen
Geräten die Prozessoren eingesetzt werden, wollte Intel auf Anfrage von
pressetext noch nicht bekannt geben. Möglich sei der Einsatz bei
sämtlichen mobilen Geräten vom Handy bis zum Laptop, so Intel-Sprecher
Martin Strobel. Anfang 2006 sollen die Mikroprozessoren zur Verfügung
stehen, verkauft werden sie im zweiten Quartal des nächsten Jahres.

Das High Performance 65 Nanometer-Verfahren soll gegenüber dem derzeit
üblichen 90nm-Verfahren deutliche Vorteile hinsichtlich des
Stromverbrauchs als auch der Performance aufweisen. Bei dem Verfahren
wurde eine Reihe an Modifikationen am Aufbau des Transistors
vorgenommen. Der Energieverbrauch soll reduziert werden, im dem die
drei Hauptquellen von Leckströmen, Sub-Threshold-Leakage,
Junction-Leakage und Gate-Oxid Leakage, verringert werden. Bei mobilen,
Akku-betriebenen Geräten treten selbst im Ruhezustand Leckströme auf.
"Die Verlustleistung bei den Testchips war tausendmal geringer als bei
dem bisherigen Standardverfahren", sagt Strobel gegenüber pressetext.

"Auf manchen Chips stecken über eine Milliarde Transistoren. Angesichts
dieser hohen Zahl wird deutlich, dass sich die Verbesserung der
einzelnen Transistoren zu enormen Vorteilen für den gesamten Chip
addieren", erklärt Mark Bohr, Leiter des Bereichs Prozessarchitektur
bei Intel. Durch den Einsatz des 65nm-Verfahrens bei der
Chipherstellung kann die Anzahl der Transistoren auf einem Prozessor im
Vergleich zur 90nm-Technologie verdoppelt werden. Die
Herstellungskosten fallen um etwa zwei Prozent höher aus. Die
Transistoren nach dem 65nm-Verfahren sollen die kleinsten und
leistungsstärksten CMOS (komplementäre
Metalloxid-Halbleiter)-Transistoren in der Massenproduktion sein. Sie
haben eine Gate-Länge von 35nm, die modernsten Transistoren, die in den
Pentium 4 Prozessoren verwendet werden haben eine Gate-Länge von 50nm.

Grundlagenforschung und Schlüsseltechnologien

Grundlagenforschung und Schlüsseltechnologien

Mit dem
Begriff Elektrochemie verbindet heute fast jeder Batterien und
Batterieforschung. Und in der Tat sind Elektrochemiker und
Materialforscher
zurzeit gefragte Wissenschaftler, geht es doch um das noch immer nicht
zufriedenstellend gelöste Problem der Speicherung elektrischer Energie –
man denke nur an die Speicherung von Sonnen- oder Windenergie oder an
Elektroautos. Auf der internationalen Tagung
Electrochemistry 2014, die federführend von der Fachgruppe
Elektrochemie der Gesellschaft Deutscher Chemiker (GDCh) organisiert
wird, spielen daher elektrochemische Energiespeicher eine zentrale
Rolle. Die Tagung, zu der über 400 Teilnehmer erwartet werden,
findet vom 22. bis 24. September an der Johannes Gutenberg-Universität
in Mainz statt. 

Bevor sich die Tagung der
Batterieforschung zuwendet, steht ein anderer aktueller Begriff im
Mittelpunkt zweier Plenarvorträge: Nano. Zum einen werden hier
Korrosionsprozesse im Nanometerbereich betrachtet, zum anderen
geht es um Forschung und Anwendung der Galvanotechnik in der
Halbleiterindustrie. Auch hier wird im Nanobereich
gearbeitet.

In Anbetracht der hohen
wirtschaftlichen Schäden, die durch Korrosion an Metallen und
Metalllegierungen entstehen, gehört die Forschung an diesen
elektrochemischen Vorgängen zu den ganz wichtigen Arbeitsgebieten der
Elektrochemiker. Seit man die Oberflächen korrodierender Metalle
beispielsweise mit der Rastertunnelmikroskopie, kombiniert mit
elektrochemischen Messmethoden, untersuchen kann, gelangt man über den
Einblick in die sich neu bildenden Nanostrukturen u.a. auch
zu neuen Wegen der Passivierung von Oberflächen. In der
Halbleiterindustrie werden die einzelnen Bauteile beispielsweise von
Mikroprozessoren oder Speichermedien mit Kupfer zusammengeschaltet, das
elektrolytisch abgeschieden wird. Bei den heutigen
kleinstdimensionierten
Bauteilen kann man sich leicht vorstellen, dass diese
Kupfer
verbindungen im Nanometerbereich
liegen. Sie sind häufig kürzer als 20 Nanometer. Man kann es nur als
Meisterleistung der physikalisch-chemischen Forschung und Technik
bezeichnen, dass sich solch winzige Strukturen heute fehlerfrei
herstellen lassen.

Das weitere Hauptthema der
Tagung ist die Elektrosynthese. Die Verwendung von
Stromüberangebot zur Erzeugung von
Wertprodukten hat eine aktuelle gesellschaftliche Relevanz. Der
herausragende Vorteil dieser Synthesemethodik ist die Vermeidung von
chemischen Abfällen, die sonst bei der herkömmlichen
organische
n Synthese anfallen. So werden neue Strategien in der elektroorganischen
Synthese vorgestellt, die generell als hoch effizient und auch
umweltverträglicher gelten. Diese nachhaltige Produktionsmethodik ist im
akademischen Umfeld Deutschlands fast verschwunden
und wurde an der Johannes Gutenberg-Universität Mainz wiederbelebt. Die
weltweit führenden Forscher dieser Teildisziplin kommen aus Japan nach
Mainz, um die neuesten Fortschritte zu präsentieren, aber auch
Strategien zu diskutieren
, wie elektrochemisch erzeugte Chemikalien als lager- und tankbare
Energie genutzt werden können.

Zurück den bekannteren
Energiespeichern, den Batterien. Die Grundlagenforschung über neuartige
Elektroden, Elektrolyte und Separatoren, über Oberflächen- und
Transportprozesse ist in vollem Gange. Die anwendungsbezogene
Forschung kümmert sich darüber hinaus auch um die Aufklärung der
Alterungsprozesse in der Zelle, hervorgerufen etwa durch Lagerung sowie
Ladung und Entladung der Batterie. Die Lithium-Batterien stehen auf der
Mainzer Tagung im Mittelpunkt. Dabei geht es auch
um die Frage, ob den Lithium-Ionen-Batterien oder den
Lithium-Metall-Batterien die Zukunft gehört. Dem Plenarvortragenden zu
diesem Thema, Professor Dr. Martin Winter, zufolge gehört den
Lithium-Metall-Batterien die Zukunft. Doch an diesen Lithium/Luft- oder
Lithium/Schwefel-Batterien werfen Reversibilität und somit
Wiederaufladbarkeit der Sauerstoff- bzw. Schwefelkathoden noch große
Probleme auf.

Anstatt Lithium eignet sich
auch das chemisch verwandte Natrium als Elektrodenmaterial.
Natrium/Schwefel-Batterien werden vor allem in Japan als mittelgroße
Speicher für die Versorgungssicherheit mit elektrischer Energie
eingesetzt. In Deutschland widmet sich die Forschung vor allem der
Natrium-Ionen- und der Natrium/Luft-Batterien. Besonderes Aufsehen
erregte Dr. Pascal Hartmann mit seiner an der Universität Gießen
angefertigten Doktorarbeit über eine bei Raumtemperatur arbeitende,
wieder aufladbare Natrium-Superoxid-Batterie. Ihm gelang es, diese
Metall/Luft-Batterie so zu konstruieren, dass die darin ablaufende
Zellchemie nahezu reversibel verläuft, und er konnte darüber hinaus den
Mechanismus der Sauerstoff-Reduktion aufklären. Hierfür
erhält er am 23. September in Mainz von der GDCh-Fachgruppe
Elektrochemie den Förderpreis 2014 auf dem Gebiet der Elektrochemie,
gestiftet durch die BASF SE. Für seine Forschungsergebnisse war Hartmann
bereits eine Woche zuvor von der GDCh-Fachgruppe Festkörperchemie
und Materialforschung mit dem H.C. Starck-Preis ausgezeichnet
worden.

Weitere Informationen zur
Tagung unter:
www.gdch.de/electrochemistry2014

Notebooks mit Brennstoffzelle

Serienreifes System soll auf der CeBIT präsentiert werden

Taipeh/Hannover (pte/03.03.2006/11:51) – Die taiwanesischen Unternehmen Antig http://www.antig.com und ACV http://www.avc.com.tw wollen auf der diesjährigen CeBIT die erste serienreife Brennstoffzelle für Notebooks präsentieren. Die Zelle hat die Größe eines CD-ROM-Laufwerkes. Schon im vergangenen Jahr haben die Taiwanesen Prototypen des Systems für Laptops im Messegepäck gehabt. Nun soll es jedoch schnell gehen, die Partner wollen ihre Entwicklung noch dieses Jahr auf den Markt bringen.

Die Brennstoffzellen laufen mit Methanol und werden über die Media Bay in den Laptop eingesetzt. AVC kombinierte die SoC PCB-Brennstoffzellenmodule von Antig mit den eigenen Erfahrungen in den Bereichen Wärmetechnik und Systemdesign. Herausgekommen sei eine Zelle mit hoher Funktionssicherheit zu einem konkurrenzfähigen Preis, so die Unternehmen. Genauere Spezifikationen blieben die Partner jedoch schuldig. Antig will auch ein externes, portables Brennstoffzellensystem zur Messe mitbringen. Es soll bei einem Gewicht von 1,7 Kilo 45 Watt Leistung liefern und mit einer Methanolpatrone ein Notebook bis zu acht Stunden mit Energie versorgen.

Das deutsche Unternehmen Smart Fuel Cell (SFC) http://www.smartfuelcell.de ist derzeit mit einem acht Kilogramm schweren, portablen System am Markt vertreten. Es ersetzt Dieselgeneratoren auf Booten oder in Wohnmobilen. In einer Kooperation mit dem koreanischen Unternehmen LG Chem http://www.lgchem.com arbeitet SFC derzeit an Brennstoffzellen für Consumergeräte. Probleme bereitet bisher noch die Größe der Systeme. Weltweit forschen große Elektronik- und Akku-Hersteller dieser alternativen Energieversorgung. Canon will beispielsweise seine Drucker mit Brennstoffzellen ausstatten. Prototypen wurden in Tokio bereits präsentiert (pte berichtete: http://www.pte.at/pte.mc?pte=051028036 ). Andere Hersteller wie NEC, Toshiba, Hitachi und NTT DoCoMo engagieren sich ebenfalls auf dem Sektor von tragbaren Lösungen. Produkte auf den Markt zu bringen, ist jedoch noch keinem gelungen. (pte-Trend)

Videobrille: Ein 28-Zoll-Screen für Handys

Teleglass mit kleinstem Display für mobile Video-Anwendungen

Tokio (pte/30.06.2005/11:23) – Die japanische Scalar Corp
http://www.scalar.co.jp/eng_com.html hat mit Teleglass die nach eigenen
Angaben derzeit kleinste Video-Brille für mobile Anwendungen auf den
Markt gebracht. Verbunden mit einem Handy, einem tragbaren DVD-Player
oder einer Digital-Kamera projiziert das Teleglass die Bilder direkt in
das Auge des Users. Dadurch wird ein virtueller Bildschirm geschaffen,
der einem realen 28-Zoll-Schirm entspricht, der aus einem Abstand von
rund zwei Metern betrachtet wird.

Was nach einem Ausstattungsmerkmal für künstliche Wesen a la Borg
ausschaut, wird von Scalar-Präsident Masao Yamamoto als Durchbruch bei
Videobrillen gelobt. Das System verfügt über einen Schalter, mit dem
die Kunden das bevorzugte Auge wählen können, mit dem sie die Videos
anschauen. Die Video-Brille projiziert die Bilder entweder in das linke
oder das rechte Auge – der Nutzer kann mit dem einen Auge Filme oder
Fernsehen anschauen, Textmeldungen lesen oder Bilder betrachten,
während das zweite Auge frei bleibt für andere Sinneseindrücke.

Die Londoner Times lobte das Produkt als "ultimatives Gadget für alle,
die gelangweilt in einer Schlange stehen oder zur Arbeit pendeln." Laut
einem Testbericht der Zeitung sind die durch Teleglass projizierten
Bilder überraschend klar und das Auge müsse sich nicht über Gebühr
anstrengen, um die Bilder über eine längere Zeit lang anzuschauen.

Teleglass wiegt nur fünf Gramm und wird einfach auf eine normale Brille
aufgesetzt. Eingebaut in das System ist ein winziges Display von 0,24
Zoll Diagonale, das vom US-Produzenten Kopin http://www.kopin.com/
stammt und neben einer hohen Auflösung mit einem äußerst geringen
Energieverbrauch aufwarten soll.
http://www.kopin.com/products/index_cyberdisplay.html Der Preis für das
Komplett-System wurde vorläufig nicht bekannt gegeben.

Germanium-Nanodrähte zur Integration mit Silizium

Germanium-Nanodrähte zur Integration mit Silizium 
(Nanowerk News) Eine neue Methode lässt Germanium- Atome ohne Katalysator zu gleichmässigen Drähten auf Silizium-Oberflächen zusammenwachsen. Dadurch können Kontaminationen ausgeschlossen und die Nanodrähte besser in Mikrochips integriert werden. Dieses Ergebnis einer internationalen Forschergruppe wurde in der Zeitschrift Physical Review Letters veröffentlicht ("Monolithic Growth of Ultrathin Ge Nanowires on Si(001)"). 
Zur Herstellung immer kleiner werdenden Strukturen in der modernen Halbleitertechnologie werden Prozesse der Selbstorganisation immer interessanter. Dabei ordnen sich die einzelnen Atome und Moleküle wie von Zauberhand selbst in den gewünschten Strukturen an. Diesem Trend folgend haben Wissenschaftler eine neue Bottom-up-Methode zur Herstellung von Germanium-Nanodrähten entwickelt. Diese ermöglicht die direkte Bildung der Drähte auf einem Mikrochip, ohne dass dazu ein metallischer Katalysator notwendig wäre. 
 
Extrem dünne Nanodrähte aus Germanium. Die Nanodrähte werden direkt auf einer Silizium-Oberfläche abgeschieden und eignen sich hervorragend zur monolithischen Integration von neuartigen Transistoren in einem Mikrochip. (Foto: IFW Dresden) 
Da die gewünschte Struktur Atom für Atom aufgebaut wird, ist die Bottom-up-Methode sehr präzise und reproduzierbar. Bisher werden Halbleiter-Nanodrähte meistens mit Hilfe metallischer Nanostrukturen abgeschieden, die das Halbleitermaterial konzentrieren und in eine bestimmte Richtung aufwachsen lassen. Ein Nachteil dieser Methode besteht darin, dass der metallische Katalysator den entstehenden halbleitenden Nanodraht kontaminieren kann. Ausserdem ist die Integration dieser senkrecht aufgewachsenen Nanodrähte in die Mikrochips der Silizium-Technologie äusserst schwierig. 
Um diese Probleme zu umgehen, haben Dr. Jianjun Zhang vom Leibniz-Institut für Festkörper- und Werkstoffforschung Dresden und seine Kollegen eine Methode entwickelt, die ohne Katalysator auskommt und auf einer flachen Oberfläche funktioniert. Dabei wird mittels Molekularstrahlepitaxie eine dünne Germaniumschicht auf einer Siliziumunterlage abgeschieden. Anschliessend wird das Präparat auf 560° C erwärmt. Dadurch sammelt sich das Germanium in Inseln, die an die Form von Dächern erinnern. Nach einigen Stunden prägen diese Inseln eine langgestreckte Form aus. Bei einer Höhe von ca. 2 und einer Breite von 20 Nanometern erreichen sie eine Länge von einigen Mikrometern. 
"Das beeindruckende an diesen Strukturen ist, dass sie aus einem perfekten Einkristall bestehen und darüber hinaus sehr viel einfacher in die bestehende Si Technologie integrierbar sind als das bei anderen Verfahren der Fall ist," sagt Professor Schmidt, Direktor des Instituts für Integrative Nanowissenschaften im IFW Dresden. 
Theoretische Modelle zeigen, dass die Form eines langgestreckten Zeltes die energetisch günstigste ist. Dadurch entstehen sehr kleine und gleichmässige Querschnitte, die interessant für verschiedene Bauelemente sein können, so zum Beispiel für solche, die den Spin von Ladungsträgern kontrollieren.