Archiv der Kategorie: Physik, Chemie, Technik

Diesel im Aufwind kreativer Rußfilter

pte20180727022 Umwelt/Energie, Forschung/Technologie

Smarte Fackel hilft beim Kampf gegen Dieselruß

Neuer Katalysator sorgt für eine deutlich schnellere Verbrennung

Klassische Dieselrußfilter aus Keramik lassen sich optimieren (Foto: nd.edu)
Klassische Dieselrußfilter aus Keramik lassen sich optimieren (Foto: nd.edu)

Notre Dame/Columbus (pte022/27.07.2018/13:52) –

Forscher der University of Notre Dame http://nd.edu haben Dieselrußfilter mit einer hauchdünnen glasähnlichen Schicht
überzogen, die kontinuierlich Kaliumionen abgibt und somit weniger Ruß
entstehen lässt. Denn die Kaliumionen wirken als Katalysator bei der
Verbrennung von Dieselruß, der sich an den Wänden des Filters absetzt.

Fackelruß simuliert Dieselruß

Normalerweise verbrennt Dieselruß erst ab einer
Temperatur von 600 Grad Celsius. Diese werden bei vielen Fahrten nicht
erreicht. Manche Hersteller spritzen aus diesem Grund von Zeit zu Zeit
Treibstoff in den Filter. Wenn er verbrennt zündet, er auch den Ruß an.
Dass Kalium sorgt dafür, dass er bereits bei weitaus niedrigeren
Temperaturen unschädlich gemacht wird. Die Beschichtung soll rund
240.000 Kilometer halten.

Als die Forscher um Paul McGinn, Professor für Chemie-
und Biomolekular-Ingenieurswesen, und Changsheng Su vom
US-Dieselmotorenhersteller Cummins http://cummins.com , ein Testverfahren entwickelten, mit dem sie die katalytische
Dieselverbrennung optimieren konnten, fanden sie die Lösung in einem
sommerlichen Garten – Fackeln, die sich am oberen Ende eines Bambusstabs
befinden. "Wir nutzten den Ruß der Fackeln als Ersatz für Dieselruß,
wie er bei der realen Fahrt entsteht", sagt McGinn. Die Forscher
konstruierten einen raffinierten Reaktor, in den sie eine Fackel
integrierten. Darin erprobten sie die unterschiedlichen Beschichtungen
zur Vernichtung des Rußes.

Weniger Ruß und Stickoxide

Standard-Dieselrußfilter bestehen aus Keramik, in denen
sich Hohlräume mit bienenwabenähnlichem oder quadratischem Querschnitt
befinden. Weil die Wände porös sind, lagern sich hier Rußpartikel an.
Das derart gereinigte Abgas wird direkt an die Umgebung abgegeben. Die
Forscher haben sich jetzt ein noch ehrgeizigeres Ziel gesetzt. Sie
wollen eine Beschichtung entwickeln, die nicht nur die
Entzündungstemperatur von Dieselruß reduziert, sondern gleichzeitig als
Katalysator für die Zerstörung der Stickoxide arbeitet.

Damit könnten beide Ziele, die europäische und
amerikanische Behörden haben, erreicht werden: Die sichere Reduzierung
der Emissionen von Ruß und von Stickoxiden, bei deren Messung manch ein
Autohersteller massiv geschummelt hat. Das führte zum noch immer nicht
ausgestandenen Dieselskandal.

Europa vernachlässigt Forschung

Wachstum der EU-Investitionen in FuE geht gegen null

Brüssel (pte/19.07.2005/15:14) – Die Wachstumsrate der Forschung und
Entwicklungs-Intensität der EU, also der prozentuelle Anteil der
Ausgaben für FuE am BIP, stagniert seit dem Jahr 2000. Das geht aus dem
FuE-Bericht der europäischen Kommission 2005
http://europa.eu.int/comm/research/index_de.cfm hervor, den
Forschungskommissar Janez Potocnik heute, Dienstag, in Brüssel
präsentiert hat. Mit dieser Entwicklung liegen die Ausgaben der EU
deutlich hinter denen der USA und Japans. Die EU ist damit auf dem
besten Weg, das selbst gesteckte FuE-Ziel zu verfehlen. Geplant war,
die Ausgaben bis zum Jahr 2010 von 1,9 Prozent auf drei Prozent zu
erhöhen.

2003 hat die EU nur um 0,2 Prozent mehr für Forschung und Entwicklung
ausgegeben als 2002. Insgesamt hat die EU 2003 nur 1,97 Prozent des BIP
in FuE investiert und liegt somit hinter den USA mit 2,59 Prozent und
Japan mit 3,15 Prozent. China gibt pro Jahr 1,31 Prozent für Forschung
aus, hat aber den Anteil am BIP zwischen 1997 und 2002 jährlich um zehn
Prozent gesteigert. Wenn sich der Trend in China und der EU fortsetzt,
werden beide im Jahr 2010 mit rund 2,2 Prozent gleichauf liegen.
Forschungskommissar Potocnik ist besorgt: "Wenn sich der Trend
fortsetzt, wird Europa die Chance verpassen, eine der führenden
wissensbasierten Wirtschaften der Welt zu werden."

Als einen Grund nennt die Kommission rückläufige privatwirtschaftliche
Investitionen in FuE. Ziel war es, dass 2010 zwei Drittel der
FuE-Ausgaben von der Privatwirtschaft finanziert werden sollten, im
Jahr 2002 lag der Anteil nur bei 55,6 Prozent. Die Kommission ist
besorgt, dass die EU als Wirtschaftsstandort durch diese Tendenz an
Attraktivität verliert und Unternehmen ihre Forschung auf andere
Kontinente verlagern. Investitionen in FuE würden sich positiv auf
Produktivität und Wirtschaftswachstum auswirken. Aus der Studie geht
außerdem hervor, dass EU-Investitionen auch private Ausgaben für
Forschung und Innovation ankurbeln können. Das Ziel, eine der führenden
wissensbasierten Wirtschaften der Welt zu werden, wird die EU nur durch
ein umfassendes Programm auf europäischer Ebene erreichen. Die Bürger
befürworten laut einer kürzlich durchgeführten Meinungsumfrage der EU
höhere Ausgaben für Forschung auf europäischer Eben.

Es gilt das gesprochene Wort!: Vortrag bei ENOVOS Luxemburg

Es gilt das gesprochene Wort!
Meine sehr geehrten Damen und Herren,
ich danke ihnen, Herr Lucius, für die Einladung zu dieser Konferenz, und ich
freue mich, zu Ihren Diskussionen einige Gedanken aus der Sicht eines
europäischen Energieunternehmens mit Sitz in Deutschland beizusteuern.
„Mit Sitz in Deutschland“ ist bei unserem heutigen Thema mehr als eine
geographische Spezifikation, denn Deutschland ist so etwas wie das
„energiepolitische Labor“ Europas geworden. In diesem Labor werden in
einem breiten Ansatz konkrete Schritte in eine post-fossile
Energieversorgung gewagt – ein Ziel, dass sich auch die EU insgesamt mit
der Energy Road Map 2050 auf die Fahne geschrieben hat. Als
Energieunternehmen kann man in Deutschland Erfahrungen sammeln, wie
derzeit wohl nirgends sonst in der Welt – manches läuft gut, anderes noch
nicht, wichtig ist, aus beidem zu lernen.
Der Kunde – ein vielfach unterschätzter Aspekt der Energiewende
Die Debatte über die Energiewende in Deutschland konzentriert sich sehr auf
das, was man die „Makroebene“ nennen könnte, also auf Fragen wie:
Welche Rahmenbedingungen brauchen die erneuerbaren Energien? Wie viel
fossil befeuerte Kraftwerke brauchen wir als Back-up und wie können sie
wirtschaftlich betrieben werden? Wie kann die Stabilität des Gesamtsystems
gesichert werden? Wie kommen wir beim Netzausbau voran? So wichtig und
drängend diese Fragen zweifellos sind – so begrenzt ist die hier
2
eingenommene Perspektive. Denn diese Debatte ist mit einem Wort gesagt
„erzeugungslastig“ – in einem traditionellen Verständnis von Erzeugung.
Die „Mikroebene“, also der Kunde und seine neuen Möglichkeiten, werden
noch nicht ausreichend in den Blick genommen. Es gibt hierzu zwar eine
unübersehbare Vielfalt an einzelnen Ideen, Konzepten und Projekten – aber
das meiste davon bleibt punktuell und technologisch. In Politik und
Unternehmen gibt es bislang wenig übergreifende und umsetzungsorientierte
Ansätze. Diese Konferenz beschäftigt sich also mit einem bislang noch
unterschätzten Thema – und das kann man nur begrüßen.
Warum wird dieses Thema noch unterschätzt? Ein wesentlicher Grund dürfte
sein, dass viele das, was unter den Begriff „smart energy“ zusammengefasst
wird, für ferne Zukunftsmusik halten. Das ist nicht falsch, denn wir sind hier
teilweise wirklich noch in einem frühen Entwicklungsstadium. Aber es hat
seine Risiken, in einer Zeit immer schnelleren technologischen Wandels zu
glauben, man habe noch viel Zeit, sich auf neue Möglichkeiten einzustellen.
Das Internet – Thema und drei Variationen für die Energiewirtschaft
Denken Sie an das Internet! Der Vergleich mit dem Internet liegt durchaus
nahe, weil ein künftiges System vieler dezentraler Energielösungen, die über
ein Smart Grid miteinander kommunizieren, sich vermutlich internet-ähnlich
organisieren wird. Ich sehe hier drei Aspekte, die auch für die künftige
Entwicklung der Energieversorgung bedeutsam sind:
Erstens: Als Anfang der 90er Jahre die kommerzielle Phase des Internets
begann, liefen schätzungsweise lediglich 1 % der Informationsflüsse in den
weltweiten Telekommunikationsnetzen über das Internet. 7 Jahre später
bereits über 50% und weitere 7 Jahre später rund 97 %. Eine derart
dynamische Entwicklung sollte uns zu denken geben, wenn wir über die
Energieversorgung in 2020 sprechen. Der Vergleich mit dem Internet erlaubt
natürlich keine verlässlichen Prognosen für energiewirtschaftliche
3
Innovationen, sollte uns aber davon abhalten, heutige Trends einfach in die
Zukunft zu verlängern. Es kann alles viel schneller gehen!
Mein zweiter Punkt: Es galt lange als unmöglich, dass ein System wie das
Internet als Graswurzelprozess entstehen und funktionieren kann. Muss es
ohne zentrale Steuerung nicht in Anarchie enden? Keineswegs, wie man
sieht! Es funktioniert vielmehr in einer Verbindung von zentralen
Komponenten – den großen Servern -, standardisierten Prozessen und einer
Unzahl dezentraler Nutzer. Und das werden auch wesentliche Elemente
einer dezentral geprägten Energieversorgung sein.
Und schließlich drittens: Das Internet ist ein gutes Beispiel für eine
disruptive Technologie, also für einen Game-Changer, der einen Markt völlig
verändert. Hinterher fragen sich alle, wie man vorher eigentlich ohne diese
Technologie auskommen konnte.
Disruptive Technologien sind nichts Neues, auch wenn es die
Vorstellungskraft der meisten Menschen überfordert, sich etwas anderes als
die kontinuierliche Verbesserung des Bestehenden vorzustellen. Henry Ford
sagte einmal, wenn er die Leute gefragt hätte, was sie sich wünschten, wäre
die Antwort gewesen: schnellere Pferde. Seine Antwort war bekanntlich eine
andere, eine unternehmerische: Autos in Massenproduktion. Das hat die
Zeitgenossen überrascht. Ähnliche Überraschungen haben wir auch bei
Energietechnologien erlebt und werden noch weitere erleben.
Bei E.ON gehen wir davon aus, dass schon bis 2020 – also in 8 Jahren – 30
bis 40% der neu installierten Erzeugungskapazität auf dezentrale
Technologien entfallen werden. Dies wird den Energiemarkt grundlegend
verändern und die traditionellen Geschäftsmodelle der Energieversorger
herausfordern. Welche Konsequenzen zieht E.ON aus dieser Analyse?
E.ON’s steps into a smart word
4
Meine Damen und Herren,
die Schritte, die E.ON in eine smarte Energiezukunft unternimmt, folgen zwei
Zielrichtungen:
Erstens erproben wir neue, dezentrale Energielösungen in der Praxis. Wir
wollen genau verstehen, was die Technologien in der Praxis können und was
die Kunden wollen. Beides muss zusammen kommen, um tragfähige
Geschäftsmodelle zu ergeben.
Zweitens wollen wir diese dezentralen Lösungen energiewirtschaftlich
vernetzen und für die Optimierung des Gesamtsystems nutzen. Hier sehen
wir die für uns unternehmerisch interessante Chance, die besonderen
Möglichkeiten eines großen Energieunternehmens einzubringen.
Und dabei gilt immer der Grundsatz: Auf den Kundennutzen kommt es an!
Vor diesem Hintergrund halten wir vier Themen für besonders interessant:
Smart Home, Elektro-Mobilität, Mikro-KWK und Smart Grids. Lassen Sie
mich Ihnen einen Überblick geben, wie weit wir hier sind, und was wir
vorhaben.
1. Smart Home
Zunächst zu Smart Home. Wir sehen in der gesamten Bandbreite der Smart
Home Technologien und Dienstleistungen ein vielversprechendes
Geschäftsfeld der Zukunft. Um aus der Vielzahl der Optionen, die sich hier
bieten, intelligente Produkte zu entwickeln, haben wir eine Reihe von
Modellprojekten gestartet, von denen ich Ihnen zwei gerne vorstellen
möchte.
a) Smart Home-Modellprojekt in Stuhr und Wehye
5
Ein bundesweit einzigartiges Modellprojekt von E.ON ist das „e-Home-
Energieprojekt 2020“ im niedersächsischen Stuhr und Wehye. Hier
erforschen wir, wie in Zukunft eine sichere Stromversorgung mit intelligenter
Vernetzung und Steuerung arbeiten kann. In diesen beiden Gemeinden
südwestlich von Bremen wird derzeit ein Zukunftslabor der
Energieversorgung eingerichtet. Dabei unterziehen Experten 40
Einfamilienhäuser einem umfangreichen Energie-Check, bei dem
Gebäudehülle und Anlagentechnik auf dem Prüfstand stehen und realistische
Stromsparkonzepte entwickelt werden. Wir unterstützen außerdem die
Hauseigentümer beispielsweise bei der Anschaffung von
Photovoltaikanlagen und Klimatechnik – oder auch eines Elektroautos.
In jedes der 40 Häuser haben unsere Techniker einen Smart Meter
eingebaut. Er misst, wann und wie viel Energie verbraucht wurde, und
speichert diese Daten. Der Smart Meter leitet die Informationen regelmäßig
selbständig zum Energieverteilnetz. Der Kunde kann über ein Online-Portal
mit persönlichen Zugangsdaten jederzeit seine Verbrauchsdaten im
Zeitverlauf ablesen. Das erleichtert ihm, seinen Verbrauch zu analysieren
und weitere Energiesparpotenziale zu identifizieren. Der Smart Meter zeigt
zudem die Menge der selbst produzierten und der ins Netz gespeisten
Energie.
Das technische Herzstück des Modellprojekts bilden die Prototypen
regelbarer Ortsnetztransformatoren, die im Ortsnetz installiert wurden. Der
Trafo wird benötigt, um die ansteigende Spannung, die sich bei einer hohen
Einspeisung erneuerbarer Energien einstellt, zu beherrschen. Während eines
Zeitraumes von drei Jahren werden wir fundierte Praxiserfahrungen in einer
Versorgungs- und Netzsituation sammeln, wie sie voraussichtlich in den
nächsten zehn Jahren immer mehr zur Realität wird.
b) E.ON Smart Home in Planegg
6
Um Smart Home Technologien und deren Zusammenspiel nicht nur zu
erproben, sondern auch für unsere Kunden erlebbar zu machen, haben wir
das „Haus der Zukunft“ im bayerischen Planegg eingerichtet. Es ist neben
der Smart Home Technik mit weiteren innovativen Anwendungen wie einer
E.ON Solar Anlage und einer stromerzeugenden Heizung ausgestattet und
vermittelt, wie unsere Kunden bereits heute mit den E.ON Angeboten und
Services ökologischer und komfortabler wohnen können. Zurzeit testen wir
hier verschiedene Systeme gemeinsam mit unseren Partnern Telekom,
Telefunken und Greenwave. Unterschiedliche Szenarien wie automatische
Licht- oder Heizungssteuerung sind programmiert und bilden ein real
vernetztes Haus ab. Wir entwickeln auch eigene Applikationen zur
Heimvernetzung sowie zur Optimierung bestehender Energiesysteme wie
beispielsweise Photovoltaikmodule.
2. Elektro-Mobilität
Mit dem Thema Elektromobilität beschäftigen wir uns inzwischen in 9
Ländern intensiv und bieten seit gut einem Jahr Komplettangebote für den
Einstieg an – von der Ladestation inklusive Installation über Grünstrom bis
zum Leasing des Elektro-Autos: Alles, damit der Kunde sofort losfahren
kann. Unser Angebot ist gerade für Flottenbetreiber interessant, die nicht nur
die Fahrzeuge brauchen, sondern auch jemanden, der Ihnen die
Ladeinfrastruktur installiert und in das Energiemanagement ihres Standorts
einpasst.
Das Elektro-Fahrzeug kann auch einen markanten Beitrag zur Speicherung
von Strom leisten. Wir haben bereits erprobt, wie man die Fahrzeugbatterie
dazu einsetzen kann, um in Zeiten des Überangebots z.B. von Solarenergie
besonders günstig zu laden, und in Zeiten des Unterangebots im Markt
wieder aus der Batterie ins Netz zurück zu speisen. Die Einbindung der
Fahrzeugbatterie als Stromzwischenspeicher optimiert nicht nur die Kosten
für den Verbraucher, ein gesteuerter Ladevorgang verlängert durch die
Vergleichmäßigung der Ladung auch die Lebensdauer der Batterie.
7
Noch ein bisschen weiter in die Zukunft geschaut, planen wir, die
Speicherleistungen der Fahrzeugbatterien zu bündeln und im
Reserveenergiemarkt zum Ausgleich kurzfristiger Schwankungen zu
vermarkten. Eine Faustregel: Wenn von 1 Mio. Elektro-Fahrzeugen immer
jedes zweite Fahrzeug am Netz verfügbar ist, entspricht dies einer
Regelenergie, wie sie von drei bis vier Gaskraftwerken bereitgestellt würde
(rund 1300 MW). Diese Leistung steht in Bruchteilen von Sekunden zur
Verfügung. Diese schnelle Regelenergie ist vor dem Hintergrund stark
schwankender Energieproduktion aus Wind oder Sonnenenergie von
besonderer Relevanz.
3. Mikro-KWK
Ein weiteres Feld, auf dem wir uns engagieren, ist die Kraft-Wärme-Kopplung
in Kleinanlagen. Mikro-KWK-Geräte beheizen das Haus und produzieren
gleichzeitig Strom. Das ist ökologisch vorteilhaft und führt zu einer äußerst
effizienten Ausnutzung des eingesetzten Brennstoffes. In der Gesamtbilanz
schneiden Mikro-KWK-Anlagen besser ab als die herkömmliche getrennte
Erzeugung von Strom im Kraftwerk und Wärme im eigenen Heizkessel.
Dadurch können Primärenergie eingespart und der CO2-Ausstoß reduziert
werden.
Ein beträchtlicher Teil des selbst erzeugten Stroms wird direkt im Haushalt
genutzt und muss nicht aus dem öffentlichen Netz bezogen werden.
Abhängig von der Betriebsdauer können so 50 bis 70 Prozent des eigenen
Strombedarfs gedeckt werden. Der überschüssige Strom wird ins Netz
eingespeist und entsprechend vergütet. Wird an kalten Wintertagen
besonders viel Wärme benötigt, schaltet sich ein Spitzenlast-Brenner zu.
Dieser ist entweder in das Mikro-KWK Heizgerät integriert, oder wird als
separates Heizgerät mit diesem gekoppelt.
8
Die Technik hat ihre Marktreife erreicht und kann zur energetischen
Sanierung von Ein- und Mehrfamilienhäusern genutzt werden. Wir haben ein
Programm aufgelegt, mit dem wir interessierte Kunden bei der Anschaffung
von Mikro-KWK-Anlagen unterstützen. Auf der Grundlage der Erfahrungen,
die wir hier sammeln, entwickeln wir Dienstleistungen für das
Energiemanagement der Kunden und für die Integration der Anlagen in das
Gesamtsystem der Energieversorgung.
4. Smart Grids
Dafür – auch dafür – sind Smart Grids erforderlich. Sie sind die Basis für den
Paradigmenwechsel in der Energieversorgung. Die Höchst- und
Hochspannungsnetze sind heute schon intelligent und vergleichbar mit
mehrspurigen Autobahnen, die über ein Verkehrsleitsystem verfügen. Es
sind aber nur 3 Prozent der installierten Erzeugungskapazität aus
Erneuerbaren in Deutschland an diese Netze angeschlossen. Die anderen
97 Prozent speisen in die Verteilnetze ein. Deshalb geht es jetzt darum, auch
die Verteilnetze als Schnittstelle zu dezentralen Erzeugungseinheiten und
den Kunden umzubauen. Bislang waren die Verteilnetze in erster Linie
darauf ausgelegt, Strom zum Kunden bringen. Diese Einbahnstraßen
müssen erweitert und mit Ampeln ausgerüstet werden, damit in beide
Richtungen Lastflüsse möglich werden. Nur so kann der Stau im Verteilnetz
aufgelöst werden.
Der Einsatz intelligenter Technologie ermöglicht es, die Verteilnetze
kontinuierlich und automatisiert zu überwachen und zu steuern. Dadurch
erhalten Netzbetreiber eine viel bessere Übersicht über den Zustand ihres
Netzes, um zum Beispiel die schwankende Ein- und Ausspeisung der
Erneuerbare Energien zu beherrschen. Dies ist vor allem für unsere
deutschen Regionalversorger wichtig, die bereits Anteile von bis zu 50% an
erneuerbarer Energie im Absatz an Letztverbraucher erreichen.
9
Durch neue – intelligente – Funktionalitäten werden Netze zukünftig die
zentrale Plattform für alle Energieanwendungen und fördern ein neues
Zusammenspiel von Netz, Verbraucher und Kunde. Dabei sind Smart Meter
ein wesentlicher Baustein, mit denen eine aktive Einbindung des Kunden als
Prosumer – also in der Doppelrolle des Verbrauchers und Erzeugers –
möglich wird.
Die E.ON-Netzbetreiber investieren jährlich Hunderte von Millionen Euro in
den Ausbau und die informationstechnische Aufrüstung der Netze. Die
notwenige Modernisierung der Netze verlangt allerdings auch eine
entsprechende Modernisierung der Regulierung. Noch konzentriert sich die
Regulierung – die in Deutschland durch die Bundesnetzagentur erfolgt –
einseitig auf Kostensenkung und gibt Investitionen in die Netzmodernisierung
und innovativen Lösungen zu wenig wirtschaftlichen Spielraum.
Auch ein anderes Hemmnis, das in Deutschland den Aufbau von Smart Grids
erschwert, soll nicht verschwiegen werden: die zunehmende Zersplitterung
der Verteilnetze durch kleinteilige Rekommunalisierung. Der Aufbau
intelligenter Netze ist in großen, zusammenhängenden Netzgebieten deutlich
einfacher und vor allem kostengünstiger möglich. Hier ist mehr
wirtschaftliches Augenmaß nötig – und auf allen Seiten auch mehr
Bereitschaft zu neuen Kooperationslösungen.
Die große Aufgabe, die Infrastruktur für die Energiewende bereitzustellen,
wird nur mithilfe der technologischen Expertise, der energiewirtschaftlichen
Erfahrung und der Finanzkraft großer Energieunternehmen gelingen können.
Und das gilt nicht nur für die Modernisierung der Netze: Die Energiewende
braucht das intelligente Zusammenspiel von Unternehmen aller Art und
Größe, von den Stadtwerken über die Regionalversorger bis hin zu den
international agierenden Energiekonzernen wie E.ON. Als großes
Unternehmen haben wir vor allem dort Vorteile, wo es um die Bündelung und
10
Optimierung dezentraler Energiekonzepte und deren Einbindung in das
Gesamtsystem geht.
E.ON Connecting Energies
Dafür haben wir im Juli eine eigene Geschäftseinheit gegründet: E.ON
Connecting Energies. Wir haben in dieser neuen Einheit einige Fachleute
aus den Bereichen dezentrale Energielösungen, Energieberatung,
Energieeffizienz und Erneuerbare Energien zusammengezogen, die sich vor
allem auf das Geschäft mit deutschen und internationalen Kunden
konzentrieren, die über mehrere Standorte mit hohem Energieverbrauch
verfügen und daher hohe Einsparungen durch intelligent angepasste
Energielösungen erreichen können.
Um Ihnen ein Beispiel zu geben: Mit einem großen, international
operierenden Unternehmen sprechen wir derzeit darüber, an verschiedenen
Standorten gasbetriebene Blockheizkraftwerke zu errichten. Die Anlagen
werden je nach Bedarf zum Heizen oder Kühlen eingesetzt, der dabei
zugleich erzeugte Strom wird selbst genutzt oder in das Netz eingespeist.
Wir planen, finanzieren, bauen und warten diese Anlagen und vermarkten
den dort erzeugten Strom. Insgesamt senken wir die Energiekosten dieser
Standorte um bis zu 10 Prozent und verringern zugleich die CO2-Emissionen
durch den Einsatz von klimafreundlichem Erdgas um bis zu 20 Prozent. In
einem nächsten Schritt können die dezentralen Kraftwerke zusätzlich mit
Solarenergie kombiniert sowie mit Bioerdgas betrieben werden.
An diesem Beispiel wird sehr deutlich, was ich bereits betont habe: Auf den
Kundennutzen kommt es an! Ohne Kundennutzen wird es auch keinen
Systemnutzen geben. Dies gilt für das gesamte Geschäft mit dezentralen
Energielösungen. Daher müssen wir bereits heute für den Kunden attraktive
Angebote entwickeln, die ihn von unserer Leistungsfähigkeit als Haus-,
Energie- und Systemmanager überzeugen. Entscheidend wird sein, dass er
11
einen Nutzen hat und alles aus einer Hand erfolgt. Mit unseren integrierten
Angeboten sind wir auf dem Weg, ihn dafür zu gewinnen.
Schluss
Meine Damen und Herren,
der Umbau einer fossilen zu einer vorwiegend regenerativen
Energieversorgung geht einher mit einem Übergang von zentralen auf
dezentrale Strukturen. Das geschieht nicht über Nacht, aber doch so schnell,
dass jedes Energieunternehmen sich schon heute darauf einstellen muss.
Und das ist weit mehr als ein technologischer Wandel. Vielmehr werden die
bisherigen Geschäftsmodelle und die traditionellen Beziehungen zum
Kunden grundlegend in Frage gestellt. Jedes Energieunternehmen wird
darauf seine eigene Antwort geben. Die eine, alles umfassende Antwort gibt
es nicht.
Die Antwort von E.ON mit ihren Elementen Smart Home, Elektro-Mobilität,
Mikro-KWK und Smart Grids sowie der Gründung von E.ON Connecting
Energies habe ich Ihnen erläutert.
Warum sind wir überzeugt davon, dass wir als großes Energieunternehmen
auch in einer dezentralen Energiezukunft erfolgreich sein können?
Lassen Sie mich, um diese Frage zu beantworten, noch einmal den
Vergleich mit dem Internet heranziehen. Bei beiden Systemen, dem Internet
und ebenso bei einer internet-ähnlichen Verknüpfung vieler dezentraler
Energielösungen, geht es um große Datenmengen. Und wo es um große
Datenmengen geht, droht eine Gefahr: die Verwechslung von Informationen
mit Wissen. Jeder, der im Internet zu einem Thema recherchiert, wird von
einer Unmenge an Informationen erschlagen, wenn er nicht über die
Urteilsfähigkeit verfügt, die entscheidenden Zusammenhänge zu erkennen
und zu bewerten. Und so werden auch dezentrale Energiestrukturen
12
zunächst zu einer enormen Komplexität führen. Als große
Energieunternehmen, die seit Jahrzehnten im Geschäft sind und über ein
breit aufgestelltes Know-how verfügen, können wir mit Komplexität umgehen.
Dies ist für mich der am Ende ausschlaggebende Grund, warum ich die
Zukunft von E.ON auch in einem immer mehr dezentral geprägten Markt
optimistisch sehe.
Vielen Dank für Ihre Aufmerksamkeit!

Werbung vom Weltall aus sichtbar

Werbung vom Weltall aus sichtbar
Mit QR-Codes ausgestattete Dächer werden zu interaktiven Anzeigetafeln
 

Austin (pte018/07.10.2011/12:00) – Die Firma Phillips & Co http://www.phillipscompany.com hat unter dem Namen Blue Marble eine neue Werbeplattform entwickelt, die Dächer zu Werbeflächen macht, indem riesige handylesbare QR-Codes installiert werden. Die Codes, die auf Webangebote verlinken, sind dann von Flugzeugen und Satelliten aus zu sehen und scheinen somit auch bei Google Maps und ähnlichen Angeboten auf. "Schon heute gibt es mit den Schildern Codes, die Informationen zum Gebäude liefern. Die QR-Variante auf dem Dach liefern einen Mehrwert durch Zusatzinformationen", sagt Marketing-Beraterin Anne Schüller http://www.anneschueller.de gegenüber pressetext.

Welt von oben

Mit der neuen Technik, die zum Patent angemeldet ist, lassen sich sämtliche Flächen, die aus der Luft zu sehen sind, als Marketinginstrumente verwenden. Die Macher wollen damit die zunehmende Popularität von Luftbildern ausnutzen. "Der große Sprung bei solchen Diensten wird erst kommen. In den kommenden Jahren werden Smartphones immer populärer und damit verbreiten sich auch neue Werbeformen", so Schüller. Das Problem mit Blue Marble ist im Moment, dass es unter Umständen sehr lange dauern kann, bis die QR-Codes tatsächlich bei diversen Internetdiensten auftauchen. Der Grund: Die Luftaufnahmen werden meist längere Zeit nicht aufgefrischt.

Derzeit funktioniert die App nur, wenn man eine Luftaufnahme auf dem Computer findet und mit dem Handy ausliest. In Zukunft soll es eine Handy-App ermöglichen, direkt von der Smartphone-Navigation aus die Codes zu scannen. Einmal gescannt führt das QR-Bild zu beliebig veränderbaren Zusatzinformationen im Netz. Einige Firmen und offizielle Stellen haben Blue Marble bereits im Testbetrieb. "Die ersten, die solche Möglichkeiten nutzen, sind meistens Firmen, die hochwertige Produkte verkaufen. Am Anfang hat so ein Service auch noch den Vorteil, trendig zu sein", erklärt Schüller.

Relativ preiswert

Die Technologie ist für Unternehmen auch interessant, weil Google Maps und Co sehr viele Fans haben. Allein Google Earth wurde schon über 400 Mio. Mal heruntergeladen. Eine Tücke des neuen Marketing-Tools sind allerdings die Wetterbedingungen. Wenn beim Überflug eines Satelliten oder Flugzeugs schlechtes Wetter ist, ist die ganze Mühe umsonst. Die Installation eines überdimensionierten QR-Codes kostet momentan etwa 8.500 Dollar, plus monatlich 200 Dollar Erhaltungskosten. "Ob solche Investitionen ratsam sind, hängt vom Unternehmen ab, aber in Zukunft werden solche Dienste zur Selbstverständlichkeit", so Schüller.

Sensorkabel macht u. a. Verkehrsleitung viel einfacher

Sensor-Kabel schlägt bei Eindringlingen Alarm

Veränderungen des Magnetfeldes werden erfasst und rasch ausgewertet

Uwe Hartmann zeigt sein flexibles Sensor-Kabel (Foto: Oliver Dietze)
Uwe Hartmann zeigt sein flexibles Sensor-Kabel (Foto: Oliver Dietze)

Saarbrücken (pte022/12.04.2017/13:30) –

Forscher der Universität des Saarlandes http://uni-saarland.de haben ein Sensor-Kabel entwickelt, das kleinste Veränderungen des
Magnetfeldes erfasst, diese ordnet und meldet, ohne dabei Daten zu
sammeln. Die Anwendungspalette ist groß: Das flexible und günstig
herzustellende Kabel kann helfen, den Straßenverkehr zu leiten oder
genau anzeigen, wo eine U-Bahn oder ein Zug gerade fährt. Auch kann es
davor warnen, wann und wo Unbefugte in Gärten, Industrieanlagen oder
Naturschutzgebiete eindringen.

Messfühler wie Perlen an der Schnur

"Wir haben die Magnetfeld-Sensoren in den vergangenen
Jahren kontinuierlich weiterentwickelt und immer sensibler und
selektiver gemacht. Die Messwerte und Signalmuster, die entstehen, wenn
unsere Sensoren Veränderungen wahrnehmen, können wir sehr genau den
Ursachen einer Störung zuordnen", sagt Forscher Uwe Hartmann.
Verschiedene Sensor-Systeme, die seine Arbeitsgruppe entwickelt hat,
werden bereits als Verkehrsleitsysteme eingesetzt, etwa an Flughäfen
oder in Parkhäusern.

Die kleinen Messfühler, die die Physiker wie Perlen an
einer Schnur in einem dünnen Kabel miteinander verbinden, sind
untereinander vernetzt, und melden ihre Messwerte an einen
Microcontroller. Dieser verarbeitet die Daten weiter. "Die Signalmuster
unterscheiden sich je nach Art der Störung. Wir haben in zahlreichen
Versuchsreihen etliche Arten von Änderungen des Magnetfeldes und von
Erschütterungen simuliert und den jeweiligen Ursachen zugeordnet. Mit
diesen Informationen haben wir das System angelernt. Es erkennt typische
Muster, ordnet sie selbstständig Störungen zu und sortiert Fehlalarme
aus", erklärt Hartmann.

MINT-Plan der BMBF-Ministerin Karliczek – Mit einer Stellungnahme von Jean Pütz

Meine persönliche Bemerkung:

Es scheint, dass
mittlerweile auch die Politik begriffen hat wohin die Reise geht. Als
ich 1973 eine große Sendereihe mit dem Titel "Einführung in die
Digitaltechnik" als Autor, Produzent und Moderator zum ersten Mal im
WDR-Fernsehen ausstrahlte, musste ich um einen Sendetermin kämpfen. Der
Verein Deutscher Ingenieure (VDI) hatte die Zeichen der Zeit ebenfalls
erkannt und veranstaltete parallel dazu 4 Wochenend-Seminare. Damit
läuteten wir sozusagen das digitale Zeitalter ein. Dass auch
Öffentlich-Rechtliche Fernsehanstalten sehr weitsichtig sein können
beweist die Tatsache, dass diese Sendung in allen Dritten Programmen der
ARD insgesamt über 100 Mal wiederholt wurde. In der Politik hatte sich
das aber noch nicht herumgesprochen, obwohl der meines Erachtens beste
Wissenschaftsminister Prof. Dr. Heinz Riesenhuber sich sehr darum
bemühte. Er war immerhin von 1982 bis 1993 Bundesminister für Forschung
und Technologie. Ihm ist zu verdanken, dass die Politik aufwachte,
leider nicht alle Ministerien. So ist es kein Wunder, dass Deutschland
die weltweit explodieren technischen und wissenschaftlichen
Möglichkeiten des digitalen Zeitalters nur am Rande mitmachte und
heutzutage extrem ins Hintertreffen geraten ist, insbesondere was die
Infrastruktur der Verbreitung des Internets anbelangt.

Gott sei Dank wird versucht,
das mit großer Intensität nachzuholen. Kürzlich habe ich mit 10
ausgewählten Wissenschaftsjournalisten die BMBF-Ministerin Frau Anja
Karliczek auf ihrem Besuch von zwei der besten Forschungseinrichtungen,
das  Deutsche Krebsforschungszentrum Heidelberg (DKFZ) und anschließend
das Deutsches Forschungszentrum für Künstliche Intelligenz Saarbrücken
(DFKI) begleitet.

Künstliche Intelligenz baut
auf eine historisch neuartige Denkmethode auf, dem sogenannten
Algorithmus. Voraussetzung dafür ist aber eine breite Bildung in allen
Schultypen – angefangen im Gymnasium, der Gesamtschule, insbesondere
aber in Berufsschulen. Leider gibt es viel zu wenig junge Leute, die
sich für die MINT-Fächer (Mathematik, Informatik, Naturwissenschaft,
Technik) interessieren. Deswegen ist es umso erfreulicher, dass das BMBF
das Werben um diese Fächer aufgreift und mit finanzieller Unterstützung
in die Öffentlichkeit wirkt.

Dazu der folgende MINT-Aktionsplan

Mit MINT in die Zukunft!

BMBF fördert Maßnahmen zur Stärkung der MINT-Bildung mit 55
Millionen Euro. Bildungsministerin Karliczek: MINT bietet viele Chancen

Bundesbildungsministerin
Karliczek hat den MINT-Aktionsplan bei ihrem Besuch des Schülerlabors dEIn Labor an der der Technischen
Universität Berlin vorgestellt: „Gute MINT-Bildung ist in der modernen, digital
geprägten Welt unerlässlich. Vorschläge der Suchmaschinen im Internet oder die
Entwicklung neuer Ideen und Geschäftsmodelle kann nur bewerten, wer versteht,
was ein Algorithmus ist. Gerade die klassischen Natur- und
Ingenieurwissenschaften, aber auch die Medizin erhalten durch die Möglichkeiten
der Künstlichen Intelligenz einen neuen Schub und bedürfen gut ausgebildeten
Nachwuchses, der sich mit MINT auskennt. Gute MINT-Bildung bietet viele Chancen
für den Einzelnen und für Deutschland. Deshalb stelle ich mit dem
MINT-Aktionsplan für neue Maßnahmen 55 Millionen Euro bereit.“

MINT,
das steht für Mathematik, Informatik, Naturwissenschaften und Technik. Die
bisherigen Maßnahmen des BMBF im MINT-Bereich laufen schon sehr erfolgreich,
z.B. die Förderung der Initiative “Haus der kleinen Forscher“ oder die Kinder-
und Jugendwettwebewerbe wie „Jugend forscht“. Der MINT-Aktionsplan stärkt
dieses Engagement nun besonders in den vier Bereichen MINT-Bildung für Kinder
und Jugendliche, MINT-Fachkräfte, Chancen von Mädchen und Frauen in MINT und
MINT in der Gesellschaft.

Für
10 bis 16-Jährige fördert das BMBF regelmäßig stattfindende, betreute Angebote
in der MINT-Bildung. Ein breiter und einfacher Zugang zu MINT-Angeboten soll
genauso selbstverständlich werden wie der Besuch von Sportvereinen oder
musische Aktivitäten. Übergreifend stärkt der Aktionsplan des BMBF Mädchen und
Frauen, damit sie ihre MINT-Interessen vertiefen können und sich in diesen
Bereichen mehr zutrauen.

Mit
der onlinegestützten, bundesweiten MINT-E-Plattform und Vernetzungsstelle kann
man sich verlässlich über die vielfältigen MINT-Initiativen informieren. Sie
stellt einen virtuellen Marktplatz für Vernetzungs- und Transferaktivitäten
dar, so dass gute MINT-Praxis in die Fläche kommt.

Darüber hinaus fördert das BMBF Forschung zu erfolgreicher,
qualitativer MINT-Bildung und identifiziert Maßnahmen, die ein langfristiges
Interesse an MINT aufbauen.

Weitere Informationen:

Der
MINT-Aktionsplan des Bundesministeriums für Bildung und Forschung ist abrufbar
unter

www.bmbf.de/de/mit-mint-in-die-zukunft-7876.html

NASA schickt autonomen Satelliten in Pension

NASA schickt autonomen Satelliten in Pension

"EO-1" war Teil des "Volcano Sensor Web" und lieferte wichtige Daten

Lavasee: Der
Lavasee: Der "Eerta Ale" in Äthiopien (Foto: flickr.com/Petr Meissner)

Washington (pte022/30.03.2017/11:30) –

Die US-Raumfahrtbehörde NASA http://nasa.gov hat es mit ihrem "Autonomous Sciencecraft Experiment" (ASE) geschafft,
Satelliten mithilfe von Künstlicher Intelligenz (KI) völlig autonom auf
mehrjährige Missionen ins Weltall zu schicken. Einer der so
ausgestatteten Flugkörper, der "EO-1"-Satellit, soll nun noch in diesem
Monat nach einer mehr als zwölfjährigen Erkundungsreise in der
Erdumlaufbahn in den Ruhestand geschickt werden. Kurz vor seiner
"Pensionierung" hat "EO-1" aber laut NASA noch im Januar als Teil des
"Volcano Sensor Web" http://sensorweb.jpl.nasa.gov selbständig eine bevorstehende Eruption des Vulkans "Erta Ale" in Äthiopien entdeckt und wichtige Daten dazu geliefert.

Vulkane, Brände, Hochwasser

"Die kürzlich stattgefundenen vulkanischen Aktivitäten
in Äthiopien waren ein ausgesprochen passender Schlussstrich für die
Mission von EO-1", zitiert "LiveScience" Ashley Davies, die als leitende
Wissenschafterin bei der NASA für die ASE-Technologie zuständig ist und
auch als Vulkanologin am Jet Propulsion Laboratory http://jpl.nasa.gov arbeitet. Dank der KI-Systeme an Bord sei der Satellit eine Dekade lang völlig autonom durchs Weltall navigiert.

"Der EO-1-Satellit wurde als experimenteller Satellit
ins All geschickt und 2003 mit KI-Technologie ausgestattet. Mittels ASE
konnte er dabei selbständig Veränderungen auf der Erde entdecken, die
von besonderem wissenschaftlichem Interesse sind – etwa Vulkanausbrüche,
Flächenbrände oder Überschwemmungen – , die Forscher alarmieren und
wertvolle Daten sammeln", so Davies.

Teil des Volcano Sensor Web

Dass das autonome Abwickeln von solch heiklen Missionen
in der Praxis bereits sehr gut funktioniert, habe EO-1 Ende Januar beim
Ausbruch des "Erta Ale" eindrucksvoll unter Beweis gestellt. "EO-1 ist
Teil des Volcano Sensor Web, einem Netzwerk von Satelliten und
Bodensensoren, das die Aufgabe hat, gefährliche Veränderungen wie etwa
rapide Temperaturanstiege auf unserem Planeten aufzuspüren", erläutert
die Forscherin.

Im Fall des äthiopischen Vulkans habe EO-1 sogar sehr
frühzeitig reagiert und seine Position so angepasst, dass er die NASA
schon vor dem Ausbruch mit Daten und Fotos versorgen konnte. "Wir haben
dieses Ereignis zur perfekten Zeit erwischt, während einer frühen Phase,
in der sich die Eruption erst aufgebaut hat", so Davies.

Auch beim Tsunami 2011 genutzt

Der jüngste Ausbruch des Erta Ale war aber keineswegs
der erste und einzige derartige Vorfall, der von EO-1 während seiner
immerhin zwölf Jahre andauernden Reise in der Erdumlaufbahn aufgespürt
und dokumentiert hat. So konnten NASA-Wissenschaftler unter anderem
bereits 2011 auf umfassendes Daten- und Fotomaterial zurückgreifen, das
der ASE-Satellit während der Eruption des Vulkankomplex "Puyehue-Cordón
Caulle" in Chile gesammelt hatte.

Auch beim Ausbruch des isländischen Vulkans
"Eyjafjallajokul" im Jahr 2010 lieferte er wichtige Informationen. "Die
KI-Software hat nicht nur mitgeholfen, vulkanische Aktivitäten zu
überwachen, sondern war auch 2011 beim schweren Tsunami vor Thailand im
Einsatz", verdeutlicht NASA-Expertin Davies abschließend.

DVD – Hochauflösendes TV : Welches System setzt sich durch ?

Microsoft und Intel auf Toshibas Seite, Blu-Ray zeigt sich unbeeindruckt

Redmond/Santa Clara (pte/27.09.2005/11:38) – Softwaregigant Microsoft
und Kollege Intel haben sich im Gerangel um den zukünftigen
DVD-Standard auf die Seite von Toshiba
http://www.toshiba.co.jp/hddvd/eng geschlagen und werden das
HD-DVD-Format unterstützen. Wie das Wall Street Journal (WSJ) in der
Dienstagsausgabe berichtet, wollen die beiden Unternehmen Software und
Chips produzieren, die das Abspielen von HD-DVD auf Computern
ermöglicht. Bis vor kurzem konnte Microsoft und Intel keine definitive
Aussage abgerungen werden, auf welches Format sie sich festlegen
wollen. Ein wahrscheinlicher Grund dafür sei die Tatsache, dass die
Unternehmen beide Streitparteien mit Soft- und Hardware belieferten, so
das WSJ.

Microsofts Vize-Präsident Blair Westlake führt eindeutige und empirisch
nachgewiesene Gründe für die Entscheidung an. HD-DVD hätte mehr
Vorteile und werde daher auch exklusiv vom kommenden Betriebssystem
Windows Vista http://www.windowsvista.com unterstützt. Will der
Benutzer Blue-Ray-Filme sehen, muss er zusätzliche Software
installieren. "Die Entscheidung von Microsoft und Intel hat
substantielle Kraft, immerhin sind sie die größten Hersteller von
PC-Hard- und Software", meint Rick Doherty, Analyst der Envisioneering
Group. "Die Diskussion drehte sich bisher um den Bereich von
DVD-Playern, dabei werden die ersten erschwinglichen kompatiblen Geräte
in PCs verbaut werden", so der Analyst. Hier läge der Vorteil klar bei
Intel und Microsoft.

Mit der aktuellen Entscheidung wird der Blu-Ray-Disc
http://www.blu-raydisc.com, die von einem Konsortium um Sony,
Matsushita Electronics und Samsung entwickelt wurde, klar der Kampf
angesagt. Microsofts Entschluss bringt weiteren Zündstoff in den
erbitterten Kampf um den Standard der neuen DVD-Generation. Die Gräben
ziehen sich mitten durch die weltweite PC-Industrie. Die Hersteller
Dell, Apple und Hewlett-Packard hatten sich erst kürzlich für Blu-Ray
entschieden. Blu-Ray-Sprecher Josh Peterson bleibt unbeeindruckt.
Microsofts Ankündigung wäre eher weniger interessant und würde nichts
am Vormarsch von Blu-Ray ändern. Man hätte mehr Hersteller im Boot, die
Blue-Ray den Rücken stärken und auch viele Filmstudios würden zum
Sony-Format tendieren. Doch hier gehen die Gräben weiter. Während Fox
und Walt Disney Blu-Ray verwenden wollen, stellen sich Paramount
Pictures, NBC Universal und Warner Home Video hinter HD-DVD.

Wirbel als Räder der Natur

Nach dem Vorbild der Natur lassen
sich technische Bauteile optimal gestalten. Der Biomechaniker Professor
Claus Mattheck hat am Karlsruher Institut für Technologie (KIT)
computergestützte Methoden sowie rein grafische Werkzeuge entwickelt, um
leichte und langlebige Bauteile zu formen. Dabei hat der Forscher
festgestellt, dass es in der Natur eine Universalform gibt, die sich mit
einfachen geometrischen Methoden nachbilden lässt. Eine Verformung über
Wirbel, die Mattheck „die Räder der Natur“ nennt, sorgt für die innere
Optimierung.

„Die Evolution gleicht einem harten
Designwettbewerb. Was zu schwer oder nicht fest genug war, das gibt es
nicht mehr“, erklärt Professor Claus Mattheck. „Durchgesetzt haben sich
die optimalen Formen.“ Technische Bauteile, die sich an natürlichen
Vorbildern orientieren, besitzen die optimale Form und zeichnen sich
durch Stabilität, Material- und Energieeffizienz aus, wie der
Wissenschaftler erklärt. Um das Vorbild der Natur für die Technik
nutzbar zu machen, entwickelte Mattheck in der Abteilung Werkstoff- und
Biomechanik am Institut für Angewandte Materialien (IAM-WBM) des KIT
über drei Jahrzehnte verschiedene computergestützte Methoden, später
auch vereinfachende computerfreie Denkwerkzeuge, wie Schubvierecke,
Zugdreiecke und Kraftkegel, um Strukturen zu analysieren und Formen zu
optimieren. Der Biomechaniker untersuchte unter anderem, wie Bäume sich
entwickeln und durch lastgesteuert angebautes Holz an mechanischen
Schwachstellen selbst reparieren. Daraus leitete er Prinzipien zur
Optimierung von Bauteilen ab.

Claus Mattheck stellte fest, dass es in der
Natur eine Universalform gibt, die sich nicht nur in festen Körpern,
sondern auch in Fluiden findet. Sie taucht in Gebirgen ebenso auf wie in
Bäumen oder Knochen. Durch Deformation kann sie sich sogar für die
gewählte Belastung selbst erzeugen – Mattheck spricht von „Siegen durch
Nachgeben“. Die Universalform hat Eingang in die Industrie gefunden und
ist Bestandteil der Norm DIN ISO 18459 (Bionik – Bionische
Strukturoptimierung).

Neben der äußeren Optimierung der Form
beobachtet der Bioniker auch eine innere Optimierung durch Verformung.
Die äußere Gestaltung zielt auf eine gleichmäßige Verteilung der Zug-
bzw. Druckspannungen auf der Oberfläche gemäß dem von Mattheck
formulierten „Axiom konstanter Spannung“. Die innere Verformung durch
die Bildung von Wirbeln dient dazu, Schubverformungen, das heißt
Gleitungen benachbarter, miteinander verbundener Flächen zu begrenzen
und somit ein Abscheren zu verzögern. „Diese Wirbel sind sozusagen die
Räder der Natur“, sagt Professor Mattheck.

Von Fluiden ist längst bekannt, dass
Schichtströmungen auf einem Wirbellager um einen umströmten Körper
abrollen wie auf einem Förderband. In festen Körpern machen die Wirbel
nur ganz kleine Rollbewegungen, aber sie sind vorhanden und besonders
gut im toten Holz entrindeter Bäume zu erkennen. Dieses Prinzip lässt
sich ebenfalls auf technische Bauteile übertragen.

Exzellenzcluster ist Preisträger im „Netz voller Ideen“

Exzellenzcluster der Saar-Uni ist Preisträger im „Netz voller Ideen“

Mit „PrintScreen“ gehört der Exzellenzcluster „Multimodal
Computing and Interaction“ zu den 100 Preisträgern des bundesweiten
Wettbewerbs „Ausgezeichnete Orte im Land der Ideen“ 2015. Der Wettbewerb
steht in diesem Jahr im Zeichen des Mottos „Stadt, Land, Netz!
Innovationen für eine digitale Welt“. Damit würdigen die Initiative
„Deutschland – Land der Ideen“ und die Deutsche Bank Ideen und Projekte,
die Lösungen für die Herausforderungen des digitalen Wandels
bereithalten.

Die Saarbrücker Informatiker werden für „PrintScreen“ ausgezeichnet.
Darunter verbirgt sich eine Methode, mit deren Hilfe in Zukunft jeder
Laie Displays in beliebigen Formen auf verschiedene Materialien drucken
kann. Auf diese Weise kann man mit dem heimischen Drucker hauchdünne
Bildschirme in das Papier einarbeiten, die selber entworfene Symbole
anzeigen oder sogar auf Berührungen reagieren können. Die Idee und
Umsetzung stammt von Jürgen Steimle und Simon Olberding. Steimle leitet
die Arbeitsgruppe „Embodied Interaction“ am Saarbrücker Exzellenzcluster
„Multimodal Computing and Interaction“, in der auch Simon Olberding
forscht. „Sogar berührungsempfindliche Displays können wir drucken“,
sagt Olberding.

Die Anwendungsmöglichkeiten sind damit vielfältig: Displays lassen
sich so in nahezu jeden Alltagsgegenstand integrieren – nicht nur in
Papierobjekte, sondern zum Beispiel auch in Möbel und
Einrichtungsgegenstände, auf Taschen oder am Körper getragene
Gegenstände. So könnte man beispielsweise das Armband einer Uhr
erweitern, damit es aufleuchtet, wenn eine Kurznachricht eintrifft.
„Wenn wir unser Verfahren jetzt mit 3D-Druck kombinieren, können wir
dreidimensionale Gegenstände drucken, die Informationen anzeigen und auf
Berührungen reagieren“, erklärt Steimle.

Die Preisverleihung findet im Rahmen des Tages der offenen Tür an der
Universität des Saarlandes am 4. Juli um 11.30 Uhr im
Max-Planck-Institut für Softwaresysteme (Geb. E 1 5) statt. Um Anmeldung
wird gebeten:
https://events.mmci.uni-saarland.de/2015_landderideen.php

Über den Wettbewerb „Ausgezeichnete Orte im Land der Ideen“

Deutschlandweit bewarben sich über 1 000 Forschungseinrichtungen,
Unternehmen, Start-ups oder Vereine mit ihren zukunftsweisenden
Projekten. Unterstützt durch einen fünfköpfigen Fachbeirat wählte eine
unabhängige 18-köpfige Jury die 100 Preisträger in den Kategorien
Wirtschaft, Kultur, Wissenschaft, Umwelt, Bildung und Gesellschaft.

„Aus der Mitte von Wirtschaft, Kultur und Gesellschaft heraus nehmen
die diesjährigen Wettbewerbssieger die Menschen mit auf den Weg in einen
veränderten digitalisierten beruflichen und sozialen Alltag.
Deutschlands vernetzte Zukunft braucht diese Kreativität,
Experimentierfreude und Risikobereitschaft“, so Jürgen Fitschen,
Co-Vorsitzender des Vorstands der Deutschen Bank AG und Mitglied des
Präsidiums des Deutschland – Land der Ideen e. V. Auf www.ausgezeichnete-orte.de sind Informationen zu allen Projekten abrufbar. Detaillierte
Informationen rund um die Digitalisierung in Form von Interviews,
Multimediareportagen und aktuellen Studien erhalten Interessierte auf
dem Themenportal www.deutschland-vernetzt.de