Archiv der Kategorie: Erde, Klima, Umweltschutz

Menschenrecht auf sauberes Wasser für jedermann, leider durch rücksichtslose Industriefolgen immer wieder verletzt. Aber die Forschung macht Fortschritte – Mit einer Stellungnahme von Jean Pütz

Dass sich die UNO mit dem Thema Wasser überhaupt beschäftigen musste, ist der Skandal. Es ist vor allen Dingen die Industrie, die dieses Recht zunichte macht. Aber auch Verschwendung in unserer westlichen Welt. Warum gibt es keine  staatliche Vorschrift, dass alle Bauten – privat oder industrieell – nicht die alte Methode der Regenspeicherung in Zisternen nutzen müssen. Das würde auch die Kanalisation und Kläranlagen erheblich entlasten, die bei einem zu großen Regenanfall verseuchtes Wasser in Grundwasser und Flüsse spülen. Noch besser wäre eine zusätzliche Vorschrift, dass das Brauchwasser aus den Zisternen in einer gesonderten Leitung für Toilettenspülung und Gartenbewässerung genutzt würde. Ich selbst habe sehr gute Erfahrungen auf meinem Landhausgelände gemacht und kann es nur jedem empfehlen, es spart Geld und Ressourcen.

Hierzu zunächst ein positiver Bericht: Den Wasserverbrauch im Bergbau reduzieren // Digitalisierung in der Aufbereitungstechnologie hilft, das kostbare Gut effizient einzusetzen

und dann ein negativer Bericht: Weltwassertag: Recht auf Wasser weltweit verletzt

Den Wasserverbrauch im Bergbau reduzieren

Digitalisierung in der Aufbereitungstechnologie hilft, das kostbare Gut effizient einzusetzen

Der Weltwassertag am 22. März mahnt an den sorgfältigen Umgang mit einer lebenswichtigen Ressource, von der auch zahlreiche Industrien abhängig sind. Ein Beispiel ist die Aufbereitung von mineralischen Erzen. Wie der Wassereinsatz optimiert werden kann, zeigen Forscher des Helmholtz-Instituts Freiberg für Ressourcentechnologie (HIF) jetzt am Beispiel des Rohstoffs Fluorit. Sie haben ein neues Verfahren entwickelt, das die Simulation des Aufbereitungsprozesses erweitert. Dieses zeigt an, wo sich Wasser sinnvoll mehrfach einsetzen lässt, ohne dass es bei der Erzanreicherung zu Verlusten kommt. Der Verbrauch an Frischwasser lässt sich damit deutlich verringern. Das kommt nicht nur der Umwelt zugute, sondern auch den Bergbaufirmen, weil es die Rohstoffgewinnung effizienter macht. Ihr neues Verfahren stellen die Forscher in der Fachzeitschrift „Journal of Environmental Management“ (DOI: 10.1016/j.jenvman.2018.11.139) vor.

Das HIF gehört zum Helmholtz-Zentrum Dresden-Rossendorf und kooperiert eng mit der TU Bergakademie Freiberg.

Ob im Smartphone, modernen Autos oder Anlagen zur klimafreundlichen Solarstromerzeugung – Hightech-Werkstoffe sind aus dem Alltag nicht mehr wegzudenken. Zwar kann Recycling den Rohstoffbedarf teilweise decken, der Großteil der Materialien kommt aber nach wie vor aus dem Bergbau. Die Umweltauswirkungen sind bekannt: Flächenverbrauch, zusätzliche Verkehrswege sowie Siedlungen in oft entlegenen Gebieten. Hinzu kommen oftmals auch ein großer Wasserbedarf und entsprechende Mengen an Abwasser. HIF-Forscher um den Verfahrensingenieur Bruno Michaux haben gemeinsam mit Kollegen in Finnland eine Methode entwickelt, um den Wassereinsatz in der Aufbereitung mineralischer Rohstoffe nachhaltiger zu gestalten. Am Beispiel des Minerals Fluorit zeigt das Team, wie mithilfe einer Prozess-Simulation der Wasserverbrauch deutlich gesenkt werden kann.

Das Mineral Fluorit –  in der Mineralogie auch als Flussspat bekannt und chemisch als Calciumfluorid bezeichnet – ist ein wichtiger Rohstoff für die Industrie. Es wird beispielsweise für die Verhüttung von Eisen eingesetzt, für die Aluminiumgewinnung oder in der Chemieindustrie als Rohstoff für Fluor und Flusssäure. Das wohl bekannteste Produkt der Fluorchemie ist das Fluorpolymer PTFE, das unter den Handelsnamen Teflon und Gore-Tex bei Membranen vertrieben wird.

Erzaufbereitung als Wasserschlucker

„Bei der Gewinnung von Fluorit wird viel Wasser verbraucht. Abhängig vom örtlichen Klima, vor allem aber von der Auslegung der Aufbereitungsanlage können es bis zu 4000 Liter pro Tonne Erz sein“, erläutert Bruno Michaux. Das Wetter können die HIF-Forscher natürlich nicht beeinflussen, aber sie können dazu beitragen, die Aufbereitung zu optimieren. In diesem Prozessschritt wird aus dem geförderten Erz das wertlose Nebengestein abgetrennt, um den Fluorit-Anteil von unter 50 Prozent auf bis zu 98 Prozent zu steigern. Dazu nutzen die Ingenieure das Verfahren der Flotation. Grob vereinfacht funktioniert es folgendermaßen: Das Erz wird gemahlen und mit viel Wasser vermischt. Dann werden verschiedene Chemikalien hinzugefügt; sie binden an die Fluoritpartikel und machen deren Oberfläche wasserabweisend (hydrophob). Nun wird Luft hineingepumpt. Die aufsteigenden Blasen nehmen die hydrophoben Partikel mit an die Oberfläche. Der Fluorit reichert sich im Schaum an, das Nebengestein bleibt zurück. Bevor es auf Halde gelagert oder als Füllmaterial wieder untertage gebracht wird, muss es entwässert werden. Um die gewünschte Konzentration an Fluorit zu erreichen, wird die Flotation mehrfach wiederholt. Entsprechend viel Wasser ist nötig.

„Bergbaufirmen versuchen, den Verbrauch von Wasser zu verringern, indem sie es mehrfach nutzen“, berichtet Michaux. „Allerdings enthält das gebrauchte Wasser Stoffe, die bei der weiteren Aufbereitung stören können – und das gilt es zu vermeiden.“ Zum Beispiel geht es um Calcium- und Magnesium-Ionen, die eine Hydrophobierung des Fluorits behindern. Wie stark dieser Effekt zum Tragen kommt, hängt von der Konzentration der Ionen ab. Die neue Methode berücksichtigt nun den Einfluss der jeweiligen chemischen Zusammensetzung des Wassers auf die Flotation. Anhand ausführlicher Versuche mit Fluoriterz im Labor erhielten die Forscher Daten, die das komplexe Zusammenspiel der Chemikalien widerspiegeln, und integrierten diese in die Simulationssoftware HSC Sim. In der Bergbauindustrie wird diese eingesetzt, um unterschiedlich zusammengesetzte Erzströme abzubilden und Aufbereitungsprozesse zu steuern.

Digital überwachter Wasser- und Energieverbrauch

„Mit der von uns entwickelten Ergänzung kann die Software nun auch die Zusammensetzung des Prozesswassers einbeziehen“, erklärt Michaux. „Dadurch wird es möglich, das eingesetzte Wasser wiederzuverwenden, ohne dass die Effizienz der Aufbereitung beeinträchtigt wird.“ Auch ein optimaler Einsatz verschiedener Wasserreservoirs nahe der Mine, wie Seen, Flüsse, Grund- oder Meerwasser, ist mithilfe der Simulation denkbar. Weitere Prozessschritte, zum Beispiel das Aufmahlen und die Entwässerung des Erzes, sollen künftig integriert werden. Im Idealfall könnte der Wasserverbrauch dann auf unter 1000 Liter pro Tonne Erz sinken.

In einem Bergbaubetrieb wollen die Forscher das neue Verfahren demnächst dem Praxistest unterziehen. „Da dies einen vollständig digitalisierten Aufbereitungsprozess voraussetzt, bei dem Sensoren die Eigenschaften der Stoffströme kontinuierlich messen und an die Prozesssteuerung weitergeben, werden zunächst eher größere Minen diese Investition leisten“, vermutet Michaux. „Das Potenzial der Digitalisierung ist aber enorm: Mittels Echtzeit-Überwachung und wirklich intelligenter Prozesssimulation und Software ist es möglich, bei einem geringeren Energie- und Materialeinsatz mehr Rohstoffe zu gewinnen“. Dies gilt für alle Erze und nicht nur für die mehrfache Wasserverwendung bei der Fluoritaufbereitung, für die das HIF-Team exemplarisch die Simulationsmethode entwickelt hat.

Publikation: Michaux, J. Hannula

Weltwassertag: Recht auf Wasser weltweit verletzt

Am 28. Juli 2010 hat die UN-Generalversammlung mit der Resolution 64/292 das Recht auf Wasser offiziell anerkannt. Anlässlich des Weltwassertags am 22. März macht die Menschenrechtsorganisation FIAN darauf aufmerksam, dass dennoch 2,1 Milliarden Menschen keinen Zugang zu sauberem und durchgängig verfügbarem Trinkwasser besitzen. Betroffen sind vor allem ärmere Regionen der Welt und dort vor allem ländliche und indigene Gebiete. Zu den Ursachen gehören Diskriminierung marginalisierter Bevölkerungsgruppen, Klimawandel, Bergbau, Industrie sowie der Ausbau von städtischer Infrastruktur und industrieller Landwirtschaft.

Ein Beispiel für die Bedrohung des Rechts auf Wasser durch Bergbauprojekte ist der Fall der indigenen und bäuerlichen Bevölkerung von Kimsacocha in der Provinz Azuay im Süden Ecuadors. Das im Jahr 2002 initiierte Projekt Loma Larga des kanadischen Unternehmens IAMGOLD liegt in Macizo Cajas, einem Gebiet mit hohem ökologischen Wert und vielen Wasserquellen. Obwohl  die UNESCO das Gebiet als Biosphärenreservat anerkannt hat und es Teil des ecuadorianischen Systems der Schutzgebiete ist, werden die Explorationsarbeiten weiter durchgeführt.

Das Menschenrecht auf Wasser ist in der ecuadorianischen Verfassung  verankert und hat  Vorrang vor wirtschaftlichen und industriellen Interessen. Das ecuadorianische Parlament hat 2008 beschlossen, dass Bergbaukonzessionen in Gebieten, in denen es Wasserquellen gibt, zurückgenommen werden. Allerdings wird das Projekt Loma Larga weiter vorangetrieben – mit verheerenden Folgen für die Gemeinden in Kimsacocha. Hierzu zählen ein verminderter Wasserstand der Flüsse und die Verschmutzung des Grundwassers. Das Recht auf Wasser ist nicht nur unentbehrlich zur Gewährleistung der Rechte auf Nahrung und Leben. Wasser hat auch eine spirituelle Bedeutung für die Gemeinden von Kimsacocha.

Seit Beginn des Projekts protestierten die Gemeinden auf nationaler und internationaler Ebene friedlich gegen Loma Larga, sowohl mit politischen als auch mit rechtlichen Mitteln. Infolgedessen wurden viele Personen verfolgt und kriminalisiert. Zu den Kritikpunkten gehört, dass der ecuadorianische Staat vorab keine Konsultationen durchgeführt hat. Dies verstößt sowohl gegen die  Verfassung als auch gegen die ILO-Konvention 169. Erst durch langjährigen Druck der Zivilgesellschaft haben die betroffenen Gemeinden eine Konsultation erwirken können, bei der sie erstmalig mit über die Zukunft des Bergbauprojekts entscheiden dürfen. Diese ist für den 24. März angesetzt.

FIAN Deutschland fordert:
• die Einhaltung nationaler Gesetze und internationaler Abkommen wie zum Beispiel des UN-Sozialpakts; die Rechte der Menschen müssen über wirtschaftliche Interessen gestellt werden;
• Gewährleistung des Rechts auf Wasser der von dem Projekt Loma Larga betroffenen Gemeinden in Kimsacocha;
• Stopp von Verfolgung und Kriminalisierung;
• Stopp des Boykotts der Konsultation durch staatliche Institutionen;
• Respektierung des Ergebnisses der Konsultation vom 24. März und Durchführung der hierfür erforderlichen Maßnahmen.

Digitalisierung soll Anlagenmanagement der Energieversorgungsnetze verbessern – Mit Stellungnahme von Jean Pütz

Diese Forschung wurde auch langsam Zeit. Im Grunde genommen wird aber das Pferd von hinten aufgezäumt. In der Politik wurde viel zu spät berücksichtigt, dass die vielen dezentralen Einspeisungen regenerativer Energiequellen ganz anderer technischer Bedingungen bedürfen als das bisher der Fall war. Insbesondere wenn sämtliche Kohlekraftwerke entsorgt werden sollen, die früher allein schon durch die Größe etlicher Gigawattleistungen die Einhaltung der 50 Herz-Frequenz relativ sicher gewährleisteten. Die Netzstabilität der Zukunft fällt und steigt mit der Möglichkeit, dieses riesige europäische Hochspannungsnetz genauso zu sichern, wenn nicht auf die polnischen Kohlekraftwerke und/oder französischem Kernstrom zurückgegriffen werden soll. Dazu ist ein enormer Regelungsbedarf nötig, der nur durch die Entwicklung der künstlichen Intelligenz Chancen hat. Deshalb begrüße ich diese Forschungsinitiative des Bundesministeriums für Wirtschaft und Energie. Dazu der folgende Artikel
Ihr Jean Pütz

Fraunhofer FIT, Maschinenfabrik Reinhausen GmbH, Robert Bosch GmbH und die RWTH Aachen entwickeln im Rahmen des vom Bundesministerium für Wirtschaft und Energie geförderten Projekts MAKSIM ein kostengünstiges Messsystem zur Optimierung des Asset Managements im Verteilungsnetz. Das Anlagenmanagement der Energieversorgungsnetze in den Bereichen Instandhaltung und Erneuerung soll damit zukünftig vorausschauender und effizienter erfolgen können.

Das Asset Management von Stromnetzbetreibern bietet im Kontext einer Digitalisierung hohe Potentiale zur wirtschaftlichen und technischen Optimierung. Aktuelle Ansätze in der Instandhaltungs- und Erneuerungsplanung der Betriebsmittel basieren zumeist auf Erfahrungswerten, Expertenwissen oder Statistiken. Die dafür benötigte Datenbasis resultiert aus den Ergebnissen regelmäßiger Vor-Ort Inspektionen der Betriebsmittel durch das Instandhaltungspersonal der Netzbetreiber, die alle 3-6 Jahre durchgeführt werden. Diese Ansätze stoßen bereits heute auf Grund einer zumeist unzureichenden Datenbasis an ihre Grenzen.

Mess- und Diagnosesysteme zur Überwachung des Zustandes der Betriebsmittel könnten diese Lücke schließen. Eingebettet in bereits vorhandene Asset Management Strategien würden beispielweise Datenanalysen an online gespeicherten und dauerhaft erfassten Zustandsdaten des gesamten Betriebsmittelparks Netzbetreibern vollkommen neue Geschäftsprozesse, Methoden und Strategien eröffnen. Ausgangsbasis für die Umsetzung solcher Ansätze sind jedoch auf die Anwendung der Verteilungsnetzebene zugeschnittene, technologische Lösungen aus vielen Teildisziplinen, etwa Mess- und Diagnosetechnik, Low-Cost-Sensorik und Datenverarbeitung, IKT, Algorithmen zur Zustandsbewertung oder Datenhaltung, welche geringe Kosten aufweisen müssen. Nur so können flächendeckende Systeme und daraus resultierende technische und ökonomische Mehrwerte für die vorausschauende Instandhaltung und Erneuerung von Energieversorgungsystemen realisiert werden.

Zustandserfassung auf Basis Mikro-Elektromechanischer-Systeme

Mess- und Diagnoseverfahren, die eine dauerhafte Online-Überwachung zentraler Betriebsmittel eines Stromnetzes ermöglichen, existieren heute standardmäßig nur für Betriebsmittel der Hoch- und Höchstspannungsebene. Die im Verteilungsnetz eingesetzten und wesentlich kompakteren sowie kostengünstigeren Betriebsmittel der Mittel- und Niederspannungsebene werden zumeist gar nicht oder nur rudimentär überwacht. Eine einfache Adaption von Standardmessverfahren ist angesichts der finanziellen Aufwände für die Messsysteme nicht möglich. Die in der Hoch- und Höchstspannungsebene eingesetzten Messsysteme kosten häufig so viel wie die Betriebsmittel in der Mittel- und Niederspannungsebene selbst. Aus anderen Industriebereichen sind jedoch Sensorsysteme bekannt, die auf Grund sehr hoher Stückzahlen positive Skaleneffekte aufweisen. Beispielsweise kommen in der Automobil-, Consumer- oder Prozessindustrie kostengünstige Mikro-Elektromechanische-Systeme (MEMS) zum Einsatz, die neben der Sensorik eine integrierte Signalverarbeitung und Kommunikationsschnittstelle enthalten.

Genau hier setzt das Projekt MAKSIM an. Basierend auf MEMS-Technologie werden durch die Projektpartner Fraunhofer FIT, Maschinenfabrik Reinhausen GmbH, Robert Bosch GmbH und die RWTH Aachen kostengünstige Sensor-, Mess-, Informations- und Kommunikationstechnologien entwickelt, angewendet und verifiziert.

In Zusammenarbeit mit Herstellern (Fritz Driescher KG) und drei Verteilungsnetzbetreibern aus den Regionen Aachen (Regionetz GmbH), Köln (Rheinische NETZGesellschaft) und Nürnberg (Main-Donau Netzgesellschaft) erfolgt zunächst die Definition grundlegender Anforderungen an die erforderliche Mess- und Kommunikationstechnik im Hinblick auf Instandhaltung und Erneuerung im Verteilungsnetz. Betrachtet werden unter anderem Faktoren wie Schlüsselparameter, Sensorik, Messgenauigkeit, Reproduzierbarkeit, Verfügbarkeit, Sicherheit, Installationsaufwand und Grenzkosten.

Darauf basierend werden im Rahmen von Laborversuchen Messverfahren Bottom-Up neu entwickelt und anschließend in einem Messsystem umgesetzt. Dabei wird insbesondere untersucht, wie und ob kostengünstige Sensorik aus energietechnikfernen Bereichen eingesetzt werden kann. In diesem Zusammenhang wird eine kostengünstige IKT-Infrastruktur realisiert, die eine zukünftige Digitalisierung des Asset Managements ermöglichen soll. Neben Datenerfassung, -übertragung und -speicherung werden auch Algorithmen zur sensornahen und überlagerten Datenaufbereitung und -analyse sowie zur späteren Einbindung in Zustandsbewertungsverfahren entwickelt. Begleitend zur Entwicklung wird das entwickelte Gesamtsystem in einem Feldversuch beim Endanwender optimiert und einer technisch-wirtschaftlichen Bewertung unterzogen.

Forscher bei Flug-Biosprit vor Durchbruch

19.03.2019

Berkeley – Forscher des zum US-Energieministerium gehörenden Lawrence Berkeley National Laboratory (Berkeley Lab)  experimentieren derzeit mit Treibstoffen aus Pflanzen für Flugzeuge. „Es ist eine gewaltige Herausforderung, Flugzeuge zu bauen, die ihre Energie aus Batterien oder Brennstoffzellen beziehen“, sagt Studienerstautorin Corinne Scown vom Berkeley-Lab-Joint BioEnergy Institute (JBEI) Ursache sei das hohe Gewicht der Energiespeicher. „Aus diesem Grund werden flüssige Biotreibstoffe eine bedeutende Rolle bei der Reduzierung der Klimagase spielen.“

Vorarbeit für die Industrie

Derzeit arbeiten JBEI-Forscher daran, jeden Schritt bei der Herstellung von Biosprit zu optimieren. Einige sind darauf spezialisiert, Pflanzen zu züchten, die viele Kohlenhydrate und wenig Lignin enthalten. Dieses stört bei der Umwandlung und muss vorher entfernt werden. Andere Wissenschaftler arbeiten an Methoden, aus nicht essbarer Biomasse Zucker herzustellen, der sich beispielsweise in den Treibstoff Ethanol umwandeln lässt. Bisher sind dazu meist Pflanzen nötig, die auch als Nahrungs- oder Futtermittel dienen, wie etwa Zuckerrohr oder Getreide.

Um Biomasse in Zucker zu verwandeln, müssen Bakterien manipuliert werden. In Europa und Nordamerika sind bereits solche Mikroorganismen entwickelt worden. Die Ausbeute ist den JBEI-Forschern aber noch zu gering. Wenn alle Schritte zur Herstellung von Biotreibstoffen optimiert sind, sollen die Erkenntnisse an die Industrie weitergegeben werden, damit diese den umweltverträglichen Sprit in großem Stil herstellen kann.

Bereits starke Preisreduktion

Als das JBEI angefangen hat, betrug der Preis für eine Gallone (vier Liter) 300.000 Dollar, so Nawa Baral, der zum Team gehört. Heute sind es 16 Dollar, immer noch mehr als Treibstoff aus fossilen Quellen, dessen Preis bei 2,5 Dollar liegt. In Simulationen, in denen fünf Entwicklungswege durchgespielt wurden, konnten die Forscher zeigen, dass dieser Preis auch für Biotreibstoff erreichbar ist. Ob allerdings so viel Biomasse zur Verfügung steht, um fossile Treibstoffe zu ersetzen, ist fraglich. Der weltweite Luftverkehr benötigt täglich fünf Mio. Barrel.

 

19.03.2019: Appell an die Vernunft- wie lässt sich die Umweltproblematik lösen???

Mit einer Anmerkung von Jean Pütz

Meine persönliche Bemerkung:

Diese Initiative begrüße ich sehr. Möchte auch bemerken, dass ich seit ca. 10 Jahre fast klimaneutral lebe. Trotzdem muss ich Wasser in den Wein gießen und nachfragen, ob diese Initiative in ihrer Außenwirkung auf die Bürger, insbesondere auf die Jugendlichen, falsch verstanden werden kann? Der Mainstream – was an sich positiv zu beurteilen ist – heißt Umweltschutz. Selbstverständlich brauchen wir in unserer unmittelbaren Umgebung saubere Luft, sauberes Wasser, saubere Natur mit ihrer Artenvielfalt, ökologische Landwirtschaft, wir müssen die Meere vor Unrat insbesondere vor Mikroplastik und Plasitkfolien schützen und natürlich vor radioaktiven und giftigen Abwässern.

Dass der KLimawandel von Menschen gemacht ist, kann auch nicht in Abrede gestellt werden. Ob allerdings wir in Deutschland mit einer CO2-Erzeugung von 2% weltweit und Europa mit 10% bei strikter Einhaltung der geschlossenen Grenzwerte das Klima retten können, möchte ich inständig bezweifeln.

Was Deutschland anbelangt, so sind wir auf gutem Wege. Noch nie waren jedenfalls die Gewässer, die Luft so sauber wie heute. Auch die Müllentsorgung inkl. Recycling und Müllerverbrennung kann kaum mehr gesteigert werden. Dieser Aufwand hat sich gelohnt und am Anfang brachte das auch einen großen Ertrag. Aber das Problem ist, Aufwand und Ertrag entwickeln sich nicht linear. Wie bei allen Grenzwert-Betrachtungen verhält sich das entlang einer Parabel. Am Scheitelpunkt bringt noch so viel Aufwand keine Verbesserung, der Grenzwert ist gleich Null. Danach geht es – ähnlich wie von Paracelsus beschrieben – in den Schadensbereich. Mehr hilft eben nicht mehr und schadet sogar. Auf die lokalen Umweltinitiativen bezogen bedeutet das: Wenn es nicht gelingt, einen Großteil der Staaten von der Notwendigkeit z. B. der CO2-Reduzierung zu überzeugen, wird das Problem nicht gelöst – ganz nach dem Prinzip Ursache und Wirkung. Deutschland ist stets mit positivem Beispiel vorausgegangen,  die löblichen Umweltaktivisten glaubten, das Beispiel würde Schule machen, doch leider konnte am Deutschen Wesen die Welt nicht genesen. Nicht einmal in Europa ist ein Konsens möglich.

Was die mit Steinkohle oder Öl befeuerten Kraftwerke anbelangt, so würde unser Verzicht lokal eher eine Steigerung z. B. der Stromproduktion durch diese Kraftwerke in Polen zur Folge haben. Gleiches gilt  für die Kernenergie und der im Moment im Bau und in der Planung befindlichen Tausenden von Kraftwerken in der Welt, z. B. in China, Indien und USA, die schon heute für 50% der globalen CO2-Erzeugung verantwortlich sind. Auch die Kernkraftwerke scheinen eine neue Renaissance zu erleben. Frankreich hat mit der Erzeugung keine Probleme, denn über 100 Kernkraftzentralen sorgen dort für elektrische Energie. Sie haben dazu geführt, dass sie sogar die Gebäude mit elektrischer Energie beheizen und den ganzen Wärmemarkt beherrschen. Was ein Frevel ist, denn besser wäre es, diese Wärme unmittelbar zu erzeugen, entweder in großen oder kleinen Heizkraftwerken, die gleichzeitig dann auch noch Strom erzeugen.

Deutschland hat bewiesen, dass auch mit regenerativen Energien durchaus zu rechnen ist, obwohl die Nebenwirkungen und Risiken häufig nicht offenbart werden, z. B. dass Insekten und Vögel extrem durch Windräder vernichtet werden und Photovoltaik in unseren Breiten wesentlich unergiebiger ist als in südlichen Breiten. Trotzdem wieder ein hohes Lob an Deutschland: Die technologische Kompetenz hat zumindest erreicht der Welt zu zeigen, dass regenerative Energien wirtschaftlich rentabel sind. Wenn wir allerdings auf Grund dieser Erfolge meinen, wir könnten den CO2-Ausstoß in Deutschland durch weitere extreme Maßnahmen, d. h. durch Abschalten sämtlicher Kernkraftanlage und jetzt auch noch aller Kohlekraftwerke die Welt retten zu können, dann möchte ich das entschieden in Abrede stellen. Es ist überhaupt nicht geklärt, ob in Zeiten der Wind- oder Sonnen-Flaute die notwendige elektrische Energie ausreicht, um einen Gau zu verhindern.

Elektrische Energie lässt sich leider nur unter großem Aufwand speichern, z. B. durch Pumpspeicherwerke mit Wasserkraft, aber sonst herrscht Ratlosigkeit. Doch das Wunschdenken führt dazu, dass man glaubt, es müsste irgendwie klappen. Leider gibt es auch viele Wissenschaftler, die das bejahen, aber das sind selten Energiefachleute. Diese warnen inständig vor dem Gau, denn der Hochspannungsnetzverbund ist besonders durch die vielen dezentralen Einspeisungen für Störungen sehr anfällig geworden. Ich glaube, den überzeugten Ökologen dürfte es nicht besonders angenehm sein, wenn wir dann in diesen Zeiten der Flaute Braunkohle-Energie-Strom aus anderen Ländern beziehen müssen.

Das Ganze wird noch verstärkt, wenn wir unsere Autos auf Elektromobilität umrüsten wollen. Der Mainstream scheint zwar dahin zu wirken, aber dass nur mit Akkumulatoren versehene reine Elektroauto ist noch völlig unausgegoren. Ich als Diplom Ingenieur sehe nur eine einzige Chance, und zwar ein modifizierter Hybrid-Antrieb, wobei ein mehr oder weniger kleiner aber auf optimalen Wirkungsgrad eingestellter Dieselmotor oder Turbine nur die Batterie ladet, und deswegen in der Kapazität wesentlich kleiner werden kann. Die eigentliche Genialität steckt im Elektromotor, denn der benötigt keinerlei Getriebe mehr, so dass auch das Gewicht des modifizierten Hybridautos wesentlich geringer werden kann. Auch das erspart enorme Energie, wobei beim Bremsen die Batterie wieder rückgeladen wird.

Das alles hätte den Vorteil, dass die Automobilindustrie nicht völlig entsorgt werden müsste. Das geniale an dem am wenigsten CO2-abgebenden Dieselkonzept bliebe erhalten. Dass die Abgase feinstaub- und stickoxidfrei sind, ist schon bewiesen und wurde nur durch verbrecherische Software-Manipulationen verhindert.

Durch dieses extreme Festhalten an den Grenzwerten der CO2-Reduktion schädigt Deutschland  seine vorbildliche Industrielandschaft, die nicht nur aus Großfirmen besteht, sondern aus kleinen unglaublich aktiven mittelständische Industriebetrieben. Auf diesen beruht der enorme Exporterfolg der deutschen Wirtschaft.

Zur Information: Die Industrie trägt in Deutschland zu 21% am Bruttosozialprodukt bei. Davon träumen Engländer mit nur 10% und Franzosen mit 11%. Der Grund: Deren Politik hat zu spät den notwendigen Wandel der alten Industrielandschaft in moderne Hightech-Industrien erkannt.

Nun stehen wir in großer Konkurrenz mit fernöstlichen Volkswirtschaften, die sich weitgehend nicht an gegebene Grenzwerte halten und deshalb einen enormen wirtschaftlichen Vorteil im weltweiten Handel besitzen. Da helfen uns starre Umweltideologen nicht weiter. Die sich abzeichnende Rezession – auch dadurch verursacht – wird die soziale Stabilität in Europa enorm beeinflussen.

Dieses sollten alle diese Wissenschaftler, die die begrüßenswerte Initiative der jungen Menschen unterstützen, berücksichtigen. Ich glaube, die Schulen sollten hier aktiv werden und zeigen, dass Umweltpolitik nicht nur emotional gesteuert werden kann.

Dies wollte ich einmal anmerken im Vorfeld des folgenden Artikels.

Jean Pütz

Erklärung der NaturwissenschaftlerInnen-Initiative „Verantwortung für Frieden und Zukunftsfähigkeit“ zu Scientists for Future und Fridays for Future

Scientists for Future: Abrüstung für Klimaschutz – Frieden und Zukunftsfähigkeit gehören zusammen

NatWiss: Seit Wochen demonstrieren und streiken weltweit hunderttausende junger Menschen für ihre Zukunft, den Klimaschutz und den Erhalt unserer natürlichen Lebensgrundlagen.Dieses Anliegen der Initiative Fridays for Future unterstützen inzwischen mehr 14.000 WissenschaftlerInnen aus Deutschland, Österreich und der Schweiz. In der Stellungnahme von Scientists for Future erklären sie: „Nur wenn wir rasch und konsequenthandeln, können wir die Erderwärmung begrenzen, das Massenaussterben von Tier- und Pflanzenarten aufhalten, die natürlichen Lebensgrundlagen bewahren und eine lebenswerteZukunft für derzeit lebende und kommende Generationengewinnen.“

Die NaturwissenschaftlerInnen-Initiative „Verantwortung für Frieden und Zukunftsfähigkeit“ schließt sich diesen berechtigten Forderungen an. Diese sind umso dringlicher, als die Zukunftsfähigkeit unseres Planeten zunehmend mit der Frage von Krieg und Frieden verbunden ist. Die Zerstörung der Umwelt und die Ausbeutung natürlicher Ressourcen unseres Planeten gefährden den Frieden und werden einem Sicherheitsrisiko, besonders für Menschen in verwundbaren und fragilen Risikozonen. So sieht auch die Scientists for Future-Erklärung die Gefahr, dass durch unzureichenden Schutz der Böden, Ozeane, Süßwasserressourcenund Artenvielfalt – bei gleichzeitiger Erderwärmung als „Risikovervielfacher” – „Trinkwasser- und Nahrungsmittelknappheitin vielen Ländern soziale und militärische Konflikte auslösen oderverschärfen und zur Migration größerer Bevölkerungsgruppenbeitragen.“ Bei Überschreiten klimatischer Kipp-Punkte des Erdsystems werden sich selbst verstärkende Prozesse in Gang gesetzt, mit weltweit katastrophalen Folgen.

Solche Umweltrisiken verbinden sich auf komplexe Weise mit anderen Krisenerscheinungen, von Armut, Hunger und Flucht über Globalisierung und Technikabhängigkeit, Nationalismus und Rechtsentwicklung bis zu Gewaltkonflikten und neuer Aufrüstung. Diese Entwicklungen sind brandgefährlich und untergraben die Grundlagen für Frieden und nachhaltige Entwicklung. So wie Umweltzerstörung den Frieden gefährdet, so stehen Gewalt und Krieg einer nachhaltigen Entwicklung im Wege. Ein nuklearer Winter durch einen Atomkrieg wäre nicht nur das Ende der menschlichen Zivilisation, sondern auch eine Bedrohung für das Leben auf der Erde.

Dem negativen Teufelskreis muss eine positive Verbindung von Nachhaltigkeit, Entwicklung und Frieden entgegengesetzt werden. Dazu braucht es präventive und kooperative Governance-Strukturen und Institutionen zwischen dem Globalen Norden und dem Globalen Süden, die Klimarisiken vermeiden und Krisenursachen angehen, durch Verteilungsgerechtigkeit, Transformation von der fossilen zu einer nachhaltigen und kohlenstoffarmen Energieversorgung sowie eine friedliche Konfliktlösung und Abrüstung.

Um die notwendigen Veränderungen zu finanzieren und zu realisieren, muss der gefährliche und kostspielige Aufrüstungskurs beendet werden. Klimaschutz braucht Abrüstung!

13.03.2019: „Entwicklungshilfe“: Neue Studie staatlich oder privat? Mit einer Stellungnahme von Jean Pütz.

In meiner 40jährigen Arbeit als Wissenschaftsjournalist habe ich mich sehr um die „Problematik Entwicklungshilfe'“ bemüht. Schon als Student war ich in Köln Vorsitzender eines internationalen Studentenbundes ISSF, der sich mit Arbeits- und Studienaufenthalten in Afrika und Südamerika organisierte,  um junge Menschen die Praxis zu zeigen und auf die Probleme aufmerksam zu machen. Sechs Wochen arbeiteten sie in den Niederlassungen deutscher Firmen in diesen Ländern. Mit diesem Geld, das sie dort verdienten, konnten sie sechs Wochen die dortigen Universitäten besuchen oder Entwicklungsprojekte konkret anzuschauen. Heute weiß ich, dass die Entwicklungshilfe unbedingt mit der dortigen Bevölkerung und nicht nur mit deren Regierung abgestimmt werden muss. In dem Zusammenhang Privatisierung möchte ich bemerken: Das eine tun und das andere nicht lassen, aber nicht nur wegen eines kurzfristigen Profits, sondern auf langfristige  und sozialen, ökologische und ökonomische Nachhaltigkeit beachten.

Ihr Jean Pütz

Neue Studie kritisiert zunehmende Privatisierung der Entwicklungszusammenarbeit

Staatlicher Entwicklungszusammenarbeit mit Finanzinvestoren und Agrarkonzernen. Die Untersuchung kommt zu dem Ergebnis, dass der wachsende Einsatz privater Gelder nicht geeignet ist, um Hunger und Armut strukturell zu bekämpfen.
Die Autoren der Studie „Agrarkonzerne und Finanzindustrie: Die neuen Lieblinge der Entwicklungszu-sammenarbeit?“ widersprechen der Aussage, wonach nur mit Investitionen des Privatsektors die nach-haltigen Entwicklungsziele (SDGs) erreicht werden können. Sie kritisieren, dass das Entwicklungsministerium mit seinem Schwerpunkt auf Privatinvestitionen die eigentlichen Zielgruppen – marginalisierte Bevölkerungsgruppen – aus dem Blick verliere. Da es meist keine Informationen über die finalen EmpfängerInnen der Gelder gebe, seien konkrete menschenrechtliche Wirkungen in der Regel unbekannt.

Roman Herre, Agrarreferent von FIAN Deutschland und Ko-Autor der Studie: „Im Gepäck der SDGs war die Botschaft enthalten, dass zu ihrer Umsetzung gewaltige 2,5 Billionen Dollar pro Jahr fehlen – und nur privates Geld dieses Loch stopfen könne. Diese Botschaft wird nicht hinterfragt. Sie führte zur Neuausrichtung der Entwicklungszusammenarbeit und hat damit möglicherweise mehr Wirkkraft entfaltet als die Entwicklungsziele selbst.“

Ein konkreter Aspekt, der von den Autoren kritisch betrachtet wird, ist die zunehmende Kooperation mit Agrarkonzernen, mit der die Landwirtschaft – vor allem auf dem afrikanischen Kontinent – zu marktför-migen und inputintensiven Systemen umstrukturiert werden soll. Diese Kooperation werde im Rahmen einer Vielzahl von Initiativen realisiert, darunter die Allianz für eine Grüne Revolution in Afrika (AGRA) oder die Neue Allianz für Ernährungssicherung der G7-Staaten. Lena Michelsen, Agrarreferentin von der Entwicklungsorganisation INKOTA kommentiert: „Initiativen wie AGRA setzen vor allem auf den Einsatz von chemischen Düngemitteln und Hybridsaatgut und dienen damit in erster Linie den Expansi-onsbestrebungen großer Konzerne wie Yara und Bayer. Kleinbauern und -bäuerinnen geraten in immer stärkere Abhängigkeiten, und auch die Umwelt leidet unter dem längst gescheiterten Modell der Grünen Revolution. Die von der Bundesregierung zugesagte Förderung in Höhe von zehn Millionen Euro ist eine völlige Fehlinvestition.“

Ein weiterer Kritikpunkt betrifft die Intransparenz der Finanzinstitutionen. Allein die DEG, Tochter der staatlichen Entwicklungsbank KfW, hat mehr als die Hälfte ihrer 7,2 Milliarden Euro Entwicklungsgelder an Finanzinstitute vergeben. Auch haben sich Kredite und Beteiligungen der DEG an Unternehmen in Finanzoasen – darunter den Kaimaninseln oder Mauritius – innerhalb von zehn Jahren verfünffacht. Zur Legitimierung solcher Konstrukte werden oft fragwürdige Kennzahlen und indirekte Wirkungen herangezogen. So erklärt die DEG in ihrem jüngsten Jahresabschluss, dass „DEG-Kunden rund 1,5 Millionen Menschen beschäftigen“. Roman Herre kritisiert: „Aus entwicklungspolitischer und menschenrechtlicher Perspektive müsste untersucht werden, ob durch solche Finanzierungen auch Arbeitsplätze abgebaut wurden. Dies ist besonders bei Agrarfinanzierungen im globalen Süden ein bedeutender Aspekt: Die dortige kleinbäuerliche Landwirtschaft beschäftigt je nach Region 70 bis 80 Prozent der Bevölkerung. Werden Menschen hieraus verdrängt – wie besonders bei großflächigen Agrarinvestitionen – dann verlieren sie oftmals ihre Lebensgrundlagen.“

 

Standorte für Wasserkraftwerke

Big Data bestimmt Standorte für Wasserkraftwerke

Neue Software soll Kleinturbinen in England zum Durchbruch verhelfen

Blick in Google Earth: Da sollte ein Kraftwerk stehen (Foto: le.ac.uk)
Blick in Google Earth: Da sollte ein Kraftwerk stehen (Foto: le.ac.uk)

Leicester (pte002/15.04.2015/06:05) –

Forscher an der University of Leicester http://le.ac.uk entwickeln zusammen mit dem Industriepartner High Efficiency Heating http://hehuk.co.uk derzeit eine Software, die die Nutzung von Wasserkraft in
Großbritannien revolutionieren soll. Das System greift auf
Big-Data-Analysen zurück – unter anderem auf Satellitenbilder, um
automatisch optimale Standorte für Kleinkraftwerke an Flüssen zu finden.
Das könnte die Nutzung erneuerbarer Energien erleichtern.

"Wir sprechen hier potenziell von tausenden günstigen
Turbinen mit zehn bis 20 Kilowatt, installiert an urbanen Flüssen, nahe
am Verbraucher und nahe an problemfreien Netzanbindungspunkten", erklärt
Projektberater Martyn Cowsill. Um ein Netz solcher Kleinkraftwerke
sinnvoll zu ermöglichen, müssten Standorte leicht gefunden werden. Eben
das soll die Software ermöglichen. Die Projektpartner haben dabei
zunächst eine Machbarkeitsstudie am River Tame bei Manchester
durchgeführt und eine Reihe von Lösungen für vorgegebene
Turbinenkonfigurationen gefunden.

Daten für kleine Kraftwerke

Die Idee für das Projekt kam ursprünglich von High
Efficiency Heating. Die Firma hat sich damit an Big-Data-Experten der
Universität gewandt. Denn um automatisiert geeignete Standorte für
Kleinkraftwerke zu finden, müssen große Datenberge bewältigt werden.
"Unser Tool nutzt beinahe 30 Datensätze nationaler Größe, die kostenlos
verfügbar sind", so Kevin Tansey, Lektor für Fernerkundung an der
University of Leicester. Dazu zählen gute Höhendaten der staatlichen
Environmental Agency, die eine Abschätzung des Gefälles erlauben.

Die Ergebnisse erster Feldtests am River Tame im
Oktober 2014 verliefen Tansey zufolge sehr gut. Die Lösung sei auch
alltagstauglich. "Wir haben ein sehr visuelles, sehr interaktives
Nutzerinterface in Google Earth erstellt, das die verschiedenen Lösungen
an unterschiedlichen Standorten und ihre Kosten zeigt", erklärt Tansey.
Damit ist es leicht, Auswertungen auch vor Ort bei Landbesitzern oder
Turbinenherstellern zu zeigen. "Wir können das Tool nutzen, um mögliche
Standorte an jedem beliebigen Flussabschnitt im Land zu zeigen", so der
Forscher.

Umgänglicherer Ökostrom

Die Projektpartner sind vom Potenzial der Lösung
überzeugt, da sie einen einfacheren Zugang zu Wasserkraft bietet. Denn
die Standortfindung für kleine Wasserkraftwerke wird viel schneller und
günstiger. Das könnte sich im Ökostrom-Zeitalter doppelt rentieren.
"Wasserkraft ist eine Stufe besser als Solar oder Wind, weil Flüsse rund
um die Uhr laufen", unterstreicht Cowsill. Die Anlagen können Strom
also genau dann liefern, wenn er benötigt wird. Ein Zwischenspeichern
ist im Gegensatz zu Wind- und Solarenergie nicht nötig.

Passivhäuser unterstützen Kyoto-Protokoll

Energie-effizientes Bauen spart CO2 und Heizkosten

Böblingen, 17. Februar: Das Kyoto-Protokoll ist in Kraft getreten. Ob
es Deutschland allerdings gelingen wird, seine ehrgeizigen
Klimaschutzziele zu erreichen, ist derzeit mehr als fraglich. Einen
ganz erheblichen Beitrag zur CO2-Minderung können die Privathaushalte
leisten. „Passivhaus“ heißt der trendsettende Baustandard, der ein
immenses Einsparpotenzial beinhaltet – sowohl, was den CO2-Ausstoss,
als auch, was die Heizkosten betrifft. Über alle Aspekte des
energiesparenden Bauens und Sanierens sowie über alle regenerativen
Energieträger informiert die Messe „erneuerbare energien 2005“ zusammen
mit der „Passiv-Haus 2005“ vom 25.-27.2.2005 in Böblingen. Erwartet
werden rund 8.000 Besucher.
Derzeit gibt es rund 6.000 Passivhäuser in Deutschland. Bis zu 15.000
werden es nach Einschätzung der Experten vom Fraunhofer Institut Solare
Energiesysteme bis Ende 2006 sein. Für 2010 wird jeder fünfte Neubau
(das entspricht 60.000 Wohneinheiten) auf Passivhausstandard
prognostiziert.
Jedes Passivhaus spart gegenüber einem durchschnittlichen Wohnhaus mehr
als 90 Prozent Heizöl, das sind pro Jahr bei 100m² Wohnfläche 1.350
Liter. 15.000 Passivhäuser sparen somit 20.250.000 Liter Heizöl im Jahr
und vermeiden einen CO2 Ausstoß von 56.700 Tonnen!
Die Zunahme der Heizkosten im Jahr 2004 um 25 – 35 % lässt die
Passivhaus-Besitzer kalt. Beim aktuellen Stand der Heizölpreise
betragen die Heizkosten im Passivhaus nicht einmal mehr einen Euro pro
Quadratmeter Wohnfläche und Jahr. Jährlich lassen sich über 600 Euro
einsparen. Der übrige Energiebedarf lässt sich problemlos und
kostengünstig über erneuerbare Energien decken. Passivhäuser machen
unabhängig von fossilen Energieträgern.
Auch im Bereich der Altbausanierung lässt sich der Passivhaus-Standard
erreichen. Zahlreiche Förderprogramme, z.B. von der KfW-Bankengruppe,
machen sowohl den Passivhaus-Neubau als auch die energetische
Altbausanierung zusätzlich finanziell attraktiv.
Weitere Informationen gibt es unter www.erneuerbareenergien.com

Sonnenenergie unverhältnismäßig populär

Solarkraft deckt nur 0,01 Prozent des US-Strombedarfs

New York (pte/17.07.2007/16:15) – Solarenergie ist in den USA sehr beliebt, wird im Gegensatz zu kalorischer und nuklearer Stromerzeugung jedoch noch lange ein Nischendasein fristen. Eine Umfrage der Trade Association of the Nuclear Power Industry http://www.world-nuclear.org ergab, dass 27 Prozent der US-Bürger die Sonnenenergie als die meistgenutzte Energiequellen der Zukunft sehen. Dieser optimistischen Einstellung widersprechen jedoch die Zahlen der Experten. Vergangenes Jahr seien weniger als 0,01 Prozent des Strombedarfs der USA durch Sonnenenergie gedeckt worden.

Ohne außergewöhnliche Fortschritte in der Forschung würde dieser Wert in 25 Jahren bei höchsten zwei bis drei Prozent liegen, vermuten das US Department of Energy (DOE) http://www.energy.gov. "Das Problem ist, dass die Energiewirtschaft dem Wunsch der Bevölkerung nicht entsprechen will", erklärt Hermann Scheer, Vorsitzender des Weltrats für erneuerbare Energie (WCRE) http://www.wcre.org, gegenüber pressetext. "In Deutschland liegt die Zustimmung zu Erneuerbarer Energie mit 75 bis 90 Prozent noch weit höher."

Das System, bestehend aus Transport, Infrastruktur, Kraftwerken und anderen Faktoren, sei jedoch auf herkömmliche Energiegewinnung zugeschnitten und tauge beispielsweise nicht für Solarenergie. "Die Investitionen in diese Strukturen werden nie abgeschrieben sein, deshalb wäre eine Umstellung mit enormen Kosten verbunden, die die Energiewirtschaft natürlich nicht tragen möchte", meint Scheer.

Während Gouverneur Arnold Schwarzenegger in Kalifornien im Zuge der Kampagne "Million Solar Roofs" eine Million Haushalte mit Solarenergieanlagen ausstatten will, wird weltweit ein kalorisches Kohlekraftwerk pro Woche gebaut. Auf Grund hoher Kosten sei Solarenergie immer noch nicht konkurrenzfähig, erklären die Experten. Es gibt jedoch nur wenige Programme, die versuchen die Kosten drastisch zu vermindern. Während das DOE heuer 159 Mio. Dollar für die Forschung im Bereich der Sonnenenergie ausgibt, wird für Nuklearenergie die doppelte Summe, für Kohle sogar die dreifache Summe aufgewendet.

Reise zum Kleinsten im Kleinen – sinnvolle Forschung wird mit Millionen gefördert

die
experimentelle Forschung zu den fundamentalen Bausteinen der Natur und
den dazu notwendigen Technologien am Karlsruher Institut für Technologie
(KIT) wird zwischen 2019 und 2021 vom Bundesministerium für Bildung und
Forschung (BMBF) mit insgesamt 7,6 Millionen Euro gefördert. Die
Wissenschaftlerinnen und Wissenschaftler können damit die Forschung an
internationalen Großexperimenten wie dem CERN in Genf in der Schweiz
oder dem KEK im japanischen Tsukuba weiter vorantreiben.

Die
Elementarteilchenphysik hat zum Ziel, die fundamentalen Bausteine der
Natur und ihre Wechselwirkungen zu erforschen, und erlaubt so
beispielsweise Rückschlüsse auf die Mechanismen des Urknalls. Das BMBF
fördert in der Elementarteilchenphysik insbesondere die Beteiligung
deutscher Universitäten an großen Experimenten, wie sie am europäischen
Labor CERN bei Genf oder am Forschungszentrum für Hochenergiephysik KEK
in Tsukuba nördlich von Tokio betrieben werden.

Forscherinnen und
Forscher am Institut für Experimentelle Teilchenphysik (ETP) des KIT
haben nun neue, erhebliche Fördermittel für ihre Beiträge zu den
Experimenten CMS (Compact-Muon-Solenoid) am CERN und Belle II am KEK
zugesprochen bekommen. Zusätzlich hat das BMBF dem KIT Mittel für den
Aus- und Umbau des CMS-Experiments und die Entwicklung neuer Methoden
zur Bewältigung der großen Datenmengen der Experimente bewilligt.
Insgesamt beläuft sich die Fördersumme auf rund 7,6 Millionen Euro für
die kommenden zweieinhalb Jahre.

CMS – Detektor am größten Teilchenbeschleuniger der Welt

Das CMS-Experiment ist
als eines von vier großen Experimenten am Ringbeschleuniger Large Hadron
Collider (LHC) des CERN im Einsatz. Das ETP ist seit dem Beginn der
Planungs- und Konstruktionsarbeiten mit einem Team von insgesamt etwa 90
Personen beteiligt. Das ist die größte universitäre Arbeitsgruppe, die
am CERN forscht. Wesentliche Elemente des Detektors – insbesondere im
Bereich der Siliziumtechnologie – entstanden in den Laboratorien des
KIT. Außerdem wurden hier Algorithmen entwickelt, mit denen die riesigen
Datenmengen analysiert werden können. Bisheriger Höhepunkt der
Forschung am CERN war die Entdeckung des Higgs-Bosons im Jahr 2012, an
dem Karlsruher Mitglieder der CMS-Gruppe maßgeblichen Anteil hatten.

Das CMS-Erneuerungsprogramm

Die Vorbereitungen für
die Zukunft des CMS-Experiments ab dem Jahr 2026 sind bereits in vollem
Gange. Forscherinnen und Forscher des KIT bauen dazu hochpräzise
Silizium-Teilchendetektoren, mit denen im Inneren des CMS-Experiments
auf die Flugbahnen von Elementarteilchen geschlossen werden kann. „In
diesem Projekt verbindet sich physikalische Grundlagenforschung mit
Technologieentwicklung, oft an der Grenze des technisch Machbaren“,
charakterisiert Projektleiter Professor Ulrich Husemann das Vorhaben.

Belle II – Kollisionen im japanischen Superbeschleuniger

Das Belle II-Experiment
am KEK wird im Jahr 2019 die ersten Kollisionen bei hoher Luminosität
(Teilchenkollisionen pro Sekunde und Quadratzentimeter) aufzeichnen.
Während der Large Hadron Collider am CERN der Beschleuniger mit den
höchsten Energien ist, besitzt der japanische Superbeschleuniger die
hundertfache Intensität gegenüber bisher betriebenen Anlagen. In
Kollisionen von Elektronen mit deren Antiteilchen, den Positronen, wird
eine große Anzahl von b-Quarks erzeugt, deren hochpräzise Messung die
Suche nach neuen Physikphänomenen erlaubt. Wichtige Elemente des
Experimentes wurden am KIT entwickelt — insbesondere Algorithmen, welche
die Daten mithilfe Künstlicher Intelligenz interpretieren. Insgesamt
ist ein Team aus etwa 30 Wissenschaftlerinnen, Wissenschaftlern und
Studierenden des KIT an dem Experiment beteiligt.

„Wir haben in den
letzten Jahren starke Indizien dafür gefunden, dass sich Elektronen und
ihre schweren ‚Cousins‘, die Myonen und Tauonen, anders verhalten als
wir erwarten“, sagt Projektleiter Professor Florian Bernlochner. Bis
Ende 2021 will das Belle II-Experiment genügend Daten aufzeichnen, um
diesem Mysterium auf den Grund zu gehen.

Pilot-ErUM-Data – effiziente Infrastrukturen und Maschinelles Lernen

Einen Beitrag zur
Digitalen Agenda der Bundesregierung leistet das Verbundprojekt
Pilot-ErUM-Data. In diesem Projekt arbeiten Wissenschaftlerinnen und
Wissenschaftler des KIT mit Partnern von anderen Universitäten aus den
Forschungsfeldern Astro¬teilchen-, Hadronen-, Kern- und Teilchenphysik
daran, effizientere Computing-Infrastrukturen, verbesserte
Datenauswertung durch Methoden des Maschinellen Lernens und
leistungsfähigere Algorithmen zur Datenauswertung und Simulation zu
entwickeln. „Die Herausforderungen durch die großen Datenmengen unserer
Experimente erfordern neue, leistungsfähigere Rechenkonzepte“, sagt
Projektleiter Professor Günter Quast.

„Wir forschen weltweit
und die Mitglieder unseres Teams kommen aus aller Welt. Mit den neuen
Fördermitteln wird es uns gelingen, im Rahmen unserer Forschung nach den
fundamentalen Bausteinen der Natur auch weiterhin unserer
gesellschaftlichen Rolle nachzukommen und neben der Entwicklung neuer
Technologien vor allem auch unseren wissenschaftlichen Nachwuchs in
Hochtechnologien und internationaler Zusammenarbeit auszubilden“, betont
der Leiter des ETP Professor Thomas Müller, der als Projektleiter auch
die laufenden CMS-Aktivitäten koordiniert.

Schlussverkauf : Schluss mit falschem „Räumungsverkauf“

EU geht gegen unlautere Geschäftspraktiken vor


Wer kennt sie nicht, die Geschäfte, in denen das ganze Jahr „Räumungsverkauf“ ist, die jedoch niemals geräumt werden? Oder die Bestattungsinstitute, die manchmal schneller als die Angehörigen vom Tod eines Menschen erfahren und den geschockten Hinterbliebenen unverzüglich ihre Dienste anbieten. Mit Praktiken dieser Art sollen demnächst EU-weit verboten sein. 
Um dem Verbraucher einen europaweiten Schutz vor unlauteren Geschäftemachern zu bieten, stellte die EU-Kommission bereits im Juni 2003 einen Richtlinien-Vorschlag vor, der am Donnerstag vergangener Woche auch vom Europaparlament gebilligt wurde. Irreführend und aggressiv


Denn trotz Einheitswährung und freiem Waren- und Personenverkehrs machen die wenigsten EU-Bürger von ihrer Freiheit, außerhalb der nationalen Grenzen einzukaufen, Gebrauch. Dies lähmt die Wirtschaft, die im grenzüberschreitenden Geschäftsverkehr immer noch auf dem Niveau von 1991 verharrt. Als Haupthindernis für die mangelnde Bereitschaft, als Verbraucher europäisch zu denken und zu handeln, gilt das mangelnde Vertrauen in die Redlichkeit der Händler. 
Der Richtlinienvorschlag, der noch vom Ministerrat gebolligt werden muss, sieht eine Unterteilung der unlauteren Geschäftspraktiken in irreführende und aggressive Praktiken vor. 
Als irreführende Praktiken gelten beispielsweise: 
– Lockangebote (Anpreisung eines Produkts als Sonderangebot, ohne dass das Produkt überhaupt oder in ausreichender Menge auf Lager ist);
– Verwendung des Begriffs „Räumungsverkauf“ oder ähnlicher Bezeichnungen, wenn der Händler tatsächlich keine Geschäftsaufgabe beabsichtigt;
– Behauptung, ein Produkt könne legal verkauft werden, wenn dies nicht der Fall ist;
– Einsatz von „Advertorials“ (vom Werbenden finanzierte Berichterstattung über ein Produkt in den Medien), ohne dass deutlich gemacht wird, dass es sich um Werbung handelt;
– Behauptung, zu den Unterzeichnern eines Verhaltenskodex zu gehören, wenn dies nicht der Fall ist
– Beschreibung eines Produkts als „gratis“, „frei“, „kostenlos“ oder ähnliches, wenn der Verbraucher irgendwelche Kosten außer den unvermeidlichen Kosten im Zusammenhang mit der Reaktion auf ein Angebot, mit der Abholung oder dem Versand des Produkts tragen muss. 


Belästigung, Nötigung und unzulässige Beeinflussung. Die aggressiven Geschäftspraktiken lassen sich mit den juristischen Begriffen der Belästigung, Nötigung und unzulässigen Beeinflussung zusammenfassen. Als Beispiele nennt die Kommission folgende, wohl in allen Ländern der Union vorkommende Praktiken: 
– Herbeiführen des Eindrucks, der Verbraucher könne den Verkaufsraum nicht verlassen, ohne einen Kaufvertrag abgeschlossen zu haben;
– persönliche Besuche in der Wohnung des Verbrauchers unter Nichtbeachtung der Aufforderung, die Wohnung zu verlassen oder nicht wieder zu kommen;
– hartnäckiges und unerwünschtes Ansprechen von Kunden über Telefon, Telefax, E-Mail oder sonstige für den Fernabsatz geeignete Medien;
– gezieltes Ansprechen von Verbrauchern, in deren Familie kürzlich ein Todesfall oder eine schwere Erkrankung aufgetreten ist, um ihnen ein Produkt zu verkaufen, das in direktem Bezug zu dem erlittenen Unglück steht;
– an Kinder gerichtete Werbung, die diesen suggeriert, ihre Akzeptanz unter Gleichaltrigen sei davon abhängig, dass ihre Eltern ihnen ein bestimmtes Produkt kaufen;
– Zahlungsaufforderung für Produkte, die der Händler geliefert, der Verbraucher aber nicht bestellt hat (unbestellte Waren oder Dienstleistungen). Weiterhin werden allgemeine Grundsätze festgelegt, nach denen entschieden werden kann, ob andere Geschäftspraktiken als unlauter verboten werden sollen. Testkriterium ist in den meisten Fällen die Frage, ob eine Praxis das Verhalten eines „durchschnittlichen“ Verbrauchers in unfairer Weise beeinflussen würde; zusätzlich gibt es Bestimmungen, die besonders gefährdete Verbraucher schützen sollen. 
Der Richtlinienvorschlag dürfte vom Rat in den kommenden Wochen formell verabschiedet werden und sollte ab 2007, nach der Umsetzung in nationales Recht der einzelnen Mitgliedstaaten, EU-weit gelten. Danach haben die EU-Mitglieder noch während weiterer sechs Jahre die Möglichkeit, unter bestimmten Umständen nationale Vorschriften beizubehalten, die strenger sind als die neuen EU-Vorgaben. (03.03.2005)