Technik und Angst

In Teil 4 der Serie macht sich Wolfgang Bachmann auf die Suche, was von früher religiös gefärbten Urängsten unter anderem Etikett bis heute überlebt hat. Er wird reichlich fündig.


ALLE Artikel im Netz auf aka-bklaetter.de lesen und auch das Archiv?

Jetzt kostenlos

Anmelden



serie: physik, gehirn & glaube
von Prof. Dr.-Ing. Wolfgang Bachmann

Teil 1: Religion und Wissenschaft:  Wie hängt dies zusammen, das Ich, das Gehirn, das Gemüt, der Verstand? Was unterscheidet uns vom Tier?
Teil 2:Einbruch der Wissenschaft in die ReligionBiologie ist die Wissenschaft vom Leben. Und „Leben“ ist ein wesentliches Anliegen der Religionen, wie auch der Naturwissenschaften.
Teil 3: Seelenverwaltung.
 Es gibt keine Religion, die sich nicht ausgiebig zum Thema „Seele“ festlegt. Auch die Psychiatrie hat dazu klare Vorstellungen. Die „Seele“, eine Vorstellung, die beim Verlöschen des Lebens in Existenznot gerät.
Teil 4: Technikfeindlichkeit und Glaubenssucht Wir brauchen Technik, können aber nur schwer deren ungewollte Nebenwirkungen akzeptieren. Was sind „Strahlen“? Für den glaubensbereiten Laien sind es magische, sehr schädliche Fernwirkungen.
Teil 5: Der Medizinmann kommt Wenn sich Technikangst paart mit übergroßer Sorge um die eigene Gesundheit, bleibt die Vernunft auf der Strecke. Hokuspokus, Schamanismus – alles soll uns kurieren, nur nicht die wissenschaftliche Medizin.
Teil 6: Zusammenfassung Religion, Macht und Ethik. Wie könnte es weitergehen?

 

Gläubige Hindus erhoffen sich durch tugendhafte Lebensführung die Schließung des Sündenregisters (Karma) und damit den Austritt aus dem ewigen Kreislauf der Wiedergeburten (Samsara).

Die Christen erwarten ein himmlisches, unkörperliches Weiterleben, soweit sie im irdischen Dasein nicht der Sünde verfallen sind.

Der rechtgläubige Muslim hofft auf Aufnahme in sein Männerparadies, wo ihm die reizvollsten Frauen („Huris“) in ewiger Jugend zur Verfügung stehen.

Der fromme Jude hingegen hat nur verschwommene Jenseitsvorstellungen, für ihn findet die Abrechnung und Wiedergutmachung jährlich einmal am Feiertag „Jom Kippur“ statt.

Allen gemeinsam ist die insgeheime Angst vor selbstverschuldetem kommendem Unheil. Jenseitig angelegte Sündenregister bewegen die diesseitige Welt.

Jenseitiges Vermuten kann genauso die Angst schüren wie diesseitiges. Nur – die zugrunde liegende Unwissenheit ließe sich im letzteren Fall beheben. Uns interessiert jetzt die diesseitige Angst im Verbund mit Misstrauen gegen „Nichtnatürliches“ und gegen dessen Erzeuger. „Chemie“, „Elektrosmog“, „Gen“, „Klima“, „Atomstrahlung“ sind die Schlüsselworte.

Voll verstrahlt

„Ein Gespenst geht um in Europa – das Gespenst der Strahlung“, so könnte man in Abwandlung des geflügelten Zitats aus dem Kommunistischen Manifest von 1848 sagen. Die Strahlenangst („Radiophobie“) ist allgegenwärtig. Tschernobyl und Fukushima werden als „Reaktor-Katastrophen“ beschrieben. Was ist eine „Katastrophe“? Im Grundgesetz, Art. 35, wird die Katastrophe indirekt beschrieben „Zur Hilfe bei einer Naturkatastrophe oder einem schweren Unglücksfall kann ein Land Einrichtungen … des Bundesgrenzschutzes und der Streitkräfte anfordern“. Bei Wikipedia steht zu lesen: „Je nach Berechnungsmethode schwanken die Angaben über die Anzahl der Toten zwischen 10.000 und mehr als 100.000 Todesopfern. Ja sogar von 1.6 Millionen ist die Rede. Im SPIEGEL 5/1987 sind es 31. Also 5 Millionen % Abweichung zwischen kleinster und größter Zahl! Groteske Auswüchse eines Glaubenskampfes.

Nach dem Stand von 2002 (www.pro-physik.de/details/articlePdf/1106021/issue.html) kamen bei Tschernobyl durch Strahlenwirkung wohl 50 Personen zu Tode, bei Fukushima keine. Zum Vergleich: Global kommen an einem einzigen Tag durch Straßenverkehr 3000 Menschen um, im Bergbau 60.

„Atomstrahlung“ macht krank. Davon ist fast jeder überzeugt. Angst verhindert die vernünftige Relativierung. In der Tat, jede „ionisierende Strahlung“, also „Alpha“, „Beta“, „Gamma“ und „UV-B-C“ kann Körperzellen schädigen.

Zerstört also jeder „Einschlag“ die getroffene Zelle? Nein, das Bild von der „statischen“ Körperzelle mit konstantem Inhalt ist nicht richtig. Realistischer wäre das Bild von der Zelle als dauernd beschäftigter Genreparaturwerkstatt. Wenn in diesen hektischen Betrieb noch ein einzelnes Schadensereignis hinzukommt, fällt es überhaupt nicht auf. Erst wenn die ionisierende Strahlungsstärke (= Zahl zusätzlicher, reparaturfordernder „Einschläge“ pro Sekunde) vergleichbar wird mit dem gewöhnlichen laufenden Reparaturaufwand, dann wird der Reparatur-Prozess überfordert: Damit ergibt sich zwanglos ein Schwellenwert, oberhalb dessen unreparierbare Schädigungen eintreten.

Die Zahlen und Einheiten dazu sind vielleicht etwas gewöhnungsbedürftig, aber ohne konkrete Daten schwebt die ganze Angelegenheit im Nebel der Beliebigkeit: Natürliches Kalium enthält immer einen geringen Anteil des langlebigen Isotops K-40, was bei einem 70-kg-Menschen (in den Knochen eingelagert) letztlich zu einer Dosis von 0.16 mSv/Jahr (0.02µSv/Std) führt (nach IAEA). Jeder Mensch strahlt. Ängstliche Ehepaare sollten daher ihre Ehebetten auseinander rücken.

Wesentlich stärker als die K-40-Eigenstrahlung ist die Umweltbelastung, vor allem durch Radon222 mit 2.4…3.5mSv/a (nach Lees-Miller, Univ.Calgary). Dazu kommt noch 2mSv/a Strahlung aus technischen Quellen. Die mittlere Äquivalentdosis zusammengesetzt aus je zur Hälfte natürlicher und technischer Bestrahlung beträgt also etwa 4.4 – 5,5 mSv/a. Also wird ein vernünftiger Grenzwert bei etwa 10 mSv/a liegen. Die EU-Richtlinie ist etwas großzügiger und gibt als Grenzwert 20 mSv/a an.

Damit sind wir bei der heißumstrittenen Kontroverse der „schwachen Dauerbestrahlung“. Wer Ängste schüren will, besteht auf der Richtigkeit des „linearen Modells“ („linear no threshold“, LNT), bei dem ausgehend von den Langzeit-Schädigungen bei starker Dauerbestrahlung proportional auf das Ausmaß der Schäden bei schwacher Strahlung geschlossen wird. Wenn zwischen „stark“ und „schwach“ eine Systemänderung passiert, ist das aber Unsinn.

Wie absurd LNT ist, lässt sich am Beispiel der Kochzeit für das Frühstücks-Ei veranschaulichen. Wenn z. B. das Ei perfekt präpariert ist bei 3 Minuten Kochzeit und 100 °C oder auch genausogut bei 90 °C in 4 Minuten, so ergäbe hier das lineare Modell die Formel: K=13-T/10, also z. B. bei der Wassertemperatur T=20 °C die Kochzeit K in Minuten: K=13-20/10= 11. D. h. das Ei einfach liegen lassen und 11 Minuten lang warten (sehr stromsparend und bequem): Und schon ist das Frühstücksei fertig. Ein offenbar absurdes Modell – es ignoriert den Schwellenwert von ca. 70 °C, bei dem das Eiweiß gerinnt. Unterhalb dieses Schwellwerts gelten andere Gesetze.

Dieses Frühstücksei hat politische Bedeutung: Gesetze zum Schutz vor schwacher, langzeitiger Strahlung, die wie in Deutschland vom LNT-Modell ausgehen, führen offenbar zu übertriebenen Schutzmaßnahmen und zu unnötiger Strahlenangst für den Fall „schwacher Strahlung“. Diese Vorstellung wird jetzt auch gestützt von der International Atomic Energy Agency (IAEA), siehe auch Tubiana et.al. Radiology. 2009 April; 251(1): 13–22.

In diesem Licht begreift man auch die abhärtende und damit gesundheitsfördernde Wirkung von Strahlung in geringer Stärke, aber nicht nur von Strahlung, sondern auch von sonstigen zellschädigenden Umständen – ein Effekt, der als „Hormesis“ bezeichnet wird. Beispiel: Radon-Kuren, mäßiger Alkoholgenuss; Sauna. Doch schon die Existenz dieses zellbiologisch notwendigen Grenzwertes wird von Atom-Aktivisten bestritten. Fakten stören den Glauben. (Edward J. Calabrese and Linda A. Baldwin: Human and Ecological Risk Assessment: Vol. 8, No. 2, pp. 327-353 [2002])

Patentiertes Leben

Gen-Technik (engl. „genetic modification“, GM), von ebensoviel Furcht begleitet wie Strahlungen aller Art, verändert gezielt das Erbgut (Chromosomen) von Pflanzen und Tieren, um gewünschte, vererbliche Merkmale zu schaffen. Insbesondere gefragt ist z. B. Resistenz von Getreide gegen gewisse Schädlinge.

Züchtung ist Genmanipulation. Der Dackel ist ein genmanipulierter Wolf. Aber wenn heute jemand im Gentechnik-Labor einen Wolf zum Dackel mutierte, zöge er allgemeinen Zorn auf sich, obwohl sich doch der GM-Dackel in keinem Punkt vom Zucht-Dackel unterschiede. Wieso? Angst fragt nicht. Doch die Empörung hat noch tiefere Ursachen:

Betrachten wir ein Salzkorn – wie es auch das besagte Frühstücksei verbessert: es ist ein Kristall von hoher Perfektion („kubisch-raumzentriert“) und ein allgegenwärtiger Fall von sich selbst organisierender Materie. Auch Leben ist selbstorganisierte Materie. Noch hat niemand behauptet, Salzkristalle seien göttliche Schöpfungen, ich kann sie doch selbst in Wasser wieder auflösen und bei Bedarf eindampfen und neuerlich kristallisieren lassen.

Doch die höchste Form der von Darwin erkannten Selbstorganisation der Materie wird von fundamental gläubigen Christen, Moslems und Juden abgelehnt. Glaube überschreitet hier eine rote Linie und befindet über die Physik – wie gehabt.

Z. B. musste 1642 Galileo Galilei seine neuen astronomischen Erkenntnisse unter Androhung des Scheiterhaufens zurücknehmen – seine Physik störte die Glaubensvermutungen. Amerikaner fuhren auf gen Himmel und landeten auf dem Mond … und sie hatten bei der Rückkehr Glück – es gibt keine heilige Inquisition mehr. Die Verlockung zur gläubigen Anmaßung über die Physik ist geblieben. Entsprechend kommt aus den USA das Märchen von der nur vorgetäuschten Mondlandung: 60 % der konservativen Abgeordneten sind „Creationists“. Die Bibel ist ihr Physikbuch.

Neben der geputschten Angst vor „giftigen“ Gen-Produkten und der religiösen Scheu vor dem Basteln am Leben kommt noch ein Drittes: Der Gen-Imperialismus. Gen-Firmen, hauptsächlich aus USA und Deutschland, betreiben eine Revolution der Landwirtschaft. Aus freien Agrar-Unternehmern werden total abhängige marktferne Landarbeiter, die z. B. nicht mehr frei über ihr Saatgut verfügen können. Ein Berufsstand wird aussterben, pharmazeutische Großkonzerne übernehmen. Wie soll sich der Gesetzgeber verhalten? Den „Fortschritt“ aufhalten? Das Patentieren erschweren? Gentechnik verbieten?

Philosophisches Unwohlsein beschleicht uns. Ausufernde Konzernmacht konkurriert mit einem schwach und konzeptlos erscheinenden Staat.

Chemie im Wein

Was ist Chemie? Chemie ist die Wissenschaft, welche sich mit der Zusammensetzung, der Struktur und den Eigenschaften von Stoffen und mit deren Veränderungen befasst (übers. aus Webster’s New Encyclopedic Dictionary).

Misstrauisch öffnet jemand eine Flasche Wein von ungewohnter Herkunft. „Ist da Chemie drin?“ –Schon die Frage verwundert. Sollte es Materialien auf dieser Erde geben, die nicht chemisch zusammengesetzt sind? Es gibt keinerlei Unterschied zwischen natürlich synthetisierten und labortechnisch hergestellten Stoffen und chemischen Verbindungen (bei gleicher Chiralität). Die „Natur“ kann auch nicht mehr als „Synthetisieren“, sie beherrscht nur manche Syntheserezepte, die man in der Industrie noch nicht kennt.

Viele Naturfreunde vermuten, dass natürlich vorkommende Substanzen wegen ihrer Natürlichkeit ja nur gesund sein können. Das klingt angenehm, ist aber abwegig. „Natürlichkeit“ ist keine Eigenschaft aus der Welt der Physik. Wer hat noch nie von Knollenblätterpilzen gehört? Z. B. genügt auch schon ein zerkautes Samenkörnchen der Rhizinuspflanze, um dem Leben ein Ende zu bereiten.

„Aber Chemie ist doch giftig?“ Es gibt keine Giftstoffe: jede Substanz kann töten, wenn sie nur in genügender Menge eingenommen wird. Ein bekannter, kluger Rat, fast 500 Jahre alt: „Dosis sola venenum facit“ („Allein die Dosis machts“; Paracelsus, 1538). Wer 20 Liter Wasser trinkt, stirbt, wer 2 Millionstel Gramm des Kampfstoffes VX einatmet, stirbt ebenfalls. Man muss für jeden Fall den Grenzwert kennen, der zwischen „zuträglich“ und „schädlich“ liegt – ein Satz, der für alles zu gelten scheint, was auf uns einwirkt. Auch für Ideologien und Religionen.

Der auf Unwissenheit beruhende „Chemie-Glaube“ ist eine Form der Natur-Nostalgie, wie sie uns allen in verschiedenem Maße gegeben ist. Rauschende Wälder, plätschernde Bäche, zwitschernde Vögel. Der „Sinn“ der Menschheit besteht darin, die Erde in einen solchen Paradiesgarten zu verwandeln, aber unter Optimierung des Lebensstandards für alle. Dahin führt ein langer schmerzhafter Weg, nur – der Chemie-Glaube verwirrt die Orientierung.

Smog überall

Jede elektrische Spannungsquelle erzeugt elektrische Felder im umgebenden Raum. Jeder fließende Strom erzeugt Magnetfelder. „Elektrizität strahlt“. Wir wollen nur zwei elektrische Strahlungsquellen erwähnen – die Funktechnik und die Stromleitung. Besorgte und Ängstliche nennen die von der Elektrizität verursachte Strahlung generell „Elektrosmog“.

Direkt unter einer Hochspannungsleitung sollte man gewiss nicht seine Zelte aufschlagen. Ebenso wenig wie auf Eisenbahntrassen oder Autobahnen. „Elektrosmog“ bei gewaltigen Leistungen ist bestimmt ungesund. Es gibt z. B. Kriegswaffen, die statt Explosivmunition fokussierte Hochleistungs-Mikrowellen benutzen. Wo ist die Grenze? Es gibt eine Kontroverse über die drei Definitionen eines Grenzwerts für „Elektrosmog“: „Wärme“, „Reaktion“, „Nachweisbarkeit“.

a) Die Nachweisgrenze. Sie ist gegeben durch die sehr empfindliche Messtechnik für elektromagnetische Felder und hat mit Physiologie überhaupt nichts zu tun. Zellschäden treten bei Intensitäten weit oberhalb der Nachweisgrenze auf.

b) Die thermische Wirkung. Absorbierte Strahlung wird in Wärme umgewandelt. Damit erhöht sich die Temperatur (z. B. der Zelle, des Gewebes). Die Temperaturmessung ist weit unempfindlicher als die elektromagnetische Messung. Störungen des zellulären Betriebs können schon weit unterhalb der thermischen Nachweisgrenze auftreten.

c) Die Reaktion: Lebende Zellen reagieren auf messbare elektromagnetische Bestrahlung. Aber „reagieren“ ist wertneutral; lebende Zellen sollen auf alle möglichen Reize „reagieren“. Reaktion ist noch nicht „Befindlichkeitsstörung“ und auch nicht „Schädigung“. Und Messbarkeit bedeutet niemals Gefährlichkeit. Ein Blitzeinschlag hingegen ist sehr gefährlich, aber mit einfacher Labortechnik nicht messbar. Andernfalls wären alle 80 Millionen Einwohner Deutschlands die doch alle in festen, elektrifizierten Häusern wohnen, elektrokrank.

Die elektrischen Leitungen im Haus sind allem Anschein nach harmlos. Ihre induktive Strahlung ist zwar messbar, aber nur, wenn starke Verbraucher angeschlossen sind. Aus Unkenntnis Übervorsichtige und Technik-Misstrauische investieren in technische Vorkehrungen und Installationen, die rein physikalisch gesehen sinnvoll sind – sie vermindern Strahlung und Felder, wenn auch nur in gewissen Frequenzbereichen und nur für gewisse Arten von Strahlung. Ob sich die Körperzellen darüber freuen, ist nicht bekannt. Z. B. lassen sich „Netzfreischalter“ einbauen. Damit wird jeweils ein Leitungsabschnitt vollkommen abgetrennt. Doch kann die abgetrennte Leitung als Langdrahtantenne wirken und verstärkt Funkwellen aussenden.

Noch Vorsichtigere hüllen ihre Schlafstatt in ein „Moskito-Netz“ aus metallisiertem Gewebe ein. Bei Metallgewebe funktioniert die Abschirmung aber nur, wenn Kett- und Schussfäden an jedem Kreuzungspunkt miteinander leitend verbunden sind, z. B. verlötet.

Leibhaftiges Atom

Die organisierte Atom-Angst nährt sich von den Fehlleistungen des Systems. Sie hat eine allgemeine, schädliche Denkblockade ausgelöst. Atom-Allergie. Im Mittelalter wählte man andere Worte für vergleichbaren Sinn: Statt „verstrahlt“ war die befallene Sache oder Person „verhext“. Statt der Nuklearindustrie (abschätzig „Atom-Mafia“ genannt), steckte hinter der Verhexung der Leibhaftige (in Bayern der „Deifi“).

Die organisierte Atomangst hat militante und gläubige Zweige. Die Militanten leben von und für den grundsätzlichen Protest, von der Medienpublizität, vom anonymen Gruppen-Machtgefühl. Sie könnten mühelos von „Atom“ zu „Waldsterben“ umschalten. Die Gläubigen sind schlimmer: Zwar begehen sie keinen Landfriedensbruch, doch bei den Wahlen stimmen sie für den, der ihres Glaubens zu sein mimt.

Um es gleich deutlich zu machen – die heutige Kraftwerkstechnik ist ökonomisch und sicherheitstechnisch nicht ausgereift. Bei einem neuen Ansatz ist staatliche Beteiligung in den Firmenspitzen der Kraftwerkbetreiber zu erwägen. Auch die verletzliche, oberirdische „Zwischenlagerung“ in Leichtbauhallen und die nicht gegen Atombomben resistente Hülle des Reaktors sind zu überdenken. Schließlich die Lehre aus dem Tschernobyl-Unfall, bei dem eine ganze Serie von Fehlbedienungen durch verschiedene überforderte Personen ursächlich war: Schwer überschaubare Technik mit Reaktionszeiten im Millisekundenbereich will hochgradig automatisiert werden.

Die Atomkraft-Gegner haben mit Recht alle nur denkbaren Argumente gegen Atomkraft gesammelt. Es sind hauptsächlich Sicherheitsbedenken, die sehr ernst genommen werden sollten. Nur ihre Motivation ist fragwürdig – geht es gegen Technik überhaupt, gegen westliche Zivilisation, gegen unseren Rechtsstaat?

Richtig wäre es jetzt, den Ausstieg als Umstieg zu deklarieren, Umstieg mit Denkpause, und sich dem Marsch zu einer ganz neuen höchsten Sicherheitsvorstellung anzuschließen. 13 Nationen haben sich zu einer Entwicklergruppe zusammengefunden, die als neues Konzept die „Generation-IV-Kraftwerkstechnik“ studiert (Deutschland nicht dabei!). Ziele der Entwicklung der Generation IV sind:

a) Maximale inhärente Sicherheit, d. h. bei Fehlbedienung oder Ausfall von Komponenten muss der Prozess unterkritisch werden. Die Nachwärme im Störfall darf nicht den Behälterboden durchschmelzen.

b) Maximaler Wirkungsgrad. Statt 0.5GWh pro kg „Brennstoff“ ist auch 20 GWh möglich (Brütertechnik).

c) Transmutationsanlagen zum Aufarbeiten des gesamten vorhandenen „Atommülls“ , wobei statt einigen 10.000 Jahren nur noch einige 100 Jahre Abklingzeit des neuen Restmülls erreicht wird. Und der ganze bisherige strahlende Müllberg wird zur wertvollen Ressource.

d) Ersatz der Urantechnik durch Thorium als Reaktor-Brennstoff verspricht 4-fach reichlichere Reserven an spaltbarem Material.

Zurzeit besteht das technische Problem in der Entwicklung höher belastbaren Behältermaterials – höhere Temperaturfestigkeit z. B. gegen 1200 Grad C heißes Helium und höhere Korrosionsbeständigkeit, z. B. gegen flüssiges Salz, flüssiges Blei. Besonders aussichtsreich scheint dabei der GFR-Reaktor („Gas Cooled Fast Reactor“) zu sein.

Zusätzlich ist zu fordern, dass die Anlagen atombombensicher zu errichten sind (evtl. unterirdisch) und dass die komplette Verarbeitung inklusive Transmutation, Wiederaufbereitung und Endlagerung der schnell abklingenden Abfälle jeweils zusammengefasst am gleichen Ort in einer einzigen Anlage geschieht. Damit entfallen auch die abenteuerlichen Transporte strahlenden Materials.

Interessant ist die Betrachtung der Müllmengen: In Deutschland etwa 400 t/a. Davon sind 10 % „hochaktiv“, „lang abklingend“ und „stark wärme-entwickelnd“ – also 40.000 kg. Wenn nach dem neuen Konzept grundsätzlich wiederaufbereitet wird, reduziert sich der Müll auf 2 %, also 800 kg ; das sind 42 Liter, kaum mehr, als sich in 4 Kästen leerer Bierflaschen abfüllen ließe!

Hoffnung für die Zukunft: Sonne, Wasser, Wind sind zurzeit außer für die hochsubventionierten Betreiber eher schädlich als nützlich. Sie sind mit Abstand am teuersten, und wegen der Zufälligkeit der Liefermenge entsteht auch noch zusätzlicher Kraftwerksbedarf. Wir sollten diese sonnenbasierten Techniken ohne Hast weiterverfolgen – gleichrangig mit der Kernkraft. Vielleicht löst sich einmal das Problem der absolut notwendigen Stromspeicher. Zur Windkraft ist allerdings anzumerken: Unsere Erde soll einmal ein „Paradiesgarten werden“ – die vögelzerhackenden, infraschallintensiven, landschaftsverschandelnden Windmühlen leisten dazu keinen positiven Beitrag.

Die Klima-Apokalypse

Temperatur: Seit 15 Jahren steigt die Temperatur nicht mehr an. Keines der vielen Computermodell-Programme hat dies vorausgesehen! Doch das als direkt für die Klimakatastrophen-Erwärmung verdächtigte CO2 nimmt gleichmäßig weiter zu. Der Zusammenhang zwischen CO2 und Temperatur während der letzten 450.000 Jahre ist  schon länger bekannt(http://www.ncdc.noaa.gov/paleo/globalwarming/images/temperature-change.jpg). Aber erst seit 2001 wurde durch statistische Feinarbeit (stochastic crosscorrelation function lag analysis) herausgefunden, dass die Temperatur ständig um ca. 800 Jahre vorausläuft: Erst ändert sich die Temperatur, dann der CO2-Gehalt der Atmosphäre. (Mudelsee, Uni Leipzig, 2001). Doch darüber wird bitter gestritten. Seit wann können Fachleute (?) über fachliche Fakten streiten?

Extremwetter-Ereignisse: Zur Erfassung von Extremwetter-Ereignissen werden vereinfacht nur Wirbelstürme ausgewertet. Die beistehende Graphik (R. N. Maue; Geophys . Res. Lett. 2011/ upd 2013) zeigt keine Tendenz im Verlauf der letzten 4 Jahrzehnte.

Polar-Eis: Ausdehnung und Masse (Nord+Süd) größer als jemals zuvor beobachtet. Angstmacher reden nur von der Arktis (Bindschadler et al., 2013, J. Glaciol.)

Der Meeresanstieg: scheint ein Märchen zu sein. Nach dem bekanntesten Meereshöhen-Forscher, Mörner, beträgt der Meerespiegelanstieg 1…1.7 mm/Jahr mit einer Unsicherheit von 0.4 mm für die letzten 100 Jahre. Hingegen ergibt sich auf der Grundlage der IPCC-Temperaturvorhersage erwartungsgemäß ein wesentlich höherer Wert: 1.4 … 6.2mm/J. (Mörner, Uni Stockholm, 21st Cent. Sci. & Tec., Winter 2010/2011, 59 oder Baur et.al., 2013,J. Geodesy 87)

Temperatur und Sonnenaktivität: starke Korrelation. Die zyklischen Schwankungen der Sonnenaktivität sind über Jahrtausende rekonstruierbar und gehen Hand in Hand mit der Temperatur. (Svensmark, Astronomy & Geophysics, Vol. 48, Issue 1, p1.18–1.24, Feb 2007). Daraus lässt sich eine kommende Abkühlungsphase prognostizieren. Die Prognose stimmt auch überein mit einer einfachen Periodenanalyse der Messwerte (Lüdecke, Clim.Past, 9, 2013).

CO2 und Glaube: Ist Jesus am dritten Tage wieder auferstanden und zum Himmel gefahren? Für gläubige Christen – ja, natürlich. Für skeptische Wissenschaftler wäre die Frage ein unstatthaftes Ansinnen – bei Glaubensgütern haben sie nichts zu melden: Es fehlt prinzipiell an der Beweisbarkeit. Trotz solchen Mangels ist unbeweisbares, jenseitiges Glaubensgut immer noch maßgeblich für diesseitige Machtausübung.

Von der christlichen Himmelfahrt zur CO2-Hölle: Hat technische CO2-Produktion einen wesentlichen Einfluss auf das globale Klima? Für gläubige (?) CO2-Alarmisten ohne Zweifel – ja, natürlich. Für skeptische Wissenschaftler aber fehlt der Beweis, nicht die Beweisbarkeit. So ist denn beweisbares diesseitiges Glaubensgut maßgeblich für Machtausübung in der diesseitigen Welt (Welt 1-2-3, Welt der Physik). Der Unterschied liegt in dem unscheinbaren Begriff „Beweisbarkeit“ – die Schädlichkeit von CO2 wäre beweisbar, wenn es sie gäbe.

Gläubigkeit und Glaube

Euro, Islamismus, CO2 und Atom – das sind die Schlüsselbegriffe unserer nahen Zukunft. Gläubigkeit versperrt das Schloss, versperrt die Tür, die nur für uns bereitsteht. Gläubigkeit ist Naivität, Unkenntnis, Unterwerfungslust, Lust am Gleichklang der Meinungen. Gläubigkeit ist das Verharren des Menschen in selbstgewählter Unmündigkeit. Aufklärung wäre nötig, in der Schule, im Elternhaus, vor allem aber in den Medien. Glaube hingegen ist subtiler. Glaube sucht seelische Stärkung und erklärt sich alle Fakten durch jenseitige Verfügung. Gläubigkeit und Wirklichkeitsferne vertragen sich nicht mit der Verantwortung von Politik und Medien. Unser armes Gehirn hinkt der Wirklichkeit nach.

Es ist die Tragik der Evolution: Das beste Gehirn aller Spezies, die Krönung, scheint sich selbst nicht zu mögen: Entwicklungsgeschichtlich ältere Gehirnteile sind für Gefühle und Ängste, Instinkte zuständig. Es sind wichtige Anlagen zum Überleben in der Gruppe, aber sie können den Verstand überwältigen. Intelligenz baut Mondraketen, Kampfdrohnen, Mikrochips, der Verstand überblickt Wirkung und Folgen. Die Intelligenz wäre ausreichend, doch die Zukunft der Menschheit hängt vom Verstand ab.

Leben wir in der Endzeit eines der möglichen Fehlversuche der Evolution? Die letzte evolutionäre Errungenschaft des Gehirns, der Neocortex, Sitz des Verstands, ist in der Defensive.


...mehr Lesen in den akademischen Blättern oder ganze Ausgaben als PDF?


Jetzt hier kostenlos Anmelden

Prof. Dr.-Ing. Wolfgang Bachmann

geb. 1939, AH VDSt Darmstadt, Hochschullehrer für Nachrichtentechnik, Autor des 400s. Lehrbuchs „Signalanalyse“, Vieweg Verlag 1992, als Erfinder genannt in über 50 Patentschriften, macht sich Gedanken, weit über die Grenzen der eigenen Fakultät hinaus.

... alle Beiträge von diesem Autor