Montag, 28. April 2014

Über Software und Programmieren – Opas Insider-Tipps

Immer wieder stellen mir Freunde, Kollegen oder Verwandte Fragen zum Thema Software. Viele der Fragen habe ich längst vergessen. Manche gaben Veranlassung einen Blog-Eintrag zu verfassen. Eine kleine Auswahl von Fragen, die mir in den letzten Wochen gestellt wurden, und meine dazu gehörigen Antworten habe ich im Folgenden aufgeschrieben. Manche Antworten sind vielleicht nicht so konkret wie erwartet. Sie stellen dann nur eine Orientierungshilfe dar. Die Fragesteller sind nur durch Angabe ihres Berufes oder ihrer Altersgruppe angedeutet, also anonymisiert.

A. Der Physiker

Wie stellt man Prozesse und Abläufe am besten dar?

Will man den zeitlichen Verlauf eines Prozesses genau beschreiben, benutzt man eine prozedurale Sprache. Dasselbe gilt für Algorithmen. Ein wichtiges Hilfsmittel sind visuelle Darstellungen, z.B. Flussdiagramme. Interessiert nur die Beziehung zwischen den Werten am Anfang und den Werten am Schluss, so reicht eine funktionale Darstellung. Eine Funktion stellt man sich am besten als Tabelle mit zwei Spalten vor, wobei die Werte in der ersten Spalte alle von einander verschieden sind (oder eindeutig). Sollen nur gewisse Beziehungen zwischen Eingabewerten und Ausgabewerten ausgedrückt werden, verwendet man Zusicherungen. Das sind relationale oder logische Ausdrücke. Welche Werte in Beziehung gesetzt werden, ist in jeder Situation verschieden. Vollständigkeit wird nicht angestrebt. Mit Werten sind beliebige Zeichen oder Zeichenketten (z. B. Texte, Töne, Bilder) gemeint und nicht nur Ziffern.

NB: Eine verwandte Frage wurde in einem Blog-Eintrag vom Februar 2012 behandelt. Dort hieß es. ‚Wie spezifiziert und abstrahiert man Prozesse?‘

Was ist der Unterschied zwischen Daten und Information?

Daten sind Signale oder Zeichen, die Menschen oder Maschinen vom Hintergrund eines Trägermediums unterscheiden können, und zwar visuell, akustisch oder haptisch (taktil). Manche Maschinen haben ‚Sinne‘, die beim Menschen nicht vorkommen, z.B. um Magnetfelder oder radioaktive Strahlung zu erkennen. Information sind Daten, die sich gezielt umformen oder mit anderen Begriffen in Verbindung bringen lassen. Daten werden dann von jemandem benutzt, um etwas ganz anderes darzustellen oder erfahrbar zu machen, etwa Finger für Zahlen oder Muscheln für Geld. Diese Fähigkeit haben nur Lebewesen. Dazu gehören Einzeller genauso wie Pflanzen, Tiere und Menschen. Wenn von ‚Big data‘ gesprochen wird, dann ist nicht nur Information gemeint. Man hofft, in den großen Geröll- oder Abfallhaufen, welche die Natur oder wir Menschen schaffen, noch etwas Verwertbares zu finden.

Was versteht man unter einer Zufallsverteilung?

Eine Zufallsverteilung ist eine Folge von Zeichen, für die keine kürzere, aber gleichwertige Darstellung oder Beschreibung bekannt ist als die vorliegende Folge selbst. Insbesondere ist kein Programm bekannt, das eine kürzere Folge erzeugen könnte. Immer, wenn eine Sache dadurch definiert wird, was sie nicht ist, hilft das Praktikern nicht sehr. Echte Zufallszahlen können nur mittels eines physikalischen Prozesses erzeugt werden, etwa Münzwurf oder Würfeln. Computer können nur Pseudo-Zufallszahlen generieren. Diese sind im Grunde vorhersehbar, aber dennoch nützlich.

NB: Die obige Definition geht auf Greg Chaintin zurück, dessen Algorithmische Informationstheorie große Beachtung fand.

B. Der Ökonom

Wie erhalte ich eine stabile Software-Umgebung?

Will man ein stabiles Software-System haben, muss man alle Funktionen, die man benötigt, vorab prüfen und dann nichts mehr ändern. Wenn die Hardware keinen Ärger macht, läuft die Software dann bis ans Ende der Tage einwandfrei. Das Problem besteht nur darin, abzuschätzen, was ich zwischen heute und dem Tag der Verschrottung der Hardware an zurzeit noch unbekannten Anwendungen brauche. Wenn etwas Neues kommt, darf ich nicht sagen, dass kann das alte System bestimmt auch noch, und lasse es drauf ankommen, dass es kracht. Richtig wäre es, für neue, nicht vorher geplante Anwendungen immer ein neues Software-System zu kaufen und zu installieren. Da man für die unbekannte Zukunft gerüstet sein will, aktualisiert man sein System. Jede Veränderung macht ein System instabil, vor allem wenn sie völlig unnötig war. Man muss nicht jede Änderung sofort installieren. Wartet man zu lange, akkumulieren sich die Änderungen und ihr Einspielen wird riskant.

Warum passt sich Software nicht besser an meine Gewohnheiten an?

Die Personalisierung von Software ist eine typische Falle, wo Nachteile die Vorteile fast immer überwiegen. Der weitverbreitete, uralte Denkfehler wird durch das Wort ,software‘ verursacht. In Wirklichkeit ist Software weniger nachgiebig als Hardware. Hardware kann verbogen werden. Bei Software muss jede Anpassung geplant und eingebaut werden. Ein Mensch kann sich aufgrund von Übung anpassen, Software nicht. Würde sie sich anpassen, würde dies den Nutzer nach jeder Änderung mit einer neuen Schnittstelle konfrontieren und irritieren. Software, die sich den Nutzern anpasst, ist bei mehreren gleichzeitigen Nutzern nicht mehr wartbar. Das Erfolgsgeheimnis guter Software ist, dass man sich auf das konzentriert, was vielen Nutzern gemeinsam ist. Um das herauszufinden, muss man viele einzelne Nutzer beobachten. Von sich auf andere zu schließen, reicht nicht immer.

NB: Wird das gesamte Wissen, das die Unterschiede zwischen Nutzern beschreibt, in Tabellen erfasst, also parameterisiert, ist der eigentliche Code scheinbar stabil. Das Problem ist quasi verschoben und – weil systematisierende Vorarbeit investiert wurde – auch leichter handhabbar.

Warum erscheinen Software-Systeme so verwirrend und komplex?

Da jedes Software-System aus vielen Teilkomponenten besteht, müssen diese wie ein Uhrwerk zusammenarbeiten. Diese Kooperation erfolgt, je nach Anwendung, in unterschiedlicher Weise. Ihre Kommunikation geschieht mittels der Daten, die sie austauschen oder hinterlassen. Mal wird die eine Komponente vor der andern aufgerufen, mal ist es umgekehrt. Alle zu erwartenden Nutzungen müssen überprüft werden. Wie bei einem Uhrwerk muss der Nutzer das Zusammenspielen aller Teile nicht (immer) sehen. Es kann ihn sogar stören, wenn er den Teilen bei ihrer Arbeit zuschaut. Es ist entweder ein Zeichen von Anmaßung bzw. Selbstüberschätzung oder aber blanke Not, wenn Nutzer die Teile separat bestellen, installieren und warten. Es wird vielfach als sportliche Übung gepriesen, große Systeme selbst aus Bausteinen verschiedener Hersteller zu bauen. Weder die frühere IBM noch Steve Jobs glaubten an dieses Ideal. Keine andere bedeutende Industrie hat das Ideal der Software-Industrie bisher übernommen. Auch Automobil- und Flugzeugbau benutzt viele  Komponenten von Zulieferern. Sie werden jedoch vom Systemintegrator unter einer einheitlichen Nutzer-Schnittstelle versteckt.

Warum kostet Software soviel?

Die Erstellung von Software ist teuer. Das gilt insbesondere für qualitativ gute und funktional nützliche Software. Sobald ein Software-Produkt sich gut, d.h. besser als erwartet, verkauft, kann man die Preise senken (ein echtes Paradox). Software nur für die eigene Nutzung zu entwickeln, ist ökonomisch meist unvertretbar. Hat man die Entwicklungskosten abgedeckt, sind zusätzliche Kopien bei jedem Preis größer Null profitabel. Wer viele Kopien verkaufen kann, wird daher sehr reich. Kostenlose Software stammt von jemandem, der Software zum Zeitvertreib und Vergnügen entwickelt oder der von jemandem bezahlt wird, der etwas von mir will. Sehr viel Software entsteht, um damit Werbung für andere Produkte oder Dienste zu machen. Dass man direkt für Software bezahlt, ist ein Geschäftsmodell, das sich auf dem Rückzug befindet. Software dient immer mehr als Türöffner für andere Geschäfte. Sie wird daher versteckt, verschenkt oder subventioniert.

C. Der Rentner

Muss ich mich noch im Ruhestand mit Computern abgeben?

Computer sind noch weniger Pflicht für Senioren als es das Fernsehen ist. Wer es sich leisten kann, kann Vergnügen und Vorteile haben. Ein Computer kann den Ruhestand erträglicher und abwechslungsreicher machen. Mein Kollege Rul Gunzenhäuser und ich haben einmal 18 Tätigkeiten beschrieben, bei denen Senioren von Computern profitieren können. Das war vor drei Jahren. Heute würden wir noch einige Dinge mehr erwähnen. Sollten diese Anwendungen alle für Sie uninteressant sein, macht es keinen Sinn, sich Computer aufschwätzen zu lassen. Ich ließ mir im Alter auch nicht alles aufschwätzen, von dem andere Leute große Stücke hielten, wie z. B. Wandern und Radfahren.

NB. Die erwähnte Broschüre ist zu beziehen über das Netzwerk baden-württembergischer Senioren-Internet-Initiativen. Sie finden das 25-seitige PDF-Dokument auf der Seite Materialien unter Informationsmaterial. Es kann kostenlos heruntergeladen werden.

Welcher Trick hilft mir in Fehlersituationen?

Ohne ein offensichtliches Fehlverhalten zu analysieren, hat sich folgende Methode der Software-Fehlerentfernung seit über 50 Jahren bewährt: Man schalte den Rechner aus. Je nach Situation kann es nötig sein, vorher die Daten zu retten. Danach startet man zuerst das Betriebssystem neu und dann die Anwendung. Hilft das noch nicht, sollte man die Anwendung neu installieren. Der nächste Schritt ist die Neuinstallation des Betriebssystems. Begründung: Nach dem Neustart kann die geänderte Umgebung den Ablauf des Programms verändern. Der Fehler wird möglicherweise umgangen. (Im Bekanntenkreis gilt hierfür der Bezeichnung Kruse-Methode, nach einem längst verstorbenen Kollegen benannt, der diese Methode bereits bei Hardware-Problemen anwandte)

D. Der Abiturient

Ist programmieren anstrengend?

Für Karl den Großen (747-814) war Schreiben eine sehr anstrengende Tätigkeit. Seine Finger seien dafür nicht geschaffen, meinte er. Dagegen machte es Einhard, seinem späteren Biografen, richtiggehend Spaß. Er schrieb sogar die Frotzeleien seiner Tischgenossen am Aachener Hof auf. Ganz ähnlich ist es mit dem Programmieren. Ich kannte einen promovierten Physiker, der war nicht in der Lage, ein einfaches Programm zu schreiben. Einige Kollegen, die ich hatte, programmierten lieber, als dass sie einen einfachen Text schrieben. Texte, ob in Prosa oder in Lyrik, sind passiv. Sie klotzen einen an, es sei denn man deklamiert sie. Programme dagegen fangen an zu Wirbeln, sobald man sie auf einen Rechner tut. Das Wirbeln kann einem unangenehm werden, hat man einen Fehler gemacht. Manche Leute finden es ernüchternd und hilfreich, wenn ihnen Denkfehler sofort vor die Nase gehalten werden, und zwar von einer verschwiegenen Maschine und nicht von geschwätzigen Kollegen. Andere vertragen das partout nicht. ‚Ich soll einen Fehler gemacht haben, das gibt es nicht‘. So hört man sie argumentieren. Zusammengefasst: Es ist eine den Geist anstrengende Tätigkeit und nicht für jeden gleichermaßen befriedigend.

NB: Die Pointe des obigen Vergleichs wird umso klarer, je mehr historische Details man kennt. Die Wissenschaftler am Aachener Hof waren meist Theologen und stammten aus ganz Europa. Am bekanntesten sind Alchwin von York, Petrus von Pisa und Theodulf von Orléans. Sie unterhielten sich in fränkischem Spätlatein, einer Sprache, aus der das Französische hervorging. Zur selben Zeit begann man damit, Latein in Kleinbuchstaben aufzuschreiben, der so genannten karolingischen Minuskel. Die vier unverheirateten Töchter Karls durften an Tischgesprächen teilnehmen. Sie galten als attraktiv, aber etwas liederlich.

Muss ein Informatiker sein Leben lang programmieren?

Ein Informatiker kümmert sich um Daten, Informationen und um komplexe Abläufe oder Prozesse, die sie erzeugen oder benutzen. Sie sind für ihn, was für einen Elektro-Ingenieur der elektrische Strom oder für einen Chemiker das Periodensystem der Elemente ist. Er kennt sich aus und versucht das Beste für andere Menschen herauszuholen. Was er tut, soll den Menschen helfen, wirtschaftlich, beruflich oder sozial, oder aber dem Freizeitspaß und der Unterhaltung dienen. Programmieren ist die für Informatiker typische Tätigkeit. Sie ist bestimmend für sein Berufsbild. Wenigstens 10-15 Jahre muss ein Informatiker willens sein, seine Sporen als Programmierer zu verdienen. Danach bieten sich viele darauf aufbauende Tätigkeiten an, die sehr wichtig, interessant und lukrativ sind. Dazu gehören der Entwurf und die Bewertung von Systemen (bestehend aus Hardware und Software), die Beratung und Weiterbildung von Nutzern, die Ausbildung des Berufsnachwuchs und dergleichen. Diese Tätigkeiten stehen (im Prinzip) nur für jemanden offen, der die Grundfähigkeit des Programmierens beherrscht. Ein Informatiker, der nicht programmieren kann oder will, ist wie ein Arzt, der kein Blut sehen kann. Der sollte lieber einen anderen Beruf ergreifen.

Muss man verstehen, was Rekursivität ist?

Das Prinzip der Rekursivität zu verstehen ist sehr wichtig. Viele Prozesse in der Natur lassen sich damit besser verstehen und einfacher darstellen. In der Praxis ist es nicht erforderlich, rekursive Programme zu schreiben. Dieselben Funktionen lassen sich immer auch iterativ berechnen. In Fahrzeug- und Flugzeugbau, in Medizintechnik und in der Raumfahrt ist es verboten, rekursive Programme zu verwenden. Sie gelten als unsicher. Es ist gut die Natur zu verstehen. Ein Ingenieur kann und muss jedoch nicht alles so machen wie die Natur.

Donnerstag, 24. April 2014

Deutsch-amerikanische Hassliebe oder immer nur neue Missverständnisse?

Fünf Firmen aus dem amerikanischen Westen (Apple, Amazon, Facebook, Google und Intel) stellen eine geballte Macht dar, die ihres gleichen sucht. Drei von ihnen (Amazon, Facebook, Google) sind Neugründungen aus der Zeit des Dotcom-Booms der Jahrtausendwende, zwei sind rund 40 Jahre alt (Apple, Intel). Oft sind diese Firmen Anlass für Bewunderung, öfters sind sie ein Grund der Sorge. Von Sorge betroffen sind nicht nur die Mitbewerber aus der IT-Branche, sondern alle Firmen in denjenigen Branchen, in welche die oben genannten Firmen eingebrochen sind. Ihre Aggressivität missfällt. Das Unwohlsein, vor allem unter deutschen Kommentatoren, beschränkt sich nicht auf diese Vertreter der amerikanischen Industrie. Auch die amerikanische Regierung, vertreten durch ihre Nachrichtendienste, findet keine uneingeschränkte Zustimmung bei deutschen Medien und Bürgern.

Beispiel Amazon

Vor einigen Tagen sah ich bei Arte den Film ‚Storyseller - Wie Amazon den Buchmarkt aufmischt‘. Anhand zweier Beispiele wurde gezeigt, wie eine deutsche und eine französische Autorin über Amazon mittels E-Books Leser für ihre Erstlingswerke fanden. Nachdem sie bekannt waren, haben auch klassische Verlage sich um sie bemüht. Beide Autorinnen waren des Lobes voll, was die Verlage jetzt alles für sie täten, was Amazon nicht zu tun bereit war. Dass kein Verlag die Autorinnen vorher beachtete, und erst Amazon ihnen als Anfänger ein Sprungbrett bot, rückte in den Hintergrund. Die Verleger, die zu Wort kamen, hatten Angst, dass Amazon im Rahmen des TTIP-Verhandlungen an der Buchpreisbindung rütteln könnte. Da hofft man auf französische Unterstützung. Ein Freund, der den Film auch gesehen hatte, schrieb dazu:

Über kurz oder lang werden wohl konventionelle Verlage und Buchhandlungen den Kampf gegen On-line verlieren. Eine Chance für ihr Überleben besteht darin, auf eine andere Qualität bei der Selektion und Produktion von Büchern zu setzen. Qualität erfordert nach meinem Verständnis professionelle Aufmerksamkeit und Kompetenz, das kann man nicht kostenlosen Algorithmen überlassen. Ob das die Leser honorieren, darf aber bezweifelt werden. Immerhin hat sich Amazon entschlossen, das Geschäft mit gedruckten Büchern in eigener Regie beizubehalten. Allerdings mit anderen Methoden als konventionelle Verleger mit der „Kompetenz“ für Qualität. Ich mache mir Gedanken, ob bei einer möglichen Amazon Monopolposition am Ende die Vielfalt der menschlichen Vorstellungen auf der Strecke bleibt. Es sieht nämlich danach aus, dass populistische Meinungsbildung auf der ganzen Linie (auch bei politischen Bewegungen und Parteien) die Oberhand gewinnen wird.

Ich persönlich rechne es Amazon hoch an, dass sie als Erste erkannten, dass ein Online-Buchhändler seine Kunden besser beraten kann als jeder noch so clevere Verkäufer. Wenn es hieß ‚Wer dieses Buch kaufte, kaufte auch dieses andere Buch‘. empfand ich dies nicht als Verletzung meiner Privatsphäre. Dass Amazon alle seine Leser zwingt, ein Spezialgerät (namens Kindle) zu kaufen, um Bücher in einem proprietären Format zu lesen, halte ich jedoch für eine sehr riskante Strategie. Wie lange sie aufgehen wird, ist schwer zu sagen.

Beispiel Goggle

Nur Tage später las ich in der FAZ den Offenen Brief von Mathias Döpfner an Eric Schmidt, den Aufsichtsratsvorsitzenden und ehemaligen Geschäftsführer von Google. Schmidt hatte vorher (am 9.4.) in der FAZ um Verständnis für Google geworben. Google bringe den Verlagen sowohl Leser wie Werbeeinnahmen. Seit 2013 seien bereits 30 Milliarden US$ an Verlage geflossen.

Döpfner leitet den Axel Springer-Verlag, den Besitzer von ‚Bildzeitung‘ und ‚Welt‘. In einem mehrspaltigen Beitrag in der FAZ vom 16.4.2014 macht er sich zum Sprecher aller deutschen Verleger. Er gibt zu, dass er von Google profitiert. Dennoch empfindet er Googles Macht als zu groß. Er droht Google mit den europäischen Wettbewerbshütern, damit eingestehend, dass zumindest in dieser Hinsicht eine europäische Aktion mehr bewirken kann als eine rein deutsche. (So kurz vor der Europawahl mag diese Argumentation weder CSU noch AfD gefallen). Döpfner schreibt zusammenfassend:

Lieber Eric Schmidt, Sie brauchen meinen Rat nicht, und natürlich schreibe ich hier aus der Perspektive des Betroffenen. Ich bin Partei. Als Profiteur von Googles Traffic. Als Profiteur von Googles automatisierter Werbevermarktung. Und als potentielles Opfer von Googles Datenwissen und Marktmacht. Dennoch: Weniger ist manchmal mehr. Und man kann sich auch zu Tode siegen. Ein anderer Weg wäre die freiwillige Selbstbeschränkung des Siegers. Ist es wirklich klug, zu warten, bis der erste ernstzunehmende Politiker die Zerschlagung Googles fordert? Oder, noch schlimmer: bis die Bürger Ihnen die Gefolgschaft verweigern – solange sie noch können? Wir jedenfalls können es schon nicht mehr.

Statt einer Antwort von Eric Schmidt gab es hierzu einen Kommentar von Jeff Jarvis am 16.4.2014 in dessen Blog. In meiner Übersetzung lautet der entscheidende Satz:

Genau in dem Moment, in dem Berlin seine Stärke als kreatives, technisches und unternehmerisches Kraftwerk entdeckt, kommt ein Titan der alten Industrie und lässt sein Land technik- und  wettbewerbsfeindlich, ja sogar leicht antikapitalistisch erscheinen.

Mehrere Kommentatoren und Fernseh-Diskussionen griffen inzwischen diese Diskussion auf und beglückwünschten die FAZ, dass sie dieses (für deutsche Verleger und Journalisten) so überaus wichtige Thema endlich in die Öffentlichkeit gebracht habe. Zur Information sei hinzugefügt, dass jeder, der an dem Thema interessiert ist, schon seit Mitte der 1990er Jahre das Jammern der Verleger vernehmen konnte. In den letzten 20 Jahren haben nur wenige von denen, die ich kenne, wirkliche Konsequenzen gezogen.

Wirtschaftliche und technische Herausforderung

Das faszinierende, und zugleich bedrohende aus deutscher Sicht ist die technische und betriebswirtschaftliche Kompetenz der fünf erwähnten Firmen. Mit der Ausnahme von Amazon und Facebook hatten diese Firmen ihre Wurzeln in dem einzigartigen technischen Biotop namens Silicon Valley. Alle strahlen eine Dynamik aus, wie man sie in andern Gegenden der USA oder anderswo auf der Welt nicht antrifft.

Dass ich technische und betriebswirtschaftliche Kompetenz hier gleichzeitig betrachte, ist schon ein Teil meiner Erkenntnis und meiner Überlegungen. Das eine geht nicht, ohne das andere. Wo beides zusammenkommt, spricht man auch von Unternehmertum (engl. entrepreneurship). Am Beispiel Google lassen sich heute alle wichtigen Grundsätze des Unternehmertums lehren. Obwohl niemand den Erfolg von Google vorhersagen konnte, kann ihn heute jeder Fachmann erklären. Niemand braucht sich dessentwegen zu schämen. Am Anfang stand eine technisch herausragende Erfindung. Der PageRank-Algorithmus, den inzwischen alle Informatik-Studierende kennenlernen, ist mathematisch relativ uninteressant. Sein entscheidender Vorteil ist, dass er das Problem der Bewertung von Texten nicht mit einer Analyse des Inhalts versucht, wie Millionen dies vorher vergebens taten. Er benutzt eine indirekte Methode. Er bewertet das umgebende Kommunikationsnetz. Hätte man diese Idee nicht geschützt, hätten alle Entwickler von Suchmaschinen sie sofort verwendet. Sie ist einfach zu gut, um sie unbeachtet liegen zu lassen.

Nachdem Google erkannt hatte, dass es für das Werbegeschäft die längst erhoffte technische Lösung besaß, flossen die Geldströme. Damit konnte es eine Industriebranche nach der anderen umkrempeln oder gar zerstören, wie Joseph Schumpeter zu sagen pflegte. Diese Zerstörung begann in der Software-Industrie und setzte sich auf andere Industrien fort. Da Google es nicht nötig hat, mit Suchmaschinen, Sprachübersetzern, Betriebssystemen und dergleichen Geld zu verdienen, kann dies (bald) auch niemand anderes mehr. In ganz ähnlicher Weise lässt sich der Erfolg von Apple erklären. Apple war lange eine Firma an der Peripherie unserer Branche, bis dass Steve Jobs bei seinem letzten Aufenthalt in der Firma sie an die Spitze der Branche katapultierte. Er hatte technische Visionen, die er in Produkte für neue Märkte umsetzte. Smartphones und Tablett-Rechner zerstörten den bisherigen Computer-Markt.

Natürlich hat der amerikanische Markt bessere Möglichkeiten für Startups als der deutsche Markt. Dies zu leugnen, ist so töricht wie zu leugnen, dass das Wetter in San Diego besser ist als in Hamburg. Daran lässt sich nichts ändern. Das ist aber nicht der einzige Grund, warum deutsches Wagniskapital vorwiegend nach Amerika fließt und nicht in Deutschland eingesetzt wird. Junge Menschen in den USA werden nicht nur technisch ausgebildet, sondern lernen es auch, unternehmerisch zu denken. In Deutschland – darüber klagen viele – stehen Miesmacher und Kritiker oft im Zentrum des Interesses. Lassen wir zu, dass sie die Szene beherrschen, sind wir es selbst schuld.

Zum oben zitierten Streit der Verleger mit Google noch soviel: Wenn es Unternehmen gibt, die noch ihre Werbemittel quasi zum Fenster hinaus werfen, sie also Zeitungen und Fernsehsendern anvertrauen, ist dies vergleichbar mit Ärzten, die ihre Medikamente dem Trinkwasser einer Stadt beimischen, statt sie nahe an den Organen von erkrankten Patienten zu platzieren. Das Bild soll bewusst übertreiben. Wenn ich Verleger über Googles Werbegeschäft reden höre, drängt es sich jedoch auf. Es ist erstaunlich, wie gut es passt.

Politisches Verhalten

Viele Leute, die in den letzten neun Monaten auf Amerika schimpften, dachten eher an die Regierung als an die Industrie. Manche Beobachter neigen dazu, beide gleichzusetzen, oder zumindest ihre Interessen. Seit Juni 2013 ist die Welt schockiert über die Bespitzelungen durch die NSA und andere Geheimdienste. Was die Auswüchse zwar nicht entschuldigt, aber erklärt, ist das Verhalten der Amerikaner zur Technik.

Die Bedrohungen des Landes durch die 9/11-Ereignisse erschütterten das Bewusstsein nationaler Sicherheit bis in ihre Grundfesten. Die klassischen Methoden, die dazu dienten, das Land zu schützen, hatten versagt. Man suchte neue, d.h. technische Lösungen. Da kam die zunehmende Digitalisierung aller Kommunikation und ihre Konzentration in der Hand amerikanischer Firmen gerade recht. Man entschloss sich, diese Option technisch auszuloten, koste es, was es wolle. Bezogen auf den mit andern Methoden verknüpften Verlust an Menschenleben, waren die Erfolge beeindruckend. Schließlich war es Edward Snowdon, der die Kollateralschäden des neuen Ansatzes sichtbar machte. Das wird zu einer Neujustierung führen. Es ist m. E. jedoch nicht damit zu rechnen, dass die USA von dieser Form der Landesverteidigung wieder abrücken werden.

Historische Reflektionen

Deutschlands Intelligenzschicht war immer tief gespalten, wenn es um Amerika ging. Der Historiker Heinrich August Winkler spricht von Deutschlands langem Weg nach Westen, wenn er die zwei Jahrhundert seit Napoléons Sieg 1806 bei Jena und Auerstedt Revue passieren lässt. Den Ersten und den Zeiten Weltkrieg beendeten die Amerikaner durch ihr Eingreifen auf der Seite von Deutschlands Gegnern.

Nach dem Zweiten Weltkrieg gab es Care Pakete und Rosinenbomber, aber auch die Ausbreitung von General Motors, Esso und Coca Cola. Mit der von Helmut Schmidt eingeleiteten Raketen-Nachrüstung und dem erfolglosen Vietnamkrieg formte sich eine geradezu militante Außerparlamentarische Opposition in Deutschland. Unter George W. Bush prägte Donald Rumsfeld den Begriff der alten Europäer, wozu er Deutsche und Franzosen rechnete. Der Autor Robert Kagan benutzte 2003 das Bild der Amerikaner, die vom Mars stammten, und der Europäer, die mehr von Venus beeinflusst seien.

Mit Barack Obama verbanden sich große Hoffnungen, vor allem vor seiner Wahl. Er musste nach der Wahl, als die politische Verantwortung seiner Herr wurde, weitgehend enttäuschen. Er beendete zwar den Afghanistan-Krieg ohne Rücksicht auf Verluste. Das Gefangenenlager auf Guantánamo jedoch wurde nicht geräumt, der Nahe Osten nicht befriedet. Von ihm hatte man am allerwenigsten erwartet, dass er die von seinem Amtsvorgänger George W. Bush eingeleiteten Bespitzelungen fortsetzen würde. Das Amt eines Oberkommandierenden kann das Denken einer Person verändern. Jeder hat das Recht dazulernen, selbst ein gewählter Präsident der Weltmacht USA.

Donnerstag, 17. April 2014

Informatik-Folklore, die man hinterfragen darf

Das am 15.4.2014 vom Springer-Verlag an die GI-Mitglieder verteilte Online-Bulletin ‚GI-Radar‘ gibt Veranlassung, gleich über zwei Scheingewissheiten in der Informatik nachzudenken. Ob man sie als Fehleinschätzungen oder gar als Mythen ansieht, ist Geschmackssache. Warum sie sich so lange halten, ist mir ein Rätsel. Es ist mein fachliches Interesse und mein Verantwortungsgefühl unseren jungen Kollegen gegenüber, die mich bewegen, diese Themen anzuschneiden.

Quelloffener Code sei sicherer als proprietärer Code

Der Fall Heartbleed für OpenSSL geht gerade durch die Presse als eine der peinlichsten Pannen unserer Branche seit Jahrzehnten. SSL-GAU nennt es ein Branchendienst (Heise am 10.4.2014). OpenSSL ist eine sicherheitsrelevante Komponente, die von vielen stark benutzten Produkten verwandt wird. Ich selbst könnte betroffen sein, da ich seit einigen Jahren die ELSTER-Software der deutschen Finanzämter verwende, die von der Firma Akamai aus Zürich stammt. Auch das Bundeskanzleramt gehört zu ihren Kunden. Die in diesem Falle relevante Komponente namens Heartbleed wurde von einem deutschen Programmierer während seiner Promotion vor mehreren Jahren entwickelt. Der von den Herstellern von Schad-Software (und natürlich auch von Geheimdiensten) ausgenutzte Fehler ist eine nicht abgeprüfte Bereichsüberschreitung. Das ist ein Allerweltfehler, den jede einigermaßen sorgfältige Code-Inspektion gefunden hätte.

Der von Anhängern von Open-Source-Software (OSS) gern verbreitete Mythos, OSS sei (von Hause aus) besser und sicherer als proprietärer Code, ist wieder einmal eklatant widerlegt. Schon vor 14 Jahren (Artikel im Informatik-Spektrum Heft 23,5) habe ich auf diese Propaganda-Lüge aufmerksam gemacht. Es gehört zur OSS-Folklore, wenn behauptet wird, dass alle Fehler schnell gefunden und gefundene Fehler immer und schnell korrigiert würden. In besagtem Artikel hieß es:

Anzunehmen, dass die Qualität von Software oder generell die von technischen Produkten sich ohne eigene Anstrengungen der Entwickler einstellt, also allein durch die Aufmerksamkeit der Nutzer oder gar aufgrund von Wachstums- und Selektionsprozessen, ist eine merkwürdige Utopie.

Mir sind in meiner über 40-jährigen Karriere nur sehr wenige Programmierer begegnet, die Freude daran fanden, anderer Leute Code zu analysieren und zu korrigieren. Manche Fehler in sicherheitskritischer Software werden überhaupt nie korrigiert, sondern landen stattdessen auf dem Markt für Virenbauer. Man bekommt ordentliches Geld, wenn man sein Wissen über einen Fehler in der Hacker-Szene meistbietend verscherbelt. Geschlossene Systeme (engl. object code only), wie die von Apple für Smartphones und Tablet-Rechner angeboten werden, sind für die Szene unergiebig. Das Viren-Problem ist inzwischen ganz in Richtung Android-Systeme abgewandert. Diese Feststellung stammt übrigens von niemandem anders als der Firma Kapersky Lab, einem auf Virenschutz-Software spezialisierten Unternehmen. Das gravierendste Argument gegen OSS ist jedoch folgendes: Einmal angenommen, OSS und proprietärer Code hätten die gleiche Anzahl und Schwierigkeitsgrade von Fehlern, dann stehen im Falle von OSS-Code der Hacker-Szene alle Fehler frei zur Verfügung. Bei geschlossenem Code habe ich wenigstens die Gewissheit, dass die Scheunentore nicht für Diebe und Brandstifter sperrangelweit offen stehen.

Wenn Firmen wie Apple, Google und Microsoft von der amerikanischen Regierung gezwungen werden, der NSA Hintertüren in ihrer Software zur Verfügung zu stellen, ist zweifellos eine Grenze überschritten. Unsere Branche muss sich dagegen energisch wehren, im Interesse ihrer Kunden auf der ganzen Welt. Wenn aber immer wieder Offenlegung von Quellcode als Lösung aller Übel empfohlen wird, so beweist das nicht nur fehlende Sachkenntnis, sondern grenzt an mangelndes Verantwortungsbewusstsein. Es kann nur entschuldigt werden mit der herrschenden Gepflogenheit, die nach jedem politischen oder kaufmännischen Skandal oder Versagen mehr Transparenz verlangt. Transparenz gilt als ein Wundermittel. Dabei schafft sie nur Voraussetzungen dafür, dass etwas geschehen kann, getan wird jedoch nichts. Zwischen beidem liegt bekanntlich ein erheblicher Unterschied.

Hardware-Ingenieure seien gewissenhafter als Software-Ingenieure

In der Zeitschrift ‚Wirtschaftsinformatik und Management‘ (Heft 2/2014) stellte Kollege Peter Mertens die Frage ‚Warum ist Software (made in Germany) nicht wie Hardware?‘ Immer wieder höre er, dass Unternehmensleiter und andere nicht-technische Experten abfällig über ihre Software-Entwickler reden. Würden sie doch so arbeiten wie Maschinenbauer und Elektroingenieure, dann hätten wir weniger Probleme, hieße es. Auch dieses Fehlurteil kenne und bekämpfe ich seit etwa 40 Jahren. Damals schockierte ich noch meine Hardware-Kollegen, indem ich sagte, würden meine Software-Entwickler so arbeiten wie Hardware-Entwickler würde ich mich schämen. Die Hardware-Entwickler hielten damals Entwurfsfehler (und Entwickler-Produktivität) für uninteressant. Ihr Augenmerk lag auf Fertigungsfehlern (und Fertigungskosten). In der Software spielten Fertigungsfehler (und Fertigungskosten) eine untergeordnete Rolle gegenüber Entwurfsfehlern (und Entwurfskosten). Nicht selten kam es vor, dass wir Software-Leute Fehler und Unzulänglichkeiten der Hardware ausbügeln mussten. Einige der Hardware-Kollegen wurden nachdenklich und begannen damit, über Qualitätsmaßnahmen im Hardware-Entwurf nachzudenken.

Da Hardware meist mühselig gegossen, zersägt, verschraubt und geschliffen werden muss, ist jeder Hardware-Entwurfsfehler sehr teuer. Auch mit der Verbreitung der Höchstintegration von Schaltkreisen sahen Elektroingenieure alt aus, wenn Schaltungen, die in Chips gegossen waren, sich als fehlerhaft erwiesen. Von dem Moment an, als Mikrocode im Hauptspeicher residierte, erhielten dessen Entwickler eine zweite Chance. Bei den Anwendungsentwicklern herrschte lange Zeit die Meinung vor, Software sei ‚soft‘, d.h. weich. Man könne alles ändern, auch noch nach der Auslieferung. Hätte unsere Industrie den an sich naheliegenden Weg beschritten, auch Software mittels Nur-Lese-Speichern zu verteilen, wären der Branche viele Probleme erspart geblieben. Die Erosion des kommerziellen Marktes durch Open Source, Raubkopien und das Virenproblem (siehe oben) sind nur einige. Nicht zuletzt das amerikanische Justiz-Ministerium hat dafür gesorgt, dass Hardware und Software getrennte Wege gingen. ‚Unbundling‘ nannte man das. Dass dies auch den Ruf der Software-Entwickler auf lange Sicht beschädigte, war ein Kollateralschaden, den man in Kauf nahm.

Auf der positiven Seite muss anerkannt werden, dass der Software-Markt eine unglaubliche Dynamik erreichte. Es gab eine unvorhersehbare Expansion der Anwendungen und eine Flexibilität der Angebote, die nur erreicht wurde, weil Software relativ frei wiederverwandt werden konnte, und zwar über Firmengrenzen hinweg. Was oft der Hardware gegenüber als Nachteil empfunden wird, ist der große inhärente Vorteil von Software. Software-Entwickler können in einem Maße auf Wünsche der Nutzer reagieren, der für Hardware undenkbar ist. Würde Software in Silizium gegossen, dann wäre Software nicht besser als Hardware.

Natürlich könnte die Situation in der Software noch besser sein, als sie ist. Ein Ansatzpunkt könnte in der Ausbildung liegen. Ich kann mich des Eindrucks nicht erwehren, dass an vielen Hochschulen immer noch Amateurgeist und Naivität gelehrt werden. Drückt man es drastischer aus, so kann auch von Leichtsinn und Halbwissen gesprochen werden. So ergab eine erst kürzlich veröffentlichte Umfrage (GI Seminar S-13, 2014, S. 159), dass die Entwickler-Motivation dann am größten ist, wenn den Entwicklern keinerlei Auflagen bezüglich der Gestaltung des Entwicklungsprozesses gemacht werden. Das erinnerte mich an Diskussionen der 1960er Jahre, als einige von uns damit begannen, persönliche Arbeitsstile durch einen systematischeren Prozess zu ersetzen. Ich kann nur hoffen, dass aus diesen Umfrage-Ergebnissen nicht die Konsequenz gezogen wird, alles was seit 1960 gelernt wurde, wieder über Bord zu werfen.

Leider ist systematisches Arbeiten, das der Qualität (und der Kreativität) einen hohen Stellenwert einräumt, nicht von sich aus unterhaltend und motivierend. Die Befriedigung kann nicht in der Tätigkeit allein gesucht werden, sondern sollte das Ergebnis der Tätigkeit mit berücksichtigen. Wenn man gute Ergebnisse für wichtiger hält als den Spaß an der Arbeit, dann muss man ein klein wenig nachdenken. Die Maßnahmen, die auf eine hohe Qualität der Ergebnisse in der Software-Entwicklung zielen, habe ich schon des Öfteren angesprochen. Ein Beitrag über die Software-Entwicklungsmethoden der NASA, die ich in dieser Hinsicht als mustergültig ansehe, liegt erst zwei Monate zurück. Zusammengefasst lautet mein Ratschlag: Man muss zuerst alle möglichen Fehlerursuchen gedanklich erfasst haben, um dann die technischen und organisatorischen Gegenmaßnahmen ergreifen zu können, um die spezifischen Fehler zu verhüten oder zu eliminieren. Das ist leider geistige Knochenarbeit. Sie ist für oberflächliche Typen nicht besonders geeignet.

NB: Unsere Branche ist  ̶  um  Evgenij Morozovs Terminologie zu verwenden  ̶  wie keine andere dem Epochalismus verfallen. Morozov nennt es auch technologische Amnesie. Immer wieder erscheinen Heilslehrer, die verkünden alles Alte zu vergessen, denn gerade habe ein neues Zeitalter begonnen. Nicht die Heilslehrer sind unser Problem, sondern die vielen (so genannten) Fachexperten, die ihnen glauben und folgen, statt sich eigene Gedanken zu machen. ‚Sapere aude!‘ sagte schon Horaz.

Montag, 14. April 2014

Energiewende – wieder ein deutscher Sonderweg?

Am 10.4.2014 schrieb Hartmut Wedekind: ‚Sie werden das Thema Energiewende wohl nochmals im Blog thematisieren müssen. Auch nach der EEG-Novelle sieht die Sache wie zu erwarten übel aus. DIE WELT spricht heute schon von Staatskraftwerken, d.h. wenn man in seiner selbsterzeugten Ratlosigkeit  nicht weiter weiß, geht alles über den Haushalt. Das ist ordnungspolitisch eine Schweinerei ersten Ranges‘.

Die EU kann sich nicht über Langweile beklagen. Zuerst brachten die Südländer (Griechenland, Portugal, Spanien) sie ganz schön auf Trab. Dort hatte man die gemeinsame Währung als Geschenk betrachtet. An den Finanzmärkten waren Euros derart beliebt, dass jeder Staat günstige Kredite bekam, der in Euros abrechnete. Dass Kreditgeber alle Euro-Länder für gleich kreditwürdig hielten, war die Folge einer allgemeinen Täuschung. Gemeinsame Währung hieße, alle Länder sind gleich solide und gleich erfolgreich. Inzwischen wissen Geldgeber und Gläubiger, dass sie Wolfgang Schäuble und Angela Merkel falsch eingeschätzt hatten. Wenn die ihren Wählern in Deutschland versprechen, sie vor einer Schuldenunion zu bewahren, dann darf man das nicht einfach ignorieren. Man kann nur hoffen, dass SPD und Grüne nicht ganz so ‚nationalistisch‘ denken. Leider gewannen Schäuble und Merkel die 2013er Wahlen in Deutschland. Jetzt ist die SPD zwar mit am Hebel, aber es gibt noch die CSU des Peter Gauweiler und die AfD. Ehe Eurobonds kommen, werden noch fünf Jahre vergehen.

Mit Wladimir Putin wollte Gerhard Schröder eine besondere Beziehung pflegen. Putin wurde nicht nur hofiert, d.h. in die G8 aufgenommen, sondern auch zum ‚lupenreinen Demokraten‘ reingewaschen. In dem Maße, wie Deutschland sich von Schröder abwendet, gibt Putin sein angelerntes Verhalten auf. Er fletscht wieder seine Zähne und stochert in der Ukraine herum. Die Krim hat er bereits heim ins Reich geholt. Die Oblaste Charkiv und Donesk sind als nächste dran. Frau Merkel delegiert das Problem an ihren Außenminister, der ja mal ein Adlatus des Putin-Freundes und Putin-Verstehers Schröder war. Mal sehen, was er zustande bringt.

Energiepolitik in Europa

Jetzt zur dritten EU-Krise, auch Energiewende genannt. Jedes Land macht die Energiepolitik, die es für richtig hält. Dieser Sektor ist für die Wirtschaft eines Landes zu wichtig, als dass man ihn Brüssel überlässt. Bei Kohle und Stahl spielte noch das Erbe des Zweiten Weltkrieges hinein. Kanonen sollten Deutsche nur noch mit Franzosen zusammen bauen. Ehe ich auf Zahlen eingehe, nur soviel: In Energiefragen ist kein Land, noch die EU als Ganzes autark. Man muss einkaufen, und zwar nicht nur in politisch stabilen und befreundeten Ländern. Es geht zunächst um fossile Energien wie Erdöl und Erdgas. Die Liste der Lieferländer ist ein Politikum erster Ordnung. Die Frage ist, wer kann mit wem. Hier die Namen: Algerien, Angola, Iran, Irak, Saudi-Arabien, Libyen, Venezuela, usw. Sie sind in einem Club vereinigt, der OPEC heißt, auf Deutsch: ‚Organisation Öl exportierender Länder‘. Darüber hinaus gibt es Länder wie Russland, Aserbaidschan, Turkmenistan, usw. Da die Mehrzahl den Islam als Staatsreligion besitzt, vermuten Gläubige, dass diese Verteilung der Bodenschätze nur Allahs Gunst zu verdanken sei. Jedes europäische Land macht separate Verträge mit seinem Energie-Lieferanten. Es optimiert die Verträge abhängig von seiner Versorgungslage und seinen politischen Präferenzen.

Um dieser als prekär angesehenen Situation nicht völlig ausgeliefert zu sein, gab es überall, wo man es sich leisten konnte, Autarkie-Bestrebungen. Abgesehen von Nordsee-Bohrinseln, die vor allem England und Norwegen gehören, setzten die mittleren Mächte wie Deutschland, Frankreich und Tschechien auf die Kernenergie.

Dann kam der 11. März 2011 und die dreifache Katastrophe in Fukushima: Seebeben, Tsunami und Kernschmelze. Die Physikerin und ehemalige Umweltministerin Angela Merkel, der Jahrzehnte lang die Warnungen der deutschen Atomgegner in den Ohren lagen  ̶  so wie die gleichzeitigen Beschwichtigungen der Befürworter   ̶  gab zu, dass es ein Fehler war, die Warnungen nicht ernst genommen zu haben. Es gibt mindestens zwei Risiken, von denen ein einigermaßen gebildeter Mensch sagen muss, dass sie nicht beherrschbar sind: (a) eine Störung des Kühlsystem mit der unweigerlich folgenden Kernschmelze (zuletzt in Fukushima eingetreten), (b) die Entsorgung radioaktiver Abfälle auf dieser Erde innerhalb eines Zeitraums von weniger als 100.000 Jahren. Angela Merkel machte ihre Honneurs in Richtung von Jürgen Trittin und befahl ‚Kehrt marsch!‘. Ihre europäischen Nachbarn (Frankreich, Tschechien) hielten Deutschlands Reaktion auf Fukushima entweder für übertrieben oder chancenlos. Mit übertrieben meine ich, man muss ja nicht gleich alle Atommeiler verschrotten. Die Alternative kann nur scheitern, sei es an den Kosten oder am Widerstand in der Gesellschaft.

Drei Jahre nach Fukushima

Nichts von dem, was in den letzten drei Jahren aus Fukushima zu uns herüberdrang, war geeignet, die vollkommene Abkehr von der Atomenergie als übertriebene Reaktion erscheinen zu lassen. Schon die rotgrüne Koalition hatte im Jahre 2000 ein Erneuerbare-Energien-Gesetz (EEG) beschlossen. Es regelt seit über 12 Jahren die bevorzugte Einspeisung von Strom aus erneuerbaren Quellen und garantiert deren Erzeugern feste Einspeisevergütungen. Lange wurde die Gewinnung von erneuerbaren Energien als Nebenbeschäftigung für Landwirte und Gärtner angesehen. Mittels vieler kleiner Experimente schaffte es eine alternative Industrie, die technologische Seite der Energiegewinnung weiter zu treiben. 


Obwohl der Großteil der Investitionen (auch an den Börsen) in die Solartechnik  ̶  auch Photovoltaik genannt  ̶  floss, ging dieser Markt völlig an chinesische Firmen über. Die meisten deutschen Nutzer, gleich ob private oder öffentliche, geben heute chinesischen Lieferanten den Vorzug, da deren Produkte erheblich billiger sind als deutsche Erzeugnisse. Es wurde zu einem glänzenden Geschäft für chinesische Firmen, die lieber deutsche Kunden beliefern als chinesische und russische. Der einzige Trost: Diese chinesischen Unternehmer leisten einen wichtigen Beitrag zum Weltfrieden, indem sie sich international engagieren. Dass sie dabei auch die Einkommen in China heben, ist ein nicht zu verachtender Nebeneffekt. Länder wie Somalia und die Zentralafrikanische Republik sind noch weit davon entfernt, uns mit Energie zu beliefern.

Nur die Windtechnik entwickelte sich innerhalb Deutschlands systematisch weiter. Heute ist die Firma Siemens einer der Akteure (durch eine dänische Tochter). Da in der Bevölkerung, außer in der Küstenebene Niedersachsens und Schleswig-Holsteins, eine eindeutige Abneigung gegen die ‚Verspargelung‘ der Landschaft bestand, konnten sogar große Offshore-Projekte in Angriff genommen werden. Ein solches steht kurz vor seiner Fertigstellung, 100 km vor der Nordseeinsel Borkum, also außer Sichtweite der Feriengäste. Nach Fukushima änderte sich auch die Einstellung der Bevölkerung im Binnenland. Plötzlich erhielt jeder Bauer in der Eifel oder im Schwarzwald die Genehmigung zum Bau von Rotorparks.

Effekte der Marktmanipulation

Zwischen den Techniken, die für die Erzeugung erneuerbarer Energie in Frage kommen, fand eine erste Marktbereinigung statt. Diejenigen Techniken, die nur fixe, aber keine variablen Kosten haben, ziehen davon. Das sind Windräder und Solarzellen. Da im Moment Kapitalzinsen nahe am Nullpunkt liegen, fällt ihre relativ schlechte Energieauswertung kaum ins Gewicht. Wie schon Klein-Fritzchen lernte, wenn der Umsatz groß genug ist, spielt die Gewinnmarge keine Rolle mehr. Andere Techniken, so z.B. die Stromgewinnung aus Bio-Masse, ziehen den Kürzeren. Dieselben Bauern, die gerade umstellten, um Mais für Bio-Anlagen zu produzieren, werden jetzt Rotoren auf ihre Felder stellen.

Die vor 12 Jahren erhoffte Anregung von privaten Investitionen in die alternative Stromerzeugung durch feste Einspeisevergütungen erwies sich als Bumerang, und zwar wegen ihres Erfolges. Da die Vergütung höher ist als der Marktpreis, leiten alle Stromerzeuger ihren selbsterzeugten teuren Strom ins Netz und beziehen ihren Verbrauchsstrom billig aus den Netz. Andererseits steigt, wegen der hohen Einspeisevergütungen der Strompreis für deutsche Endverbraucher ständig. Da Tausende großer Energieverbraucher in der Industrie von dieser Steigerung, der so genannten EEG-Umlage, ausgenommen sind, kommt es zu einer umso stärkeren Strompreissteigerung für alle privaten Verbraucher. Deren Verärgerung ist entsprechend groß.

Die durch die massive Förderung erzeugten Mengen billigen Stroms drängen inzwischen auf den Markt und verändern diesen. Den großen Energieversorgern Deutschlands (E-ON, RWE, EnBW und Vattenfall) läuten die Sterbeglocken. Obwohl sie noch Betriebsgenehmigungen für mehrere Jahre haben, schalten sie die verbliebenen Kraftwerke ab. Das gilt für Kern- wie für Kohlekraftwerke. Das Energie-Geschäft geht in die Hände neuer, größtenteils mittelständiger Firmen über. Für ihre Finanzierung stehen die Pensionsfonds der Welt Schlange. Dank einer funktionierenden Strombörse drücken die neuen Anbieter die Preise. Die alten Anbieter sind nicht länger konkurrenzfähig, egal was sie tun. Sie können nur noch ihre Unternehmen abwickeln.

Ungelöste Probleme

Da Süddeutschland mit der Erzeugung von Strom aus alternativen Quellen (Solar, Wind) etwa fünf Jahre hinterherhinkt, verlangen norddeutsche Politiker den Ausbau der Stromtrassen zwischen Norden und Süden. Der Süden sieht diesem Drängen gelangweilt zu. Bis dass neue Netze zur Verfügung stehen – so hoffen sie – werden sie selbst genug Strom vor Ort erzeugen. Wie das Beispiel der Stadt Schönau im Schwarzwald zeigt, ist eine Selbstversorgung durchaus in Reichweite. Die Stadt betreibt seit 1991 ihre gesamte Energieversorgung ganz in Eigenregie, hauptsächlich mit Wasserkraft, Solarenergie und Biogas. Auch der Eifelkreis Daun hat sich zum Energie-Selbstversorger entwickelt. Alle Haushalte und die mittelständige Industrie werden aus Solar- und Biogas-Anlagen versorgt. Man ist schon nicht mehr auf Strom von der Küste angewiesen.

Manche Kommentatoren sehen ein gewisses Risiko darin, dass die vom EEG-Gesetz geförderte Stromversorgung sehr leicht zum Totalausfall führen kann, da in Deutschland die Sonneneinstrahlung oder der Wind tagelang ausfallen können. Wen wundert es, dass sich die bisherigen Energieversorger daher anbieten, wenigstens als Backup im Geschäft zu bleiben, indem sie billige, auf Braunkohle basierende Kraftwerke neu bauen. Die für die Speicherung und den Transport von Strom zur Verfügung stehenden Technologien seien entweder zu primitiv, oder zu teuer. Neue Pump-Wasserspeicher haben nicht nur eine sehr schlechte Rentabilität, außerdem stoßen (auch) sie auf den Widerstand von Umweltfreunden.

Am 12.4.2012 legte Hartmut Wedekind nochmals nach. Dabei bezog er sich auf einen Beitrag der FAZ vom April 2011:

Und das Paradies der FAZ wird es gar nicht geben, weil hinter einer Wind-und Sonnenenergie genauso viel konventionelle Energie im Backup stehen muss. Machen Sie mal eine Reservehaltungsrechnung auf, um sagen wir die Blackout-Gefahr auf 100 - 99,99% zu bringen Das sind 6-Sigma-Werte, die von der Versorgungssicherheit verlangt werden. Das ist teuer, und auch nicht exportierbar. Bei Kernenergie sind in Sachen GAU die Sicherheitsbedingungen ähnlich. Blackout-Gefahr und GAU-Gefahr im Nuklearen sind ja auch ähnlich desaströs. Es gibt reichlich Energie auf dieser Welt, beliebig viel eigentlich. Das immerwährende Ingenieurproblem ist, nicht teure ,sondern billige Energie zu produzieren. Teure Energie, das ist einfach, das kann jeder. Mit EEG geht das nicht. Und das ist sein Tod. Viel zu teuer, auch in ‚the long run‘. In summa: ‚bad engineering‘.

Ich finde es geradezu skandalös, eine potentielle Kernschmelze in Fessenheim mit einem Windstrom-Blackout zu vergleichen. Im ersten Fall kann niemand den Elsässern und den Badenern helfen (siehe Fukushima und Tschernobyl). Im andern Fall gibt es Betriebsferien oder kalte Küche im Teil des Landes.

Sonne als Energiequelle

Es steht außer Frage, dass die Erde über eine unvergleichbare Energiequelle verfügt. Es ist unsere Sonne. Sie ist die Ursache allen Lebens auf der Erde. Die von ihr bereitgestellte Energie ist kostengünstig und so schnell nicht verbraucht. Kein Wunder, dass die Sonne in vielen Kulturen eine besondere Verehrung genoss. Die fossilen Energien, die nur in den letzten 100 Jahren eine so große Rolle spielten, sind ein Neben- oder Folgeprodukt der bisherigen Sonnenaktivität. Sie stellen von Pflanzen umgewandelte Sonnenenergie dar. Obwohl sie das Ergebnis von Prozessen sind, die einige Milliarden Jahre in Anspruch nahmen, sind sie limitiert. Dass sie Zuneige gehen, davor wurde bereits öfters gewarnt, bis dann neue Quellen oder neue Fördermethoden (wie z. B. das Fracking) für neuem Auftrieb sorgten.


Die Sonnenergie ist nicht immer gleichmäßig verfügbar. Da sie in Form einer Strahlung zur Verfügung steht, spielt die relative Position von Erde und Sonne eine Rolle. Es sind die tägliche Drehung der Erde um ihre Achse und der jahreszeitliche Abstand zwischen Erde und Sonne, die zählen. Die Menge an aufgenommener Energie ist proportional zur Fläche, die zur Sonne hin geboten wird. Ein Land, das über mehrere Zeitzonen hinweg Sonnenenergie sammeln kann, kann effektivere Lösungen entwickeln als ein Kleinstaat wie Luxemburg oder ein Stadtstaat wie Honkong.



Neben den Kritikern der Energiewende fallen die Scharen von Journalisten aus aller Herren Länder auf, die derzeit unsere Nordseeküste (und vor allem die Insel Borkum) besuchen. Alle wollen sehen, was hinter der Änderung des europäischen Strommarkts steckt. Die Gruppen aus China, Japan und Korea fotografieren mal wieder am eifrigsten. Im Falle der Solartechnik hatte Europa auch einmal Fabriken und Installationen, wo sich Besichtigungen lohnten. Was daraus wurde, habe ich weiter oben bereits erwähnt.

Deutscher Sonderweg oder (doch) gemeinsame Lösungen für Europa?

Es ist erstaunlich, dass von dem Moment an, als der deutsche Weg zur alternativen Energiegewinnung erste Erfolge zeigt, einige europäische Länder den deutschen Sonderweg kritisieren. Bisher hatten sowohl Frankreich wie Tschechien gehofft, im Winter als dankbare Lieferanten von Atomstrom in die Bresche springen zu können. Die erwarteten Engpässe und Ausfälle fanden bisher nicht statt. Der milde Winter 2013/14 hat diese Hoffnungen nicht befördert. Andererseits machen die niedrigen Preise an der Strombörse auch unsern Nachbarländern mehr und mehr zu schaffen. Selbst französischer und tschechischer Atomstrom gerät unter Preisdruck.

Statt aufeinander mit Kritik los zu ziehen, und den jeweils eigenen Weg der Klima schonenden Energieversorgung zu verteidigen, könnten die EU-Politiker in der Energie-Politik eine Chance für echte Kooperation sehen. Ihnen sollte lokales oder nationales Denken zuwider sein. Man muss nicht einmal global denken, regionales Denken reicht vollkommen. Warum hört man so wenig von den andalusischen Solarparks, oder von Desertec? Leider sind die Staaten in oder südlich der Sahara noch weniger beliebt als die OPEC-Staaten. 


Ganz offensichtlich bestehen echte Transportprobleme. Wenn für den Stromtransport nur ein Teil des Aufwands betrieben würde als für den Gütertransport, kämen vielleicht die Dinge in Bewegung. Elektronen statt Atome zu bewegen, das sollte alle Elektroingenieure Europas herausfordern. Vielleicht sind alle notwendigen Erfindungen bereits gemacht. Es muss ja nicht gleich eine Verbindung zwischen den Azoren und Zypern sein. Ein einheitliches Stromnetz, das Portugal und Polen umfasst, wäre als Anfang ausreichend. Als weiteres Gebiet liegt die Stromspeicherung im Argen. Meine Freude an Smartphones und Tablet-Rechnern wird immer wieder vergällt, wenn ich die Lektüre von Büchern oder das Schauen von Fernsehsendungen und Filmen unterbrechen muss. Die Energie-Speicherung ist innerhalb der ganzen Energietechnik das Gebiet, wo nur bahnbrechende Erfindungen weiter zu helfen scheinen.

Ich möchte nicht verhehlen, dass Riesen-Windräder mich an Dinosaurier erinnern. Wieso wachsen diese modernen Maschinen noch wie Monster, wo doch alle Welt von Miniaturisierung spricht, oder gar von Nanotechnik? Die Riesen auf der Hochebene der La Mancha, gegen die Don Quichote einst gekämpft haben soll, waren exakt derselbe Stand der Technik. Nur die Baumaterialien waren andere. Ich bin ziemlich sicher, dass man in 50 Jahren diese Riesen als Ruinen der Technik besichtigen wird, so wie die Bunker des Westwalls und die Hochöfen an der Ruhr.

Kleine Zahlensammlung (nur angedacht)

Obwohl in der ganzen Energiedebatte emotionale, politische und technische Argumente eine große Rolle spielen, ist es durchaus sinnvoll sich einige Zahlen anzuschauen. Sie können ein Gefühl für die Größe der Aufgabe vermitteln, die eine Volkswirtschaft oder die Weltwirtschaft zu bewältigen hat.


Da ich kein Experte bin, habe ich nur die Art der Zahlen angegeben, die man meines Erachtens studieren sollte. Ich habe (mit einer Ausnahme) noch keine Werte angeführt, da ich nicht in der Lage bin, überall gute Schätzungen anzugeben, die sich auch verifizieren lassen. Vielleicht tue ich es noch. Wer solche Zahlen parat hat, sollte sich melden.

Nachtrag am 15.4.2014:

Die in der obigen Tabelle eingetragenen Zahl von 0,005 GWh soll den 5.000 kWh entsprechen, welche die hiesigen Stadtwerke mir für das Jahr 2013 in Rechnung stellten. Als zusätzliche Kundeninformation fügte man zwei Tortenbilder bei, aus denen einerseits hervorgeht, woher der Strom stammte, den man mir im Jahre 2012 lieferte, und andererseits ein Vergleich für ganz Deutschland.


Am 19.4.2014 schrieb Hartmut Wedekind aus Darmstadt:

Manchmal geht es in der Welt auch ganz einfach ohne großes Getöse. Was ich als Ausgedienter zum Thema weiß, müssten die Netzwerk-Routiniers längst wissen und gelangweilt sein. Für Politiker oder politische Soziologen mag das, was im Anhang steht, neu  sein. In Sachen „Reservehaltung“ sollte jegliche Polemik aus der Diskussion verschwinden.Meinungen aus der Hosentasche sind entbehrlich.

Austausch zwischen Hartmut Wedekind (HW) und Bruno Hake (BH):

HW (18.4): Ihr letzter Aufsatz in t&m zur Energiewende hat mich tief beeindruck, so dass ich mich selber mal dran machen will, Rechnungen zur  Reservehaltung  vorzunehmen.  Reservehaltungs-Rechnungen habe ich intensiv in der Lagerhaltung praktiziert. Einige Erfahrungen liegen also vor. Sie geben die Verhältnisse „Wind : Reserve = 4:1“ und „ Sonne : Reserve =  9:1“ an.  Dazu möchte ich gerne Literatur studieren. In der Lagerhaltung berechnet man einen „Sicherheitsbestand“ (safety stock)  durch ein z-Faches der Streuung Sigma.  z= 2 ist hier üblich. Man liegt dann so bei 95% Stock-out Sicherheit. Bei der Blackout-Sicherheit muss man sicherlich auf z = 6 gehen, um an die 99.9% heranzukommen. In der Lagerhaltung produziert man  mit z= 6 gewaltige Sicherheitsbestände. Das befürchte ich auch bei der Reservehaltung. Ahnliches geben sie ja auch mit ihren Verhältnissen an. Das bedeutet. Wir ersetzen Kernkraft durch konventionelle Reserve-Kraftwerke.  Das wäre der Tod der Energiewende und ein Husarenstück von Dilettanten.

BH (19.4.): ich habe die Jahresnutzungszahlen errechnet aus Angeboten der Anbieter von Solar- und Windkraftanlagen sowie aus Berichten über existierende Anlagen.  Die als ‚Grundlast‘ erforderliche Arbeit wäre Leistung der Anlage x 365 Tage x 24 Stunden. Setzt man diese ins Verhältnis zur tatsächlich gelei8steten Arbeit, dann erhält man für Windkraft an Land etwa 20 %, Fotovoltaik etwa 10 %. Das sind die technischen Verhältnisse. Berücksichtigt man, dass bei Spitzenleistung ein Teil der Arbeit (kWh) an Dritte abgegeben, d.h. exportiert werden muss zu Zeiten des Stromüberflusses und entsprechend niedrigen Preisen, dann sieht es wirtschaftlich gesehen schlechter aus.

HW (19.4.): Aus der Lagerhaltungslehre kommend, habe ich meine eigenen Überlegungen angestellt (siehe Anlage). Auch aus dieser Perspektive sieht das EEG nicht sehr positiv aus. Wenn man das Ganze mal simulativ durchrechnet, mit allen Klimadaten, wie ich  am Ende vorschlage, kommt man  u.U. zu dem gleichen Ergebnis. Wie kommt das bloß, dass die Öko-Institute und die Ministerien schweigen? Auch von Universitätsinstituten ist nichts zu hören. Ich muss mich offensichtlich noch mehr bemühen. Dass es sich hier um eine zentrale Frage handelt, scheint den meisten Menschen entgangen zu sein. Die Politiker spielen Kasino, als hätte sie das G8/G9 der Schulen als Problem vor sich. Ernsthaftigkeit jedenfalls, die dem Problem gebührt, kann ich nicht feststellen. Man ist zu Ernsthaftem unfähig. Ich werde Ihren Ansatz weiter verfolgen