Mittwoch, 26. Februar 2014

Putinismus, die neue universelle Staatsdoktrin

Die neue Staatslehre, die zurzeit in vielen Staaten ihre Anwendung findet, ist mit dem Namen ihres bekanntesten Vertreters belegt. Wladimir Wladimirowitsch Putin (Jahrgang 1952) hatte seine Lehrzeit 1985 bis 1990 als Mitarbeiter des russischen Geheimdienstes KGB in Dresden verbracht. Dort arbeitete er eng mit dem Staatssicherheitsdienst der DDR (Abk. Stasi) zusammen. Er war zuletzt stellvertretender Abteilungsleiter in der KGB-Residentur. Laut Angaben des ehemaligen Bundesbeauftragten für die Unterlagen des Staatssicherheitsdienstes und heutigen Bundespräsidenten Joachim Gauck, war es seine letzte Tat, dass er 1990 versuchte aus Mitgliedern der Stasi einen Spionagering aufzubauen. Als dies misslang, ging er in die sich auflösende Sowjetunion zurück.

Seit er durch die Vermittlung Jelzins in der Spitze der nach-sowjetischen Russischen Föderation in der Politik Fuß fasste, betreibt der sowohl Innen- wie Außenpolitik nach der nach ihm benannten Doktrin. In einen einzigen Satz ausgedrückt lautet sie:

Alle Macht geht von den Sicherheitsdiensten aus!

Der Putinismus ist eine absurde Weiterentwicklung des Demokratie-Begriffes, bei dem es heißt: Alle Staatsgewalt geht vom Volke aus (Artikel 20.2 GG). Die meisten Autoren, die den Begriff Putinismus bisher benutzten, bezogen ihn primär auf die Art, wie Putin seine Macht innerhalb Russlands aufbaute und ausbalancierte. Nach meiner Meinung verfolgen auch andere Staaten die von Putin propagierte Staatslehre.

Begründung und Ausprägung der Doktrin

Der eben zitierte Artikel 20.2 GG ist von sehr idealistischen, um nicht zu sagen utopischen Vorstellungen des 18. Jahrhunderts geprägt. Es wird angenommen, dass die Masse eines Volkes in der Lage ist, vernünftig auf Krisensituationen zu reagieren. Dass dies bei so heterogenen und politisch ungebildeten Gemeinwesen wie der früheren Sowjet-Union eine (geradezu unverantwortliche) Fehleinschätzung ist, bedarf keiner psychologischen Expertise oder Forschung. Es ist für jedes Kind offensichtlich.

Die Demokratie stützt sich bei uns im Westen auf zwei Säulen, die Parlamente und die Presse. Viele Politiker haben schon lange einen sehr schlechten Ruf. Man setzt sie mit Autoverkäufern gleich. Immer wieder machen sich Politiker verdächtig. Mal haben sie für einen Lobbyisten gearbeitet, mal haben sie charakterliche Schwächen (Pädophilie) oder sie machen sich diverser Delikte (Plagiate, Steuerhinterziehung) schuldig. Die Mehrheit der Mandatsträger vereint die Sorge um eine Diätenerhöhung.

Die Presse veröffentlicht das, womit man Geld verdient. Skandale und das Aufdecken von Betrügereien in Politik und Sport sichern die Auflagen. Sie hat kein Interesse, alles zu veröffentlichen, was in einer Gesellschaft geschieht oder wichtig ist. Das erfährt man nur durch Nachrichtendienste, was sehr oft auch als Synonym für Geheimdienste gilt. Diese können völlig privat operieren oder im Auftrag einer Regierung. Natürlich muss man für etwas, das einen Wert hat, auch zahlen. Man bekommt es nicht als Abfallprodukt eines anderen Geschäfts, wie man es im Falle der freien Presse erhofft.

Man braucht heute die Stimmen aus dem Wahlvolke, um an die Macht zu kommen. Hat man zu viele oder die falschen Parteien, können sich die Stimmen verzetteln. Nach der Wahl verschwindet die Macht des Volkes. Sie löst sich schlagartig auf. Das Volk kann weder das Land regieren, noch kann es die von ihm gewählten Politiker bei ihrer Arbeit unterstützen. Das schlimmste ist, das Volk kann seine Verantwortungsträger – kurz Führer genannt  ̶  nicht mehr beschützen. Diese sind vogelfrei, es sei denn sie umgeben sich mit einem qualifizierten Stab von Beschützern. Polizei und Armee sind dafür unbrauchbar. In historischen Uniformen nehmen ihre Vertreter bei Empfängen oder Paraden teil. Die Schweizer Garde des Papstes ist ein bekanntes Beispiel.

Das Problem ist alt, nur die Lösung ist neu. Wirklichen Schutz gibt es heute nur durch Geheimdienste, nicht mehr durch Leibgarden, selbst wenn diese mit Panzerfäusten und Maschinengewehren ausgerüstet wären. Das ist deshalb so, weil die wenigsten Angreifer noch offen auftreten. Sie arbeiten im Geheimen. Man kann sich nur verteidigen, indem man verdächtig wirkende Gruppen beobachten, d.h. ihre Kommunikation überwachen lässt, bevor sie zuschlagen. Das Überwachen ist heute relativ leicht möglich, weil alle Beteiligten Medien benutzen, die Daten streuen.

Mindestens so wichtig, wie die Sicherheit der Führer ist die Sicherheit kritischer Einrichtungen, seien es Elektrizitätswerke, Wasserwerke oder Brücken und Verkehrswege. Aber auch Massenveranstaltungen jeder Art sind sehr gefährdet. Die Angreifer verfolgen manchmal ein politisches Ziel, etwa die Autonomie eines ethischen oder religiösen Einsprengsels (wie bei Basken, Kurden oder Tschetschenen), oder auch nicht. Oft geben sie sich zufrieden, wenn sie ihre Macht zeigen konnten.

Der Putinismus nimmt die Allgegenwart terroristischer Bedrohungen ernst. Er reagiert darauf mit der einzig wirksamen Antwort, der vollständigen und effektiven Kontrolle der Gesellschaft mit den Mitteln der Geheimdienste. Diese Mittel sind nicht nur sehr umfassend; sie sind auch keinerlei Einschränkung unterworfen.

Russische Föderation

Über den Putinismus in seinem Ursprungsland gibt es bereits seit etwa 10 Jahren hin und wieder wissenschaftliche Analysen. So brachte z.B. die Bundeszentrale für Politische Bildung (bpb) am 15.7.2013 die Übersetzung eines Essays von Richard Sakwa von der University of Kent mit dem Titel: ‚Entwickelter Putinismus - Wandel ohne Entwicklung‘. Sakwa ist der Ansicht, dass der Putinismus in Russland bereits die Grenzen seiner Entwicklung erreicht habe. Wie allgemein bekannt, dürfen sich sogar Wissenschaftler irren. Trotzdem zitiere ich einige Passagen.

Putin hat es vermocht, auf eine Reihe für Russland sehr realer Herausforderungen auf relativ kompetente und kohärente Art zu reagieren. Jene Kritiker, die dem Regime vorwerfen, dass es die Grundzüge einer effizienten Regierungsführung vermissen lasse, liegen falsch. Selbst die verschiedenen anstehenden Megaprojekte, angefangen bei den Olympischen Winterspielen 2014 in Sotschi [gingen gerade ruhmreich für Putin zu Ende] bis zur Fußballweltmeisterschaft 2018, sind, so verschwenderisch auch mit den Geldern für den Bau umgegangen wird, etwas, worauf das Land stolz sein kann. …Der Schlag gegen den Ölkonzern Jukos und die Verhaftung seines Chefs Michail Chodorkowskij am 25. Oktober 2003 markiert den Wendepunkt, der die zweite Phase Putinscher Politik einleitete, in der das Regime die politischen Spielräume einschränkte und sich auf diese Weise konsolidierte. …Nachdem sich der Staub der Sukzessionskrise gelegt hatte, griff das System des entwickelten Putinismus zu neuen Formen des politischen Managements. Hierbei standen vier Strategien im Zentrum: zwingen, beschränken, kooptieren, überzeugen. … Das Putinsche System ist in Stagnation verfallen. … die Versuche neue Wege zur Kontrolle des politischen Lebens zu finden, wenn die alten Instrumente diskreditiert sind, enthüllen nur, wie begrenzt die verfügbaren Möglichkeiten in dem engen Rahmen des entwickelten Putinismus sind. …. Politische Opposition ist eingeschränkt, was allerdings nur einem bürokratischen Lenkungsstil zur Dominanz verhilft. Da ein öffentlicher Raum und der Zugang zu den Medien fehlen, nimmt die Korruption zu. Die Erosion offener Politik führt dazu, dass Konflikte nach innen gelenkt werden.

Es gibt in Russland offensichtlich keinen Schutz des privaten Eigentums oder anderer Bürgerrechte. Es wird von häufigen Zwangsräumungen von Wohnungen und mehr oder weniger willkürlichen Verhaftungen berichtet. Gewaltanwendung erscheint unverzichtbar bei der Durchsetzung politischer Ziele. Kurz vor den Olympischen Winterspielen wurde Chodorkowskij begnadigt und lebt inzwischen im Westen. Bezüglich Korruption liegt Russland an der Weltspitze. Es gibt keinen Mittelstand, nur Arme und Reiche (die berühmten Oligarchen). Eine Bürgergesellschaft ist erst im Entstehen und konzentriert sich auf Moskau.

Ukraine und andere Nachfolge-Staaten der Sowjet-Union

Die Nachfolge-Staaten der früheren Sowjet-Union hatten entweder die Möglichkeit, sich nach Westen zu orientieren wie die baltischen Staaten oder aber sie lehnten sich weiter an Russland an. Beispiele aus der zweiten Gruppe sind die Ukraine, Weißrussland, Kasachstan und Turkmenistan. Fast alle Staaten dieser Gruppe werden auch 25 Jahre nach dem Zerfall der Sowjet-Union mehr oder weniger autokratisch regiert. In der Ukraine kam es inzwischen zweimal zu einem Volksaufstand gegen das amtierende System. Die Ereignisse auf dem Maidan-Platz in Kiew führten in den letzten Wochen wiederholt zu Gewaltanwendung und Blutvergießen. In der Tageszeitung Die Welt vom 24.2.2014 schrieb Gerhard Gnauck:

Im Falle der Ukraine hat sich Putin offenbar verrechnet: Dass eines der ärmsten Länder des Kontinents [eine frühere Kornkammer Europas] an Russland über Jahre den höchsten Erdgaspreis Europas zahlen musste, hat nicht nur die Ukraine, sondern auch das Regime Janukowitsch am Ende fast handlungsunfähig gemacht….Die erfolgreiche Euromaidan-Revolution in Kiew wird ihn in der Angst vor jeglicher freien Meinungsäußerung im eigenen Land weiter bestärken und noch mehr als bisher zur Repression greifen lassen….

Wie heißt es so schön: Die Hoffnung stirbt zuletzt. Was aus dieser Revolution entstehen wird, ist noch völlig offen. Es ist durchaus möglich, dass das Land in zwei Teile zerfällt. Der Osten mit dem Donez-Becken und der Krim wird sich auch in Zukunft eher auf Russland ausrichten als auf die EU. Dem westlichen Landesteil kann die EU wirtschaftlich unter die Arme greifen. Ob sie die Sicherheitsbelange auch nur partiell wahrnehmen kann, ist äußerst fraglich.

Volksrepublik China

Die kommunistische Regierung Chinas vertritt eine Staatsauffassung, in der Geheimdienste ohnehin eine zentrale Funktion darstellen. Chinas Ministerium für Staatssicherheit ist einer der größten Nachrichtendienste der Welt. Wegen seiner Rolle als Inlandsnachrichtendienst und bei der Überwachung von Dissidenten wird es auch als Geheimpolizei bezeichnet. Laut chinesischer Strafprozessordnung besitzt es bei Gefährdung der nationalen Sicherheit die gleichen Rechte wie die Polizei. Ihre Auslandsagenten sind als Geschäftsmänner, Banker, Gelehrte und Journalisten tätig.

Wie Sandro Gaycken in dem von mir in einem früheren Blog-Eintrag zitierten Buch berichtet, hat China die staatliche Online-Überwachung perfektioniert. Es sollen rund 150.000 Mitarbeiter damit beschäftigt sein, das zu tun, wofür die USA und Israel derzeit je 500 Hacker beschäftigt haben.

USA

Das große Rätselraten um Obama, das uns Europäer so frustriert, wird durchschaubar, wenn man Obama als Anhänger oder Opfer des Putinismus sieht. Der Begriff Putinismus ist hier in einem Russland übergreifenden Sinne zu verstehen. Für Obama sind die Geheimdienste ebenfalls wichtiger als die Wähler. Die Wähler trugen ihn ins Amt, weil er ihnen einen offeneren Staat versprach als sie unter seinem Vorgänger George W. Bush erlebten. Er brach die meisten seiner Wahlversprechen (wie Schließung von Guantanamo, Frieden im Nahen Osten, offenes Verhältnis zu befreundeten Staaten).

Sobald er das Präsidentenamt angetreten hatte, musste Obama feststellen, dass nicht die politischen Parteien staatstragend sind, sondern eine Gruppe von 16 Behörden, die seit dem 9/11-Desaster von einer weiteren Dienststelle  koordiniert wird. Ihr jetziger Leiter ist James R. Clapper, ein Ex-General. Die zwei größten und mächtigsten Geheimdienste sind die CIA und die NSA. Alle Versuche sie zu beschränken – auch wenn noch so stark von Ausländern gefordert – stoßen auf entschlossenen Widerstand. Nur Sicherheit schaffe Freiheit, nicht umgekehrt, heißt es. Die regulären Streitkräfte befinden sich auf dem Rückzug. Das was Amerikas Verbündete noch von Obama haben wollen sind Waffen (d.h. Nachtsichtgeräte und Drohnen) und Geheimdienst-Informationen.

England, Frankreich und Deutschland

Obwohl England der EU angehört, ist es, was die Geheimdienste betrifft, Teil des Verbunds ‚Fünf Augen‘ (engl. Five Eyes) mit den USA, Australien, Kanada und Neuseeland. England tut, was dieser Verbund von ihm erwartet, denn es ist auf ihn für seine Sicherheit angewiesen. Die Souveränität des Landes wird dadurch in doppelter Hinsicht beschränkt.

Die Franzosen haben eine ganz eigene Staatsauffassung. Sie sehen sich als Großmacht (frz. grande nation), obwohl die Mittel fehlen. Sie möchten so unabhängig bleiben, wie es geht. Manchmal übernehmen sie sich und freuen sich, wenn andere Länder ihnen zu Hilfe eilen, besonders in Afrika.

Angela Merkel und Joachim Gauck begegnen dem Putinismus mit großer Skepsis. Deshalb fuhren sie auch nicht zu Putins Festspielen nach Sotschi. Das Versprechen der staatlich garantierten Sicherheit erinnert sie zu sehr an die Stasi. Altkanzler Gerhard Schröder ist nicht nur als Agent einer russischen Staatsfirma tätig, er vertritt auch Putins Interessen, wo er nur kann. Dedizierte Meinungen zu neuen Staatstheorien sind aus Berlin kaum zu hören.

Nachbemerkung: Dieser Beitrag ist leider sehr defätistisch ausgefallen. Manche Dinge sind natürlich überspitzt formuliert. Ich hoffe, dass den Lesern oder mir doch noch etwas einfällt, das insgesamt positiver klingt.

Dienstag, 25. Februar 2014

Energiewende in der Sackgasse?

Diese Frage stellt der Wirtschaftsingenieur und Unternehmensberater Bruno Hake aus Wiesbaden in seinem Beitrag im Heft 2014/1 der Zeitschrift Technologie und Management. Auf Veranlassung von Hartmut Wedekind stellte uns der Herausgeber eine PDF-Fassung des Artikels zur Verfügung. Außerdem schrieb Hartmut Wedekind nachfolgenden Kommentar, der – wie kaum anders zu erwarten – mit einen Kant-Zitat beginnt.

Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen! (Kant)

Eins kann man Herrn Hake nicht vorwerfen. Das wäre der Vorwurf  einer Ideologie. Nach einem Wort des Philosophen Ernst Bloch sind Ideologien Verschönerungen dieser Welt. Ideologien, also Verschönerungen,  sind in der Politik und in der Kunst üblich, in den Wissenschaften (da geht es um sichere Aussagen) sind Ideologien verboten, obwohl es immer mal wieder vorkommt, dass einer  z.B. seine Messwerte glättet, nur damit diese in seine „schöne Theorie“ passen. Hakes Aufsatz ist eine unverschönte Darstellung eines Unternehmensberaters für Manager, die mit der Energiewende befasst sind. Es ist eine scharfe Kritik am geltenden Erneuerbare-Energie-Gesetz (EEG) mit seinen irrationalen Blüten, die es durch seine ausufernden Subventionitis hervorruft. Wenn die Groko (Große Koalition in Berlin) den Reservekapazitäten hohe Bedeutung  zukommen lassen will, dann sind das in den Worten Hakes „Lastesel“, die die Energiewende tragen sollen. Dass diese konventionellen Lastesel nun drohen zusammenzubrechen und zu einer  Kraftwerkunion vereinigt werden sollen (Spruch: Einigkeit macht stark), ist nur eine weitere Verschönerung hin zur Verstaatlichung der Kraftwerksindustrie mit den bekannten Folgen einer Verstaatlichung. Wir verlassen dann die Erfolgsbasis der Bundesrepublik Deutschland.  EEG-Novelle der Groko hin oder her: Die Groko muss die Frage beantworten, wie Wind und Sonne  die Kern-Energie unter den selbst gesetzten, bekannten  Nebenbedingungen ersetzen können. Kann sie das  nicht zeigen, sollte sie abtreten. Hic Rhodos, hic salta. Also: Groko springe. Denn Energie ist existenzbestimmend und kein beliebiges politisches Spielzeug für Verschönerungsmeister. Bei der Energie hört der politische Spaß  definitiv auf.

Hakes Darstellung ist gut verständlich. Würde er die Gleichungssprache benutzen, würde sich seine Leserschaft nach einem bekannten Sprichwort mit jeder Gleichung halbieren. Hake ist kein Kern-Energie-Ideologe. Die gab es früher einmal. Die sind längst ausgestorben. Hake sagt, was Sache ist. Und bloße Alleinstellungsmerkmale Deutschlands sind auch in Sachen Energie eigentlich unerwünscht, zumindest seit meiner Jugendzeit. 

Den Hake-Beitrag finden Sie hier

(Sie müssen ihn leider hin und her schieben, um ihn zu lesen)

Am 26.2.2014 schrieb Hartmut Wedekind:

Obwohl ich die Blaba-FAZ in Sachen Energiewende nicht mehr lese, heute in der Früh las ich sie mit Genuss, weil der Artikel „Merkel-Berater: EEG abschaffen“ für mich wie bestellt kam. Da ich noch keine Kenntnis von der Berater-Erkenntnissen hatte, könnte man den Artikel einfach als Kommentar zu meinem Beitrag in den Blog stellen. Der Artikel ist eine Ergänzung.

Freitag, 21. Februar 2014

Software als Erfolgsgarant bei der Mars-Erkundung (und anderswo)

Die Februar-Ausgabe der Communications of the ACM (kurz CACM) enthält einen Beitrag von Gerard Holzmann mit den Titel ‚Mars Code‘. Er bekräftigt die Aussage, die ich in einem früheren Blog-Eintrag zitierte, dass nämlich Software-Entwicklung überschaubar ist, sofern die Ziele verstanden und die zu verwendende Technologie unter Kontrolle ist. Sie muss kein Abenteuer sein. Dass sie schwierig sein kann, und auch einiger Sorgfalt bedarf, bestreitet niemand. Meine Aussage bezog sich auf meine Erfahrungen aus den 1960er Jahren. Holzmanns Artikel beschreibt Erfahrungen mit dem Projekt, das den Rover Curiosity im August 2012 auf den Planeten Mars brachte.

In manchen Zirkeln gehörte das Jammern über die Software-Krise seit Jahrzehnten quasi zum guten Ton. Unzählige Fachartikel und viele Diplomarbeiten nehmen darauf Bezug. Ich hatte immer den Verdacht, dass hinter dem Jammern mitunter der Wunsch nach Forschungsgeldern stand. Da ich diese Gelder lieber bei der Software als bei der Hardware sah, hielt ich früher meine Meinung zurück. Ganz offensichtlich ignorierten die meisten dieser Autoren die gute Arbeit, die von vielen professionell arbeitenden Praktikern tagein tagaus gemacht wird. Sie selbst benutzen für ihre tägliche Arbeit Software, die angeblich unzumutbar ist. Sie machen dabei meist keinen Unterschied zwischen seriösen Produkten einerseits und amateurhaften Adhoc-Werkzeugen andererseits. Zweifellos ist in den Anforderungen an Software-Qualität ein weites Spektrum durchaus vertretbar. Nicht jedermann braucht dasselbe.

An der Spitze bezüglich Qualität und Zuverlässigkeit liegt eindeutig diejenige Software, die in lebenskritischen Geräten und Anwendungen verwandt wird. Medizinische Geräte gehören dazu, aber auch Aufzüge, Autos, Bahnen und Flugzeuge. Ich selbst habe wiederholt auf die amerikanische Raumfahrt hingewiesen. Was von dort bezüglich der Entwicklungsmethoden und der Ergebnisse in der Fachwelt berichtet wurde, ist in der Tat beeindruckend. Ich habe zuletzt auf diese Kollegen und ihre Methoden im Jahre 2010 in dem gemeinsam mit Rul Gunzenhäuser verfassten Buch ‚Schuld sind die Computer‘ (auf Seite 22) verwiesen.

Ein knochenharter Weg, der zu verlässlichen Ergebnissen [bezüglich Software-Qualität] führt, ist schon lange bekannt. Man korrigiert nicht nur die gefundenen Fehler, sondern sucht anschließend nach ähnlichen Fehlern sowie nach den gemeinsamen Ursachen. … Will man die Wiederholung eines Fehlertyps vermeiden, so muss man denjenigen Teil des Prozesses verbessern, der für die Entstehung dieses Fehlers verantwortlich ist. Dies ist zwar sofort einleuchtend, verlangt aber in der Praxis enorme zusätzliche Anstrengungen. Die amerikanische Raumfahrtindustrie, die diese Methode entwickelt hat und auch anwendet, ist bisher von ernsten Software-Problemen weitgehend verschont geblieben.

Was Holzmann berichtet, baut auf der im Zitat erwähnten Tradition der NASA auf und führt fort, was zur Zeit der Mondflüge entstand. In diesem Falle handelt es sich um das Jet Propulsion Laboratory (JPL) in Pasadena, CA.

Automatische Code-Analyse

Wie Holzmann berichtet, stehen heute sehr leistungsfähige Werkzeuge für die Code-Analyse von mehreren Lieferanten zur Verfügung. Hier scheint die Entwicklung in den letzten Jahrzehnten enorme Fortschritte gemacht zu haben. Natürlich gibt es Werkzeuge vor allem für die Sprachen, die Relevanz im Markt haben, also C, C++ und Java, und nicht für jede Spielzeugsprache, die von einem Lehrstuhl in Mittweida oder Honolulu gerade propagiert wird. Offensichtlich hat sich ein separater Markt entwickelt, unabhängig von den Compilern. Bei den C-Compilern gibt es etwa 30 Produkte, vorwiegend aus der Open-Source-Gemeinde.

Das Überraschende (für Holzmann) war, dass unterschiedliche Analyse-Werkzeuge unterschiedliche Fehler aufdecken. Als Konsequenz hat man nicht ein Werkzeug eingesetzt, sondern alle verfügbaren. Es macht diesen Programmen nichts aus, hundert mal denselben Fehler zu berichten. Kein Mensch würde dies machen. Gerade hier erfüllt sich eine Hoffnung oder Vision (ein Wort, das ich ansonsten vermeide), die ich einst hatte, dass nämlich Rechner dazu benutzt werden könnten, um die wachsende Komplexität von Software in den Griff zu bekommen. Einige der maschinell überprüften Eigenschaften des Codes, die im Bericht erwähnt werden, will ich deshalb angegeben:

  • Keine compiler-abhängigen Spracherweiterungen, keine Fehlermeldungen oder Warnungen des Compilers oder der statischen Analyse-Werkzeuge.
  • Ausführbarkeit in eingebetteter Systemumgebung gesichert; d.h. alle Schleifen mit statisch verifizierbarer Iterationszahl; alle Feld- und Array-Grenzen statisch überprüfbar; keine Division durch Null zugelassen.
  • Dichte von Zusicherungen (% Anteil des Codes) erreicht eine Vorgabe.
  • Keine Verwendung von Pointers, indirekter Adressierung, und dgl.
  • Einhaltung aller MISRA-C-Regeln aus der Automobil-Industrie (z. B. kein Gleichheitsvergleich bei Gleitkommazahlen, kein goto, keine Rekursion)

Die MISRA (Abk. für Motor Industry Software Reliability Associatian) hat allein für die Sprache C über 100 Regeln festgelegt, die beachtet werden müssen, sollte diese Sprache in sicherheitskritischen Anwendungen benutzt werden. Da keine andere Programmiersprache eine vergleichbare Aufmerksamkeit erfahren hat, kann niemand behaupten, sie seien weniger gefährlich. Auch Unterschiede im Codierungsstil können mittels Strukturierungs-Werkzeugen ausgeglichen werden.

Entwurfs- und Code-Inspektionen

Wer die Diskussionen der 1960er Jahre in Erinnerung hat, weiß, welchen Stellenwert Inspektionen seither im Software-Entwicklungsprozess bekommen haben. Ich benutze das Wort Inspektionen als zusammenfassenden Begriff für Reviews, Walk-Throughs und dergleichen. Manche Kollegen glaubten fast, dass Inspektionen das Testen von Programmen ersetzen könnten. Zwei Regeln oder Grundsätze haben sich seither durchgesetzt: (1) Man inspiziert alle Arbeitsergebnisse so früh wie möglich, um die Lebensdauer eines Fehlers zu minimieren, (2) Man inspiziert jedes Arbeitsergebnis gezielt nach den Fehlerarten suchend, die erfahrungsgemäß zu erwarten sind, also mithilfe von empirisch gewonnenen Checklisten. Gerade der zweite Grundsatz hat bei der amerikanischen Raumfahrt-Software eine lange Tradition.

Durch Analyse-Werkzeuge wird die hohe Zeit- und Kostenbelastung, die früher durch Inspektionen entstand, erheblich reduziert. Dass gilt insbesondere bei Systemen, die mehrere Millionen Programmzeilen umfassen. Die Inspektionen können sich daher auf Dinge konzentrieren, die der Mensch besser als die Maschine machen kann. Das betrifft grundsätzlich das Aufspüren aller Entwurfsfehler, die ja bekanntlich oft katastrophale Folgen für ein Projekt haben können. Aber auch bestimmte Arten von   Implementierungsfehlern können durch Testen nicht gefunden werden. Viele Entwurfsfehler kann nur ein Fachexperte finden.

Wem die hier zur Anwendung gelangten Erfahrungen mit sprachabhängigen Fehlern schon etwas umfangreich erscheinen mag, der sollte bedenken, dass die Verantwortung eines Informatikers ja nicht nur aus der Beherrschung einer einzelnen Programmiersprache besteht. Auch die Planung, der Einsatz und die fehlerfreie Nutzung von Betriebssystemen, Datenverwaltungs- und Bildverarbeitungs-Software fallen in sein Ressort. Sich einzubilden, dass er auch noch die Kompetenz hätte für alle Anwendungsdomänen oder Fachdisziplinen, die in einem solchen Projekt mitwirken, davor muss er sich allerdings hüten. Es gehören dazu die Flugsteuerung im Gravitationsfeld mehrerer Körper, das Lenken autonom sich bewegender Fahrzeuge, die Erfassung und Auswertung von Telemetrie-Daten, die Messung und Prüfung von Temperatur-, Schwere-, Strahlungsdaten, und anderes mehr. Für alle diese Teilgebiete existieren empirische Daten über Anforderungs-, Entwurfs-, Implementierungs- und Testfehler, die von hochqualifizierten Spezialisten oder früheren Kollegen begangen wurden, bzw. ihnen unterliefen. Der Informatiker kann sich darum bemühen sicherzustellen, dass keine Brüche und Lücken auftreten, also keine Differenzen in den Maßeinheiten sich einschleichen, keine unverträglichen Versionen der entsprechenden Module eingespielt werden, usw. Er kann auch dafür sorgen, dass der Partikularismus der Experten sich in Grenzen hält.

Nicht nur für die Informatik auch für die andern Fachdisziplinen existieren empirische Untersuchungen, in denen die in vorausgegangenen oder ähnlichen Projekten aufgetretenen Fehler berichtet und analysiert werden. Holzmann ist der Ansicht, dass es für jemanden, der auf einem dieser Gebiete arbeitet, nicht schwer ist, an diese Daten zu gelangen. Aus Fehlern kann auf Fehlerursachen (engl. root causes) geschlossen werden. Das ergibt die Checklisten für alle späteren Inspektionen. Die Bezeichnung empirisches Software Engineering beschreibt diese Vorgehensweise.

Software-Redundanz

Dass man die Zuverlässigkeit von Hardware durch ihre Verdopplung erhöhen kann, ist ein allgemein bekanntes Prinzip. Software einfach zu verdoppeln dagegen ist unsinnig. Wenn sie Fehler enthält, werden diese auch dupliziert. Nur für die kritischste Phase des Projekts, die wenigen Minuten der Landung des Rovers, hatte man außer der Hardware auch die Software redundant ausgelegt. In einer zweiten Zentraleinheit befand sich eine zweite Implementierung derselben Funktionalität. Damit ein fliegender Wechsel von der einen Implementierung auf die andere möglich war, wurden beide Programme gestartet und synchron ausgeführt (engl. hot standby). Diese Implementierung derselben Funktion erhielt die Bezeichnung ‚Zweite Chance‘ (engl. second chance).

Eine zweite Form von Redundanz bestand darin, dass gewisse Teile des Codes mit Zusicherungen (engl. assertions) erweitert waren. Das sind Zustandsbedingungen, welche die Variablen erfüllen müssen, während der Code ausgeführt wird. Sehr oft werden solche Bedingungen nur zur Verifikation, also in der Entwicklungsphase, benutzt. Indem sie während des Betriebs laufend ausgewertet werden, kann festgestellt werden, ob eine unerwartete Situation eingetreten ist, die ein Umschalten auf die alternative Software erfordert.

Da ich die fachliche Diskussion der letzten Jahrzehnte um die formale Verifikation verfolgt habe, freut es mich sehr, dass zumindest diese Verwendung der einst so hochgelobten Technik übrig geblieben ist. Etwa 2-5 % des Codes wurden mit Zusicherungen versehen. Das entspricht nicht ganz den Erwartungen, die wir nach Tony Hoares Einführung der Methode in den 1970er Jahren mit ihr verbanden.

Model Checking

Das Model Checking ist ein aus der mathematischen Informatik stammendes Verfahren, das es erlaubt, durch eine Art von automatischem Durchspielen aller Fälle festzustellen, ob ein Programm die durch eine bestimmte formale Spezifikation beschriebene Eigenschaft erfüllt.

Benutzt wurde es im Mars-Rover-Projekt, um festzustellen, ob parallel ablaufende Routinen unter keinem denkbaren Szenarium unbeabsichtigte Wettlaufsituationen (engl. race conditions) verursachen. Da diese Tests völlig automatisch ablaufen, konnten sie leicht wiederholt werden, um sicherzugehen, dass durch Code-Änderungen keine neuen Fehler eingeführt wurden. Das bestätigt wiederum meine immer vertretene Auffassung, dass der Aufwand für mathematisch anspruchsvolle Verfahren sich umso eher lohnt, je mehr sie automatisiert werden können.

Sonstige Maßnahmen

Nur am Rande erwähnt sind in dem Artikel viele andere Maßnahmen, von denen man hoffen kann, dass sie längst Allgemeingut der Branche geworden sind, so dass jeder Neuling sie in der Schule lernt. Dazu gehören gute Software-Architekturen basierend auf

clean separation of concerns, data hiding, modularity, well-defined interfaces, and strong fault-protection mechanisms.’ (Die Übersetzung erspar ich mir).

Über Testen spricht der Artikel nicht. Ich gehe davon aus, dass man nicht den Fehler machte, Testen durch Analysen und Inspektionen zu ersetzen. Auch Leistungsmessungen werden nicht erwähnt. Sie fielen sicher nicht unter den Tisch, obwohl die Software nur einen einzigen Nutzer hat. Interessant ist auch, was nicht erwähnt wird. Die ganze objekt-orientierte Technik scheint keine Rolle zu spielen.

Reflexionen eines Außenstehenden

Während der Autor damit argumentiert, dass bei diesem Projekt außer sehr hohen Investitionen auch der Ruf der NASA auf dem Spiel standen, fallen mir noch weitere Themen ein, über die nachzudenken sich lohnt.

Die unbemannte wie die bemannte Raumfahrt stellen außergewöhnliche technische und menschliche Leistungen dar. Sie würden selbst einem extraterrestrischen Besucher Respekt abverlangen. Wir Erdlinge haben es den amerikanischen Bemühungen zu verdanken, dass wir heute auf unser Sonnensystem von Außen blicken können (dank Voyager 1 und 2) und dass wir laufend für uns neue ferne Galaxien entdecken (dank der Hubble-Sonde).

Die erzielten Erfolge machen Mut, eventuell auch andere Fragen und Probleme in Angriff zu nehmen, die Menschen bewegen (Stichworte Ernährung, Seuchen, Umwelt, Klima). Es muss zuerst der Wille zur gemeinsamen Leistung entstehen. Bei der Durchführung des entsprechenden Projekts muss mit Nüchternheit und Entschlossenheit vorgegangen werden. Es wird erforderlich sein, auf den Leistungen vieler aufzubauen, nicht nur auf den Schultern von einigen Riesen zu stehen. Dabei lernen wir vor allem durch die Fehler und das Versagen derjenigen, die sich an ähnlichen Aufgaben versucht haben. Zu Lehrmeistern können unsere Mitbewerber werden, unsere Kollegen, unsere Freunde oder wir selbst.

Montag, 17. Februar 2014

Bioinformatik – ein Bindestrichfach mit Zukunft?

In der Sat3-Sendung am letzten Donnerstag stellte Gerd Scobel die Frage, was Bioinformatik sei. Er bemerkte dazu, dass die 2-3 Bücher, die Bioinformatik im Titel tragen, ihm nicht viel weiter halfen. Übrigens ging es mir, der ein Berufsleben in der Informatik verbrachte, nicht viel anders. Alle Bücher, die ich vor Jahren in der Universitätsbücherei Tübingen fand, gab ich nach kurzem Durchblättern zurück. Mein Freund Peter Hiemann, dem wir die Mehrzahl der Themen aus der Biologie in diesem Blog verdanken, verwies mich auf die Sendung.

Die Kooperation von Biologie und Informatik ist seit Jahren in aller Munde. Das Buch des Biophysikers John Mayfield, das im Januar in diesem Blog besprochen wurde, versucht ebenfalls eine wissenschaftliche Brücke zwischen Informatik und Biologie zu bauen. Es steht außer Frage, dass eine Kooperation sinnvoll ist. Die Frage ist nur, wie weit sie gehen kann und in welcher Form sie am besten stattfindet. Aus praktischer Sicht muss man fragen, wie sinnvoll und nützlich sind Bindestrich-Fächer als Studiengänge. Ich will sie nicht in Frage stellen, möchte jedoch auf Risiken und übertriebene Hoffnungen aufmerksam machen. Im Übrigen hoffe ich, dass alle diejenigen, die sich für das Fach Bioinformatik entschieden haben, bessere Informationen hatten, als in einer 90-minütigen Fernsehsendung angeboten werden können.

Andere Bindestrich-Fächer

Es ist in Deutschland möglich, zwischen etwa 50 Bindestrich-Informatiken oder informatik-nahen Studiengängen auszuwählen. Von ihnen hat zweifellos die Wirtschaftsinformatik eine Sonderstellung erreicht. Sie ist die Heimat all derer, die Informatik nicht nur als Naturwissenschaft (engl. science) ansehen wie die meisten Amerikaner und Engländer dies tun. Ingenieurwissenschaften (engl. engineering) leiden hier wie dort unter einem Mangel an Anerkennung. Absolventen der Wirtschaftsinformatik treffen auf ein noch besseres Stellenangebot als reine Informatiker und beziehen bessere Anfangsgehälter.

In Wirklichkeit ist dies die Ausnahme. Alle andern Bindestrich-Fächer stellen nach meinem Dafürhalten Schmalspur-Fächer dar. In einigen Fällen handelt es sich auch um eine Abstimmung per Prüfungsordnung gegen eine als übertrieben empfundene Mathematik-Belastung im regulären Informatikstudium. Ein Medizin-Informatiker wird weder als Arzt voll akzeptiert, noch als Informatiker. Dasselbe gilt für Geo-, Medien-, Verkehrs- und Verwaltungs-Informatiker. Niemand würde einem Medien-Informatiker journalistische Fähigkeiten zutrauen. Früher gab es einmal die Begriffe Hauptfach und Nebenfach. Sie fielen der Bologna-Reform zum Opfer.

Kernfragen der Informatik und der Biologie

Bioinformatiker würden Methoden und Erkenntnisse, ja die Denkweise von Informatikern in die Biologie bringen, so hieß es in der Sendung. Die Entschlüsselung des menschlichen Genoms sei der Durchbruch gewesen. Die Analyse und Vorhersage von Proteinfaltungen seien zurzeit vordringliche Aufgaben für Bioinformatiker. Im Übrigen entstünden überall umfangreichere Daten, die gewartet und fortgeschrieben werden müssten. Derzeit gäbe es 120 Datenbanken, die für Molekularbiologen wichtig seien. Das Aufbauen, Abfragen, Warten und Fortschreiben von Datenbanken sei eine Tätigkeit, die Bioinformatiker erfordere. Im Gegensatz zu den in der Sendung anwesenden Spezialisten halte ich diese Tätigkeiten für einen normalen Biologen für genau so zumutbar wie das Schreiben von Veröffentlichungen. Es ist in meinen Augen keine Aufgabe, für die Informatiker erforderlich sind.

Der Hinweis, dass eine zukünftige Speichertechnologie auf DNA-Basis möglich ist, deutet darauf hin, wie sinnvoll die Kooperation in der Forschung derzeit ist. Auch die Arbeiten der Heidelberger Physiker (am Kirchhoff-Institut) an Assoziativcomputern auf der Basis neuronaler Netze (so genannter ‚neuromorpher‘ Hardware) lassen aufhorchen. Manchen Informatikern mag dies zu gewagt erscheinen. Sie hätten Angst, sich zu blamieren. Physiker sind manchmal einfach mutiger. Es bestünde die Möglichkeit als unethisch kritisierte Experimente mit Tieren (Mäusen und Affen) zu vermeiden, wenn gute Computermodelle entsprechender Organismen zur Verfügung stünden. Hier widersprach schon während der Sendung einer der Teilnehmer (Klaus Mainzer, TU München). Er warnte davor zu erwarten, dass man neues Wissen ohne Beobachtung der Natur gewinnen könne.

Mir fiel es während der Sendung schwer, Beispiele zu sehen, wo Kernfragen der Informatik angeschnitten oder berührt werden. Mein Trost: Die Sendung diente ja primär der Illustration für Laien. Die in diesem Blog im Juni 2011 besprochene Arbeit von Fisher, Harel und Henzinger war wesentlich anspuchsvoller. Wieweit die erwähnten Beispiele Kernfragen der Biologie darstellen, kann und will ich nicht beurteilen.

Mögliche Kooperationsformen

Es besteht nicht der geringste Zweifel, dass die Informatik der Biologie helfen kann. Sie hilft auch der Astronomie, der Chemie, der Physik, vor allem aber der Medizin und den Ingenieurwissenschaften. Selbst die Geisteswissenschaften stehen in dieser Hinsicht längst nicht mehr im Abseits. Man muss aber nicht Biologie studiert haben, um sich über biologische Prozesse zu informieren und herauszufinden, in welchen Informatik-Bereichen es sich lohnen könnte, sie als Gedankenmodelle zu verwenden. Es folgt daraus auch nicht, dass diese Kooperation intensiviert wird, wenn Mediziner und Biologen ihre eigenen Informatiker ausbilden.

Generell zieht das Fortschreiten der Wissenschaften die Notwendigkeit der Spezialisierung nach sich. Spezialisierung hat immer den Hauch der Beschränkung. Vertiefung geht nicht ohne Verlust der Breite. In der Informatik erfolgten der Wissensfortschritt sowie die Spezialisierung durch Zurückdrängen der so genannten Theorie. Theorie wird hier nämlich meistens aufgefasst als Mathematisierung und Formalisierung. Dadurch wird aber nichts erklärt, sondern nur umformuliert. Diese Art von ‚Theorie‘ ist daher verzichtbar. Für die Praxis ist die Vermittlung von beruflich nutzbarem Wissen und Können erheblich wichtiger. Trotzdem sollte man den Mut zum Brückenschlag in andere Wissenschaften haben.

Die sinnvollste Kooperation, die ich mir vorstellen kann, ist die Zusammenarbeit in Projekten. Das kann über Monate oder über Jahre andauern. Für eine Aufgabe oder ein Problem sucht man Fachleute aus mehreren Fachgebieten, von denen man glaubt, dass sie beitragen können. Das in der besagten Fernsehsendung mehrfach erwähnte Human Brain Project erfordert die Zusammenarbeit vieler spezialisierter Experten. Natürlich setzt das bei allen Beteiligten voraus, dass sie etwas auf einander zugehen. Auch Mediziner oder Biologen fällt kein Stein aus der Krone, wenn sie Grundbegriffe der Informatik lernen, so dass sie sich mit ausgewachsenen Kollegen dieses Faches unterhalten können.

Die Informatik lebt von ihren Anwendungen und erhält von ihnen wichtige Impulse. Sie darf sich nicht verschließen, indem sie für eine Anwendung X einfach X-Informatiker abspaltet. ‚Hier habt ihr halbwegs ausgebildete Leute. Jetzt seht zu, wie ihr eure Probleme löst.‘ Eine Zusammenarbeit nach diesem Motto halte ich nicht für ideal. Auch öffentliche Geldgeber dürfen nicht glauben, dass sich Informatiker stärker in Richtung Anwendungen bewegen, wenn sie das Geld für Universitäten und Fachhochschulen von der praktischen Informatik weg in Richtung Bindestrich-Informatiken verschieben. Das kann eher zu einer Schwächung als zu einer Stärkung der eigentlichen Informatik-Kompetenz im Lande führen.

Berufliche Perspektiven

Selbst wenn es ausgezeichnete Möglichkeiten der Kooperation und gegenseitigen Befruchtung zweier Fachgebiete gibt, folgt daraus nicht notwendigerweise dass eine Verknüpfung oder gar Vermischung automatisch zu attraktiven Berufsbildern führt. Ich denke an Künstler und Techniker, Juristen und Ärzte, und einige andere. Der Forderung nach gemischten Studiengängen liegt die Vorstellung von Einzelpersonen-Projekten zugrunde. Bei Mehrpersonen-Projekten stellt sich die Frage, was besser ist, zwei Bioinformatiker oder je ein Informatiker und Biologe. Bei drei Personen könnte einem Informatiker und einem Biologen ein Bioinformatiker als Dolmetscher zugeordnet werden. Zu dieser Frage schreibt die Universität Tübingen in ihrer Vorstellung des Studiengangs Bioinformatik

Es ist langfristig davon auszugehen, dass auch außerhalb der Hochschule zu fast jeder Arbeitsgruppe in den Bereichen Biotechnologie, Pharmaindustrie und anderen Anwendungsbereichen in den Lebenswissenschaften mindestens ein Bioinformatiker gehören wird.

Es gäbe Stellen für Bioinformatiker in Krankenhäusern, in der Pharmaindustrie und in der Kosmetik-Industrie, hieß es in der Sendung. Das hat mich nicht vom Stuhl gerissen. Wo in der Hierarchie eines Krankenhauses diese Stellen zu finden sind, kann ich mir sogar vorstellen. Die Entfernung vom Chefarzt wird erheblich sein. Der Abstand in der Vergütung wird entsprechend sein. Auch wegen dieser Problematik kann eine Promotion hilfreich sein. Da eine Vielzahl der möglichen Stellen (noch) an Hochschulen ist, ist eine Promotion jedenfalls sehr anzuraten. Selbst dann, wenn man daran denkt eine Tätigkeit als Selbständiger ausüben, kann sie hilfreich sein. Nochmals die Uni Tübingen:

Derzeit ist es so, dass viele Absolventen der Bioinformatik Studiengänge nach dem Studium eingebettet in einem Biologie Arbeitsbereich in der hochschulnahen Forschung promovieren.

Leider ist der Text u.a. wegen des Fehlens von einigen Bindestrichen etwas unklar. Ich verstehe ihn so, dass man am besten in Biologie promoviert und nicht in Informatik. Das bestätigt mein Bauchgefühl, dass hier eher die Biologie an Terrain dazu gewonnen hat als die Informatik.

Mehr als nur Bauchgefühl

Bei vielen Bindestrichfächern werde ich den Verdacht nicht los, dass es den Vertretern einiger älterer Fachdisziplinen (dazu rechne ich vor allem die Medizin) primär darum geht, sich die Mühe zu ersparen, die Sprache eines neuen Faches soweit zu erlernen, dass sie mit deren Vertretern auf einer kollegialen Basis zusammen arbeiten können. Lieber zieht man sich Hilfskräfte heran, die zu einem heraufblicken und dankbar jedes Brösel aufschnappen, das man ihnen zuwirft. Hilfswissenschaftler werden nicht dadurch geadelt, dass man sie mit einem Bindestrich an ein anderes Fachgebiet ankoppelt.

Jede Berufswahl erfordert Mut, besonders wenn es sich um fachliches Neuland handelt. Auch die ersten Informatiker hatten es nicht leicht. Ich erinnere mich an einen Kollegen, der für seine Software-Firma noch vor wenigen Jahren lieber Mathematiker und Physiker einstellte, weil er dann wüsste, was er hätte. Erst sehr spät hat er seine Meinung geändert. Bei neuen Berufen neige ich eher dazu abzuraten. Man solle andere kämpfen lassen. Das ist auch einer der Gründe, warum ich meinen Enkelkindern davon abrate, ein Bindestrichfach zu studieren. Ob Ingenieur, Informatiker oder Mathematiker hinter dem Bindestrich steht, ist ziemlich gleich. Nur den Wirtschaftsinformatiker nehme ich aus.

Freitag, 14. Februar 2014

Bologna und Venedig – der Reiz italienischer Städte

Gerade schickt uns ein Freund (Manfred Roux), der Venedig besucht, per Facebook herrliche Stimmungsbilder aus der winterlichen Lagunenstadt. Das veranlasst mich, nochmals in mein reiches Material an Reiseberichten zu greifen, wissend, dass diese Art von Beiträgen von meinen Lesern nicht verschmäht wird. Beide beschriebenen Städte besuchten meine Frau und ich im Sommer 2004. Wir ließen das Auto zuhause in der Garage stehen und fuhren per Bahn bequem (im Cisalpino) von Stuttgart über Zürich und Mailand.

In der Universitätsstadt Bologna

Die Gründung der Universität Bologna wurde im 19. Jahrhundert auf das Jahr 1188 festgelegt. Eine Ausbildung von Medizinern oder Juristen (kanonisches und ziviles Recht) gab es dort und an anderen Orten Italiens (z. B. in Salerno) schon früher. Da die Gründung der Univer­sität Paris erst im Jahre 1205 erfolgte, gilt Bologna als die älteste Universität Europas, ja der Welt. Entscheidend ist, dass zuerst in Bologna das Wort „Universität“ auftaucht. Es ist hier von der Gemeinschaft aller Studenten (lat. universitas scholarum) die Rede, die sich zusammen­schloss (inkorporierte), um Professoren anzustellen und sie zu verpflichten, gewisse Regeln einzuhalten. Diese bezogen sich auf die zeitliche Regelung und die Qualität der Vorlesungen. Allmählich schaltete sich die Stadtverwaltung von Bologna ein und erwarb von den deutschen Kaisern (namentlich von Friedrich Barbarossa) das Monopol der Professorenbesoldung. Als Verhandlungspartner der Universität schälte sich damit die Stadtverwaltung Bolognas heraus. Die Struktur der Pariser Universität war von Anfang an eine andere. Hier schlossen sich Pro­fes­soren und Studenten zusammen, um die Ausbildung auf solidere Füße zu stellen.


Die Studenten in Bologna organisierten sich im Mittelalter in Landsmannschaften. In Bologna sind insgesamt 20 von ihnen nachgewiesen. Auch in Paris und später in Prag gab es so genannte Nationen, aber in erheblich geringerer Zahl. Die Studenten einer Nation wohnten oft in eigenen Häusern (Kollegien genannt) oder im selben Stadtviertel. Im Stadtbild von Bologna ist heute noch das Haus der spanischen Studenten als solches ausgewiesen. Bologna hatte etwa 300 Jahre lang eine besonders große Anziehungskraft für den süddeutschen Raum. Da der Hausmeister (Provost) des deutschen Hauses genau Buch führte, sind uns heute noch etwa 3200 Namen von deutschen Studenten bekannt, die zwischen 1289 und 1499 in Bologna Jura studierten. Die große Mehrzahl von ihnen waren Theologen, die sich für kanonisches Recht interessierten. Meist besaßen sie bereits eine Anstellung (Pfründe) durch die Kirche, die ihnen die finanzielle Grundlage für die Studien lieferte. Die Nicht-Theologen waren meist Söhne deutscher Adeliger.

Bologna errang seinen Ruf für die juristische Ausbildung vor allem dadurch, dass die Überlieferung juristischen Wissens und juristischer Texte aus dem alten Rom teilweise über den Weg Konstantinopel-Ravenna erfolgte. So wurden in Bologna der Zivilrechtskodex (lat. codex juris civilis) des oströmischen Kaisers Justitian nicht nur vervielfältigt, sondern auch kommentiert und für den Gebrauch in der Rechtspraxis überarbeitet. Als Basis des Kirchen­rechts (lat. codex juris canonicus) wurden Erlässe der Päpste gesammelt und aufbereitet. Kennzeichnend für die damalige Rechtspraxis war, dass man nur dann als Rechtsanwalt und Notar zugelassen wurde, wenn man die entsprechenden Texte besaß.

Im Streit zwischen den politischen Instanzen dieser Zeit, z.B. zwischen Kaiser und Papst oder zwischen Städten und den Territorialherrschaften, erwiesen sich in Bologna ausgebildete Juristen zunehmend als hilfreich. Nicht nur sprach man dieselbe Sprache, nämlich Latein, sondern kannte auch dieselben Quellen und Kommentare. Verhandlungen zwischen Juristen sollen schon mal einen Kriegs­zug erübrigt haben. Als eine Gruppe von Professoren sich nicht mehr mit der Stadtverwaltung von Bologna einigen konnte, zog sie aus und gründete die Universität Padua. Als Staats­universität der Republik Venedig errang sie den Ruf großer geistiger Unab­hängig­keit. Dies und die geschäftlichen Beziehungen, die zwischen den beiden Städten bestanden, veranlasste die Stadt Nürnberg später, ihre Juristen nur noch in Padua ausbilden zu lassen.


Wer heute Bologna besucht, spürt den Charakter einer Universitätsstadt auf Schritt und Tritt. Am nächsten zum Hauptplatz der Stadt (der Piazza Maggiore) liegt das Archiginnasio. In diesem Wort stecken zwei uns geläufige Begriffe, „Archi“ wie in Architektur und „Ginnasio“ wie in Gymnasium. Es ist dies der im 15. Jahrhundert errichtete Zentralbau der Universität, der entstand, als Bologna zum Kirchenstaat, also zum Besitztum der Päpste, gehörte. In diesem Gebäude ist heute die zentrale Bibliothek der Stadt untergebracht. Zu den Räumen, die man heute ohne Bibliotheksausweis besichtigen kann, gehört das sehr bekannte und nach der Bombardierung im Jahre 1943 wiederhergestellte, so genannte anatomische Theater. Dieser Raum ist ganz in Holz eingekleidet. Er besitzt in der Mitte einen Tisch mit Marmorplatte, auf dem Leichen seziert wurden. Die Bänke der Studenten sind an drei Wänden wie in einem Theater aufsteigend angeordnet. Das Podium des Professors, der die Sezierung vermutlich nur erläuterte, aber nicht selbst vornahm, ist erhöht über den Studenten an der vierten Seite. Rechts und links vom Professor und an der Decke finden sich Körpermodelle (die gehäuteten), an denen sich einzelne innere Organe des Menschen zeigen lassen. 

Außerdem findet man in diesem Raum die Büsten bekannter medizinischer Koryphäen (wie Hippokrates und Galen). Die Korridore des Archiginnasio sind mit bunten Decken­gemälden geschmückt. Besonders eindrucksvoll sind die in der Form eines Wappenschildes geformten Erinne­rungsplaketten früherer Studenten. Sie decken oft die ganze Wand von oben bis unten ab. Einige der Beispiele deutscher Studenten stammen aus dem 17. und 18. Jahrhundert. Im Innen­hof des Archiginnasio veranstaltet die Stadt Bologna Konzerte und Dichterlesungen. Als wir an einem Abend vorbeischauten, trug jemand die Dialoge des Sokrates in feierlicher Sprech­weise auf italienisch vor. Etwa 200 Zuhören waren davon sehr angeregt und spendeten begeisterten Beifall.


Anfang des 19. Jahrhunderts wurden neue Gebäude für die Universität am Stadtrand errichtet (an der Porta S. Donato). Im Hauptgebäude, dem Palazzo Pocci, unterhält die Universität mehrere sehenswerte Ausstellungen. Interessant sind die medizinischen Exponate (Körper­modelle, chirurgische Werkzeuge), Kriegstechnik (Befestigungsanlagen, Kanonen) und Astronomie (Fernrohre, Astrolabien). Dass einige der astronomischen Geräte als Hersteller Namen wie Steinheil, Reichenbach und Utzschneider tragen, prägte sich besonders ein. Vom Turm der Sternwarte aus gibt es einen einmaligen Blick über die gesamte Stadt Bologna. Nicht übersehen lassen sich die vielen heutigen Studenten, die das Viertel um die neue Universität herum bevölkern. Bei sommer­lichem Wetter trifft man sie auch in Straßenkaffees oder vor der Mensa. Dabei fallen hin und wieder Absolventen oder Absolventinnen ins Auge, die mit einem Lorbeerkranz gekränzt ein gerade bestandenes Examen feiern, sei es im Kreis anderer Studierender oder mit Familien­angehörigen.



Für Schwaben besitzt Bologna noch einen besonderen historischen Reiz. Hier liegt Enzo, ein Sohn Friedrichs II. von Hohenstaufen begraben. Enzo (außerhalb Bolognas auch Enzio genannt, auf deutsch Heinrich oder Heinz) war eines von vier unehelichen Kindern des großen Stauferkaisers. Seine Mutter soll eine süddeutsche Adlige gewesen sein, was Histo­riker unter anderem daraus schließen, dass Enzo seine Jugend im schwäbisch-elsässischen Raum verbrachte. Der Kaiser nahm ihn mit 19 Jahren in sein Gefolge auf, und zwar durch die Schwertleite (den Ritterschlag). Im politischen Wettstreit zwischen Kaiser und Papst um die Insel Sardinien, heiratete Enzo die Witwe eines Fürsten, zu dessen Lehensgebiet der nördliche Teil Sardiniens gehörte. Enzo verbrachte allerdings nur ein Jahr auf Sardinien, da der Kaiser ihn mit der Aufgabe eines Legaten (Königsboten) für Italien betraute. In dieser Zeit leitete er die meist kriegerischen Operationen des Kaisers gegen den Papst oder gegen italienische Städte. Als er der kaisertreuen Stadt Modena wegen eines Angriffs von Bologna, das damals zur welfischen, also der kaiserfeindlichen Seite gehörte, zu Hilfe kommen wollte, geriet er 1249 in die Hände der Bologneser. Diese wollten den Gefangenen zunächst als Verhandlungs­objekt gegenüber dem Kaiser einsetzen. Das scheiterte daran, dass der Kaiser ein Jahr nach der Gefangenennahme starb, und dass seine Nachfolger kein Interesse an Verhandlungen hatten, oder wegen des schnellen Machtverfalls der Staufer auch für Bologna uninteressant geworden waren.

Bologna baute im Zentrum der Stadt einen vorhandenen Palast zu einem königlichen Gefäng­nis um und hielt darin Enzo für 23 Jahre gefangen. In der Lokalgeschichte Bolognas wurde Enzo der Titel König von Sardinien verliehen, den er nie besaß. Bologna konnte sich damit als einzige Stadt Italiens damit brüsten, einen König gefangen zu halten. In den Urkunden der Stadt sind heute noch Verordnungen erhalten, die seine Bewachung regelten. Die Bedin­gungen waren nur in den ersten Jahren wirklich streng, später durfte er Besucher empfangen und sich in mehreren Räumen und im Hof des Gefängnisses bewegen. Was über Flucht­versuche Enzos berichtet wird, sind eher Legenden. So soll er einmal einen Weinhändler dazu gebracht haben, ihn in einem leeren Weinfass aus dem Gefängnis zu entführen. Auf der Piazza Maggiore, über die das Fass transportiert wurde, fiel einer Markt­frau auf, dass aus dem Fass blonde Haare heraushingen. Sie informierte die Stadtwache und der Gefangene wurde zurückgebracht.

Enzo starb im Jahre 1272 und soll in der Kirche des Dominikanerklosters begraben sein. Im Laufe der Zeit ging das ursprüngliche Grab verloren. Heute gibt es in der Kirche noch eine Erinnerungstafel mit Halbplastik aus dem 18. Jahrhundert. Das ehemalige Gefängnis heißt heute Palast des Königs Enzo. Er wurde gerade renoviert, so dass wir sein Inneres nicht besuchen konnten. Dafür gab es in der gegenüberliegenden Bibliothek, der so genannten Burse, ein 20 mal 6 Meter großes Bild des berühmtesten Malers der Stadt zu sehen. Es hat den Titel „Ariadne auf Naxos“ und stammt von Guido Reni. Bologna erhebt mit Recht den Anspruch, eine der Hochburgen der europäischen Kultur zu sein. Die Stadt verfügt über gute Hotels, ein dichtes Netz öffentlicher Verkehrsmittel, und ist bei Hitze und Regen besonders leicht zu ertragen, da im Stadtzentrum sehr viele Straßen mit Arkaden ausgestattet sind.

Zum Erlöserfest nach Venedig

Die Handelsstadt Venedig wurde im Mittelalter öfters von Seuchen heimgesucht. Bei einer Seuche im 16. Jahrhundert gelobte die Stadtverwaltung, bei Abflauen derselben eine neue Kirche zu bauen. Sie beauftragte den bekannten Architekten Andrea Palladio aus Vincenza mit der Planung und Ausführung. Dieser führte den Bau bis 1592 durch. Es entstand die Erlöserkirche (ital. Chiesa del Redentore) im Stadtteil Giudecca. Neben der Kirche S. Giorgio Maggiore auf der Insel S. Giorgio gilt sie als eines von Palladios Vorzeigeprojekten. Bei seinem Aufenthalt in Venedig im Jahre 1786 entdeckte Goethe an diesen beiden Bauten Palladios zum ersten Mal seine Begeisterung für die Formenwelt der Klassik. Palladio, der auch Bücher über seine Architekturvorstellungen geschrieben hat, begründete, was man heute als Klassizismus, also die Übernahme (Rezeption) antiker Ausdrucksmittel, bezeichnet. Nach Fertigstellung des Bauwerks beschloss der Stadtrat von Venedig ein jährlich wieder­kehrendes Fest, und als Teil davon eine Prozession zur Erlöserkirche. Das Fest (ital. Festa del Redentore) findet auch heute noch am dritten Wochenende im Juli statt.


Das Fest beginnt am Samstagabend. Bereits während des Nachmittags hatten alle an der Lagune gelegenen Restaurants zusätzliche Tische und Stühle zum Ufer hin aufgestellt. Vor einigen Gebäuden, die gar keine Restaurants sind, hatten Vereine das Vorfeld mit Tischen und Stühlen besetzt. Als der Abend anbrach, trafen von allen Enden der Stadt und vom Lido her Boote ein, die sich in der Lagune vor dem Markusplatz versammelten. Als es dunkel wurde, leuchteten an allen Booten Lichterketten auf. Bei den Häusern am Ufer waren es bunte Lampions. Nach einem Begrüßungstrunk begann vor unserem Hotel etwa um 21:30 Uhr das Abendessen. Was das Menü betraf hatten wir keine Wahl, oder anders gesagt, wir brauchten uns nicht zu entscheiden. Es wurde uns einfach ein Gang nach dem anderen vorgesetzt. Zuerst gab es Spaghetti mit Reis, kalt, als Vorspeise gedacht. Dann kam das erste Fischgericht. Es bestand aus mehren Sorten Fisch und Krustentieren, die wir nur teilweise identifizieren konnten. Nach ein längeren Pause kam ein zweiter Teller mit Fisch. Hier waren Anchovien dabei, Tintenfische und ein mit Mayonnaise aufbereiteter gekochter Fisch. Als wir damit fertig waren, kam ein kleinerer Teller voll mit Meeresschnecken. Zu allem gab es Brot und Wein. Den vorläufigen Abschluss bildete ein großes Stück Wassermelone. Danach kamen noch Eis und Kaffee.

Es war 23:45 Uhr – wir waren noch nicht ganz mit unserem Essen fertig –, als das Feuerwerk losbrach. Teilweise verließen die Gäste ihre Tische und strömten zum Ufer oder auf Kanal­brücken, um eine besseren Sicht zu erlangen. Das Feuerwerk ging von der östlichen Spitze der Insel Giudecca hoch. Alle Boote, die vorher in buntes Lichtermeer darstellten, waren abgedunkelt worden. Nach jedem besonders eindrucksvollen Schuss spendeten die Zuschauer Beifall. Um 0:30 Uhr war das Spektakel vorüber. Die Zuschauer begaben sich wieder an ihre Ess­tische, tranken ihren Espresso und verabschiedeten sich. Auch die Boote verließen nach und nach die Bucht.


Am Sonntagmorgen suchten wir die Erlöserkirche auf. Wir fuhren zwar per Boot, mussten aber eine kleine Schleife mehr machen. Für diesen Tag war nämlich zwischen dem Stadtteil Dorsoduro (in Venedig sagt man nicht Stadtviertel sondern –sechstel) und der Insel Giudecca eine Pontonbrücke angelegt, so dass Fußgänger direkt zur Erlöserkirche gehen konnten. Für Boote war in der Mitte der Pontonbrücke eine Durchfahrt vorgesehen. In der gut besetzten Kirche fand ein Festgottesdienst statt. Das Erlöserfest bestimmte zwar den Termin unseres Besuches. Man kann natürlich nicht nur für einen Tag in diese Stadt fahren. Wahrscheinlich benötigt man 3-4 Wochen, um alle Sehens­würdigkeiten aufzusuchen. Da es unser dritter Besuch war, hatten wir zwar für jeden der geplanten sieben Tage einen Plan, hielten uns aber nicht daran.

Da uns unser Hotelinhaber im Voraus erklärt hatte, wie hoch die Parkgebühren für ein Auto am Stadtrand seien, hatten wir die Anfahrt per Bahn gewählt. Vor Ort erwies sich das Dreitages-Touristen-Ticket für die Linienboote (ital. Vaporettos) als ideal, natürlich je eines für die erste und die zweite Wochenhälfte. Da man fast jeden Punkt der Stadt mit Linienbooten schneller erreichen kann als zu Fuß, gerieten wir kaum in die Versuchung, lange Fußmärsche zu unternehmen. Wir nahmen uns jeden Tag zwischen 2-4 Sehenswürdigkeiten vor. Sie mussten nicht einmal benachbart sein. Saß man einmal im Boot der Linie 1 konnte man genau so gut am Rialto aussteigen, an der Accadenia, am Markusplatz oder bis zum Lido durchfahren. Dass man nach Murano und Burano einmal umsteigen muss, lernten wir schnell. Um nach Torcello zu gelangen, wechselt man das Boot sogar zweimal. Hatten wir einmal mehr Lust auf Seeluft fuhren wir einfach weiter hinaus. Ansonsten kreuzten wir zwischen unserem Hotel (an der Haltestelle Arsenale gelegen) und dem Bahnhof hin und her.

Ein typisches Tagesprogramm war das an dem Tag, an dem wir drei am Canale Grande gelegene Paläste besuchten. Wir begannen mit der Ca’d’Oro (dem goldenen Haus, Ca’ ist Abkürzung für Casa). Der Palast enthält eine Sammlung alter Kunst (Franchetti-Ausstellung). Auf jedem der beiden Obergeschosse gibt es eine Loggia zum Canale Grande hinaus. Jede ist mit gotischem Maßwerk ausgeführt, mit unterschiedlichen Mustern. Schräg gegenüber (in Richtung Bahnhof) liegt der Palazzo Pesaro. Es beherbergt eine Sammlung moderner Gemälde. Chagall, Miró, Kadinsky, Klimt und andere sind vertreten. Der dritte Palast an diesem Tage war die Ca’ Rezzonico. Er liegt von der Rialto-Brücke aus in Richtung Markusplatz, kurz vor der Accademia. Hier gibt es wieder viele Gemälde bekannter vene­zianischer Maler des 17. und 18. Jahrhundert zu bewundern. Tage vorher hatten wir natürlich bereits die bedeutendste Gemälde-Galerie der Stadt, die Accademia, besucht. Dieses Gebäude war früher einmal ein Kloster. Ein Teil der Gemälde hängt im früheren Kirchenraum. Es gibt keine Stadt, in der mehr berühmte Maler wirkten, als in Venedig. Die bekanntesten davon sind Bellini, Canaletto, Carpaccio, Giorgone, Tiepolo, Tintoretto, Tizian und Veronese. Der Dogenpalast, aber auch fast jede Kirche der Stadt, verfügt über Gemälde, mal von einem, mal von mehreren dieser Namen. Von einem der Deckengemälde von Tiepolo, in der Kirche S. Maria della Pietà, wird berichtet, das er es malte, unmittelbar nachdem er seine Arbeit in Würzburg abgeschlossen hatte.


Wir wollten ursprünglich zu einer Opern-Aufführung ins Teatro Fenice (dem Phönix-Theater). Unser Hotelier sagte uns, dass die Bauarbeiten noch bis November 2004 dauern würden. Deshalb schlug er uns eine Alternative vor. Es war ein Opernkonzert in der Scuola Grande di S. Giovanni Evangelista. Wir wurden nicht enttäuscht, im Gegenteil. Bei diesem Gebäude handelt es sich um das Vereinsheim der Bruderschaft des hl. Johannes des Evan­gelisten. Diese Bruderschaft existiert seit dem Mittelalter. Auf einem bekannten Bild (in der Accademia) von Gentile Bellini, der von 1429 bis 1507 lebte, marschieren Vertreter dieser Bruderschaft ganz vorne im Bild. Das heutige Gebäude stammt aus der Barockzeit. Der Festsaal ist an drei Wänden mit Gemälden bis zur Decke behangen. An der Stirnseite steht eine Marienstatue. Unser Konzert bestand aus einer Folge von Opernarien, dargeboten von einem in barockes Gewand gehülltem Tenor und einer Sopranistin. Bei einigen Stücken stand eine Ballerina im Vordergrund. Das besondere an diesem Konzert waren jedoch die Musiker. Auch sie trugen barocke Kostüme, dazu venezianische Masken. Das Konzert war erstklassig. Die Zuhörer gingen begeistert mit. Nach der Pause drängten einige von ihnen weiter nach vorne vor und ließen sich auf Bänken an den Seitenwänden des Raumes nieder. Nachdem das aus Puccini, Rossini und Verdi-Melodien bestehende Programm beendet war, gab es noch mehrere Zugaben.

Nach sieben Tagen hatten wir auf der Liste der Sehenswürdigkeiten etwa die ersten 20 Positionen abgearbeitet. Dabei hatten wir den Canale Grande zu jeder Tages- und Nachtzeit befahren, in beiden Richtungen. Wir umkreisten mehrmals die ganze Stadt. Wir fuhren zum Lido und durch die nördliche Lagune zu den Inseln Murano, Burano und Torcello. Sollten wir noch einmal nach Venedig kommen, machen wir weiter bei den Punkten, die wir dieses Mal ausließen. Ins Caffé Florian, das es bereits seit 1720 am Markusplatz gibt, werden wir vermutlich wieder gehen. Hier werden wir dann auch wieder an seine früheren Besucher denken, an Lord Byron, Casanova, Goethe, Proust, Thomas Mann und andere.

Am 14.2.2014 schrieb Otto Buchegger aus Tübingen:

Meinen ausführlichen Ratgeber für Venedig-Reisende gibt es hier.

Mittwoch, 12. Februar 2014

Informatik-Revolutionen der letzten 50 Jahre

Fast droht ein Jubiläum in Vergessenheit zu geraten. Es ist die Ankündigung des IBM System/360 im April 1964. Die Böblinger Hardware-Entwickler der IBM erinnern gerade daran mit einem deutschen Pressebeitrag. IBM habe die IT-Branche revolutioniert, heißt es in dem Beitrag. Das Wort Revolution wird bei Computern und in der Informatik manchmal etwas leichtfertig benutzt. Manche Entwicklungen geschahen in kleinen Schritten, bei andern war ein Umdenken unvermeidlich. Manchmal entstand der Eindruck, dass unser Fachgebiet mal wieder neu definiert wurde. Bei politischen Revolutionen wird meist das Establishment auf brutale Weise liquidiert. Bei wissenschaftlichen und technischen Revolutionen werden nur Lehrbücher verbrannt oder Gerätschaften entsorgt. Neue und jüngere Fachvertreter schieben sich nach vorne, es sei denn die Alten schaffen die Wende.

Im Folgenden werde ich nicht nur über die Revolution von 1964 sprechen, sondern auch über einige, die etwas später erfolgten. Dabei erlaube ich mir, vor allem die Ereignisse und Trends anzusprechen, die ich selbst erlebt habe. Wie bei Historikern üblich, benenne ich Revolutionen nach einer Jahreszahl, wohlwissend, dass man oft willkürlich ein Datum festlegen muss. Jedenfalls stimmt der Zeitraum. Zusätzlich gebe ich in Klammern das Thema, um das es ging.

Revolution von 1964 (Architektur-Revolution)

Worum es 1964 ging, ist die Erkenntnis, dass man die Schnittstellen, wie ein Programmierer den Rechner sieht, über möglichst viele Maschinentypen konstant halten sollte. Irrtümlicherweise wird hier (von uneinsichtigen Sprachtheoretikern) meist von Abstraktion gesprochen. Es ist die Spezifikation, also die Festlegung dessen, was invariant bleiben soll. Die Kollegen, die diese Revolution auslösten, waren Gene Amdahl, Fred Brooks und Jerry Blaauw. Ihre Vision hat zumindest das Denken einiger Hardware-Kollegen bis heute beeinflusst. Die Universität Leipzig verweist auf einige der relevanten Veröffentlichungen. Auch die Rolle von Bob Evans wird erwähnt. Ohne ein Kraftzentrum wie ihn hätte es kein System/360 gegeben. Bei den technischen Konzepten, die in der Architektur des System/360 stecken, schien mir die Wahl eines Zeichensatzes mit 256 Elementen sehr weittragend gewesen zu sein. Da sie jedoch die aus der Lochkartenzeit stammende Interpretation dieses Zeichensatzes (EBCDIC statt ASCII) beibehielt, hat dies IBM und ihre Kunden später sehr belastet. 

Ein Befehlssatz, der sich primär an Byte-Daten orientierte, war für viele der späteren Anwendungen ungeeignet. Bildschirme, die jeden Bildpunkt adressieren konnten, passten nicht in diese Architektur. Das gleiche galt für Sensor-Daten, mit denen Geräte in Echtzeit gesteuert wurden. So erfolgreich die neue Architektur auch war, um das bis dahin bekannte Geschäft auszuweiten, sie wurde für IBM zum Hemmschuh beim Erschließen neuer Anwendungen. Sie führte auch intern zu einer sehr starken Gegenbewegung, die sich in einer Vielzahl neuer Architekturen ausdrückte. Diese setzten die S/360-Produktlinie IBM-intern sehr unter Druck. Es begann mit System/3 und Serie/1 und setzte sich mit der IBM 8100 und der System/38-Famile (der späteren AS/400) fort. Nicht nur die Entwickler benahmen sich wie Konkurrenten, auch der Vertrieb. Vor allem Bob Evans hat diesen Zustand bekämpft, musste sich aber geschlagen geben.

Fred Brooks hat vermutlich als einziger der drei erwähnten Autoren die Bedeutung und die Besonderheiten von Software erkannt. Er wechselte IBM-intern nicht nur in die Software-Entwicklung, er konnte auch seine Erkenntnisse ausgezeichnet formulieren. Sein Buch über seine Erfahrungen bei OS/360 wurde zum Bestseller (über 300,000 verkaufte Exemplare). Auch einige seiner späteren Veröffentlichungen wurden nicht nur stilprägend, sondern legten tiefe Einsichten offen. Das Problem, das Brooks in seinem erwähnten Buch nicht einmal streift, ist die Tatsache, dass OS/360 nur einen Teil des Hardware-Marktes des Systems/360 abdecken konnte.

Damit die Software-Seite nicht ganz ignoriert wird, verweise ich auf einen im Heft 4/2013 der IEEE-Annalen erschienenen Beitrag über diese Zeit, in dem primär an die Programmiersprachen Algol und PL/I erinnert wird. Wie in diesem Beitrag ausgeführt, war die Übertragung der im Hardware-Bereich geborenen Idee einer einheitlichen Architektur auf die Software ein grandioser Misserfolg. Meine wichtigsten Erfahrungen aus dieser Zeit habe ich in dem Beitrag wie folgt zusammengefasst:

- Sich um eine einzige, allumfassende Programmiersprache zu bemühen, ist eine Illusion. ... Es gibt ein starkes Indiz, dass die verschiedenen Gemeinden [Kaufleute und Techniker] für sich bleiben wollen. Sie sind in der Tat besser mit verschiedenen Sprachen bedient. Das Fehlen [einer einheitlichen Sprache] ist eine Belastung nur für Menschen, die über Grenzen hinweg arbeiten.

- Ernsthafte Benutzer schätzen ihre Software-Investitionen. Software, die verwendet wird, stellt ein intellektuelles Vermögen dar und erweitert die Fähigkeiten der Mitarbeiter. Dies gilt für Anwendungen wie für Entwicklungs-Tools. Jede Migration ist teuer.

- Software-Entwicklung ist überschaubar, sofern die Ziele verstanden und die zu verwendende Technologie unter Kontrolle ist. …Neue Technologien erfordern eine Lernkurve. Ein Top-down-Ansatz für neue Anwendungsbereiche ist in der Regel riskant. Bottom-up-Ansätze führen leicht zu Überschneidungen und Inkonsistenzen, können aber mit weniger Problemen gemanagt werden.

- Fortschritte in der Hardware sind zugleich eine Hilfe und eine Herausforderung für die Software. ..Ich habe ständig den Fortschritt der Hardware-Technologien unterschätzt, obwohl ich  enge Kontakte zu einigen der treibenden Einzelpersonen und Gruppen hatte. Ich wollte ihnen einfach nicht glauben.

Revolution von 1969 (Software-Revolution)

Die Schnittstelle, an der sich entscheidet, was als Software oder als Hardware gilt, ist die vorhin erwähnte Rechner-Architektur. Von der Sache her ist Mikrocode, der im Hauptspeicher residiert, genau dasselbe, er gilt jedoch nicht als Software. Zunächst wurde Software als für den Vertrieb von Rechnern nützliche Zugabe gesehen. Einige Leute, die selbst keine Rechner bauten, sahen dies anders und überzeugten die amerikanischen Behörden zu handeln. Es wurde auch als Möglichkeit gesehen, die Vormachtstellung einzelner Hardware-Hersteller zu brechen. Seit Ende der 1960er Jahre sprach man daher in Fachkreisen vom ‚Unbundling‘, der Trennung von Hardware und Software. Auch die bekannte NATO-Tagung 1968 in Garmisch verwandte eine ganze Sitzung auf das Thema.

Von Watts Humphrey, der damals im Firmenstab (engl. Corporate Headquarter) tätig war, wurde das ‚Unbundling‘ vorbereitet und bei IBM eingeführt. Ich selbst unterbrach ein einziges Mal in meiner Berufskarriere meinen Sommerurlaub, um das Ergebnis von Humphreys Arbeiten zu erfahren. Das war im August 1969. IBM trennte sich gezwungenermaßen von einem Geschäftsmodell, von dessen Richtigkeit viele Kollegen überzeugt waren. Man müsse das Gesamtsystem optimieren. Hardware ohne Software sei ein Unding. Das Gegenargument lautete – und wem es passte, betete es nach  ̶  nur wenn Wettbewerb für alle Teile eines Produkts bestehe, erhalten Nutzer das Optimum und der Markt wird expandieren. Geschlossene Systeme kamen in unserer Branche außer Mode – eine weitere Besonderheit im Vergleich zu andern Branchen. Selbst die Wissenschaft versuchte Argumente für offene Systeme zu finden. In einem andern Zusammenhang [1] schrieb ich dazu:

Es waren aus Sicht der IBM eher defensive Überlegungen, die zu diesem Schritt führten. Man wollte nicht selbst auf Dauer gerade die für Anwendungsprogramme immer stärker steigenden Investitionen tragen, sondern auch andere Firmen motivieren, sich hier zu engagieren. Da mangels entsprechender Standardisierung im Anwendungsmarkt die Stückzahlen noch sehr gering waren, gab IBM alle Sprachübersetzer dazu. .. Aus heutiger Sicht bestand eine weitere Einschränkung darin, dass IBM ihre Software-Produkte damals nicht für Mitbewerber-Maschinen anbot. Hätten z.B. die Entwickler von OS/2 diese Limitierung nicht gehabt, wäre möglicherweise der Wettlauf gegen Windows und Microsoft (und damit das Geschehen am Markt für Betriebssysteme) anders ausgegangen.

Man kann die 1970er Jahre als die Hochblüte der Minirechner ansehen. Firmen wie Apollo, Data General, DEC, Prime, HP und Honeywell dominierten den Markt. Manche boten nur ‚nackte‘ Hardware an. Software (vor allem Betriebssysteme und Compiler) konnte man ja anderswo kaufen oder sich schenken lassen. Unix und C machten von sich reden. Über Pascal und C++ führte die Programmiersprachen-Entwicklung schließlich zu Java. Dass durch die Minirechner die Großrechner der IBM nicht frontal angegriffen wurden, soll folgende Episode belegen. Sie wurde ebenfalls in [1] berichtet.

Wir wollten auch eine Marktanalyse machen und erhielten Zugang zu den IBM-Daten über Konkurrenz-Situationen. In diesem Zusammenhang erinnere ich mich an eine Zahl. Es ging darum, wie schneidet IBM ab gegen die VAX-Rechner der Firma DEC. Das Ergebnis unserer Recherche war verblüffend. Es gab in dem betreffenden Jahr weltweit nur 100 Situationen, in denen dieser Rechner gegen einen IBM-Rechner angeboten wurde. IBM hatte in 90% der Fälle den Auftrag gewonnen. Also kein Grund, besorgt zu sein. Aus anderer Quelle wusste ich, dass in derselben Zeit, DEC über 1000 VAX-Rechner verkauft hatte. Die Erklärung, die auch für andere Produktbereiche galt, lautete: Hier hatte ein Wettbewerber einen ganz neuen Markt geschaffen, der von IBM nicht wahrgenommen wurde. So wie der Minirechnermarkt an IBM, so ging später der PC-Markt an DEC vorbei.

Solche Neudefinitionen des Marktes gab es auch später mehrfach. Sie sind vielleicht das besondere Kennzeichen unserer Branche.

Revolution von 1975 (Daten-Revolution)

Hatten zuerst Programmiersprachen für viele Kollegen ihren Reiz verloren, folgten bald die Betriebssysteme. Sie waren – zumindest im kommerziellen Bereich  ̶  plötzlich nicht mehr die strategisch wichtigste Komponente. An ihre Stelle traten die Geschäftsdaten, genauer die Transaktions- und Datenbanksysteme, die sie verwalteten und verarbeiteten. Anwendungen, von denen das Geschäft der Kunden abhing (engl. mission critical applications) verlangten, dass das System nicht nur im Nachhinein die anfallenden Daten verarbeitete, sondern zeitgleich mit ihrer Entstehung. Die System-Komponenten, die bei IBM plötzlich im Mittelpunkt standen, hießen CICS und DL/I im Bereich der mittleren Systeme (DOS/VS und VM) und IMS bei MVS. Andere Firmen hatten vergleichbare Produkte. Sie leiteten eine Phase der Zentralisierung ein, wobei kritische Daten möglichst nur einmal erfasst und gespeichert wurden. Sowohl mit DL/I wie IMS ließen sich so genannte hierarchische Datenbanken sehr effizient implementieren.

Nach Ted Codds richtungsweisenden Forschungsergebnissen von 1970 dauerte es bis 1979, ehe mit Oracle das erste relationale Datenbank-Produkt im Markt erschien. Im Jahre 1981 folgte IBM mit SQL/DS, das später in DB2 umbenannt und zu einer ganzen Produktfamilie weiterentwickelt wurde. Bei relationalen Datenbanken ist keine bestimmte Struktur (Hierarchie oder Netzwerk) vorgegeben. Es dauerte allerdings mehrere Jahre ehe brauchbare Implementierungen zur Verfügung standen. Brauchbar hieß, ihre Leistung musste in etwa der Leistung hierarchischer Datenbanksysteme entsprechen. Der wissenschaftlichen Seite der Informatik gaben diese Probleme einen unvergleichlichen Auftrieb, insbesondere in Deutschland.

Revolution von 1978 (Computer-Bildschirme)

Magnetplatten, die schon vor 1964 ihren Markteintritt hatten, sind der Gerätetyp, der lange Zeit die Art und die Struktur von Anwendungen beeinflusste. Sie haben neben den Halbleitern eine geradezu revolutionäre Entwicklung genommen. Für den Preis von einigen Megabytes (10 hoch 6 Bytes) von 1964 kann man heute einige Terabytes (10 hoch 12 Bytes) bekommen, also das Millionenfache. Die Entwicklung fand in vielen kleinen Schritten statt.

Ähnlich, aber zeitverschoben, lief die Entwicklung bei Bildschirmen (auch Computer-Monitore genannt). Ein sehr entscheidender Schritt war Ende der 1970er Jahre der Übergang zu Bildschirmen, bei denen einzelne Bildpunkte (Pixels) angesteuert werden. Damit eröffneten sich alle Anwendungen, die nicht nur Ziffern und Buchstaben verarbeiten, sondern Bilder und Grafiken. Das Komplement auf der Druckerseite sind hochauflösende Laserdrucker.

Revolution von 1981 (PC-Revolution)

Rechner waren Jahrzehnte lang große Kästen, die in speziell klimatisierten Räumen standen und von Spezialisten benutzt wurden. Wie die Priester in einem antiken Tempel zwischen Göttern und Menschen vermittelten, so taten dies die Spezialisten zwischen Technik und Anwendung. Der von der Gruppe um Bill Lowe und Don Estridge in Boca Raton, FL, im August 1981 herausgebrachte IBM/PC veränderte nicht nur den Markt sondern auch die Branche von Grund auf. Mittlere und Großsysteme erhielten den Ruf von Dinosauriern, deren Aussterben nur eine Frage von Jahren sei. IBM hatte eine Hardware-Struktur gewählt, die auch von andern Unternehmen in kompatibler Form nachgebaut werden konnte. Wie nach den  Dinosauriern die Säugetiere die Welt übernahmen, so bevölkerten fortan Kleinstrechner (Mikroprozessoren) Büros, Fabriken, Privatwohnungen und Schulen. Statt der Spezialisten wurden Otto Normalverbraucher und Lieschen Müller zu Maschinenbedienern, manche auch zu Programmierern. Dass das Programmieren erleichtert werden musste, oder auch teilweise umdefiniert wurde, versteht sich von selbst. Ein Paradebeispiel heißt Tabellenkalkulation (engl. spread sheets).

Da IBM das Betriebssystem und andere wichtige Software-Komponenten der von Bill Gates gegründeten Firma Microsoft übertragen hatte, entstand auch ein von IBM unabhängiger Software-Markt. Gates hatte Verträge, die es ihm erlaubten, das was IBM finanziert hatte, auf Nicht-IBM-Hardware zu vertreiben. Die daraus resultierende Erfolgsgeschichte hatte nicht ihresgleichen in der Branche.

Revolution von 1990 (Internet-Revolution)

‚Das Netz ist das System‘ mit diesem Slogan warb ein Hersteller (ich glaube es war DEC), lange bevor es das heute so allgegenwärtige Internet gab. Isolierte Rechner sind nur ein Bruchteil dessen wert, was Rechner bedeuten, die miteinander kommunizieren können. Das Kommunizieren ist neben Speichern und Rechnen die wichtigste Aufgabe, die Rechner erfüllen.

Im Bereich der Datenfernübertragung ging IBM unter der Leitung von Ed Sussenguth einen Weg, der zu einem Wettkampf der Architekturen führte. IBM setzte auf eine verbindungorientierte Architektur (SNA genannt), das amerikanische Militär und die von ihr finanzierte akademische Forschung bevorzugten ein verbindungsloses Konzept (TCP/IP). Eine verbindungslose Kommunikation benutzt das Paketprinzip. Zu seinen Pionieren gehörten Leonard Kleinrock, Vinton Cerf und Tim Berners-Lee. Mit dem Zwischenschritt Arpanet entstand schließlich das Internet. Dieses wurde im Jahre 1990 kommerzialisiert. Es wuchs von 1990 bis heute von weniger als 1% zu fast 97% aller weltweit ausgetauschten Daten. Zurzeit werden gerade viele bisher noch als einzelne Knoten sichtbare Rechner durch ein verschwommenes Gebilde ersetzt, das als ‚Cloud‘ bezeichnet wird.

Revolution von 1992 (Anwendungs-Revolution)

Um 1991 baute Hasso Plattners Team bei SAP das System R/3. Es ebnete den Weg für Systeme, in denen mehrere Anwendungen über ein einheitliches Informationsmodell gekoppelt waren. Da die Firma SAP die von IBM entwickelte Architektur für Client/Server-Systeme (SAA genannt) besser implementierte als IBM, stieg SAP zum Führer im Weltmarkt auf. Außerdem konnte SAP eine enorme betriebswirtschaftliche Kompetenz zur Anwendung bringen. IBM zog sich alsbald aus dem Gebiet der Anwendungen völlig zurück. Später wurden auch Datenbank-Systeme zu einem Thema, das technisch sehr stark an das SAP-Umfeld gebunden ist. Als Produkte blieben sie jedoch ein weitgehend unabhängiges Geschäft.

Bei vielen Unternehmen ist es heute sinnvoller, betriebliche Abläufe vorhandenen Software-Lösungen anzupassen, als sich um eigene Software für vorhandene Abläufe zu bemühen. Der Markt für technische Anwendungen ist separat zu sehen. Hier stellen graphische Entwurfsysteme vielfach eine verbindende Basis her.

Revolution von 2007 (Mobilitäts-Revolution)

Als letztes Beispiel sei die von der Firma Apple und ihrem verstorbenen Inspirator Steve Jobs herbeigeführte Revolution erwähnt. Heute sind Smartphones und Tablets die einzig interessanten Computer. Sie sind auch deshalb so erfolgreich, weil sie geschlossene Systeme sind. Sie lösten nämlich zwei Probleme, gegen die die Branche machtlos zu sein schien, nämlich das Viren- und das Spam-Problem. Da Apple wegen dieser Strategie (wie einst IBM) in der Kritik steht, bin ich gespannt, ob und wie die auf dem Betriebssystem Android basierende Konkurrenz diese Probleme löst.[Siehe Nachtrag vom 7.3.2014]

Portable Geräte ermöglichen auch Privatpersonen eine mehrstufige Form der Computer-Nutzung. Über meine eigenen Erfahrungen gibt ein Eintrag vor drei Jahren in diesem Blog Auskunft. Als Ergänzung zu den unzähligen mobilen Geräten gewinnen ‚Clouds‘ immer mehr an Bedeutung. Es ist nicht mehr ein ortsgebundener Rechner, der dem mobilen Gerät als Stütze dient, sondern das Internet mit Funktionalitäten, die ortsunabhängig und standardisiert angeboten werden. Als Betreiber eines Rechenzentrums in den 1960er Jahren kommen mir einige der bei ‚Clouds‘ benutzten Argumente bekannt vor.

Nachbemerkung

Bekanntlich kennt Geschichte keine unveränderlichen Wahrheiten. Sie ist das, was Überlebende und deren Nachfahren für interessant und wichtig halten. Das ist mit der Informatik-Geschichte nicht anders. Zwei Beispiele seien erwähnt. F.L. Bauers Geschichte der Informatik konzentriert sich auf die Hochschul-Informatik und lässt die Praxis aus. Timo Leimbach konzentriert sich auf eine Geschichte der deutschen Informatik. In der allgemeinen Geschichte der  Menschheit ist die Geschichte eines Landes nicht besonders wichtig, etwa die von Luxemburg oder Andorra, oder die eines Berufes, etwa der Imker oder der Goldschmiede. Man darf sich natürlich mit ihr befassen, kann sich aber dann des Vorwurfs nicht erwehren, etwas provinziell oder einseitig zu sein. Eine allgemeine Geschichte der Informatik zu schreiben, ist ein Unterfangen, das ein Einzelner kaum bewältigen kann – es sei denn er hat viel Mut beim Weglassen.

Nachtrag vom 7.3.2014:

In einem Bericht der Firma Kapersky Labs wird festgestellt, dass im letzten Jahr weltweit 143.000 neue Smartphone-Schadcodes entdeckt wurden. Fast alle zielen auf Googles Android-Betriebssystem ab. Wörtlich heißt es: "Das geringste Risiko beim App-Download haben Nutzer, die ausschließlich die offiziellen App-Stores nutzen".

Referenz 
  1. Endres, A.: Die IBM Laboratorien Böblingen: System-Software-Entwicklung. Band 2 der Reihe Forschung und Entwicklung in der IBM Deutschland. Eigenverlag: Sindelfingen 2001; 144 Seiten; ISBN 3-920799-22-3