Donnerstag, 27. Juli 2017

Dataismus löst Humanismus ab ̶ so sieht es Yuval Harari

Im Januar 2014 hatte ich den israelischen Autor Yuval Noah Harari (*1976) als Historiker vorgestellt. Sein 2011 erschienenes Buch hieß: Eine kurze Geschichte der Menschheit. Mein Blog-Eintrag war überschrieben: Der Hominiden Aufstieg zu Selfmade-Göttern. An einige seiner beeindruckenden Aussagen zur Rolle von Geschichtsschreibung sei erinnert.

Das Studium der Geschichte kann uns (nur) lehren, welche Möglichkeiten bestanden, die nicht ergriffen wurden. Historiker können Geschichte nicht erklären. Sie können nicht sagen, warum ein bestimmter Weg genommen wurde. Geschichte verläuft chaotisch. Sie wird durch Vorhersagen beeinflusst. Sie hat nicht den Zweck, dem Menschen zu nutzen. 

Hararis neuestes Buch heißt: Homo Deus. Eine Geschichte von Morgen. Es erschien Anfang 2017 und umfasst 576 Seiten. Da ich mehrfach abgelenkt wurde, las ich es in Stücken über die Zeit von zwei Monaten hinweg. Die Mühe und Ausdauer hat sich gelohnt. Ich stimme den Kommentatoren zu, die es als eines der wichtigsten Bücher des Jahres bezeichnen. Einige der Bemerkungen wurden von dem Interview ausgelöst, das Barbara Bleisch vom Schweizer Rundfunk (SRH) am 17.4. 2017 mit Harari führte.

Von der Vergangenheitsbewältigung zur Zukunft

Es mag auf den ersten Blick verwundern, wieso ein Historiker einen Zukunftsroman schreibt. Harari wehrt sich dagegen, d i e Zukunft vorherzusagen. Niemand könne dies, da sich die Zukunft als Folge einer Vorhersage verändern kann. Er will nur Möglichkeiten aufzeichnen. Dabei möchte er, mit den Kenntnissen und Hilfsmitteln eines Historikers ausgerüstet, nur große, also epochale Änderungen behandeln. Dass er dabei zum Apologeten von Big Data, Künstlicher Intelligenz (KI) und dem Internet der Dinge (engl. internet of things, Abk. IoT) wird, fasziniert mich als Informatiker in besonderer Weise. Nach meiner Meinung extrapoliert er etwas zu stark, aber dazu später mehr.

Von den Weltreligionen zum Humanismus

Schon im Vorgängerwerk bestach Harari damit, wie er große historische Trends herausarbeitete, uminterpretierte und divergierende Ereignisse einem Schema unterordnete. Seine jetzigen Aussagen sind oft derart überspitzt, dass man geneigt ist, ihren Wahrheitsgehalt zu überprüfen. Da noch niemand aufschrie, tue ich dies vorerst auch nicht. Wo ich allerdings ein ungutes Gefühl habe, sind seine Begriffe. Bei dem hier verwandten Ausdruck (Welt-) Religionen meint er nur die drei mosaischen Religionen Judentum, Christentum und Islam. Nicht dazu gehören ganz offensichtlich Buddhismus, Hinduismus und Jainismus. Auch das Wort Humanismus ist nicht mit dem üblichen Begriff gleichzusetzen wie er etwa bei Wikipedia definiert ist. Gemeint ist die Verallgemeinerung einiger eher politisch orientierten Ideologien wie Liberalismus, Sozialismus und Kommunismus. Gemeinsam ist allen der Wunsch und die angenommene Fähigkeit der Menschheit, zu einer besseren Existenzform zu finden.

Laut Harari forderte der (so verstandene) Humanismus etwa seit 1500 die Religionen heraus. Vorher suchten und fanden Menschen den Sinn des Lebens in der Religion. Gott oder die Götter bestimmten unser aller Schicksal. Kam es in der Natur oder im Leben eines Menschen zu einer Katastrophe, war ein Gott beleidigt und musste versöhnt werden. Dazu dienten Opfer und Gebete. Der Humanismus habe die Götter verdrängt und stelle den einzelnen Menschen in den Mittelpunkt. Man sucht alle Verantwortung bei ihm. Jeder einzelne besitzt dafür einen zwar unverstandenen Kern, der die letzte Richtschnur darstellt. Man nennt ihn Gewissen. Dem Menschen wird ein freier Willen eingeräumt, und er kann sich für das Gute oder das Böse selbst entscheiden. Diese Freiheit zu sichern und wahrzunehmen, wird als Sinn des Lebens angesehen.

Die großen Plagen der Menschheit waren immer Hunger, Krankheit und Krieg. Ihr Eintreffen ist nicht Gottes Plan, sondern Schuld der Menschen. Wir Menschen seien jetzt fast in der Lage, sie völlig auszumerzen. Dabei sind wir schon sehr weit. Heute leiden mehr Menschen an Übergewicht als an Unterernährung. Alle großen Epidemien haben wir im Griff, oder könnten es haben, sofern wir dies wollten (Beispiel Aids und Ebola). Es sterben heute mehr Menschen an Selbstmord als im Krieg oder von Terroristen und Verbrechern.

Vom Humanismus zum Dataismus, vom Homo Sapiens zum Homo Deus

Der (oben skizzierte) Humanismus sei gerade auf dem Rückzug. Ohne Himmel, Hölle und Reinkarnation kann das Jenseits nicht mehr als Sinn des Lebens herhalten. Der Mensch sucht sich neue Herausforderungen. Es böten sich Glück, ewiges Leben und Gottähnlichkeit an.

Glück ist ein sehr vager Begriff. Er basiert auf Gefühlen und Emotionen. Diese seien nichts weiter als schnelle Kalkulationen. Die dazu gehörigen biochemischen Algorithmen wird man alsbald verstehen, und damit manipulieren können. Sterben wird von vielen Leuten, vor allem im Silicon Valley, als rein technisches Problem angesehen, das technisch zu lösen ist. Sie halten es lediglich für eine Frage der Zeit, wann dies der Fall sein wird. Was bisher die Evolution oder Gottes Wille nur langsam steuerten, kann der Mensch jetzt selbst in die Hand nehmen. Er kann sich selbst verändern, ja, er kann sogar verändern, was das Leben ist.

Der Homo Sapiens würde sich zum Homo Deus entwickeln. Für den Upgrade vom Sapiens zum Deus kämen drei Wege in Frage: (a) Bioengineering, d.h. bewusste Veränderung des Gencodes; (b) Cyborg-Technologie, d, h. Kombination von organischen und mechanischen Organen und Gliedern und (c) Erzeugung nicht organischer Lebewesen, etwa durch KI. Diese könnten sogar überall im Weltall existieren. Es ist schon mutig  ̶  ja waghalsig  ̶  wie Harari einen Zusammenhang dieser drei diametral verschiedenen Ansätze konstruiert. Auf einige seiner dabei benutzten Annahmen soll kurz eingegangen werden.

Leider kann nur die Oberschicht in wenigen Ländern besseres Wissen und bessere Medizin erwerben. Anstatt Armen, Kranken und Bedrängten zu helfen, sondern sie sich ab. Ihre Leitfiguren werden zu Übermenschen. Einige von ihnen streben nach Glück, Unsterblichkeit und Göttlichkeit. Eine neue Religion entsteht, dieses Mal im Silicon Valley. Eine Vorversion war der Techno-Humanismus, dem sogar Lenin anhing. Sein Motto war bekanntlich: Kommunismus = Sowjetmacht + Elektrifizierung.

Über Geist und Seele, über Wissen und Emotion

Der Geist ist so zu sagen das Werkzeug, das es dem Gehirn erlaubt, mit Symbolen und Abstraktionen zu arbeiten. Die Seele dagegen sei ein Strom von Erfahrungen (Erlebnisse, Gedanken, Emotionen), also Speicherinhalte, die sich während eines Lebens ansammelten. Ob sie sterblich oder unsterblich ist, darüber wird gestritten.

Nicht nur Menschen, auch die meisten Tiere hätten Sinnesempfindungen und Emotionen. Sie seien keine Automaten, wie es Descartes glaubte und auch noch viele Zeitgenossen, die keine Bedenken haben, Tiere leiden zu lassen. Emotionen werden wie Wissen erzeugt und gespeichert. Nur mit dem Begriff Bewusstsein tut sich jede wissenschaftliche Erklärung noch schwer. Je besser wir das Gehirn verstehen, umso präziser werden diese Begriffe. Jede Erinnerung oder Emotion kann eine Aktion auslösen, ohne dass aktuelle Sinneseindrücke nötig sind.

Wissen war einst definiert als Schriften x Logik, dann als empirische Daten x Mathematik. Heute sage man, Erfahrung x Sensibilität. Erfahrungen sind Sinneswahrnehmungen, Emotionen und Gedanken. Sensibilität drückt sich darin aus, dass sie Erfahrungen zulässt oder nicht. Sie entwickelt sich mit den Erfahrungen. So wie früher als Analogie des Lebens die chemischen Prozesse einer Dampfmaschine herhalten mussten, so dienen heute Computer und Algorithmen (gemeint sind Programme) als Erklärung für alles, was in der Welt, und speziell in der Biologie passiert. Wenn Gedanken und Emotionen Algorithmen sind, erfordern sie kein Bewusstsein, da Algorithmen keines erfordern  ̶  so schlussfolgert Harari.

Bedeutung intersubjektiver Realitäten

Die Realität habe drei Formen: objektiv, subjektiv und intersubjektiv. Ein Wesen ist real, wenn es leiden kann. Fiktionen leiden nicht. Beim Sapiens nahm die Bedeutung von intersubjektiven Geschichten laufend zu. Die Fähigkeit in Massen zu kooperieren, ist beim Menschen flexibler als bei Ameisen. Intersubjektive Geflechte beherrschen die Welt.

Der Glaube an fiktive Wesen (Götter, Nation, Unternehmen) schadet den tatsächlich Lebenden und deren Gefühlen. Die Wissenschaft hilft auch denen, die nicht an sie glauben. Religion ist alles, was übernatürliche Gesetze und Werte legitimiert. Unter Spiritualität versteht man das Suchen nach Sinn. Die Wissenschaft kann nicht alle Fragen beantworten (Wert, Ursprung). Moderne Menschen verzichten auf Sinn, dafür erhalten sie Macht. Sie können tun, was sie wollen. Kein Gott kann es verhindern.

Zukunftstechnologien, auf die es ankomme

Das Wissen, auf das es in Zukunft ankommt, liefern Nanotechnik, Gentechnik und KI. In Fabriken werden Arbeiter durch Roboter ersetzt. In der Wirtschaft zählen nicht die Zahlen von Käufern, sondern das Wissen um Märkte und Gefühle. In Kriegen kämpfen Drohnen anstatt Massenheere. Dadurch verliert das Individuum an Bedeutung für die Wirtschaft und die Politik. Nicht mehr die Landfläche, die Rohstoffe oder die Bevölkerungszahl machen eine Nation stark, sondern seine Technik. Es ist die vom Silicon Valley ausgehende ‚Kognitive Revolution‘, die den Menschen zum Supermenschen macht, den Herren der Erde zum Herren der Galaxie.

Für die Humanisten war das Gewissen die Quelle allen Sinns, aller Autorität. An seine Stelle treten jetzt die Daten, und zwar in großen Mengen (Big Data). Dadurch können Demokratie und Liberalität verlieren. Wozu noch Wahlen durchführen, wenn die vorhandenen Daten ausreichen, ja verlässlicher sind.

Das Individuum wird durch Daten repräsentiert. Sie beschreiben seinen Gesundheitszustand und seine Vorlieben, sein genetisches Erbe und seine persönliche Geschichte. Sie beeinflussen die elektro-chemischen Vorgänge im Gehirn, die das ersetzen, was früher als freier Willen angesehen wurde. Wenn immer Algorithmen nicht ausreichen, kommt der Zufall zur Anwendung. Determinismus und Zufall teilen sich die Welt auf  ̶  so laute die Grundannahme heutiger Wissenschaft.

Über den Sinn des Lebens

Wo Leben besteht, muss Information fließen. Quasi im Umkehrschluss folge daraus, wenn Leben gut ist, dann ist auch Informationsverarbeitung gut. (!!) Das gilt nicht nur auf der Erde, sondern im ganzen Universum. So gesehen sind Menschen nur Mittel zum Zweck, um das Internet aller Dinge (IoT) im Universum auszudehnen. Menschen unterscheiden sich von anderen Tieren (z.B. Hühnern) dadurch, dass sie pro Kopf mehr Daten und Algorithmen verbreiten, also Gedanken und Gefühle. Bei allen Lebewesen hört im Falle des Todes der Informationsfluss auf. Über 70.000 Jahre war der Mensch der beste Datenverarbeiter auf Erden, jetzt hat er Konkurrenz bekommen durch Maschinen.

Die heutige Jugend legt weniger Wert als frühere Generationen auf den Besitz von Gütern (z.B. Autos), dafür aber möchte sie Teil des weltweiten Informationsflusses sein. Nur dann ist man Teil des Systems. Es ist dies der neue Sinn des Lebens. Erfahrungen, die nicht geteilt sind, gelten als wertlos. Information sei kein Recht des Menschen, deshalb müsse sie frei sein.

Offene Fragen und Kehrseiten des Dataismus

Harari erweckt den Eindruck, dass er besser als wir alle weiß, wie die von uns losgetretene technische Entwicklung weitergeht. Dem ist sicher nicht so. Nur ist er mutiger als andere im Extrapolieren (ausgenommen Ray Kurzweil). Die Vorstellung, dass alle Lebewesen oder Organismen Algorithmen (genauer Daten und Programme) sind, ist einfach zu plump. Wenn es nicht der Fall ist, dann können Lebewesen mehr als Computer. Auch ist es eine Illusion zu glauben, dass wir nahe daran sind, alle möglichen Geisteszustände (Gedanken, Emotionen) aller Lebewesen zu verstehen.

Die Dataisten scheinen zu glauben, dass es den Menschen überfordert, Daten in Information, Information in Wissen und Wissen in Klugheit zu überführen. Sie mögen sogar Recht haben. Das erinnert mich an das berühmte Zitat von T. S. Eliot (1888-1965), der 1934 schrieb:

Wo ist die Weisheit, die wir im Wissen verloren haben? Wo ist das Wissen, das wir in der Information verloren haben?

Wer glaubt, diese (semantische) Zuordung könnten Maschinen besser bewerkstelligen als Menschen, geht davon aus, dass es sich dabei um ein Problem handelt, das sich mit roher Gewalt lösen lässt. Wer daran denkt, dass Informatiker weltweit sich noch nicht einmal auf einen brauchbaren Informationsbegriff einigen konnten, denkt da bescheidener. Viele von ihnen vermeiden sogar den Begriff Information ganz und reden lieber wieder von Daten (natürlich Big Data). Zwar benutzt Google sehr ausgefeilte Algorithmen, um bei seinen Anfragen Präferenzen des Benutzers zu berücksichtigen, daraus folgt nicht, dass Google diese Information für alle Nutzer aufbewahrt und laufend auswertet.

Die Angst, dass Computer Menschen Arbeit abnehmen, ist so alt wie die Computer selbst. Wenn jetzt das IoT den Homo Sapiens verdrängen soll, ist das eine neue Variante. Dass Menschen gewisse Tierarten ausrotteten und andere millionenfach züchteten, ist ein Vergleich, der hinkt. Dass Computer und Algorithmen stetig verbessert werden, lässt sich nicht übersehen.

Kommentar von Peter Hiemann vom 26.5.2017

Harari ist der Ansicht, dass individuelle Werte und Gefühle die Gesellschaften schon immer geprägt haben. Dementsprechend gibt er in dem Interview [mit Barbara Bleisch] zu erkennen, dass für ihn wohl sozial orientierte politische und ökonomischen Fragen weniger wichtig sind. Vielleicht will er das lieber Soziologen überlassen und mag sich später wundern, dass am Ende Soziologen die besseren Erklärungen für historische Situationen liefern können. Hararis Aussagen, dass Technik schon immer den menschlichen Alltag geprägt und verändert haben, sind keine neuen Einsichten. Die Ansicht, dass die Technik des 21. Jahrhunderts die Verhaltensweisen des Menschen so verändern wird, dass Homo Sapiens in eine neue Phase der Evolution eintritt, in der eine neue Art Homo Deus neben Homo Sapiens existieren wird (ähnlich wie Homo Neandertalis neben Homo Sapiens), darf mehr als bezweifelt werden. Entweder reduziert Harari leichtfertig die Komplexität der natürlichen Evolution (komplexe genetische Replikations-, Selektions- und Vererbungsprozesse in menschlichen Populationen) oder er benutzt das Wort 'Evolution' auf leichtfertige Weise, um seinen Glauben an technischen Fortschritt hervorzuheben.

Mich überzeugten Barbara Bleischs Fragen mehr als Hararis Ansichten. Das wurde besonders deutlich als Bleisch nachhakte, um mehr über dessen profunde Vorstellungen zu Bewusstsein, zum selbstbezogenen Ich oder zum Tod wissen wollte. Der Gipfel der leichtfertigen Aussagen war erreicht, als Kurzweil in einem Einspieler vorschlug, den Tod deshalb abzuschaffen, weil man Lösungen anbieten kann, die Langeweile vermeiden. Die offensichtliche natürliche Erklärung, dass Tod und Geburt  zur Evolution gehört, wie das Amen in der Kirche, scheinen Kurzweil und Harari zu übersehen.

Yuval Harari schätze ich als erfolgreichen Geschichtenerzähler ein, den ich als Mitläufer betrachte, weil er leichtfertig Vorstellungen technischer Gurus auf den Leim geht und verbreitet. Er übersieht entscheidende wissenschaftliche Erkenntnisse und scheint zu ignorieren, wie sich Menschen organisieren und orientieren. Mit anderen Worten: Harari betrachtet ein Gesellschaftswesen als 'atomistische' Ansammlung von Individuen, die sich lediglich auf einen gemeinsamen Satz von gesellschaftlichen Werten einigen müssen, um stabile Strukturen zu bilden. Hararis Vorstellungen über mögliche zukünftige Gesellschaftsordnungen werden deutlicher in seinem Kommentar zu Mark Zuckerbergs “audacious manifesto on the need to build a global community”. Vielleicht vertritt Harari die schöne Illusion, mit der einst Pierre-Joseph Proudhon berühmt wurde und Anhänger fand: „Anarchie ist Ordnung ohne Herrschaft.“

Bill Gates hat Harari auf seine diesjährige Liste der fünf empfohlener Bücher gesetzt: 'Homo Deus' prophezeie dem 21. Jahrhundert einen radikalen gesellschaftlichen Wandel. Er stimme zwar nicht mit den Schlussfolgerungen des Autors überein, so Gates, "aber er hat einen klugen Blick darauf, was die Zukunft möglicherweise für die Menschheit parat hat."

Freitag, 21. Juli 2017

Öffentliche IT-Projekte haben es schwer

Mein Kollege Peter Mertens aus Erlangen hat mehrfach darauf hingewiesen, dass IT-Projekte im öffentlichen Bereich mit besonderen Risiken behaftet sind. Er hat mehrere große Projekte analysiert, die gescheitert sind. Dass er dennoch dafür plädiert, alle staatlichen Leistungen, die ein Bürger erhält, in einer riesigen Bundes-Datenbank zu erfassen, kann ich nur seinem tiefsitzenden Bestreben zurechnen, überall möglichst effizient zu handeln. Eigentlich müsste ich es als Fall einer kognitiven Dissonanz einordnen. Mit anderen Worten, er fordert es, obwohl er wissen müsste, dass so etwas den öffentlichen Dienst glatt überfordert.

Obwohl sich dieses Thema noch weiter vertiefen ließe, will ich im Folgenden auf zwei Beispiele von Projekten im öffentlichen Bereich eingehen, die in ihrem Ausmaß wesentlich bescheidener sind. Auch sie haben ganz spezifische Probleme, ihre Ziele zu erreichen. In beiden Fällen habe ich sogar die Beteiligten zusätzlich beschäftigt.

Volksverschlüsselung

Nach dem Snowden- oder NSA-Skandal des Jahres 2013 schrien fast alle Fachkollegen nach effektiver Verschlüsselung des gesamten Internetverkehrs. In meinem letzten Beitrag zum Thema Internet-Sicherheit vom August 2016 hatte ich über eine Initiative der Fraunhofer-Gesellschaft berichtet. Sie trägt den etwas anspruchsvollen Namen Volksverschlüsselung. Schon damals lag es mir auf der Zunge, stattdessen von Volksverdummung zu reden. In meinem Nachtrag vom 29.10.2016 schrieb ich:

Leider muss ich gestehen, dass es mir trotz intensiver Bemühungen nicht gelungen ist, selbst fachlich interessierte Kolleginnen und Kollegen für einen Test der Volksverschlüsselung zu gewinnen. Eine nur minimale Unterstützung durch den Anbieter war nicht zu erhalten.

Hannes Federrath, Vizepräsident der Gesellschaft für Informatik und IT-Sicherheitsexperte von der Universität Hamburg, schrieb im Februar 2017: ‚Initiativen wie die vom Fraunhofer SIT entwickelte Volksverschlüsselung sind nach Auffassung der GI wegweisend. Zum einen erzeugen sie Aufmerksamkeit und tragen zur Verbreitung des Themas bei; sie verfolgen [hoffentlich] einen nutzerzentrierten Ansatz, der nicht nur Schlüsselerzeugung und Zertifizierung, sondern auch den Schlüsselaustausch und die Konfiguration der E-Mail-Programme abdeckt.‘‘

Dass kein besonders nutzerorientierter Ansatz verfolgt wurde, wird in der besagten Stellungnahme der GI exakt ausgeführt. Vereinfacht möchte ich das benutzte Verfahren wie folgt beschreiben. Wer in den Orden aufgenommen werden will, muss ins Kloster nach Darmstadt kommen, und sich dort weihen lassen. Ausnahmsweise geht dies auch, wenn er einem der Darmstädter Missionare auf deren Reisen innerhalb Deutschlands begegnet. Man muss aber seinen Personalausweis einem Ordensmitglied vorlegen. Jemandem andern gegenüber sich zu identifizieren reicht nicht. Selbst der Papst kann da nicht helfen.

In einer Ankündigung für eine Fachmesse im Oktober 2017 in Nürnberg (it-sa) heißt es, ‚dass selbst IT-Sicherheitslaien problemlos [mit der Software] zurechtkommen.‘ Dem kann ich nicht zustimmen. Seit Anfang 2016 habe ich (außer dem Entwickler selbst) einen einzigen Kollegen aus meinem Bekanntenkreis angetroffen, der seine Mails explizit und mittels der Darmstädter Software verschlüsselt. Ohne jede Mühe verschlüsseln alle meine Familienangehörigen schon seit langem einen Teil ihres Datenaustauschs per Internet. Mit ihnen verkehre ich nämlich vorwiegend per Chat-Dienst. Ursprünglich hat nur Threema verschlüsselt, inzwischen tut es auch WhatsApp. Beide machen es Ende-zu-Ende, und nutzergerecht. Beide stammen von privaten Unternehmen. Sie mussten sich im Markt behaupten. Würden Google und Facebook so ähnlich arbeiten wie dieser deutsche Anbieter, hätte die Welt in die letzten 10 Jahren mehr Ruhe gehabt.

Online-Ausweis

Da mein derzeitiger Personalausweis erneuert werden musste, beantragte ich einen neuen mit Online-Ausweisfunktion. Wer weiß, vielleicht spare ich damit einige Behördengänge. Das Amt kassierte dafür 6 Euro. Nach zwei Wochen erhielt ich den so genannten PIN-Brief. Ich ließ den Ausweis abholen und wollte die Online-Funktion aktivieren. Die mitgelieferte Broschüre beschrieb einen Ablauf, den ich nicht nachvollziehen konnte. Die Software, die mir empfohlen wurde, hieß AusweisApp2. Als Hardware kämen spezielle Kartenleser in Frage oder handelsübliche Smartphones.

In der Broschüre hieß es, ich sollte die 4-stellige Transfort-PIN in eine selbstgewählte 6-stellige PIN umwandeln. Die AusweisApp2 wollte aber einen QR-Code von mir. Als ich im Rathaus nachfragte, von welcher App die Transport-PIN akzeptiert wird und woher ich einen gültigen QR-Code bekommen würde, verwies man mich an den Bundesminister des Innern (BMI) in Berlin.

Die erste Antwort, die ich bekam, lautete: Sie benötigen ein Android-Gerät  ̶  Smartphone oder Tablet-PC  ̶  mit passender NFC-Schnittstelle. Außerdem schickte man mir eine ‚Liste kompatibler Smartphones und Tablet-PCs‘ Im begleitenden Text hieß es:

Wir sind guter Hoffnung, dass mit einer neuen NFC-Spezifikation ab Mitte 2017 nur noch Endgeräte produziert werden, die Extended Length unterstützen und somit die Online-Ausweise lesen können. Die Anzahl der geeigneten Endgeräte wird somit sukzessive ansteigen. Testen Sie und teilen Sie uns Ihre Ergebnisse mit! Ihre Rückmeldungen pflegen wir in die Geräte-Übersicht mit ein. Es ist möglich, dass ggf. durch ein Firmwareupdate bei uns als nicht funktionierend gekennzeichnete Geräte doch einsetzbar sind. Melden Sie uns daher gerne, ob Ihr Gerät funktioniert! Teilen Sie uns dazu die genauen Geräteinformationen (Gerätetyp, Firmwareversion) mit. Dies können Sie auch komfortabel über die Funktion „Melden Sie einen Fehler“ in der App erledigen. Alternative zu NFC: Ein für die Online-Ausweisfunktion geeignetes Kartenlesegerät, das Bluetooth unterstützt und somit mit mobilen Endgeräte nutzbar ist, ist der cyberJack wave vom Hersteller Reiner SCT.

Als ich nachfragte, wie es mit Apple-Geräten und speziell meinem iPhone stünde, antwortete ein anderer Mitarbeiter des BMI. Die Software für Apple (IOS-Version) befinde sich gerade im Feldtest. Ich könnte mich an dem Feldtest beteiligen. Man würde mir dann ein Kartenlesegerät zur Verfügung stellen. Das lehnte ich ab. Ich würde lieber ein halbes Jahr warten. Von der AusweisApp2 sollte ich ihm einen Screenshot schicken, der zeigt, wo ein QR-Code verlangt wird. Ich sagte ihm, er brauche die App nur auf den iPhone aufzurufen. Sie könnte nichts anderes als auf dieses Bild zu laufen.

Allmählich bekam ich das Gefühl, wieder 30 Jahre jünger geworden zu sein. Klaus Küspert, dem ich dies erzählte, meinte ich hätte Glück gehabt. ‚Solange er Sie nicht auffordert, ihm mal Ihr iPhone auszuleihen zum Probieren, geht's ja noch‘, meint er. 

Samstag, 8. Juli 2017

Neue Weltordnung nach dem Hamburger G20-Gipfel?

Beim G7-Gipfel am Fuße des Ätna in Taormina deutete sich ein Prozess an, der zu einer neuen politischen, ökonomischen und sozialen Struktur der Welt zu führen scheint. Damals standen sechs Länderchefs dem einen gegenüber, Donald Trump. Sein Mantra vom ‚America first‘ schien primär ihn zu isolieren. Es wirkte schockierend auf alle anderen. Jetzt in Hamburg sind die Dinge ein Stück klarer geworden. Das einzig vereinende in dieser Welt scheint nur noch Beethoven-Musik zu Schillers Text zu sein. Der Satz ‚Alle Menschen werden Brüder‘ scheint eine neue Interpretation zu erfahren. In der Elphi saßen alle Akteure brav nebeneinander. Was in ihnen vorging, deutete sich im Konferenzsaal auf dem Messegelände an.

Nach Henry Kissinger ist eine Weltordnung ‚das Bestreben, in dem offensichtlichen Chaos, das sich im Wettbewerb der Nationen abspielt, für Recht und Ordnung zu sorgen.‘ Als nicht mehr ganz junger Beobachter des Zeitgeschehens wage ich es, hier Strukturen herauszuarbeiten und sie zum Nutzen oder Vergnügen der Leser zu beschreiben. Als einer von vielen bemühe ich mich, hier eher zu schnell zu sein. Irre ich mich, korrigiere ich mich gern.

EU27 gewinnt an Zusammenhalt

Der EU-Kommissionspräsident, Jean Claude Juncker, gab bereits vor Beginn des Gipfels eine Erklärung ab, dass die EU in ‚gehobener Kampfesstimmung‘ sei. Noch nie sei die EU so geschlossen gewesen. Nichts scheint mehr zu einen, als ein gemeinsamer Feind. Der Brexit war zunächst nur ein Schock. Er überraschte England und die Rest-EU gleichermaßen. Inzwischen hat man sich an ihn gewöhnt. Er ist ein Faktum. Der offizielle Antrag liegt vor und muss verhandelt werden. Ohne Trumps Auftreten wäre er ein rein europäisches Phänomen geblieben. Der Trumpismus beweist, dass auch das mächtigste und wichtigste Land der Welt von Dummheit befallen werden und sich querlegen kann. Alle 27 EU-Länder rücken offensichtlich zusammen. Weder von England noch von den USA lassen sie sich auseinander dividieren. Auf einen neuerlichen Versuch der USA gehe ich weiter unten ein.

USA sucht Unterstützung in Moskau

Als am ersten Verhandlungstag das Thema Klimaschutz auf der Agenda stand, trafen sich Trump und Putin zum separaten Zwiegespräch. Besser konnten beide ihre Geringschätzung der Weltgemeinschaft nicht zeigen. Es war das erste Treffen seit Trumps Amtsantritt als US-Präsident. Vor der Wahl hatte Trump zu verstehen gegeben, dass er das Verhältnis der beiden Länder verbessern werde. Unter Obama war es sehr zerrüttet gewesen. Beide sprachen zweieinhalb Stunden, also länger als erwartet. Parallel dazu gaben die Außenminister beider Länder bekannt, dass man an einem Waffenstillstand im Südwesten von Syrien arbeite. Das ließ aufhorchen. Es gibt also Kontakte, die offensichtlich an Baschar al-Assad vorbeilaufen. Über das Thema Krim und Ukraine verlautete nichts. In Warschau hatte Trump sich noch sehr kritisch Russland gegenüber geäußert, was dieses Problem betrifft.

USA kümmern sich um verwaistes Mutterland

Fast kann Theresa May einem leid tun. Gäbe es nicht Trump, stünde sie und ihre ‚Eton boys‘ (Nigel Farage, Boris Johnson) allein in der Welt. Einen Tag nach dem Treffen mit Putin zeigte sich Trump mit ihr in Hamburg. Er würde einen ‚Großen Vertrag‘ mit England aushandeln, der dann nach vollzogenem Brexit, also nach 2019, in Kraft treten würde. So verkündete er. Nur der Bürgermeister von London, Sadiq Khan, möchte Trump nicht in seiner Stadt sehen. Den zu bekehren, daran muss noch gearbeitet werden.

Achse Berlin-Paris beunruhigt Osteuropa

Bei Trumps Zwischenstopp in Warschau trafen sich dort die Staatschefs der ‚Drei-Meere-Gruppe‘. Den Begriff hatte ich vorher noch nicht gehört. Er umfasst alle Länder in der EU zwischen Estland und Kroatien. Bisher machten nur Polen und Ungarn von sich reden. Kann es sein, dass eine wiederbelebte enge Kooperation zwischen Frankreich unter Emmanuel Macron und Deutschland einige Leute beunruhigt? Oder sieht Trump doch eine Chance, einen Spalt in die EU zu treiben? Immerhin haben schnell einige dieser Länder amerikanische Waffen bestellt. Vielleicht glaubt man so sich dem Wunsch einiger Westeuropäer entgegenstellen zu können, die dafür plädieren die Waffenbeschaffung zu europäisieren.

Japan weiß, auf wen es sich verlassen kann

Nie haben EU-Beamte so rasant einen Handelsvertrag zustande gebracht. Auf der Reise von Tokio nach Berlin legte Japans Premier Shinzo Abe eine Zwischenstation in Brüssel ein, um den fertig formulierten Handelsvertrag zu unterzeichnen. Mehr als vier Jahre wurde verhandelt, und immer wieder schien es, als würden sie nie zum Erfolg kommen. Doch dann ging plötzlich alles ganz schnell, dank Donald Trump.

Chinas Charme-Offensive

Chinas Premier Xi Jinping machte seinen Umweg nach Hamburg über Berlin. Er übergab nicht nur zwei Panda-Bären dem Berliner Zoo. Er trat vor die Presse und sagte, er täte alles, damit Angela Merkel mit ihren Plänen für den G20-Gipfel Erfolg habe. Bei so viel Freundlichkeit kann man nicht dauernd an internierte Menschenrechtler erinnern. Was den Handelsvertrag betrifft, möchte China sich noch nicht festlegen.

Alle anderen müssen sehen, wo sie bleiben

Über die weiteren Teilnehmer des G20-Gipfels wie Indien, Südafrika und Brasilien lässt sich im Moment wenig Konkretes sagen. Jedenfalls stimmten sie auf der Seite der 19er Mehrheit gegen die USA sowohl beim Klima wie beim Welthandel. Merkels Vorbereitung zeigte Wirkung.

Chaoten aller Welt vereinigt Euch

Dieser G20-Gipfel lockte Tausende Journalisten an. Denen folgten die notorischen Krawallmacher. Sie bildeten ihren berühmt-berüchtigten Schwarzen Block. Es flogen Steine, es brannten Autos, Läden wurden geplündert. Zum Glück gab es keine Toten. Nachträglich Hamburgs Bürgermeister Olaf Scholz zu beschuldigen, dass er dies nicht verhinderte, ist dummes Geschwätz. Auch dieses Fest hat ein Ende. Soeben stieg Donald Trump in die Airforce One und verließ Hamburg.

Nachtrag am 9.7.2017


Da hatte ich doch jemanden ganz vergessen, der wichtig genommen werden will: Recep Tayyib Erdogan. Auf einer eigenen Pressekonferenz verkündete er, dass er den Pariser Klimavertrag nicht umsetzen würde. Er hätte nämlich in diesem Zusammenhang Versprechungen erhalten, die nicht gehalten wurden. Ob es dabei nur um Geld ging oder auch um Hilfe bei der Verhaftung von Gülen-Anhängern, das weiß ich nicht. So wie Trump, so denkt auch Erdogan immer ans Geschäft.

Dienstag, 20. Juni 2017

IBM Entwicklungslabor Böblingen – eine Übersicht der Ergebnisse seiner ersten vier Jahrzehnte

Das 1953 von Karl Ganzhorn (1921-2014) gegründete Entwicklungslabor der IBM Deutschland in Böblingen erlebte bis in die 1990er Jahre eine starke Expansion. In seiner größten Ausbauphase hatte es rund 1000 Mitarbeiter, hauptsächlich Ingenieure, Informatiker und Physiker. Es erbrachte beachtliche Leistungen auf vier ganz verschiedenen Gebieten der Informatik, nämlich den Halbleiter-Komponenten, den Prozessoren und Rechnersystemen, der System-Software und den Druckern bzw. Finanzsystemen. Böblingen erwies sich nicht nur als das am breitesten aufgestellte Labor der IBM in Europa, es war auch das erfolgreichste von ihnen. In den Jahren zwischen 1965 und 1992 wurden auf allen vier Gebieten mehrere Generationen von Produkten entwickelt und an mehrere Fertigungsbetriebe in Europa, den USA und Japan oder – im Falle von Software  ̶  direkt in den Markt ausgeliefert. Als Teil der Verantwortung wurden alle Produkte bis zum Ende ihrer Lebenszeit in ihrem weltweiten Einsatz verfolgt und betreut.

Für jedes der vier Gebiete gebe ich im Folgenden in tabellarischer Darstellung eine Zusammenfassung seiner Ergebnisse an, also die im Markt sichtbaren Produktlinien. Es sind dies die maßgeblichen Kriterien und Kennzeichen seiner Leistungsbilanz. Auf eine Beschreibung der Produkte im Einzelnen und der dazugehörenden Entwicklungsgeschichte wird hier verzichtet. Sie sind in der Regel in den Büchern der ‚Blauen Reihe‘ sehr gut dokumentiert. Diese wurde von Karl Ganzhorn initiiert und verlegt. In den einzelnen Abschnitten werde ich auf den jeweiligen Band Bezug nehmen.

Gründungs- und Aufbauphase

Die mechanische Entwicklung begann bei der IBM Deutschland 1931 in Berlin. Das Werk lag im Stadtteil Lichterfelde. Unter Ulrich Koelm, dem technischen Direktor der "Deutschen Hollerith Maschinen Gesellschaft mbH" wurden von dem "BK Tabulator" bereits 250 Maschinen hergestellt. Anschließend begann ein fähiger junger Ingenieur (Fritz Gross), eine neue Buchhaltungsmaschine zu entwickeln, die zur berühmten D11 wurde. Diese Maschine konnte nicht nur drucken, sondern auch rechnen. Rund 1500 Maschinen des Typ D11 wurden in Deutschland installiert, viele sogar für eine lange Zeit nach dem Krieg. Aus dieser Entwicklung wuchs die maschinenbauliche Fertigkeit unter der Führung von Koelm und von Walter Scharr. Nach dem Krieg übernahm Scharr, der 1937 aus Endicott, NY, zurückgekehrt war, die mechanische Konstruktionsabteilung in Deutschland. Sie leistete die Druckentwicklungen für das WWAM-Projekt (Worldwide Accounting Machine) und gleichzeitig für das System/3000.

Ganzhorn hat seinen Einstieg bei IBM immer wieder schmunzelnd erzählt. Er wurde in Stuttgart auf dem Universitätsgelände, also quasi auf der Straße, von einem Mitarbeiter der IBM angesprochen und angeheuert. Er könne machen, was er wolle, Hauptsache Physik. Außerdem könne er in seiner Heimatstadt bleiben, in Sindelfingen. Ganzhorns erstes größere Projekt war das System/3000. Es wurde zum Fiasko. Die kleinen Lochkarten funktionierten zwar im Labor ganz ordentlich, nicht jedoch beim Kunden. Das Produkt musste aus dem Markt genommen werden. Als er von Thomas J. Watson zum Rapport gebeten wurde, rechnete er mit seiner Entlassung. Watson ermahnte ihn lediglich, sich nie wieder ein Produkt vom Vertrieb aus der Hand reißen zu lassen, bevor er und seine Ingenieure voll von seiner Qualität überzeugt seien.

Ganzhorn fiel die Aufgabe zu, eine Lokation für ein neues Labor auszusuchen. Er hat die ersten Gebäude bauen lassen und hat entschieden, ein von den Themen möglichst breit angelegtes Entwicklungszentrum aufzubauen. 'Da die elektronische Datenverarbeitung in den 50er und 60er Jahren noch in einer rudimentären Phase war, kann man darüber diskutieren, ob das Labor damals eher ein Forschungs- oder schon ein Produktentwicklungslabor war'. Die letzten Sätze stammen aus dem Interview mit Herbert Kircher, das ich kürzlich führte. Als Ganzhorn die Leitung von drei europäischen Labors (Böblingen, Lidingö, Wien) übertragen wurde, gab er die Leitung des Böblinger Labors an Walter Proebster ab. Nach Proebster konnte ich noch weitere vier Laborleiter erleben, nämlich Fred Albrecht, Wolfgang Liebmann, Wilfried Pierlo und Herbert Kircher.

Die Gründungs- und Aufbauphase des Labors hat Ganzhorn im ersten Band der ‚Blauen Reihe‘ dokumentiert. Sein Titel lautet: ‚The IBM Laboratories Boeblingen. Foundation and Build-up‘. A Personal Review by Karl E. Ganzhorn, 2000. Auszüge daraus erschienen in den IEEE Annals [1,2].

Halbleiter-Komponenten

Als das Labor gegründet wurde, durfte man sich sein Arbeitsgebiet selbst aussuchen. Ganzhorn meinte, er sei eingestellt worden, um dem vorhandenen Konstruktionsbüro für Lochkartenmaschinen die fehlende Kompetenz in Halbleiterphysik zu verschaffen. Für den Aufbau der Komponenten-Entwicklung hatte Ganzhorn Otto G. Folberth gewonnen, einen erfahrenen Physiker von der Firma Siemens in Erlangen. Folberths Eintrittsdatum wurde verschoben, bis dass das neue Laborgebäude fertig war. Dessen Nachfolger wurde Wolfgang Liebmann.


Übersicht Halbleiter-Entwicklung

Diese Daten sind dem Band 5 der ‘Blauen Reihe’ entnommen. Er heißt: The IBM Laboratories Boeblingen: Semiconductor and Chip development. A personal Review by Horst E. Barsuhn and Karl E. Ganzhorn, 2005. Wie in jedem Band so findet sich auch dort eine umfangreiche Bibliographie.

Prozessoren und Rechnersysteme

Über lange Jahre dominierte die Prozessoren-Entwicklung die Richtung und die Interessen des Labors. Sie strahlte aus auf die Komponenten- wie auf die Software-Entwicklung. Die Leiter dieses Bereichs waren am Anfang Ray Wooding, Fred Albrecht und Edwin Vogt, gefolgt von Eckart Lennemann und Uli Lang.


Übersicht System-Entwicklung

Diese Daten entstammen dem Band 4 der ‚Blauen Reihe‘. Sein Titel lautet: Die IBM Laboratorien Böblingen: Systementwicklung. Ein persönlicher Rückblick von Helmut Painke, 2003.

System-Software

Die Software-Entwicklung ist der jüngste Bereich des Labors. Ihr erster Leiter war Horst Remus, gefolgt von Walter Heydenreich und Albert Endres. Danach folgten Sakis Tsaoussis, Helmut Lamparter, Don Casey, Reinhard Sirringhaus und Willi Neidow.


Übersicht Software-Entwicklung

Die Geschichte dieses Bereichs ist dokumentiert in Band 2 der ‚Blauen Reihe‘. Er hat den Titel: Die IBM Laboratorien Böblingen: System-Software-Entwicklung. Mit persönlichen Erfahrungen und Erinnerungen von Albert Endres. Sindelfingen, 2001. Eine englische Version ist [3]. Über alle Compiler-Projekte der europäischen IBM Labors berichtet [4].

Drucker und Finanzsysteme

Eine besondere Stärke des Labors während seiner frühen Jahre war seine mechanische Entwicklung. Sie ging später über in die Entwicklung spezieller Produkte für die Finanzindustrie. Nach Scharr wurde Günther Schacht Leiter der mechanischen Entwicklung. Auf sie folgten Jerry Bührmann und Roland Beyer.


Übersicht Drucker- und Finanzsystem-Entwicklung

Die Geschichte der Böblinger Druckerentwicklung wurde von Roland Beyer beschrieben. Sein Beitrag hat den Titel: Produktentwicklung mechanischer Geräte im Entwicklungslaboratorium Böblingen der IBM Deutschland. Er ist in [5] enthalten. Die Entwicklungen für die Finanzindustrie sind beschrieben im Band 6 der ‚Blauen Reihe‘. Er heißt: IBM Informationstechnik für Banken und Sparkassen im 20. Jahrhundert. Persönliche Rückblicke von R. Beyer, B. Brachtl, W. Ferger, K.E. Ganzhorn, R. Grischy, H. Henn, K.-H. Holst, F. W. Kistermann, A. Schaal, E. Schabacker, M. Schilling. Herausgegeben von K.E. Ganzhorn, 2006.

Erfindungen und Patent-Aktivitäten

Weitreichende Ideen wurden immer wieder in experimentellen Umgebungen oder in Studienprojekten evaluiert. Fanden sie nicht den Weg in Standardprodukte, wurden sie manchmal als Sonderprodukte für Teilmärkte (etwa den deutschsprachigen Raum und Benelux) freigegeben oder zumindest als geistiges Eigentum (engl. intellectual property) gesichert. In der Anzahl der angemeldeten Erfindungen und erteilten Patente hält die Firma IBM weltweit seit Jahrzehnten einen Spitzenplatz inne. Das deutsche Labor hatte daran stets einen signifikanten Anteil. Manche der Innovationen waren richtungsweisend für die ganze Branche.


Übersicht Patent-Anmelder des Labors

In der Tabelle wurde die Zahl unterschiedlicher Anmeldungen gelistet. Wichtige Erfindungen wurden meistens in mehreren Ländern (wie Deutschland, Japan und USA) gleichzeitig angemeldet. Eine Untermenge davon ist die Zahl der erteilten Patente. Es ist anzunehmen, dass sich dafür die gleiche Reihenfolge von Erfindern ergibt.

Allgemeine Bewertung und Einordung

Viele der gelisteten Böblinger Produkte und Erfindungen stellten auf ihrem Gebiet den Stand der Technik dar. Einige waren anerkannte Spitzenleistungen nicht nur innerhalb des Unternehmens, sondern auch in der gesamten Branche. Alle Produkte mussten sich im weltweiten Markt behaupten. Die meisten waren oft jahrelang im Einsatz. In der Regel erreichten sie eine hohe Kundenakzeptanz. Für viele Kunden ermöglichten sie den Einstieg in die elektronische Datenverarbeitung. Das Bestreben, Erfindungen auch als Patente absichern zu lassen, unterscheidet die in der Industrie tätigen Informatiker von ihren Kollegen an den meisten Hochschulen. Dort herrscht die (meiner Ansicht nach etwas seltsame) Meinung vor, dass Veröffentlichungen in Fachzeitschriften besser geeignet seien, die Fortschritte in der Technik und den persönlichen Ruhm von Erfindern zu fördern als Patente.

In der dargestellten Zeitperiode herrschte nicht nur bei IBM die Meinung vor, dass ein wirklich attraktives Angebot für Kunden durch Symbiose von Hardware und Software entstehen kann. Dieser ‚Systemgedanke‘ wurde später teilweise aufgegeben, nachdem Microsoft den Nachweis erbrachte, dass man durch Verallgemeinerung der Software deren Einsatzbereich über die Hardware mehrerer Hersteller hinaus vergrößern kann. Es ist eine andere Optimierung. Nur Steve Jobs und die Firma Apple blieben dem IBM-Ideal treu.

Fachkontakte und Außenwirkung

Viele Mitarbeiter des Böblinger Labors fanden hohe Anerkennungen im weltweiten Unternehmen, in der Branche, aber auch in der Wissenschaft. Die Erfahrungen der Anfangszeit bildeten die Grundlage für den Erfolg des Labors, der bis heute anhält. Es entstanden langfristig gesicherte und technisch sehr anspruchsvolle Arbeitsplätze für Informatiker und Ingenieure.

Während des Berichtszeitraums bestanden intensive Kontakte zu mehreren Forschergruppen an deutschen Hochschulen, aber auch zu den Forschungs- und Entwicklungslabors der IBM in den USA und in Europa, insbesondere zum Forschungslabor in Zürich und dem Wiener Labor. Die Übertragung von Wissen erfolgte bevorzugt durch den temporären oder dauernden Austausch von Personal. Des Weiteren bestanden enge Kontakte zum Wissenschaftlichen Zentrum der IBM in Heidelberg, zum Programmproduktzentrum in Sindelfingen und zu dem LILOG-Projekt in Stuttgart.

Ausgewählte Literatur
  1. Ganzhorn, K. E.: The buildup of the IBM Boeblingen laboratory. IEEE Annals of the History of Computing 26,3, (July-September 2004), 4-19
  2. Ganzhorn, K. E.: IBM Boeblingen Laboratory: Product Development. ebda, 20-30
  3. Endres, A.: IBM Boeblingen’s Early Software Contributions. ebda, 31-41
  4. Endres, A.: Early Language and Compiler Developments at IBM Europe: A Personal Retrospection.  IEEE Annals of the History of Computing  35,4 (October-December 2013), 18 – 30
  5. Proebster, W. E.: Datentechnik im Wandel - 75 Jahre IBM Deutschland: wissenschaftliches Jubiläumssymposium. Heidelberg 1986.

PS: Dieser Beitrag hat Nummer 500 in diesem Blog. Er reiht sich ein in eine lange Kette teils technischer, teils historischer Ergüsse. Auch er stellt persönliche Erfahrungen und persönliches Wissen der Allgemeinheit zur Verfügung.

Mittwoch, 7. Juni 2017

Herbert Kircher über das IBM Labor Böblingen in einer Zeit des Wandels

Herbert Kircher (*1938) war von 1986 bis 2008 zuerst Laborleiter, später Geschäftsführer der IBM Deutschland Research & Development GmbH. Nach dem Studium der Elektrotechnik an der Uni Stuttgart war er seit 1964 als Ingenieur im Fertigungsbereich der IBM Deutschland tätig. Nach drei Jahren (1967) wurde er für drei Jahre ins IBM Forschungszentrum nach Yorktown Heights, USA, abgeordnet, um dort als Teil eines Böblinger Labor-Teams an FET-DRAM-Chips zu forschen. Nach seiner Rückkehr aus Yorktown hatte er verschiedene Management-Positionen im Werk Sindelfingen inne bis zuletzt als Leiter des Halbleiterwerks Böblingen-Hulb. Dazwischen war er drei Jahre auf Abordnung im IBM Corporate Headquarter in Armonk. Ehe er 1986 die Verantwortung für das Labor übernahm, war er noch zwei Jahre im Vertrieb der IBM Deutschland für Industrie-Kunden verantwortlich.



Bertal Dresen (BD): Zahlreiche Interviews in diesem Blog befassten sich mit meinem früheren Arbeitgeber, der Firma IBM, und hier speziell mit dem IBM Labor in Böblingen. Da ich mit Dirk Wittkopp, dem derzeitigen Laborleiter, bereits vor Jahren ein Interview führte, möchte ich bei Ihnen gerne den Blick etwas mehr auf Vergangenes richten. Herr Kircher, Sie waren mit 22 Jahren länger Laborleiter als jeder Ihrer Vorgänger. Nach Karl Ganzhorn, Walter Proebster, Fred Albrecht, Wolfgang Liebmann und Wilfried Pierlo waren Sie der sechste, den ich erlebte. Was fällt Ihnen als Erstes ein, wenn Sie auf diese Liste Ihrer Vorgänger zurückblicken? Welcher Ihrer Vorgänger hatte nach Ihrem Eindruck die deutlichsten Spuren hinterlassen? Was unterschied – auf einen vereinfachten Vergleich reduziert – Ihre Dienstzeit von der Ihrer Vorgänger?

Herbert Kircher (HK): Karl Ganzhorn, der Gründer des IBM Entwicklungszentrums in Böblingen, hat natürlich die sichtbarste Spur hinterlassen. Er hat die Lokation ausgesucht, hat die ersten Gebäude bauen lassen und hat entschieden, ein von den Themen möglichst breit angelegtes Labor aufzubauen. Da die elektronische Datenverarbeitung in den 50er und 60er Jahren noch in einer rudimentären Phase war, kann man darüber diskutieren, ob das Labor damals eher ein Forschungs- oder schon ein Produktentwickungslabor war. Seit der Gründung der Labors 1953 und meiner Zeit als Laborleiter hatte sich die Technologie, der Markt, die IT-Branche, der Wettbewerb und damit auch die IBM dramatisch verändert. In den 1950er bis 1970er Jahren ging es um den Aufbau eines Labors mit einer breiten Knowhow-Palette mit Schwerpunkten Halbleiter, Systeme, E/A-Geräte und etwas Software. Das Geschäftsmodell der IBM Corporation war damals sehr erfolgreich, sehr profitabel. Wir waren Marktführer mit Mainframes im Umfeld schwacher Wettbewerber.

Als ich 1986 die Verantwortung für das Labor übernahm, begannen die sehr schwierigen Krisenjahre der IBM (1988-1993). Die IBM Großrechner waren nicht mehr profitabel, die Corporation machte Verluste. Fast 200.000 Mitarbeiter mussten abgebaut werden. Es erfolgte eine Transformation des Unternehmens von Hardware zu Software und Service. Damit steckte auch das Böblinger Labor in einer Krise.

Die IBM konnte sich nicht mehr vier Mainframe-Labors leisten (Poughkeepsie, Kingston, Endicott, Böblingen). Das Ziel war zwei Labors zu schließen. Mein Ziel war, dass das Böblinger Labor dabei überlebt! Aber auch wir mussten harte Maßnahmen ergreifen und erfolglose oder nicht strategische Bereiche schließen (Drucker, Special Engineering, sowie die Ableger in Hannover und Berlin). In wenigen Worten zusammengefasst, hatte ich in den ersten zehn Jahren als Laborchef zwei übergeordnete Ziele:
  1. In den schwierigen Krisenjahren verhindern, dass wir geschlossen werden
  2. In den anschließenden Jahren des Neuaufbaus der Corporation mit neuen innovativen Produkten ein unverzichtbarer Baustein der IBM F&E-Organisation zu werden. Beispiele: CMOS, LINUX, Websphere Portal und Workflow etc.
Es ist den verschiedenen Laborbereichen gelungen, mehr als 100 für die IBM wertvolle Produkte in den Weltmarkt zu bringen.

BD: Bevor Sie meine obige Vorstellung etwas ergänzten, waren Sie für mich fast wie ein Externer, der von außen mit der Laborleitung betraut wurde. Aus Sicht vieler Labormitarbeiter hatten Sie dies mit Walter Proebster gemeinsam, der aus dem Forschungslabor Zürich gekommen war.

HK: Eigentlich kenne ich das Labor fast so lange wie Sie. In den Jahren 1967-1969 war ich als Ingenieur vom Werk Sindelfingen an das Labor ausgeliehen und nach Yorktown Heights abgeordnet. Ich berichtete dort an Dr. Wolfgang Liebmann und arbeitete an der Entwicklung des ersten IBM DRAM-Chips. Nach meiner Rückkehr wurde mir eine Manager-Position im Labor angeboten, die ich jedoch zu Gunsten einer Position im Werk ausschlug. In den folgenden Jahren war ich dann maßgeblich als Bereichsleiter und stellvertretender Werksleiter am Aufbau des Halbleiter- und Multilayer-Ceramics-Werks Hulb beteiligt und später auch Werksleiter Hulb [in dem gleichnamigen Stadtteil von Böblingen].

BD: Wie das beigefügte Luftbild zeigt, ist die Lage des Böblinger Labors mitten im Wald schon einmalig. Was würden Sie als die Sternstunden oder die Top-Ereignisse Ihrer Zeit als Laborleiter ansehen? Waren es prominente Besucher, bestimmte Produktankündigungen oder die üblichen Betriebsversammlungen und Mitarbeiterfeiern?  Bombendrohungen und Feuerwehreinsetze blieben Ihnen – soweit ich weiß – erspart.


IBM-Entwicklungslabor Böblingen heute © IBM

HK: Jede Ankündigung bzw. Auslieferung eines neuen Produktes war immer etwas, das uns alle stolz machte. Letztendlich ist es die Aufgabe des Labors, neue wettbewerbsfähige Produkte zu generieren, die dem Unternehmen Umsatz und Gewinn bringen, denn nur davon kann neue Entwicklung bezahlt werden! Ein Highlight für uns alle war immer, wenn wir ein neu entwickeltes Produkt mit der versprochenen Funktion, Qualität und Benutzerfreundlichkeit in den Markt bringen konnten.

Natürlich habe ich auch großen Wert auch die Sichtbarkeit des Labors gelegt. Das musste mit meiner Person beginnen. Ich wurde in sehr viele internationale Gremien der IBM berufen: IBM Academy Board of Governors, Corporate Technical Review Committee (CTRC), Technical Community Leader, Ernennungs-Board für IBM Fellows und weitere globale Verantwortungen. Dadurch und durch die engen Kontakte, die ich während meines Assignments in Armonk zum Top Management knüpfen konnte, fiel es uns leicht, fast alle Top Executives regelmäßig ins Labor zu bringen und unsere Ideen zu präsentieren. Die zwei bedeutendsten Besuche waren der gesamte Aufsichtsrat der IBM Corporation, der im Labor tagte, und der Besuch des damaligen CEO Lou Gerstner. Sehr stolz hat es uns immer gemacht, wenn wir jährlich mehrere neue Senior Technical Staff Members (STSM) und später auch Distinguished Engineers (DE) ernennen konnten, was ein deutlich sichtbarer Beweis der hohen Kompetenz unserer Mitarbeiter war.

BD: Wenn Sie an die Zeit vor 1992 denken, was sahen Sie als die Besonderheiten und die Stärken des Böblinger Labors an? Auf welche Produkte und Innovationen aus dieser Zeit kann das Labor besonders stolz sein? Welche Probleme oder Schwächen machten Ihnen echt zu schaffen? Waren es die hohen Personalkosten oder die relative Ferne vom Weltmarkt?

HK: Ich möchte hier nicht auf einzelne Produkte eingehen. Das haben verschiedene Kollegen bereits ausführlich geleistet. Ich möchte jedoch eine Ausnahme machen: Die Böblinger Hardware-Entwickler haben als erste erkannt, dass die neue FET-Technologie wegen ihres hohen Integrationspotentials die bislang führende bipolare Technologie ablösen wird. Die hier entwickelten Prozessoren machten die Großrechner wieder wettbewerbsfähig und führten letztendlich zur Beendigung der bipolaren Systeme. Wenn ich meine Betrachtung auf die Zeit vor 1992 beschränke, dann ist das nur ein kleiner Ausschnitt meiner Labor Erfahrung. Vor allem bedeutende Leistungen der Software-Entwicklung der letzten 20 Jahre bleiben unerwähnt. Heute arbeiten deutlich mehr Mitarbeiter an Software als an Hardware.

Marktnähe war eine unserer Prioritäten. Wir waren keinesfalls entfernt vom Weltmarkt. Wir haben an prominenter Stelle ein sehr erfolgreiches Kundenzentrum aufgebaut, in dem wir nicht nur unsere Produkte präsentierten, sondern auch den Kunden eine Roadmap aufzeigten. Der Vertrieb und Kunden aus vielen Ländern lieben es heute noch, ins Labor zu kommen. Später haben wir das ergänzt durch eine Software-Service-Truppe, die vor Ort den Kunden in komplexen Situationen unterstützte. Und unsere Entwickler hatten unmittelbaren Feedback von den Kunden, was sie an unseren Produktplänen gut fanden und was nicht.

Die Nachteile des Standorts Deutschland sind seit Jahrzehnten bekannt, die Vorteile aber ebenso. Das Thema Kosten hat uns in Deutschland immer Druck gemacht. Etwas salopp gesagt war das Ziel: ‚Wir müssen so viel besser sein wie wir teurer sind‘ und das ist bei großen Innovationen auch gelungen.

Im IBM Top Management haben wir entschieden, technische Konzepte und Strategien nicht mehr wie in der Vergangenheit durch Manager entscheiden zu lassen, sondern durch ‚Technical Leaders‘, also durch STSMs, DEs und IBM Fellows. Ich versuchte ein Klima zu schaffen, wo sich möglichst viele der Spitzentechniker zu STSMs und DEs entwickeln konnten, weil dort wo der ‚Technical Leader‘ eines Produktes saß, oft auch die Entwicklung durchgeführt wurde. Die enorme Sichtbarkeit dieser ‚Technical Leader‘ und deren Einfluss auf Technologie und Produktstrategie nutzten wir zur Stärkung unserer Rolle im F&E-Verbund der IBM.

Eine der großen Herausforderungen damals und heute an die Mitarbeiter ist der schnelle Wandel. Immer neue Kompetenzen und Kenntnisse sind gefordert. Marktnähe, Innovation, Qualität, Termintreue, der Konkurrenz immer einen Schritt voraus und den Kollegen in anderen Labors auch. Das waren anspruchsvolle Anforderungen an die Entwickler. Die Entwicklungsteams wurden gemischt aus erfahrenen älteren Mitarbeitern und frisch von der Uni Eingestellten mit neuestem Wissen. Da die Entwicklungszyklen für ein Hardware- oder Software-Produkt immer kürzer wurden, mussten wir auch permanent dafür sorgen, neue Projekte zugeteilt zu bekommen.

BD: Wenn Sie Ihre Böblinger Tätigkeit mit der entsprechenden Tätigkeit in deutschen Unternehmen wie Bosch, Daimler und Siemens vergleichen, was fällt Ihnen dann ein? Gibt es einen Unterschied zu andern Töchtern amerikanischer Firmen wie Ford in Köln oder Opel in Rüsselsheim? Was war für Böblingens Erfolg bestimmender, der schwäbische Tüftlergeist oder die (importierte) amerikanische Cowboys-Mentalität, deutsche Gründlichkeit oder internationale Weitläufigkeit?

HK: Es war in den 80er und 90er Jahren nicht möglich, die mechanische Entwicklung der Autoindustrie mit der Hardware- und Software-Entwicklung der IT zu vergleichen. Das ist heute natürlich anders, mit Dutzenden Mikroprozessoren und Millionen ‚Lines of Code‘ im Auto. Ich kenne viele deutsche Unternehmen recht gut. Aber wir mussten uns, was Schnelligkeit, Innovation, Kompetenz anbelangt, mit Unternehmen wie Microsoft, Oracle, SAP, HP und anderen Wettbewerbern vergleichen. Eine ‚amerikanische Cowboy-Mentalität‘ kenne ich in dem Zusammenhang nicht, aber es muss jedem klar sein, dass die Regeln und die Geschwindigkeit des IT-Geschäfts in den USA festgelegt werden, und leider nicht durch eine kleine Handvoll von IT-Unternehmen in Deutschland. Leider!

BD: Wollen Sie sagen, dass die Unternehmen in anderen Branchen langsamer agieren und weniger innovativ sind?

HK: Ich bewerte nicht andere Unternehmen und andere Branchen. Aber es ist unstrittig, dass die IT-Branche in den letzten 50 Jahren so gewaltige, oft exponentielle Fortschritte machte wie keine andere Industrie-Branche der Wirtschaftsgeschichte. Das gilt auch heute noch, wenn sie das explosionsartige Wachstum von Google, Facebook, Amazon, Apple und andere ansehen. Oder die aggressive Innovation von Tesla. In vielen traditionellen Branchen konkurrieren seit Jahrzehnten etablierte Unternehmen miteinander. In der IT-Branche werden immer wieder neue Unternehmen geboren, die mit neuen innovativen Produkten und Geschäftsmodellen die Etablierten angreifen. Denken sie daran, dass der ‚Buchhändler Amazon‘ die IBM  im Cloud-Geschäft überholt hat! Wir   ̶   die IT-Branche   ̶  verursachen gerade den Digitalisierungs-Tsunami, der die Welt überschwemmt. Viele Branchen werden deshalb ihre Geschwindigkeit und Innovationskraft steigern müssen.

BD: Während meiner aktiven Zeit bei IBM bestand das Labor aus mindestens vier technischen Teilbereichen: Halbleiter, Systeme, Software und Drucker. Das sahen wir sowohl als Stärke wie als Schwäche. Die Stärke war, dass wir unseren Kunden nahezu komplette Systeme liefern konnten. Die Schwäche war, dass jeder Bereich sehr schnell unter eine kritische Größe fiel. Wir hatten es z.B. auf dem Software-Gebiet nicht leicht mit der Konkurrenz oder auch den anderen Labors der Firma IBM Schritt zu halten. Wie sahen Sie diese Struktur aus der Perspektive des Hausherrn? Ist die Breite der Aufstellung mehr Vorteil als Nachteil?

HK: Ich halte es für essentiell, dass das Labor auf mehreren Beinen steht. Die Mitarbeiter haben es immer geschafft auch in kleineren Teams ausgezeichnete Produkte in den Markt zu bringen. Natürlich waren CMOS und LINUX [die von Karl-Heinz Strassemeyer in seinem Interview ausführlich diskutiert wurden] eine riesige Erfolgsgeschichte. Die Leistung dieser Teams ist historisch. Aber gleichzeitig haben wir erfolgreich in die Software Group expandiert. [Das Böblinger Labor gehört organisatorisch zur Systems and Technology Group. Die Software Group ist verantwortlich für reine Software-Produkte wie Datenbanken und Entwicklungswerkzeuge. Das früher in Sindelfingen ansässige Programmproduktzenter (PPDC) gehörte zur Software Group. Die Mitarbeiter sind heute Teil des Labors Böblingen]

Data Mining, Middleware, Workflow und Portal, das sind alles neue Software-Arbeitsgebiete, um nur einige zu nennen. Wir haben auch   ̶  in Übereinstimmung mit den Geschäftsbereichen (engl. divisions) in USA   ̶   mit neuen Segmenten experimentiert, die nicht erfolgreich waren, weil das Unternehmen wieder aussteigen wollte: Smart Card, Automotive Electronic, Banking Terminals. Das war sicher schmerzhaft für die betroffenen Mitarbeiter, aber es zeigte auch, dass das Labor schnell neue Themen aufgreifen konnte. Allerdings mussten wir uns für diese neuen Projekte aus Wettbewerbsgründen manchmal sehr schnell entscheiden, ohne alle Fakten zu haben, beispielsweise bei Smart Card und Automotive. Der Wettbewerb zwischen den Labors war eben intensiv.

BD: Bekanntlich hat die IBM Corporation in den frühen 1990er Jahren eine sehr kritische Phase durchgemacht. Einige Branchenkenner sahen sogar einen Konkurs für möglich an. Vielleicht können Sie aus der Sicht des damaligen Leiters des Böblinger Labor dies etwas ergänzen oder illustrieren. Da ich selbst die Firma Ende 1992 verlassen habe, sagen mir meine Ex-Kollegen immer, dass ich die Firma nicht mehr wiedererkennen würde. Waren die Änderungen wirklich so gravierend? Worüber würde ich mich am meisten wundern? Hat sich auch die Rolle des Laborleiters geändert?

HK: Nein, ein Konkurs stand nicht im Raum, aber die IBM musste das Geschäftsmodell komplett verändern   ̶   so wie übrigens heute auch! Hardware und Betriebssystem-Software blieb weiter wichtig, musste aber wesentlich effizienter, kostengünstiger und mit ganz schnellen Entwicklungszyklen ablaufen. Außerdem wurde massiv in Middleware investiert, eine Zeit lang sogar in Anwendungs-Software, leider nicht lange genug und deshalb erfolglos. Heute wären wir vermutlich froh, wir hätten die Anwendungs-Software nicht so schnell aufgegeben. Außerdem hat IBM zusätzlich in Service und Beratung investiert. Das Ziel war also Lösungen zu verkaufen, nicht nur Hardware und Software. Als Konsequenz musste IBM viele Fabriken und einige Entwicklungslabors schließen. [Unter Middleware versteht IBM diejenige Protokolle unterstützende Software, die erforderlich ist, um Systemanalyse-Funktionen und Kommunikationsdienste zu ermöglichen, Anwendungsprozesse zu verbinden, und dgl.]

Meine Rolle als Laborleiter war nie der oberste Ingenieur, Programmierer, Entwickler des Labors zu sein, sondern eher die Rolle eines Schiffskapitäns, der die Richtung festlegt, Risiken abschätzt, den Untergang verhindert, und der das Labor in der F&E-Welt in USA so positioniert, dass es als unverzichtbar in der Corporation angesehen wird und dass die IBM dieses Labor immer braucht, unabhängig welches Geschäftsmodell oder welcher Paradigmenwechsel gerade die Firma beschäftigt.

BD: Nach 1993 ist es Ihnen zweifellos gelungen, das Labor umzuorientieren und neu zu stabilisieren. Sicher spielten dabei die CMOS-CPUs und Linux eine große Rolle. Andere vielversprechende Entwicklungen wie Geldautomaten, Smart Cards oder Automobil-Elektronik wurden wieder aufgegeben. Eine solche Umstellung muss doch recht schmerzhaft gewesen sein, zumindest für die direkt betroffenen?

HK: Das Labor-Management und die Mitarbeiter haben seit Jahrzehnten gezeigt, dass sie Veränderungen nicht als Gefahr, sondern als Chance wahrnehmen und die Chance neuer Technologien und Herausforderungen ergreifen. Die permanente Veränderung und Anpassung ist ja nach meiner Stabübergabe an meinen Nachfolger nicht stehen geblieben. Im Gegenteil, die IT-Branche ist immer noch von unglaublicher Dynamik. Vor allem sind zu den bisherigen Wettbewerbern neue, teilweise unerwartete dazugekommen: Google, Amazon und viele andere. Der neue Fokus der IBM liegt auf Cloud, Analytics, Mobile, Security, Watson. Das sind alles völlig neue Themen, auf die das Labor fokussieren muss und die neue Herausforderungen an jeden Mitarbeiter stellen. Die früheren Produktbereiche existieren nicht mehr so wie einst. Die Zugehörigkeit des Labors wird komplexer und durch eine größere Zahl organisatorischer Einheiten bestimmt.

BD: Ist es Ihnen möglich, anhand selbst erlebter Projekte etwas dazu zu sagen, welche Faktoren für einen industriellen Erfolg eines Labors maßgebend sind? Wie weit entscheidet die gute Kenntnis des Kundenbedarfs, wann ist eine hervorragende Technologie der Schlüssel zum Erfolg (engl. market pull vs. technology push)? Geht das eine ohne das andere? Woran messen Sie den Erfolg eines Labors?

HK: ‚Market pull‘ und ‚technology push‘ muss in Balance sein. Beide ergänzen sich und führen zur besten Lösung. In meinen mehr als 40 Jahren in der IT-Branche erkannte ich als entscheidenden Faktor die immense Geschwindigkeit der Veränderung. Technologie, Innovation, Markt, Kundenverhalten, neu in den Markt eintretende Wettbewerber verändern sich im IT-Umfeld häufig nicht linear, sondern exponentiell. Die Anpassungsfähigkeit an neue Herausforderungen ist entscheidend. Das betrifft die technologische Kompetenz der Mitarbeiter, die Führungskultur des Managements, die Kenntnis des sich ändernden Marktes.

Ein Labor wird heute daran gemessen, wie die entwickelten Produkte und Lösungen zum Umsatz, Gewinn, Marktanteil beitragen. Die reine technologische Brillanz ist ziemlich wertlos, wenn sie vom Kunden nicht gekauft wird. Das mag reine Wissenschaftler irritieren, aber so ist eben mal die Realität   ̶  nicht nur bei IBM. Leider sind eine Reihe kleiner Labors (Wien, Heidelberg, Hannover und Berlin) nicht weitergeführt worden, weil sie dem IBM Konzept nicht mehr entsprachen.

BD: Inzwischen liegt 1993 weit hinter uns. Das 50-jährige Laborjubiläum im Jahre 2003 war sicher Grund zum Feiern. Ein Foto habe ich aufbewahrt. Das zeigt Sie mit dem damals über 80-jährigen Karl Ganzhorn, dem von uns allen so sehr geschätzten Laborgründer. Sie verfügen  ̶  so vermute ich   ̶  über eine Perspektive, wie sie nur wenige Kollegen in der Branche besitzen. Sie haben die Firma IBM, ja unsere ganze Branche, in sehr unterschiedlichen Phasen erlebt. Wie sehen Sie heute die Situation der deutschen IT-Branche, ihre Innovations- und Wettbewerbsfähigkeit? Ist Deutschlands industrielle Stärke in Gefahr?


Kircher und Ganzhorn 2003

HK: Das ist eine schwierige Frage. Heute steht Deutschland als Musterbeispiel einer Industrienation da. Politik, Gesellschaft, Unternehmen, Gewerkschaften machen ganz offensichtlich vieles richtig. Allerdings basiert unsere Stärke auf Maschinenbau, Werkzeugmaschinen, Automobil, Chemie und ähnliche Branchen des 20. Jahrhunderts. Es war oft problematisch in Deutschland mit Universitäten zusammen zu arbeiten. Manche Wissenschaftler haben die überholte Vorstellung im vor-wettbewerblichen (engl. ‚non-competitive) Umfeld arbeiten zu müssen. Das war für uns wertlos, denn wir befanden uns zu 100% im Wettbewerb mit allem, was wir taten! Es gab Ausnahmen: Mit Professoren der Universitäten Bonn, Stuttgart, München und Berlin haben wir gute gemeinsame Projekte, die wir finanzierten, durchgeführt. Ein früherer Bereichsleiter aus der Software-Entwicklung (Manfred Roux) leitete die Funktion Universitäts-Beziehungen. Relativ wenig Kontakt hatten wir zu Fachgesellschaften wie der Gesellschaft für Informatik (GI) und der Informationstechnischen Gesellschaft (ITG).

Etwas Sorge macht mir die Rolle, die Deutschland in der Digitalisierung spielt. Die Spitzenunternehmen und deren Produkte kommen fast alle aus den USA, die Hardware aus Asien. Da wir die digitalen Hardware- und Software-Lösungen in Deutschland nicht entwickeln und produzieren, bleibt für Deutschland nur die Chance, jetzt führend in der Nutzung dieser Technologien zu sein, um damit die Wettbewerbsfähigkeit aller Branchen zu erhalten und zu steigern. Nur dann besteht die Möglichkeit, die Erfolgsgeschichte der deutschen Wirtschaft und unseres Wohlstands fortzuschreiben.

BD: Vielen Dank, Herr Kircher, dass Sie einen so offenen Einblick in die Probleme gaben, mit denen Sie zu kämpfen hatten. Es ist alles andere als selbstverständlich, dass es das Böblinger Labor weiterhin gibt. Dessen waren wir uns schon länger bewusst.

NB: Außer den beiden erwähnten (Wittkopp, Strassemeyer) wurden in diesem Blog weitere Interviews mit folgenden heutigen und früheren Mitarbeitern des Böblinger IBM Labors veröffentlicht: Andreas Arning, Herbert Bellem, Namik Hrle, Kristof Klöckner, Manfred Roux und Edwin Vogt. Zu erwähnen sind auch die Nachrufe auf Karl Ganzhorn und Wilhelm Spruth. Vier Interviews und die zwei Nachrufe sind auch gedruckt in einem Buch [1] erschienen.

Referenzen 
  1. Endres, A., Gunzenhäuser, R.: Menschen machen Informatik. Begegnungen und Erinnerungen.  Berlin 2015. 216 Seiten, ISBN 978-3-89838-703-3.