Montag, 28. Februar 2011

Die Plagiatsdiskussion

Eigentlich wollte ich diesen Blog nicht dazu verwenden, um über politische Tagesfragen zu diskutieren. Gestern berichtete mir meine 16-jährige Enkeltochter, dass das Thema Plagiate in ihrer Schulklasse gerade heftige Wellen aufwirft. Aus gegebenem Anlass wurde darauf verwiesen, dass auch in Zukunft abschreiben aus dem Internet (oder von einer Mitschülerin) nicht erlaubt sei.

Heute kam dann noch der GI-Präsident mit einer Presseverlautbarung und meinte, dass „der aktuelle Umgang der Bundesregierung mit einem öffentlich nachge­wiesenen und durch die Universität bestätigten Plagiatsfall es praktisch unmöglich mache, Schüler und Studierende in Zukunft für den korrekten Umgang mit geistigem Eigentum zu sensibilisieren“.

Mir ist klar, was Herr Jähnichen sagen will, und gebe ihm inhaltlich Recht. Ich würde die Sache allerdings etwas anders formulieren. Durch den in Berlin in dieser Weise behandelten Fall ergibt sich für alle Lehrer die Möglichkeit, darauf hinzuweisen, dass auch populäre Politiker Fehler machen. Den ersten Fehler hat der promovierte Baron gemacht. Einen fast ebenso schlimmen Fehler machte seine Chefin, indem sie sagte, ich habe diesen Mann nicht als Wissenschaftler beschäftigt, sondern als Verteidigungs­minister. Und Fehler sind dazu da, um daraus zu lernen.

Jede Menge Analogien bieten sich an. Man kann sich einen Firmenchef vorstellen, der sagt, ich habe diesen korrupten Kerl ja nicht als Buchhalter eingestellt, sondern als Chefprogrammierer, oder eine Schulleiterin, die beteuert, dass sie einen Kinderschänder gerne weiter beschäftigen möchte, da sie sonst keinen Wartungstechniker mehr hätte.

Dass die Opposition Zeter und Mordio schreit, hilft nicht weiter. Da überwiegt die pure Schadenfreude. Eine Chance hätte der Bundespräsident, der ja über den Parteien steht. Er könnte die Situation retten, indem er sagt, so geht es nicht. Für den jungen Mann gäbe es dann noch die Möglichkeit, nach drei Jahren im Hinterzimmer oder im eigenen Betrieb einen neuen Start in der bayrischen Provinz hinzulegen.

Sonntag, 27. Februar 2011

Erinnerungen an Heinz Schappert (1927 – 1989)

Die Informatik verdankt ihren phänomenalen Aufstieg nicht nur Erfindern und Entwicklern von Computern und ihrer Software, sondern auch den Anwendern. Wenn ich an deutsche Anwendungspioniere denke, fällt mir als erster Heinz Schappert ein.

Kennengelernt habe ich Schappert, als er noch Mitarbeiter der (damaligen) TH Darmstadt war. Ab Februar 1957 war dort eine Rechenanlage IBM 650 installiert. Für diesen Rechner schrieb auch ich meine ersten Programme ab Herbst 1957 in Sindelfingen. Der Rechner besaß einen magnetischen Trommelspeicher von 2000 Worten und Lochkarten-Ein- und Ausgabe. Man programmierte in Assembler – Symbolic Optimizing Assembly Program (Abk. SOAP) genannt – sowie in einem Drei-Adress-Code, dem Bell Interpreter.

 
Heinz Schappert 1956

(an der IBM 650 in Sindelfingen)

Im Jahre 1960 ging Schappert nach Leverkusen als Leiter des Rechenzentrums der Bayer AG. Die Firma Bayer erhielt um diese Zeit ebenfalls eine IBM 650. Schappert und ich trafen uns mehrmals bei Veranstaltungen der IBM-Benutzerorganisation GUIDE. Während die Benutzerorganisation SHARE, in der sich die technisch-wissenschaftlichen Anwender trafen, in der Öffentlichkeit bekannter ist, war GUIDE nicht weniger einflussreich. IBM hatte zu fast jeder Zeit mehr kommerzielle Anwender als technisch-wissenschaftliche. Viele von den GUIDE-Mitgliedern waren außerdem uralte Kunden aus der Lochkartenzeit. So soll die Firma Bayer bei IBM die Kundennummer 001 gehabt haben.

Heinz Schappert war einer der DV-Anwender, die 1975 der Bundesregierung empfahlen, einen Studiengang Informatik einzurichten. Unter den Mitgliedern des zuständigen Ad-Hoc-Ausschusses fallen mir noch zwei Namen von andern bekannten Anwendungs­vertretern auf, nämlich Dr. Olaf Abeln, Firma BBC, Mannheim, und Dipl.-Math. Klaus Wenke, Martin Brinkmann AG, Bremen. Ein weiterer Name aus dieser Zeit ist Dr. Hans-Wilhelm Schäfer von der Allianz AG. Er hat unter anderem mit Schappert zusammen über Anwendungen im Versicherungs­wesen publiziert.

An ein Projekt, in dem ich unmittelbaren Kontakt mit Schappert hatte, erinnere ich mich besonders lebhaft. In den Jahren 1962-63 befasste sich ECMA (European Computer Manufacturers Association) auf Betreiben der französischen Firma Bull damit, die Sprache COBOL in andere Sprachen als Englisch zu übersetzen. Von der IBM Europa bekam ich den Auftrag, mich um die deutsche Version zu kümmern. Es gelang mir, mit Herrn Schapperts Hilfe den Deutschen Normenausschuss (DIN) zu involvieren. Nach mehreren Sitzungen konnten sich die beteiligten Experten sogar auf einen Norm-Vorschlag einigen. Ich selbst schrieb ein Programm (in Fortran), mit dem man deutsche, französische oder spanische COBOL-Programme in englisches COBOL übersetzen konnte.

Das Projekt fand ein jähes Ende, als Herr Schappert seine Programmierer in Leverkusen fragte, ob sie in Zukunft lieber deutsches statt englisches COBOL verwenden würden. Die Antwort war eindeutig „Wir bleiben bei englischem COBOL. Das hat den großen Vorteil, dass man sofort sieht, was Schlüsselworte der Sprache (engl. keywords) und was Variablennamen des Programmierers sind.“ Meine Arbeit eines halben Jahres landete im Papierkorb. Was blieb war, dass ich später in der eigenen Firma als COBOL-Experte galt und sogar über Grundkenntnisse im Compilerbau verfügte. Außerdem blieb die Erinnerung an ein schönes Jahr an der Côte d’Azur. Ich gehörte während dieser Projektzeit nämlich zum französischen IBM-Labor bei Nizza.

Bei einer späteren Gelegenheit bat mich Heinz Schappert ihm eine nicht mehr benutzte Kernspeicherkarte zu besorgen, um sie seiner Sammlung historischer Relikte hinzuzufügen. Ich konnte ihm den Wunsch erfüllen. Schappert fand es nicht unter seiner Würde, sich in Fachartikeln [1] mit den von seinen Mitarbeitern benutzten Programmiersprachen COBOL und RPG zu befassen. Er hat die DV-Aktivitäten der Bayer AG über 28 Jahre lang geleitet [2]. Er engagierte sich – so heißt es – ‚Tag und Nacht‘ für seine Aufgabe. Er starb 1989 im Alter von 61 Jahren.

Schappert hatte in Darmstadt Physik studiert und wurde bei Alwin Walther promoviert. Noch aus seiner Darmstädter Zeit stammt das 1959 erschienene Buch über Programmierverfahren elektronischer Rechenautomaten, einer der ersten deutschen Texte zu diesem Thema. Wertvolle Hinweise zu seinen Lebensdaten sowie das oben benutzte Foto verdanke ich seinem langjährigen Kollegen und Weggefährten Gerhard Hund, der heute in Odelzhausen lebt.

Zusätzliche Quellen
  1. Schappert, H.: Deutsche Syntax einer englischen COBOL-Fassung. Elektronische Rechenanlagen 9(2): 74-84 (1967)
  2. Schappert, H.: Zur DV-Entwicklung bei Bayer. Bayer AG Leverkusen, AV Informatik, 1985

Freitag, 25. Februar 2011

Meine Erfahrungen mit Amazon und eBay

Zu den Unternehmen, die sowohl die Internet-Blase wie die Finanzkrise sehr gut überstanden haben, gehören Amazon und eBay. Wir werden es also noch länger mit ihnen zu tun haben. Ich habe mit beiden seit Jahren Erfahrungen. Sie waren nicht immer gleich gut. Deshalb möchte ich über sie hauptsächlich in Form von Episoden berichten. Daraus evtl. Schlussfolgerungen zu ziehen, überlasse ich Leserinnen und Lesern.

Amazon wurde 1994 von Jeff Bezos in Seattle (Washington) gegründet. Es war der erste Online-Buchladen. Zwei Dinge fielen mir am Anfang angenehm auf, die Leserkommentare zu den angebotenen Büchern und die Ein-Klick-Funktion. Weniger begeistert war ich – und das drückt meine Art der Benutzung aus – über Vorschläge, was andere Kunden gekauft hätten, oder was thematisch zu dem in Betracht gezogenen Buch passen würde. Ich weiß meistens ziemlich genau, was ich will, und lasse mir von andern Leuten ungern hereinreden. Tipps von Freunden, die mich kennen, sind etwas Anderes.

Zuerst zu den Leserkommentaren. Sie als Rezensionen zu bezeichnen, wäre zu hoch gegriffen. Sie stellen nur Meinungen dar. Sie weichen sehr oft erheblich von dem ab, was Amazon vom Verleger übernommen hat, dem Klappdeckeltext. Manchmal sagt ein Leser bloß, das Buch sei gut oder schlecht, leicht zu lesen oder dröge. Dass einige Rezensionen von Freunden des Autors stammen, ist normal. Fast mehr als bei Büchern halfen die Kundenkommentare bei andern Produkten, die Amazon später ins Angebot übernahm, etwa Elektronik und Software. Bei Büchern werden oft das Inhaltsverzeichnis und einige Probeseiten zur Verfügung gestellt, die hilfreich sein können. Derartiges gibt es bei den anderen Produktarten nicht.

Ich habe in den fünf letzten Jahren im Schnitt 1-2 Produkte pro Monat bei Amazon bestellt. Die Tendenz ist steigend. Es ist ein Luxus, den ich mir im Winter und bei schlechtem Wetter noch öfter leiste als im Sommer. Selbst in der Vorweihnachtszeit hatte ich keinerlei Lieferprobleme. Zweimal ließ mich Amazon jedoch hängen. Das eine war ein gerade erschienenes Buch aus Amerika. Dafür wurden etwa vier Wochen benötigt. Ich hatte keine Alterative und musste warten. Im zweiten Fall ging es um Thilo Sarrazins roten Bestseller. Da ich eh etwas bei Amazon bestellte, tat ich ihn auf die Liste. Die Antwort hieß: zurzeit nicht lieferbar. In unserer örtlichen Buchhandlung lagen zur selben Zeit einige hundert Exemplare mitten im Laden auf dem Boden. Den Grund hierfür kenne ich auch: Amazons Position im Buchmarkt ist derart stark, dass Verleger über 50% Rabatt auf den Verkaufspreis einräumen müssen. Über den konventionellen Buchhandel verdient ein Verlag erheblich mehr.

Jetzt zu der umstrittenen Ein-Klick-Funktion. Ich benutze sie, seit es sie gibt. Es sind zwar nur Adresse, Kreditkartennummer sowie Abrechnungs- und Versandart, die ich mir beim Eintippen spare, aber auch das hilft beim Einfinger-Verfahren. Amazon ist bei Abrechnungen noch nie ein Fehler unterlaufen. Dass die Freikultur-Adepten, die generell gegen den Schutz geistigen Eigentums zu Felde ziehen, über dieses so genannte Trivial-Patent schimpften, wunderte mich nicht. Dass die GI einen Patentanwalt beauftragte, gegen dieses Software-Patent Einspruch zu erheben (wegen mangelnder Erfindungshöhe), fand ich dann doch übertrieben. Zum Glück gibt es die Funktion immer noch.

eBay wurde 1995 von Pierre Omidyar in San José (Kalifornien) unter dem Namen AuctionWeb gegründet. Es ist der größte Marktplatz im Internet. Auf das für Versteigerungen benutzte Verfahren will ich hier nicht eingehen. Ich habe insgesamt etwa 4-5 Mal in den letzten fünf Jahren an Versteigerungen teilgenommen. Meistens wurden mir die Artikel Sekunden vor Ende der Versteigerung weggeschnappt. Einmal hatte ich einen Artikel, der mich interessierte, beim Preis von etwa einem Euro ersteigert. Als ich mich dann erkundigte, wo der Gegenstand, der nicht per Post versandt werden konnte, abzuholen war, verzichtete ich auf den Artikel und den Euro. Ich habe keine Erfahrungen mit eBay als Verkäufer.

Sehr unangenehm ist mir die Erinnerung an einen Direktkauf bei eBay, d.h. ohne Versteigerung. Der Artikel kam von einem Einzelhändler aus dem Ländle, und zwar pünktlich. Überrascht war ich jedoch, dass mir bei diesem Geschäft Auslandstransaktionskosten berechnet wurden. Ich schrieb mindestens fünf Mal an die Amazon-Tochter PayPal, bis dieser Fehler anerkannt wurde – wobei jede E-Mail von immer andern Mitarbeitern beantwortet wurde. Anschließend erwies sich Amazon außerstande, mir das Geld (es waren weniger als 10 Euro) zurückzuerstatten. Den Betrag wieder der Kreditkarte gutzuschreiben, von der er abgebucht worden war, ginge nicht. Ich aber wollte kein PayPal-Konto einrichten, da ich nicht weiß, ob ich je wieder etwas bei eBay kaufen werde. In meiner fünfzehnten E-Mail schlug ich daher den PayPal-Leuten in Luxemburg vor, das Geld in den Opferstock der dortigen Kathedrale zu werfen. Wahrscheinlich ging das auch nicht.

Wie gesagt, das sind nur Episoden und zufällige Erfahrungen. Sie haben sich allerdings in meinem Gedächtnis eingeprägt. Ich hatte nie die Absicht, kontrollierte Experimente durchzuführen, und bin auch weit davon entfernt, generelle Urteile zu fällen. Ich frage mich nur, was die Kollegen, die andern Leuten Ratschläge über den Umgang mit neuen Medien und elektronischen Märkten geben sollen, aus den bis jetzt vorhandenen empirischen Daten lernen können. Schließlich ist es wichtig, dass wir als Fachleute realistische Vorstellungen darüber entwickeln, was der typische Nutzer im Elektronischen Handel (engl. E-Commerce) eigentlich erwarten kann.

Mittwoch, 23. Februar 2011

Der erste Monat dieses Blogs – statistisch gesehen

Es gehört zu den großer Vorteilen eines Blogs, dass man sehr zeitnah Feedback bekommt. Das bezieht sich einerseits auf Kommentare, andererseits auf statistische Daten. Man erhält Information darüber, welche Seite an welchem Tag wie oft angeklickt wurde, und zwar von welchem Knoten des Netzes aus. Die große Einschränkung kommt sofort: Wenn man weiß, wer angeklickt hat, weiß man noch nicht, ob der oder die Betreffende die Seite auch gelesen hat. Es kann sogar sein, dass nicht einmal ein Mensch involviert war, sondern nur ein Programm. Solche Programme heißen Netzkriecher (engl. net crawler) oder Web-Roboter (Abk. webbots). In dieser Hinsicht sind Blogger aber kaum schlechter dran als Zeitungsverleger oder Buchverlage. Nicht alle Leute, die eine Zeitung oder ein Buch kaufen, kann man als Leser ansehen.

Einen Monat nach dem ersten Erscheinen dieses Blogs sieht meine Zugriffstatistik so aus, wie in der mittleren Spalte der folgenden Tabelle angegeben. Zum Vergleich sind die Seitenaufrufe des am gleichen Tage (dem 23.1.2010) gestarteten Blogs zu dem Buch ‚Schuld sind die Computer!‘ angegeben. Wenn ich es richtig gemacht habe, sind meine eigenen Seitenaufrufe nicht mitgezählt worden.

 
Zunächst war ich überrascht über den hohen Anteil von Besuchern aus dem nicht-deutschsprachigen Ausland. Beide Blogs sind nämlich in Deutsch. Auffallend ist das Interesse in Singapur. Dass die Besuche bei Bertals Blog mehr als doppelt so häufig sind wie beim SsdC-Blog, mag daran liegen, dass es wesentlich mehr Einträge gab und dass die Themen viel weiter gestreut sind.

Von welchen Web-Adressen die Besucher kommen, habe ich mir auch angesehen. Nur werde ich noch nicht ganz klug daraus. Es dominieren offensichtlich einige Datenkraken oder Sammelwerkzeuge. Ich nehme an, dass einige der anvisierten Kolleginnen und Kollegen dahinter versteckt sind.

Was den zeitlichen Verlauf betrifft, gab es Aufs und Abs. Der Schnitt lag etwa bei 30 Besuchern pro Tag. In der Reihenfolge des Interesses führt zurzeit das Thema ‚Wikileaks‘ (6.2.) vor ‚Cebit-Besuch‘ (25.1) und ‚Querdenker‘ (24.1). Ich schätze, dass ‚Forschung‘ (18.2) und ‚Bachelor-Master (19.2.) sich alsbald nach vorne schieben werden. Da der Blog in die Google-Welt gestellt wurde, ist es auch sehr leicht die Einträge zu ‚ergoogeln‘. Mehrere meiner Einträge erreichen sogar Spitzenplätze im Ranking, vor allem dann, wenn man nach den besonders einprägsamen Titeln sucht, wie ‚Dreischichten-Informatik‘, ‚Heusers Heinz‘ oder ‚Galileo und Theseus‘. Aber selbst bei ‚Youtube-Tipps Informatik‘ oder ‚Senioren und Informatik‘ liege ich auf der ersten Seite.

Die Anzahl der Kommentare hält sich sehr im Rahmen. Es gab bisher insgesamt 8 Kommentare zu 25 Einträgen (oder weniger als einen für jeden dritten Eintrag), wobei ich zugebe, dass ich hin und wieder dem Schreiber zuerst Mut machen musste. Hier besteht noch großes Steigerungs­potenzial. Beim Zusammentreffen mit Kollegen bekam ich allerdings den Eindruck, dass es auch hier so etwas wie eine ’schweigende Mehrheit‘ gibt. Immer wieder gestand jemand, dass er mein ‚Zeug‘ liest. Es sind zwar nur Einzelne, aber es sind alles Leute, auf die es mir ankommt. An die Zahlen des von mir beschriebenen Blogs der IT-Gipfel werde ich nie herankommen. Er spricht ja auch für die ganze IKT-Branche in Deutschland und die Bundesregierung.

Nicht verhehlen möchte ich, dass es auch bereits einen Spam-Versuch gab. Ein Kommentator, der sich nach dem Anführer der derzeit am meisten gefürchteten Terrororganisation benannte, machte einige unflätige Bemerkungen. Ich konnte den Eintrag ohne weiteres löschen.

Dienstag, 22. Februar 2011

Wir lernen und haben Mitgefühl dank Spiegelneuronen

Zurück zu einem biologisch-philosophischen Thema. Es klingt fast wie ein Wunder. Der Mensch ist mit einer Hardware-Funktion (genauer gesagt: Feuchtware-Funktion) ausgestattet, die es ihm leicht macht zu lernen und sich zum sozialen Wesen zu entwickeln. Die Rede ist von Spiegelneuronen. Nicht nur Thomas Metzinger, den ich in einem früheren Eintrag ausführlich zitierte, beschäftigt sich damit in seinem Buch ‚Der Ego-Tunnel‘. Auch in dem bekannten Buch ‚Das kooperative Gen‘ des Freiburger Mediziners und Neurobiologen Joachim Bauer tauchen mehrmals Hinweise darauf auf.

Es waren Gehirnforscher aus Parma um Giacomo Rizzolatti, die Anfang der 1990er Jahre festgestellt hatten, dass Affen über besondere Nervenzellen verfügen, die bereits bei der reinen Beobachtung einer Tätigkeit so feuern, als ob sie diese Aktion selber ausführen würden. Anders ausgedrückt, während ein Affe sieht, wie ein anderer Affe eine Erdnuss nimmt und verzehrt, spielt er diese Situation nach, ohne selbst eine Bewegung auszuführen. Er vergewissert sich, und zwar reflexartig, dass er in der Lage ist, die Handlung seines Artgenossen nachzuvollziehen. Er lernt die Logik einer Handlung, also das interne Programm, bevor er die Aktion körperlich durchführt. Die an diesem Vorgang beteiligten Nervenzellen werden als Spiegelneurone bezeichnet.

Inzwischen hat man dasselbe Verhalten auch bei Menschen nachgewiesen. Verbunden damit ist ein Grundvokabular (auch Motorvokabular genannt), das bei Primaten und Menschen bei allem, was sie wahrnehmen, fragen lässt, was man damit tun kann. Man fragt sich: Nimmt man es in den Mund, ist es zum Draufsitzen oder zum Werfen, usw.? Bilder, Geräusche, Gesten und dergleichen werden also sofort mit Semantik versehen, nicht erst Stunden oder Wochen später. Ein ganzes Begriffsnetz oder eine (multimediale) Objektstruktur wird im Gedächtnis abgelegt.

Während wir andere Menschen beobachten, sehen wir außerdem, dass sie Ziele verfolgen. Unwillkürlich fragen wir uns, welches unser Ziel gewesen wäre, hätten wir dasselbe getan. Wir erleben also andere Menschen und uns selbst von Anfang an als Wesen, die Entscheidungen treffen. Ob diese Entscheidungen von einem freien Willen getragen werden oder einem neuronalen Zwang unterliegen, ist ein Thema, das ich jetzt nicht vertiefen möchte.

Es gibt Spiegelneurone nicht nur für Gesten oder Geräusche, sondern auch für Emotionen. Die Angst, die Freude, der Schmerz und die Wut, die ein anderer Mensch erlebt, beobachten wir nicht nur, sondern erleben sie selber mit. Was die Spiegelneuronen genau machen, wissen wir noch nicht. Ihre Funktion erfüllen sie größtenteils im Unterbewussten, d.h. da wo unsere Gefühle beheimatet sind. Wir können sie also kaum steuern, also nicht ein- oder ausschalten. Sie sind der Grund, warum Gähnen und Lachen so ansteckend wirken. Wir empfinden Mitleid mit leidenden Tieren und Menschen, egal ob wir dies wollen oder nicht.

Die Schlussfolgerungen, die Bauer, Metzinger und andere ziehen sind verblüffend. Hier nur eine Auswahl:
  • Es sieht so aus, als ob der Mensch sich deshalb in geistiger Hinsicht so stark entwickelt hat, weil er eine besondere Befähigung zum Lernen besitzt. Aus Sicht der Rechnerarchitektur hat er eine Hardware- oder Mikrocode-Assist-Funktion bekommen.
  • Wir lernen am besten, indem wir nachahmen. Dazu brauchen wir zwischenmenschliche Beziehungen, zum Beispiel Eltern, Lehrer und Vorbilder. Alleine zu lernen ist viel schwieriger.
  • Der Mensch ist von Natur aus ein homo socialis, ein Wesen, das eine Gemeinschaft braucht und optimal ausnutzt.
  • Die menschliche Sprache hat vielleicht sogar noch tiefere Wurzeln, als dies Charles Darwin vermutete. Der meinte es sei eine Variante des Vogelgesangs, die hauptsächlich dazu dient, Fortpflanzungspartner anzulocken. Wenn wir Geräusche, die andere produzieren, in unserem Gehirn genau nachempfinden, dann ist es nur ein kleiner Schritt, sie auch nachzumachen.
Die Bedeutung, die wir mit Wörtern wie ‚erfassen‘ und ‚begreifen‘ heute verbinden, scheint anzudeuten, wie der Weg von dem Beobachteten in unser geistiges Modell, also in unser Bewusstsein, verlief. Wir besitzen eine besondere motorische Intelligenz, meint Rizzolatti. Wir können deshalb die Bewegungen eines Hundes besser begreifen als dessen Bellen.

Joachim Bauer geht es primär darum zu zeigen, dass der Mensch nicht von Natur aus der Egoist ist, zu dem Richard Dawkins ihn machen wollte. Nach Bauers Ansicht verfügt der Mensch über eine eingebaute Empathiereaktion und ein Gefühl für Fairness. Der Mechanismus dafür sind die Spiegelneuronen. Sie sind das neuronale Korrelat für unsere sozialen Gefühle.

Hingewiesen wurde ich auf das frühere Buch Warum ich fühle, was Du fühlst von Joachim Bauer, das ich nicht selbst gelesen habe. Darin wird ausführlich das Thema Spiegelneurone behandelt. Er vertritt dort die Meinung, dass Spiegelneurone eine entscheidende Voraussetzung für die Entwicklung der menschlichen Sprache waren. „Das Bemühen um Passung, Spiegelung und Resonanz durchzieht die gesamte Biologie,“ meint er. „Es beginnt bei der Erbsubstanz selbst: Die DNA aller Lebewesen vom Bakterium aufwärts ist eine paarige, auf Spiegelung und Passung angelegte Substanz.“

Sonntag, 20. Februar 2011

Über Wagniskapital in der Informatik

In meinem Beitrag im Informatik-Spektrum stehen drei Sätze zum Thema Wagnis­kapital:

Seit dem Platzen der Internet-Blase im Jahre 2001 ist Wagniskapital nicht nur in unserer Branche erheblich geringer geworden. In den USA wird immer noch mehr Wagniskapital aufgebracht als im Rest der Welt zusammen. Außerdem wird europäisches und asiatisches Kapital zu erheblichen Teilen in den USA investiert.

Diese Aussage verifizierte ich vorher mit einem Kollegen, der selbst als Wagnis­kapitalgeber tätig ist. Er gab mir folgende zusätzliche Information, die ich hier mit seiner Erlaubnis wiedergebe. Auch einen weiteren Kommentar zum o.a. Beitrag will ich nicht unterschlagen.
 
Am 7.7. 2010 schrieb mir Dr. Peter Dietz aus Mühlheim/Ruhr:

Was Sie zu diesem Thema [in dem Beitrag] schreiben, ist m.E. völlig richtig und umfassend. Zu ergänzen wäre allerdings, dass es in Deutschland seit geraumer Zeit kaum Risikokapital für Startups gibt, außer vielleicht von mehr oder wenigen anonymen Privatpersonen (neudeutsch: Business Angels). Im New-Economy-Boom war dies anders, aber schon 2001 war die Party vorbei. Was hier unter IT lief und sich hier und da als erfolgreich herausgestellt hat, waren tatsächlich meist Internet-Projekte mit neuen (bzw. aus den USA importierten) Geschäftsideen, von intelligentem Shopping bis hin zum Web 2.0 und den Sozialen Netzwerken. Natürlich basiert dies alles irgendwie auf IT, aber die ist nur "Enabler" und tritt völlig in den Hintergrund.

Die traurige Wahrheit ist, dass es in Deutschland nur sehr wenige junge IT-Hardware- oder Software-Firmen gab bzw. gibt, deren Qualität (bezogen z.B. auf den Innovationsgrad, das Geschäftsmodell, die Wachstumsaussichten und das Management) eine substanzielle Investition rechtfertigen. Dies ist die ernüchternde Bilanz, die wir nach mehr oder weniger intensiver Beschäftigung mit etwa 1.000 Firmenprojekten über einen Zeitraum von gut sechs Jahren gezogen haben. Anderen, in der Regel wesentlich größeren VC-Gebern wird es nicht viel anders gegangen sein, aber sie werden dies kaum öffentlich zugeben…

Ihr "hochgeschätzter Kollege", der [wie im Beitrag berichtet] "nicht für die deutsche Wirtschaft arbeiten" will. "Typisch Informatik", ging mir beim Lesen durch den Kopf. Um dies klarzustellen: Ich bin durchaus der Ansicht, dass sich die öffentliche Forschung nicht zur Magd der Industrie machen darf. Und ich blicke von meinem alten Laden her mit großer Freude und Dankbarkeit auf die fruchtbare Zusammenarbeit mit einigen wenigen, aber höchstqualifizierten Professoren und Instituten zurück. Aber dass sich die Mehrzahl der Informatiker in dieser Frage so sehr zurückhält, erscheint mir schon sehr seltsam, vor allem im Kontrast zu anderen Disziplinen, wie z.B. der Chemie, der (Molekular-) Biologie, dem Bauwesen und dem Maschinenbau…

Nachtrag am 20.2.2011

Es sieht so aus, als ob die Erfahrungen der GI mit dem Innovationspreis in das Bild passen, das Herr Dietz zeichnete. Die Ausschreibung wurde von der GI als Ergänzung des Dissertationspreises angesehen, indem sie sich primär an Praktiker richtete. Weder die Anzahl noch die Qualität der Einreichungen erreichten ein Niveau, das eine Fortsetzung der Ausschreibungen gerechtfertigt hätte. Man könnte auch umgekehrt argumentieren: Genau das zeigt, wie wichtig eine solche Initiative ist, nicht zuletzt für die GI selbst. Offensichtlich besteht eine Diskrepanz zwischen dem Adjektiv innovativ, das von Unternehmen und Instituten geradezu inflationär benutzt wird, und dem, was einer kritischen Prüfung als Innovation standhält.

Nachtrag am 11.10.2014

Gerne trage ich heute nach, dass die Ausschreibung des Innovationspreises durch die GI in den beiden letzten Jahren auf erhebliches Interesse gestoßen ist. Man konnte zwischen rund 50 Vorschlägen auswählen. Vergleicht man diese Zahl mit der Mitgliederzahl von rund 20.000, so besteht noch Steigerungspotential.

Samstag, 19. Februar 2011

Bachelor und Master – eine Diskussion ohne befriedigendes Ergebnis

Am 18.2.2011 schrieb ich dem Kollegen Uwe Baumgarten in München:

… mit Interesse habe ich Ihr heutiges Interview in der Computerwoche gelesen. Leider vertreten Sie darin die bekannte Position einiger Hochschullehrer, dass der Master der Regelabschluss sein soll. Dagegen habe ich seit Jahren vehement opponiert. Die Hochschulen sollten meines Erachtens eine Antwort auf zwei gesellschaftlich wichtige Fragen finden, nämlich:

(1) Wie können wir die heute bereits unakzeptable Studiendauer (und Abbruchquote) reduzieren?
(2) Wie können wir es erreichen, dass bei uns ein immer höherer Prozentsatz eines Jahrgangs einen berufsqualifizierenden Abschluss bekommt?
Stattdessen sagen Sie, Bachelors seien nicht zu gebrauchen und nur durch eine noch längere Studiendauer (Bachelor + Master) könne man das heutige Niveau halten. Schande auf Ihr Haupt! 

Am gleichen Tag antwortete Herr Kollege Baumgarten:

…ich wirke nun schon seit vielen Jahren an der TU München und ich stehe mit voller Überzeugung dahinter, dass ich den Studierenden, die ich in den Bachelor-Studiengängen ausbilde, sehr empfehle, danach auch den Masterabschluss zu machen. Soweit mein täglicher Alltag. Dass es natürlich auch andere Interessen und Wege gibt, das sehe ich und das betone ich auch in allen Diskussionen. Ihre beiden Punkte verstehe ich sehr wohl und wir waren, so glaube ich, in den letzten Jahren mit unseren Maßnahmen auch sehr erfolgreich. 

(ad 1) Die Studiendauer ist nicht mehr unakzeptabel lang und die Abbrecherquote ist reduziert.  Natürlich verlassen uns einige Bachelorabsolventen aus gutem Grund und das unterstütze ich auch, da sie selbstverständlich eine gute Qualifikation besitzen.

(ad 2) Auch dazu tragen wir hoffentlich bei. Das spricht aber nicht dagegen, den Master-Abschluss anzuschließen.

Ich ließ nicht locker und hakte am selben Tag nach:

… so leicht können Sie mich nicht überzeugen. Ich gebe zu, ich kenne nicht die allerneuesten Daten. Zuletzt habe ich mich im Jahre 2007 mit dem Thema Studiendauer und Abbruchraten für meinen Beitrag im Informatik-Spektrum  beschäftigt. Damals schrieb ich:

Nach 14 Semestern haben erst Zweidrittel der Studierenden ihr Studium beendet. Dieselbe Studie [HIS-Kurzinformation A1/2005] enthält auch eine Rangliste der Universitäten. An der Spitze liegen die Humboldt-Universität Berlin und die TU München mit je 10,7 Semestern, am Ende die Universität Frankfurt mit 19,3 Semestern. Der Median der Universitäten liegt bei 12,3 Semestern. Die Folge dieser Entwicklung ist eine Situation, in der deutsche Absolventen, die ihre akademische Grundausbildung meistens erst mit 26 bis 29 Jahren abschließen, im europäischen Vergleich mit Absolventen aus andern Ländern konkurrieren müssen, die mit 23 bis 24 Jahren einen (nahezu) gleichwertigen Hochschulabschluss bekommen können.

Zur Abbruchrate schrieb ich damals: 

Die Informatik liegt zwar im Rahmen anderer Ingenieurfächer [49 % an Unis, 21 % an FHs], wird aber sowohl von Medizin wie von den Rechtswissenschaften deutlich distanziert. Bei beiden Fächern liegt die Abbruchrate nur bei 10 bis 15 %, d.h. um einen Faktor Drei niedriger.

Meine Schlussfolgerung war: Wenn wir Informatiker uns so um unsere Studierenden kümmern würden, wie Mediziner und Juristen dies offensichtlich tun, hätten wir bei über 20.000 Studienanfängern (fast) kein Fachkräfteproblem mehr.

Sie haben bestimmt neuere Daten und könnten ein anderes Bild malen.

Zum Thema höhere Studierrate. Es wäre schade, wenn all die studierfähigen jungen Leute zu den Geisteswissenschaftlern gehen müssten, weil die MINT-Fächer sich lieber abkapseln. Auch finde ich die Politik der bayrischen Landesregierung verständlich, den Ausbau von Fachhochschulen zu forcieren. Die Ausbildung ist billiger. Außerdem haben die Absolventen in fast allen technischen Fächern einen guten Ruf. Wenn Unis sagen, diese ‚Massenausbildung‘ ist nicht ihr Bier, dann sollte man sie in Schönheit (und Hochmut) sterben lassen, bzw. in reine Forschungs­anstalten umwandeln.

Gleich anschließend erwiderte Herr Kollege Baumgarten:

Ich bin sicher, dass es sich lohnt, das genannte Bild noch etwas weiter auszumalen. Und auch über die Studierrate und die "Massenausbildung" sollten wir uns unterhalten. Wenn ich an der TUM in Garching aus dem Fenster schaue und im benachbarten Maschinenwesen in jedem Jahr ca. 1000 Studierende im ersten Fachsemester sehe, bekommt man einen Eindruck universitärer Ausbildung.

Nachbemerkung:

Vielleicht hilft uns eine Leserin oder ein Leser und stellt aktuelle Zahlen über Studiendauer und Abbruchraten bereit. Wichtig wäre es auch, Informationen darüber zu erhalten, wie Bachelors von der Wirtschaft angenommen werden und im Beruf klarkommen. Die Diskussion ließe sich dann auf einer fundierten Basis fortsetzen. Bis jetzt war sie nicht sehr befriedigend.

Nachtrag am 23.2. 2011

Heute bat mich Hartmut Wedekind seinen Text zur BaMa-Problematik ins Netz zu stellen. Er bezieht sich darin auf seine Erfahrungen an einer kalifornischen Universität (Berkeley) und schlägt den Bogen zu Wilhelm von Humboldt und Immanuel Kant. 

Freitag, 18. Februar 2011

Forschen ist wichtig, darf jedoch nicht überfordert werden

Am 16.9.2010 schrieb mir Kollege Peter Mertens aus Nürnberg:

… ist meine Erinnerung falsch: Irgendwo hatten Sie sich schriftlich in die Richtung geäußert, dass es problematisch ist, Ergebnisse von Forschungsprojekten, die mit deutschen Steuergeldern erarbeitet wurden, Konkurrenzländern zugänglich zu machen statt sie zunächst hierzulande ökonomisch zu verwerten?


Am gleichen Tag schrieb ich zurück:

… nur so viel zu Ihrer Frage: So hatte ich mich nie ausgedrückt, und würde es auch nicht tun. Ich kämpfe nur gegen den Irrglauben von Politikern, dass sie mit dem Geld, das sie für Forschung ausgeben, die Wirtschaft fördern. Einerseits glauben nämlich viele Forscher, dass sie ihren Ruf verlieren, wenn sie ihre Ergebnisse so absichern, dass sie wirtschaftlich verwertbar sind. Andererseits werden Forschungsprojekte in die Welt gesetzt, unabhängig davon, ob es bei uns im Lande überhaupt Interesse oder Kompetenz gibt, um die Ergebnisse wirtschaftlich zu verwerten.

Nachtrag vom 18.2.2011

Ich hatte Herrn Kollegen Mertens außerdem vorgeschlagen, einen Beitrag im Informatik-Spektrum zu lesen, der diese Fragen anschneidet. Darin wurde unter anderem bemerkt: 
  • Die von etablierten Firmen, und zwar nicht nur in unserer Branche, angemeldeten Erfindungen stammen in zunehmendem Maße aus ihren Labors in China, Indien und Israel.
  • Schon seit Längerem finanziert der deutsche Steuerzahler auch Informatik-Forschung in den USA, in China und Indien. Die Frage ist daher berechtigt, wozu das gut ist. Die Antwort ist relativ einfach. Es kommt auf die Ergebnisse an, nicht darauf wer sie wo erzielt hat. Die Ergebnisse müssen allerdings für den Geldgeber verwertbar sein, d.h. die Nutzungsrechte müssen klar definiert sein.
Spitzenforschung bringt das Land voran, heißt es. Das ist auch nicht falsch. Wie ich im Folgenden zeigen möchte, ist es allerdings nur die halbe Wahrheit. Mich stört es manchmal, wenn ich sehe, dass Forschung mit falschen Erwartungen überfrachtet wird, oder wenn Forscher Dinge versprechen, die sie selbst nie einlösen können. Oft ist der Begriff Forschungsprogramm auch nur ein Deckmantel für etwas ganz anderes (wie im Falle des ÜRFs der 1970er Jahre). 

In früheren Veröffentlichungen hatte ich mich zu meinem Verständnis von Forschung und Entwicklung (abgekürzt F&E) und von Innovationen geäußert. Deshalb wiederhole ich hier – in etwas andern Worten – zum Teil früher Gesagtes.

Nicht selten wird Forschung mit Innovation (= Neuerung) verwechselt oder in eine zwangsläufige Verbindung gebracht. Neuerungen für die Lehre oder für die Anwendung werden in den meisten technischen Fächern nicht durch Forschung (F) sondern durch Entwicklung (E) geschaffen. In den Naturwissenschaften und der Medizin ist es teilweise anders. So entstehen neue Medikamente manchmal unmittelbar aus der Forschung heraus. Sobald sie klinisch getestet sind, setzt die Massenfertigung ein. In der Informatik – wie im Maschinen-, dem Automobil- oder Flugzeugbau − ist oft eine viele Personenjahre verschlingende Entwicklerarbeit erforderlich, um neue oder verbesserte technische Produkte oder Dienste zu schaffen, die andern Fachleuten weiterhelfen, oder gar dem Mann und der Frau auf der Straße das Leben erleichtern. Manchmal müssen zuerst Prototypen gebaut werden, um Annahmen über das Zusammenspiel von Komponenten oder über die Fähigkeiten und Vorlieben der Nutzer zu verifizieren. Die benötigte Entwicklungs­dauer kann leicht zum Problem werden, da Märkte sich oft schnell verändern.

Auf F&E im eigenen Lande können wir eher verzichten als auf Innovationen. Das ist zwar nur ein Trost, da wir uns in Zukunft immer weniger F&E werden leisten können. Der Grund dafür sind die steigenden Kosten sowie der Mangel an Fachkräften, von evtl. vorhandenen Motivationsproblemen gar nicht zu reden. Deshalb sollte man heute schon solche Forschungsaktivitäten in Frage stellen, die nie in der Lage sein werden, sich auf Produkt-Entwicklungen auszuwirken, da es die entsprechende Industrie hierzulande überhaupt nicht (mehr) gibt.

Viele der Innovationen, die Wirtschaft und soziales Leben verändern, ergeben sich nicht schon durch die Entwicklung, sondern erst durch die Einführung und Anwendung neuer Produkte oder Dienste. Es sind der Wille und die Fähigkeit erforderlich, etwas zu verändern. Ohne Innovationen ist der wirtschaftliche Abstieg eines Landes unvermeidbar. Anderseits ist wirtschaftliche Leistungsfähigkeit der Garant für sozialen Wohlstand und sinnstiftende Beschäftigung. Es ist daher eine wichtige Aufgabe, den Studierenden die Rolle von Innovationen klarzumachen. Gut wäre es, wenn man sie anregen bzw. anleiten würde, selber welche anzustoßen oder herbeizuführen. Der frühere Innovationspreis der GI verfolgte dieses Ziel.

Forschung – so heißt es − vermehrt das Wissen, das wir benötigen, um unsere Welt immer besser zu verstehen. Schaden kann das sicher nicht. Ob es aber die beste Art ist, die (beschränkten) geistigen und finanziellen Ressourcen eines Landes einzusetzen, das darf  hinterfragt werden. Forschung gilt bei vielen Kollegen als der heilige Gral, dem man als Hoher Priester einer Kulturnation seine Reverenz erweist, und den man erst dann in die Hand von ehemaligen Kolonialvölkern übergeben möchte, wenn es nicht mehr anders geht. Dass dies gerade geschieht, ist nicht mehr zu leugnen.

Um es überspitzt zu sagen: Forschen kann jeder Berufsneuling, der gerade sein Studium beendet hat, vorausgesetzt, jemand stellt die richtigen Fragen. Das gilt sowohl für theoretische wie für experimentell zu untersuchende Probleme. Es gilt erst recht für Arbeiten, in denen primär andere Veröffentlichungen ausgewertet oder Feldstudien durchgeführt werden. Um gute Produkte zu entwickeln, benötigt man Erfahrung im Umgang mit den einschlägigen Technologien und gute Marktkenntnisse. Beides lernt man nicht an Hochschulen. Den Kollegen in den Schwellenländer fehlen zum Teil nur (noch) die Marktkenntnisse.

Bei einigen öffentlich geförderten Forschungsvorhaben stand die Industrie gelangweilt am Rande oder täuschte Interesse vor. Wenn die Politik der Industrie helfen will, - so dachte man − dann sollte das Geld lieber im vorwettbewerblichen Bereich eingesetzt werden als in der direkten Förderung der Konkurrenz. Aus Effizienzgründen könnte es sogar besser sein, den Unternehmen steuerliche Anreize für F&E zugeben als noch mehr in öffentliche Forschung zu investieren. Für diese Ansicht konnten allerdings bisher noch keine politischen Mehrheiten organisiert werden.

Noch einen geradezu unerlaubten Gedanken zum Schluss: Mancher Praktiker empfindet, dass es schade ist, wenn durch fragwürdige Forschungsprojekte junge Kolleginnen und Kollegen dazu verleitet werden, wertvolle Lebenszeit zu vergeuden – und das angesichts des Mangels an Fachkräften. Leider sagt ihnen das niemand. Neben den eingesetzten Steuermitteln ist das der unsichtbare Preis, den unsere Volkswirtschaft für die so hoch geschätzte öffentliche Forschung bezahlt.


Mittwoch, 16. Februar 2011

Aus Metzingers Welt: Bewusstsein und Seele

Thomas Metzinger ist ein Philosoph von der Universität Mainz, den ich bisher hauptsächlich aus Wissenschaftssendungen von Arte kannte. Gerade habe ich sein Buch ‚Der Ego-Tunnel‘ gelesen. Mein Freund aus Grasse hatte es mir empfohlen. Obwohl für Laien geschrieben, ist es harte Kost. Aber es lohnt sich. Seine Sichtweise der Dinge spricht Informatiker besonders an.

Gegenstand des Buches ist unter anderem Metzingers Erklärung von Bewusstsein und Geist. Er ist ein moderner Philosoph, dessen Theorien auch neuere  Erkenntnisse der Neurowissenschaften berücksichtigen. Deren Fortschritte sind gerade sehr rasant dank der Verbreitung bildgebender Verfahren (etwa der Kernspintomografie). War man früher vor allem auf Geisteskranke oder Unfallopfer angewiesen, um etwas über unser Gehirn zu lernen, können wie jetzt die Gehirntätigkeit bei gesunden Menschen beobachten, und zwar während sie denken.

Wie viele Neurowissenschaftler so ist Metzinger auch der Ansicht, dass jede geistige Tätigkeit ein neuronales Korrelat (engl. neuronal correlate of consciousness, NCC) besitzt. Das ist die vorsichtige Umschreibung dafür, dass wir im Begriff sind, den uralten Streit über Dualismus und Materialismus wissenschaftlich zu beenden. Wir sind in der Lage festzustellen, dass ein anderer Teil des Gehirns beteiligt ist, wenn wir statt an weiße Tauben an rote Rosen denken. Was passiert, wissen wir noch nicht, sondern nur, dass sich der Stoffwechsel, d.h. der Energieverbrauch, an unterschiedlichen Stellen des Gehirns ändert. Jetzt zu zwei frappierenden Aussagen aus dem Buch.

Bewusstsein sei ein phänomenales Selbstmodell (Abk. PSM). Den Begriff ‚phänomenal‘ übergehe ich zunächst, komme aber ganz am Schluss darauf zurück. Was ein Modell ist, muss man Informatikern nicht erklären. Es ist eine meist vereinfachte Rekonstruktion der Realität. „Wirklichkeitserzeuger“ sagt Metzinger dazu. Ein Selbstmodell ist ein Modell, das jedes Individuum für sich selbst bildet. Es ist die Erst-Personen-Perspektive auf die Welt. Um das Modell zu bilden und fortzuschreiben, machen wir laufend Beobachtungen, und zwar in Echtzeit. Diese Beobachtungen erfolgen so schnell, dass wir das Modell (fast immer) für die Realität selbst halten. Gewisse Formen der Kontrolle haben wir. Wir wissen, dass wir ein Modell bilden und können manchmal von ihm aus extrapolieren, also überlegen, was wäre wenn. Nach Metzinger ist das PSM ein Resultat der natürlichen Evolution. Hier verlassen wir diesen Pfad.

Die Seele sei ein durch außerkörperliche Erfahrung gewonnenes Selbstmodell (Abk. OBE-PSM). Gerade mit außerkörperlichen Erfahrungen (engl. out-of-body experiences, OBE) hat sich Metzinger seit seiner Jugend befasst. Es ist die bei vielen Menschen vorhandene Fähigkeit, sich auch in wachem Zustand vorzustellen, dass man seinen Körper verlassen hat. Man schwebt meistens über sich selbst hinweg. Man hat dabei ein anderes Bewusstsein, also Selbstmodell, als sonst. Das Gemeinsame vieler dieser Erlebnisse ist, dass der Körper kaum noch Gewicht hat. Man besitzt einen Feinstoffkörper oder Lichtkörper. Die christliche Heilslehre kennt so etwas auch und nennt es den verklärten Körper. Metzingers Schlussfolgerung: Seele ist kein metaphysischer, sondern ein phänomenaler Begriff. Die Seele sei ein Phänomen, also eine Erscheinung in unserer Erlebniswelt. Auf dieser Erfahrung hätten unsere Vorfahren aufgebaut, indem sie postulierten, dass (wenigstens) diese Seele auch nach dem Tode des Individuums weiter existiert. Nichts ist für ein Wesen mit Bewusstsein beklemmender als die Unausweichlichkeit des Sterbens.

Wirklich interessante Einsichten! Vielleicht greife ich auch andere Themen des Buches später auf, oder ähnliche Themen aus andern Büchern. Ein sehr spannender Teil des Wissens über die Welt ist das Wissen über uns als Menschen.

Montag, 14. Februar 2011

Galileo, Theseus und mein Bauchgrummeln

Nach dem Ausflug in die Vergangenheit jetzt wieder zurück in die Gegenwart. Was ich beschreiben werde, stimmt mich traurig. Es sind zwei Projekte, bei denen es mir echt schwerfällt, ihren Sinn und Zweck zu verstehen. Dabei steht eine Menge Geld auf dem Spiel. Ich bin bei keinem der beiden Projekten direkt beteiligt, sondern nur indirekt als Steuerzahler. Die kurzen Angaben zu den Projekten stammen aus offiziellen Unterlagen.

Galileo soll weltweit Daten zur genauen geografischen Positionsbestimmung liefern. Es soll einen offenen Dienst, einen kommerziellen und einen sicheren Dienst anbieten. Der offene Dienst steht in Konkurrenz zu GPS. Ähnliche Projekte gibt es in Russland und China. Außer der EU sind folgende weitere Länder an Galileo beteiligt oder interessiert: China (!), Indien, Israel, Marokko, Norwegen, Saudi-Arabien, Schweiz, Süd-Korea und Ukraine. Bis 2007 wurden 1,5 Mrd. Euro in die Entwicklung investiert. Für den Endausbau bis 2013 stellt der EU-Haushalt weitere 3,4 Mrd. Euro bereit. Bisher ist das Projekt vor allem durch Terminverschiebungen aufgefallen.

Eine Frage stellt man sich als Außenstehender: Warum können wir Europäer nicht mit den USA zusammenarbeiten, die ja ihr GPS auch weiterentwickeln? Dass Russen und Chinesen größere Hürden zu überwinden hätten, wollten sie dies tun, versteht sich. Die landläufige Antwort heißt: Das GPS-System wurde ähnlich wie das Internet ursprünglich für die amerikanische Landesverteidigung gebaut. Es könnte sein, dass die US-Armee, deren Aufgabe es ist, auch Europa zu verteidigen, das System einmal abschaltet. Das wäre vermutlich während eines Krieges, der sich auch bei uns abspielt. Die Amis wären der Verzweiflung und dem Untergang nahe, wir Europäer aber könnten wenigstens weiter navigieren. 

Neben den besseren Erfolgsaussichten und den möglichen Kostenersparnissen gibt es in diesem Falle noch einen dritten Grund, warum ein Zusammengehen von Europäern und Amerikanern wünschenswert wäre: Bekanntlich gibt es im Himmel über uns schon einen derart dichten Satellitenverkehr, dass man Angst vor Karambolagen haben muss, ganz zu schweigen von dem Schrott, der uns einmal auf den Kopf fallen kann. Ein Unternehmen, das an dem Projekt beteiligt ist, entließ vor kurzem einen leitenden Mitarbeiter, weil dieser sich angeblich kritisch über das Projekt geäußert hatte. Wahrlich kein gutes Zeichen!

Theseus steht der Informatik erheblich näher. Es wurde vom Bundeswirtschafts­ministerium initiiert, nicht vom Forschungsministerium oder gar der DFG. Es soll den Zugang zu Informationen vereinfachen, Daten zu neuem Wissen vernetzen und die Grundlage für die Entwicklung neuer Dienstleistungen im Internet schaffen. Viel vager geht es kaum. Im Jahre 2006 sei Theseus als Leuchtturmprojekt im Bereich semantische Suchmaschinen gegründet worden. Das deutet in Richtung semantisches Web. Das Projekt hat eine Laufzeit von fünf Jahren. Es wird vom Bund mit rund 100 Mio. Euro gefördert. Zusätzliche 100 Mio. Euro werden von den beteiligten Partnern aus Industrie und Forschung aufgebracht.

In ersten Presseberichten war zu hören, dass dies die deutsche Antwort auf Google werden sollte. Google sei viel zu mächtig geworden und wir Deutsche sollten deshalb eine eigene (bessere) Suchmaschine bauen, und zwar zusammen mit den Franzosen. Bei einer Beantwortung einer Anfrage von Bundestagsabgeordneten im März 2007 wurde die Kampfansage an Google relativiert. Es wurde aber weiterhin davon gesprochen, dass
 Produkte und Dienste für die wirtschaftliche Nutzung des Internets entwickelt werden, die sowohl Privatpersonen als auch Unternehmen anwenden können.
Wenn dies wirklich das Ziel ist, dann wundert es mich, dass man den Schwerpunkt auf Forschung legt. Ich würde erwarten, dass man sich um etwas ganz anders kümmert, nämlich um die ingenieurmäßige Entwicklung von robusten und nutzergerechten Informatiksystemen und um die Einrichtung eines weltumfassenden komplexen Dienstes. Die Verfügbarkeit von ausreichender semantischer Beschreibungsinformation im Internet ist ein weiteres großes Projektrisiko, auf das schon im Jahre 2006 in einem Beitrag im Informatik-Spektrum hingewiesen wurde. Im Grunde ist nur ein loser Verbund von Einzelaktivitäten übriggeblieben, unter dessen Dach sehr unterschiedliche Themen verfolgt werden, so z.B. 
  •  Verarbeitung von multimedialen Inhalten
  •  Ontologien-Management
  •  Situationsbewusste Dialogverarbeitung
  •  Innovative Benutzerschnittstellen und Visualisierung
  •  Maschinelles Lernen.
Aufgrund dieser so genannten Basistechnologien – so heißt es immer noch − sollen möglichst schnell neue Produkte und Dienstleistungen entstehen. Es fragt sich nur, wer diese entwickeln wird. Da die fünfjährige Förderperiode in diesem Jahr ausläuft, wird es wohl nicht mehr lange dauern, bis von den Ergebnissen zu hören sein wird. Sehr hoffnungsvoll bin ich nicht, dass sie für mich als Privatperson von großem Nutzen sein werden. Ob Unternehmen davon profitieren werden, muss sich noch herausstellen.

Eine Nachbemerkung: Der Titel Querdenker, den ich von einem Kollegen verliehen bekam, hat mich nicht beleidigt. Querdenker kann nur sein, wer denkt. ‚Think‘ hieß es früher bei einem bekannten Unternehmen über jedem Schreibtisch. Ein Querdenker denkt sehr oft assoziativ, d.h. er verknüpft auch Dinge, bei denen man zunächst keinen Zusammenhang vermutet hatte. Nicht der Umstand, dass jemand denkt, ist entscheidend, sondern was als Ergebnis herauskommt. Manchmal traue ich mich sogar, (anschließend) den Mund aufzumachen und mein Bauchgrummeln zu erklären.

Samstag, 12. Februar 2011

Geschichte der deutschen Informatik – wissenschaftlich betrachtet

Es gab bisher eine Reihe von Einzeldarstellungen zur Geschichte der deutschen Informatik. Man kann sie bestenfalls als Sektorengeschichten bezeichnen. Mal wurde nur die Geschichte eines Teiles der Industrie erzählt, so bei Dietz. Mal waren es einzelne Firmengeschichten wie bei Meissner und Zuse. Einen Überblick über die Informatik-Forschung, soweit sie von der Bundesregierung gefördert wurde, gaben Reuse und Vollmar. Bei Bauer geht es primär um eine Abgrenzung der Informatik von der Mathematik.

Jetzt gibt es ein Werk, von dem man sagen kann, dass es einer wissenschaftlichen Darstellung der gesamten Geschichte der deutschen Informatik recht nahekommt. Es ist die Dissertation von Timo Leimbach, die er im Januar 2009 an der Ludwig-Maximilians-Universität in München verteidigte. Im Titel wird zwar nur die Software-Industrie erwähnt. Die Arbeit geht aber weit darüber hinaus. In gutem Historikerstil bemüht sich der Autor um Breite, Objektivität und Sachlichkeit. Eine genaue Referenz für die Arbeit kann ich leider nicht angeben. Für eine elektronische Kopie möge man sich an den Autor wenden. Herr Leimbach ist inzwischen bei der Fraunhofer-Gesellschaft in Karlsruhe beschäftigt.

Eine Dissertation zu lesen, ist nicht jedermanns Sache, zumal wenn sie die Anforderungen erfüllen muss, die ein Fach stellt, das dem Leser nicht besonders vertraut ist. Von den insgesamt 535 Seiten sind 480 Seiten der flüssig geschriebene Hauptteil. Dazu kommen 10 Seiten Vorspann und 45 Seiten Literatur. 

Diese von einem Historiker vorgelegte Arbeit besteht aus zwei sehr unterschiedlichen Teilen. In dem einen Teil wird versucht, das historische Geschehen aufzudecken (also aus der Vergessenheit zurückzuholen) und zu interpretieren. Bei der Interpretation wird ein in den letzten Jahren in Mode gekommener Maßstab angelegt, nämlich den der Innovationsforschung. Es wird versucht die Innovationssysteme zu charakterisieren, die hier eine Rolle spielten. Das macht die Arbeit besonders lesenswert. Der zweite Teil der Dissertation besteht in dem Versuch zu erklären, bzw. zu rechtfertigen, warum diese Interpretationsmethode vorzuziehen ist gegenüber anderen. Da die Arbeit bei Historikern eingereicht wurde, ging da offensichtlich kein Weg daran vorbei. Leider sind die beiden Teile der Dissertation nicht sauber getrennt, sondern ineinander verwoben.

Jetzt zum historischen Material selbst. Herr Leimbach hat nicht nur viele der einschlägigen Veröffentlichungen gelesen, er hat auch mit einigen Zeitzeugen Interviews geführt. Das ist sehr lobenswert. Leider sind (bis jetzt) nirgendwo die ganzen Interviews zu lesen, aber das kann ja noch kommen. 

Ehe ich auf Einzelheiten eingehe, ein Punkt der Kritik vorweg. Ich bringe ihn auch deshalb an, weil er mich persönlich betrifft. Zur deutschen Informatik gehört nach Herrn Leimbachs Meinung nur, wer für ein Unternehmen arbeitet, dessen Hauptsitz in Deutschland ist. Danach sind die Ford- und Opel-Arbeiter keine deutschen Autobauer. Würde die Deutsche Bank ihren Firmensitz nach Luxemburg verlegen, gäbe es plötzlich fast Hunderttausend deutsche Banker weniger. Nach dieser Sichtweise sind auch die 4000 Inder, die für SAP in Bangalore arbeiten, keine indischen Informatiker.

Hoch anzurechnen ist Herrn Leimbach, dass er versucht herauszuarbeiten, welchen Zusammenhang es gab zwischen der öffentlichen Förderung durch die Bundesregierung bzw. die EU, dem Aufbau des Studiengangs Informatik (einschließlich der Wirtschaftsinformatik) und den Erfolgen sowohl der Hardware- wie der Software-Industrie in unserem Lande. Das ist eine Mammutaufgabe. Sie ist ihm in weiten Teilen gelungen. Er hängt dabei nicht der naiven Vorstellung an, dass hier alles nach Plan lief und dass das Eine aus dem Andern folgte, so wie das Küken aus dem Ei. Bekanntlich hatten einige Unternehmen nachhaltigen Erfolg im Markt (vor allem Nixdorf und SAP, aber auch Softlab und Software AG), die von der öffentlichen Förderung weitgehend verschont geblieben waren.

Mit Absicht erzählte man auch bei uns gerne die ‚Mär von der technologischen Lücke‘ (auch mal Software-Krise genannt), um Politiker, die ja bekanntlich von Technik nichts verstehen, zum Handeln zu bewegen. In Wirklichkeit mangelte es einfach an Geschäftssinn. Leimbach glaubt, dass eine bestimmte Form der politischen  Einäugigkeit daher rührte, dass dies dem Modell der Atomforschung entsprach. Man beginnt zentral und wenn man etwas hat, wird nach außen ‚diffundiert‘. Obwohl man genau wusste, dass der Erfolg von IBM nicht primär auf technischer Stärke beruhte, konnte bei den großen Subventionsempfängern (AEG/Telefunken, Siemens) nur Beihilfe zu technischen Investitionen gewährt werden.

Dass die im Entstehen begriffene Software-Branche gegenüber den geplanten ‚nationalen Hardware-Champions‘ bei der Förderung fast übersehen wurde, ist traurig aber wahr. Zu lange hatte Software nämlich ein Legitimations­problem, d.h. ein Vertrauensdefizit in Öffentlichkeit und Politik. Selbst der phänomenale Erfolg von SAP konnte dieses Problem nur teilweise beheben.

Leimbach weist in jedem einzelnen Falle nach, dass neben der technologischen oder wissenschaftlichen Vorbereitung einer Innovation noch Einiges dazu kommen musste, ehe daraus ein Markterfolg wurde. Eine ähnliche Meinung vertrete ich auch  in einem meiner letzten Beiträge im Informatik-Spektrum. Das Modell der Innovations­­­systeme scheint im Falle von SAP hervorragend zu passen. Bei Nixdorf und der Software AG scheinen andere Faktoren ausschlaggebend gewesen zu sein (etwa die frühe Internationalisierung bei der Software AG). Alle Software-Unternehmen standen vor dem Dilemma, die richtige Balance zu finden zwischen Dienstleistung und Produktgeschäft. Wie wir wissen, hat kein einziges der hier betrachteten Hardware-Unternehmen überlebt, bzw. diesen Geschäftsbereich zum dauerhaften Erfolg geführt. Zwei Software-Unternehmen wurden zu ‚Global Players‘ (SAP und Software AG). Die meisten anderen Firmen sind nicht mehr in deutschem Besitz.

Die Details der Firmengeschichten muss ich glauben. Schließlich hat er mit den Gründern einiger der Firmen gesprochen oder interne Dokumente zu Rate gezogen. Im Falle von IBM sind ihm nur 2-3 kleine Fehler unterlaufen. Daraus schließe ich, dass auch der Rest sehr viel Vertrauen verdient. Eine gewisse Enttäuschung stellte sich bei mir am Schluss ein. Ich erwartete, dass aus den vorliegenden historischen Daten einige nützliche Lehren für Spätgeborene abgeleitet würden. Da hatte ich wohl zu viel erhofft.

Donnerstag, 10. Februar 2011

Wikipedia hat die Schlacht gewonnen

Vor Jahren hatte ich mir vorgenommen, Wikipedia nicht zu zitieren. Inzwischen habe ich meine Meinung teilweise geändert. Die Zahlen sind schlicht überwältigend: über 200 Sprachen, sechs Millionen Einträge in der englisch-sprachigen Version, über eine Million in der deutschen.

Lange Zeit habe ich mich der Kritik der vier bekannten Informatiker (Denning, Horning, Parnas und Weinstein) angeschlossen, die Ende 2005 in einem CACM-Beitrag eine ernsthafte Warnung aussprachen. Sie verwiesen bei Wikipedia auf sechs Risiken, nämlich Ungenauigkeit, eigenartige Motivationslage, unbewiesene Kompetenz, Flüchtigkeit, begrenzter Abdeckungsbereich und mangelnde Verlässlichkeit der Quellen. Immerhin sahen die Autoren schon damals in Wikipedia ein ‚interessantes soziales Experiment‘, was die Erfassung (engl. compilation) und die Kodifizierung von Wissen betrifft. Das wurde es in der Tat.

Ich finde inzwischen immer mehr Beispiele, wo Wikipedia die ausführlichste und zuverlässigste Quelle ist, ja die einzige. In einem im Jahre 2006 im Informatik-Spektrum erschienenen Beitrag hatte ich 20 Einträge der Kategorie „Computer Pioneers“ verglichen. Ursprünglich fielen mir die großen quantitativen und qualitativen Unterschiede ins Auge. Das hat sich geändert, wie ein Vergleich der damaligen (2005) und heutigen (2010) Seitenanzahlen zeigt (siehe Tabelle). Die zuerst etwas knapp geratenen Beiträge wurden ergänzt, die langen gestrafft, alle wurden systematischer gegliedert und sind um Objektivität sehr bemüht. Das merkt man sogar im Falle von Bill Gates. Damals enthielt die englische Ausgabe von Wikipedia insgesamt 144 Beiträge in dieser Kategorie (List of pioneers in computer science), heute sind es 53. Auch das scheint Fortschritt zu sein.



Generell lässt sich sagen, dass Wikipedia die Schlacht gegen konventionell erstellte Nachschlagwerke gewonnen hat. Vor Jahren schon gab es einen Vergleich mit der Encyclopaedia Britannica. Je nach Lesart war die Fehlerrate gleich oder nur knapp schlechter. Die Firma Brockhaus hat die Publikation von gedruckten Lexika eingestellt. Auch die Online-Version des Brockhaus hat kaum noch Chancen. Bei aktuellen Vergleichen zog sie den Kürzeren gegenüber Wikipedia. Selbst Microsoft hat mit seiner Online-Enzyklopädie Encarta kapituliert.

Beim Zitieren werde ich in Zukunft unterscheiden zwischen Faktenartikeln und Meinungsartikeln. Bei Faktenartikeln hätte ich kaum noch Bedenken. Auf die Angaben zum Geburts- oder Todestag eines Prominenten kann man sich vermutlich verlassen. Meinungsartikel würde ich eher nicht verwenden. Wenn ich eine Meinung zitiere, möchte ich wissen, bzw. angeben können, wessen Meinung es ist. Die des ‚anonymen Schwarms‘ ist uninteressant. Nach wie vor habe ich den Eindruck, dass bei den Wikipedia-Autoren junge Männer stark überwiegen, deren Schaffenskraft durch ihre Tagesarbeit nicht ganz ausgeschöpft ist. Wie bei den Blogs einiger Boulevard-Medien würde ihr Output vermutlich stark zurückgehen, wenn es zwischen 22 Uhr abends und 6 Uhr morgens keinen Internet-Zugang mehr gäbe. Gemeint ist, wechselnd mit den Zeitzonen.

Meine eigene Prognose von 2006 wurde weit übertroffen. Ich hatte gesagt: „Wenn die derzeitige Entwicklung anhält, wird es bald keine Google-Suche mehr geben, die nicht mindestens ein Ergebnis aus Wikipedia präsentiert.“ Fast immer liegt ein Treffer aus Wikipedia heute auf dem ersten Platz der Ergebnisliste.

Das gilt natürlich auch bei einem so aktuellen Thema wie WikiLeaks. Dafür spendiert die deutsche Version von Wikipedia stolze 13 Seiten. Man wird also sehr gründlich informiert, sogar besser als über Steve Jobs und Richard Stallman. Die (anonymen) Autoren sind allerdings recht vorsichtig bei Formulierungen wie diesen:
  • WikiLeaks setzt … ein grundsätzliches öffentliches Interesse an den Informationen voraus.
  • Das Projekt gibt an, denen zur Seite stehen zu wollen, „die unethisches Verhalten in ihren eigenen Regierungen und Unternehmen enthüllen wollen“.
  • Kerngedanke von WikiLeaks ist die Idee des freien Zugangs zu Informationen, die öffentliche Angelegenheiten betreffen.
Es kann durchaus sein, dass manche Leser auch darin bereits eine eher positive Bewertung und Stellungnahme sehen. Verweisen möchte ich auf die sich anbahnende Diskussion zu diesem Thema in meinem Eintrag vom 5.2.2011 in diesem Blog.