Freitag, 28. Oktober 2011

Arabischer Frühling – analysiert von Jörg Armbruster

Am Donnerstagabend besuchten meine Frau und ich mal wieder eine Autorenlesung in unserer örtlichen Buchhandlung. Das Buch des Autors, auf das in Nebensätzen zwei oder drei Mal hingewiesen wurde, spielte diesmal keine Rolle. Stattdessen kam es zu einem lebhaften Gedankenaustausch zwischen Redner und Zuhörern. Der Redner hieß Jörg Armbruster, das Thema war der Arabische Frühling, dem Titel seines Buches entsprechend.

Der Autor war als ARD-Korrespondent von 1999 bis Juli 2005 im Gebiet Naher Osten/Mittlerer Osten mit Hauptsitz in Kairo tätig. Er befand sich während des Irakkriegs mehrmals in Bagdad. Danach war er Leiter der Auslandsredaktion des SWR. Seit November 2010 ist er wieder in Kairo stationiert und erlebte den Arabischen Frühling aus nächster Nähe. Er berichtete im Laufe dieses Jahres in der Tagesschau wiederholt sowohl aus Kairo wie aus Bengasi und Tripolis.

Im Folgenden fasse ich die Diskussionen nach Ländern zusammen. Fast immer ist es die Bewertung von Jörg Armbruster, die ich wiedergebe. Einige Aussagen, die ganze Region betreffend, befinden sich am Schluss.

Tunesien: Am vergangenen Sonntag ergaben die Wahlen zur Übergangsregierung und zur verfassungsgebenden Versammlung zwar einen deutlichen Sieg der von Rachid al-Ghannouchi gegründeten konservativen Ennahda-Partei (~ 40%). Alle andern Parteien sind weit abgeschlagen (< 15%). Das ist keine Überraschung. Die Ennahda-Partei ist am längsten aktiv, am besten organisiert und im Ruf vom Vorgänger-Regime verfolgt worden zu sein. Deshalb hatten auch die im Ausland lebenden Tunesier vorwiegend diese Partei gewählt. Sie hat im Wahlkampf einige Versprechungen (bezüglich Wirtschaftsaufschwung und Vollbeschäftigung) gemacht, die sie kaum einlösen kann. Jetzt hat sie ein Jahr Zeit, um sich zu bewähren. Sie muss allerdings eine der säkularen Parteien als Koalitionspartner gewinnen. Tunesien ist wirtschaftlich wie bildungsmäßig das fortschrittlichste der arabischen Länder. Viele europäische Unternehmen haben hier Fertigungsbetriebe, vor allem die Textilindustrie. Das Analphabetentum ist geringer als anderswo (<15%). Die Frauen haben sehr weitgehende Rechte. Das Volk wird die Arbeit der neuen Regierung kritisch begleiten und nach einem Jahr bewerten. Wer dann vorne liegen wird, lässt sich heute noch nicht zu sagen.

Libyen: Alles deutet darauf hin, dass Gaddafi und ein Teil seiner in Sirte angetroffenen Anhänger auf gewaltsame Weise ums Leben kamen. Dass Gaddafi vor ein libysches Gericht gestellt worden wäre, wollte sich niemand antun. Ihn an den Gerichtshof in Den Haag zu übergeben, wäre noch schlimmer für das Land gewesen. Es wären viele Dinge ans Tageslicht gekommen, die auch für den Westen unangenehm gewesen wären, etwa die enge Zusammenarbeit der Geheimdienste. Bisher hatte der Aufstand ein gemeinsames Ziel, nämlich Gaddafi und seinen Anhängern die Macht im Lande zu entreißen. Der nationale Übergangsrat will in 30 Tagen eine Übergangsregierung bilden und anschließend freie Wahlen vorbereiten. In Libyen gibt es weder staatliche Strukturen noch eine Bürgergesellschaft, die diese Aufgaben unterstützen könnten. Es kommt jetzt darauf an, sich mit Vertretern von wirtschaftlichen, religiösen oder Stammesinteressen zusammenzuraufen. Wegen seines Ölreichtums wurden 80% der Bevölkerung vom Staat beschäftigt, oder besser alimentiert. Ähnlich wie in Saudi-Arabien fehlt daher ein mittelständiges Unternehmertum. Der Druck aus dem Ausland ist enorm, wieder ins Ölgeschäft zurückzukehren.

Syrien: Die Tatsache, dass gerade der amerikanische Botschafter das Land verlassen hat, deutet darauf hin, dass dort eine neue Schwelle der Konfrontation überschritten wurde. Nicht nur das amerikanische Botschaftspersonal wird belästigt und drangsaliert. Andern ergeht es nicht besser. Dem Regime von Baschar al-Assad ist es inzwischen offensichtlich gleichgültig, was das westliche Ausland denkt. Es verfolgt weiter seine Repressionspolitik. Ausländische Journalisten werden nicht mehr ins Land gelassen. Es gelangen nur noch Informationen auf ganz verschlungenen Wegen ins Ausland. Es sind teilweise (verwackelte) Videoaufnahmen, die über Satelliten-Telefone ins Ausland gesandt werden, hier von Exilsyriern oder Sympathisanten aufbereitet und der internationalen Presse übergeben werden. Es ist schwer, ihre Qualität zu überprüfen. Es wird angenommen, dass es bereits ganze Sportstadien voll mit politischen Gefangenen gibt. Der innere Machtkampf spielt sich vor allem zwischen der Minderheit der Alawiten ab, zu der die Assad-Familie gehört, und der Mehrheit der Sunniten. Drusen und Christen spielen nur eine Nebenrolle. Je mehr Todesopfer die Auseinandersetzung erfordert, umso mehr schaukelt sich der Hass auf und damit die Gefahr von Vergeltungsschlägen. Im Gegensatz zu Libyen kann der Westen Syrien nicht bombardieren, da es einen Flächenbrand hervorrufen würde. Unweigerlich würde die Hisbollah gegen Israel losschlagen. Außerdem würde es den Iran, den großen Verbündeten Syriens, auf den Plan rufen.

Ägypten: Sowohl die einheimischen wie die ausländischen Beobachter hatten zwar ein von Unruhen begleitetes Wahljahr 2011 erwartet, der Aufstand am Tahrir-Platz kam für alle überraschend. Vielleicht sprang der Funke von Tunesien über, vielleicht waren es die Wahlfälschungen in den Kommunalwahlen, die das Fass zum Überlauf brachten. Dass die Armee eindeutig auf Seiten der Volksmassen steht, täuscht. Sie ist ein Staat im Staate. Sie genießt einen derartigen Umfang an Privilegien, dass nicht anzunehmen ist, dass sie diese freiwillig aufgibt. Die Armee ist stark mit der Wirtschaft des Landes verkoppelt. Die Muslimbrüder stellen die mit Abstand größte politische Kraft dar. Vor allem sind sie gut organisiert und genießen aufgrund von sozialen Projekten (eigene Krankenhäuser, kostengünstige medizinische Betreuung) ein hohes Ansehen in der Bevölkerung. Sie hielten sich bisher politisch sehr zurück, was Mubarak nicht daran hinderte, sie dem Westen gegenüber als die große Bedrohung darzustellen. Besorgniserregend sind dagegen die Aktivitäten der Salafiten, die von saudischem Geld finanziert, immer wieder provozieren. Auch bei den tödlichen Zusammenstößen mit den koptischen Christen werden sie (oder das Militär) als Auslöser vermutet. Entscheidend für die Entwicklung Ägyptens ist, ob die Wirtschaft wieder an Fahrt gewinnt. Mit 30% hat der Tourismus einen entscheidenden Anteil an der Wirtschaft. Sollte er von Unruhen in Mitleidenschaft gezogen werden, könnte sich das politisch auswirken. 

Jemen: Es besteht eine große Gefahr, dass das Land in einzelne Regionen und Dorfgemeinschaften zerfällt. Der frühere kommunistische Süden kämpft gegen den muslimischen Norden. Außerhalb von Sanaa wird man leicht Opfer von Stammeszwisten. Neben dem Clan des Abdulla Saleh gibt es eine weitere Familie, die um die Vorherrschaft im Land kämpft. Die Demonstranten, die auf dem Universitätsplatz in Sanaa campieren, können zwischen die Fronten geraten. Dies befürchtet auch die Trägerin des Friedensnobelpreises 2011, Tawakkul Karman aus dem Jemen.

Algerien: Das Land leidet immer noch an den Folgen eines Bürgerkriegs, der über 100.000 Toten forderte. Damals hatte die Armee den Wahlsieg einer islamischen Partei nicht akzepiert.

Jordanien und Marokko: Beide Länder werden noch von Monarchen regiert. Ob sie sich schnell genug in Richtung einer konstitutionellen Monarchie entwickeln, ist fraglich. In Jordanien scheinen erste Schritte in diese Richtung zu erfolgen, in Marokko kann dies noch lange dauern. Das liegt auch daran, dass dort der König eine religiöse Funktion hat.

Türkei: Die Türkei ist dabei sich von Europa abzuwenden, da Europa sie zu lange hängen ließ. Sie kann als Wirtschaftsmacht sehr viel für den Aufbau der Region tun. Deshalb reiste der türkische Ministerpräsident Erdogan bereits mit einer großen Wirtschaftsdelegation durch Ägypten, Tunesien und Libyen und wurde stürmisch begrüßt. Auch kann die Türkei als Beispiel für die Demokratisierung eines muslimischen Landes gelten.

Israel: Die Situation wird für Israel nicht leichter. Es hatte in Mubarak eine Stütze, sowohl gegen die Hamas im Gazastreifen, als auch gegen Bedrohungen aus andern arabischen Ländern. So soll Mubarak illegale Grenzgänger aus Schwarzafrika, die an der Grenze zu Israel aufflogen, regelmäßig daran gehindert haben, nach Israel einzureisen. Je nachdem wie sich die Situation in Syrien entwickelt, kann sich auch im Norden ein neuer Gefahrenherd auftun. Zu wünschen wäre, dass Israel in der Palästinenserfrage weiterkäme.

Gemeinsamkeiten: Obwohl jedes der oben erwähnten Länder eine eigene Entwicklung durchläuft, lassen sich doch mehrere Gemeinsamkeiten erkennen. An erster Stelle ist es die hohe Jugendarbeitslosigkeit. Nicht nur ist der Anteil Jugendlicher an der Bevölkerung wesentlich höher als bei uns, auch haben sie besondere Schwierigkeiten in der sehr verkrusteten und kaum expandierenden Wirtschaft Fuß zu fassen. Das politische System hat sich in den letzten Jahren immer mehr von einer ursprünglich zum Teil vorhandenen Volksverbundenheit und jedweder Legalität wegbewegt. Korruption und Vetternwirtschaft (im weitesten Sinne) nahmen überhand. Schließlich stellt die mohammedanische Religion ein Bindeglied dar, das umso stärker wirkt, je mehr die Religion politisch unter Druck gerät. Ähnlich wie im Nachkriegsdeutschland, als die Parteien mit dem C im Namen den Zulauf der Massen erfuhren, fühlen sich Araber von allen Parteien angesprochen, die ihrer Religion einen hohen Stellenwert einräumen. Eine laizistische Bewegung ist auf die städtische Oberschicht beschränkt. Das wirklich erfreuliche am Arabischen Frühling ist die Tatsache, dass Al Quaida der große Verlierer ist. Die von ihr vertretenen gesellschaftlichen Ideale stoßen bei den meist jugendlichen Revolutionären auf Desinteresse.

Donnerstag, 27. Oktober 2011

Erinnerungen an John McCarthy (1927-2011)

Wieder ist einer der Pioniere unseres Feldes von uns gegangen. An John McCarthy erinnere ich mich seit meiner ersten, allerdings recht oberflächlichen Beschäftigung mit LISP in den 1960er Jahren. Es war dies eine Programmiersprache, bei der die Verarbeitung von Zeichenketten (engl. string manipulation) nicht aufgepflanzt war, etwa wie bei PL/I, sondern die Grundlage bildete. Es gab nur den Datentyp ‚Zeichenkette‘ und nichts anderes. Es ließen sich damit Programme zur Textverarbeitung besonders effizient schreiben. Kam man von Fortran-ähnlichen Sprachen, musste man allerdings gehörig umdenken. Neben Fortran scheint LISP die langlebigste der frühen Programmiersprachen zu sein.

 
Foto von Ralf Brown bei ICML'06

Mit einer Fachveranstaltung in Dartsmouth, New Hamshire, hatte McCarthy 1956 den Begriff ‚Künstliche Intelligenz (Abk. KI, engl. artificial intelligence) geprägt, ähnlich wie F.L. Bauer 1968 den Begriff ‚Software Engineering‘ durch die Konferenz von Garmisch in die Welt setzte. Im Nachruf bei Spiegel Online wird auf die Anfänge der KI wie folgt verwiesen:

Seit 1948 forschte McCarthy an künstlicher Intelligenz. Den Begriff verwendete er 1955 in einem mit den legendären Informatikern Claude Shannon, Marvin Minsky und Nathaniel Rochester verfassten Forschungsantrag. Die Grundannahme der Wissenschaftler [war]: "Jeder Aspekt des Lernens und andere Eigenschaften von Intelligenz können im Prinzip so präzise beschrieben werden, dass eine Maschine sie simulieren kann." Von 1965 bis 1980 leitete McCarthy das Artificial Intelligence Laboratory an der Stanford University.

Ich selbst hatte zu John McCarthy wie zu den übrigen KI-Pionieren kaum fachliche Kontakte. Im Frühjahr 1981 besuchte ich ihn in Stanford, zusammen mit einem Kollegen, um ihn zu einem Vortrag nach Deutschland einzuladen. 

Der Campus von Stanford ist architektonisch sehr beeindruckend. Man hat versucht den Baustil der Franziskaner-Missionen Kaliforniens ins Monumentale zu übersetzen. Alle Gebäude, vor allem aber die Bibliothek mit ihrem hohen Turm, der an eine Kathedrale erinnert, geben Ausdruck vom Reichtum des Stifters dieser Privat­universität. Wir fanden McCarthy in einem kleinen, nicht sehr hellen Eckzimmer im ersten Stock eines der von außen sehr imposant aussehenden Gebäude. Das Büro war mit Bergen von Papier vollgestopft. Kaum hatten wir unsern Wunsch geäußert, sagte er schon zu. 

Er bot uns ein Papier an mit dem Titel ‚Usefulness of Computers in Offices’ [1]. Es behandelt die Erfahrungen seiner Umgebung mit Büroanwendungen. Er lobte darin unter anderem Knuths TEX-System und den Wysiwyg-Editor des Alto-Systems von Xerox. Da es nur vier Seiten umfasste gab er mir noch ein zweites Papier dazu. Dessen Überschrift hieß ‚The Common Business Communication Language‘ [2]. Das erinnerte mich etwas an COBOL (Abk. für Common Business Oriented Language). Er postulierte darin eine Sprache, die das Fachvokabular enthält, um Angebote einzuholen oder Bestellungen aufzugeben, das Ganze in einer LISP-ähnlichen Syntax verpackt, d.h. voller Klammern. Ich hatte bei dem Symposium im September 1981 in Bad Neuenahr nicht den Eindruck, dass er seine Zuhörer mit seinen Ideen vom Sessel riss. Es kann auch sein, dass denen diese Art der Computer-Nutzung damals noch etwas ferne lag.

Danach habe ich McCarthys Arbeiten nur sehr sporadisch verfolgt. In vielen Diskussionen, an denen er teilnahm, aber auch in seinen Veröffentlichungen, vertrat er eine Position, die man als ‚starke KI‘ bezeichnet. Vereinfacht ausgedrückt, gehen diese Kollegen davon aus, dass man den menschlichen Geist als Programm auffassen kann. Heute weiß man, dass Geist und Körperlichkeit nicht zu trennen sind, vor allem wenn man das Bewusstsein in Betracht zieht.

Bekannt wurde sein Streit mit Roger Penrose, einem englischen Mathematiker und Physiker, der sehr eigenartige Vorstellungen von Bewusstsein und freien Willen äußerte. Penrose führte beides auf quantenmechanische Prinzipien zurück, die in dieser Form nie durch Software nachgeahmt werden können. Er warf den Vertretern der (starken) KI vor, das menschliche Denken rein algorithmisch erklären zu wollen, und zwar als einen Vorgang, der unabhängig von der Physik oder Chemie eines bestimmten Gehirns ablaufen kann. McCarthy hielt Penrose entgegen, dass Computer, um sich wirklich intelligent zu verhalten, auch Wissen besitzen müssen, das nicht durch Algorithmen, also Fakten und Regeln, dargestellt werden kann. Er hielt es für möglich, dass Computer eines Tages Bewusstsein zeigen in der Art, dass sie darüber reflektieren, wie sie sich fühlen und was es heißt ein Computer zu sein. 

Sehr krass werden heute die Positionen der ‚starken KI‘ von McCarthys Schüler John Moravec [3] vertreten. Er spricht davon, dass der Geist des Menschen sich vom Gehirn nach und nach auf Rechner verpflanzen ließe, so zu sagen von einer Hardware-Basis auf eine andere. Diese Weiterentwicklung des menschlichen Geistes könnte man mit heutigen Software-Agenten vergleichen. Diese könnten an Orten leben, wo heutige Menschen nicht leben können. Sie könnten sich z.B. im Weltraum ausbreiten und damit eventuelle irdische Katastrophen überleben. Diese Lebewesen würden nicht nur all unser Wissen und alle unsere Erfahrungen besitzen, sondern auch über ein menschen-ähnliches Bewusstsein und Gefühle wie Angst, Schmerz und Liebe verfügen. 

Moravec und andere, die diese Position vertreten, z.B. Ray Kurzweil, haben zweifellos Recht, wenn sie annehmen, dass wir in einigen Jahrzehnten in der Lage sein werden, Rechner zu bauen, die bezüglich der Anzahl der Speicher- und Verarbeitungselemente das menschliche Gehirn übertreffen. Sie können dann Aufgaben lösen, die heute nur vom Menschen gelöst werden können, etwa auf dem Gebiet der Mustererkennung oder der räumlichen Orientierung. Es ist ein sehr gewagter Schritt daraus zu folgern, dass diese Maschinen dann mit dem Menschen als Spezies gleichziehen würden, ja ihn ersetzten oder gar ablösen könnten. 

McCarthys Name wird mit den Ideen dieser Schule verbunden bleiben. Es waren zweifellos mutige Ideen. Ob sie uns wirklich weiterhelfen, sei es in fachlicher Hinsicht, sei es im Verständnis der Welt, wage ich jedoch zu bezweifeln.

Zusätzliche Referenzen
  1. McCarthy, J.: Usefulness of Computers in Offices. In: Endres, A., Reetz,J.: Textverarbeitung und Bürosysteme. Oldenbourg München 1982, 65-70
  2. McCarthy, J.: The Common Business Communication Language. Ibidem, 71-74
  3. Moravec, H.: Computer übernehmen die Macht: Vom Siegeszug der künstlichen Intelligenz. Hoffman und Campe Hamburg 1999

Dienstag, 25. Oktober 2011

Erfahrungen mit Computerviren und andern Schädlingen

Seit ich einen Rechner privat benutze, also etwa seit 1982, versuche ich mich gegen Viren und andere Schad-Software zu schützen. Da ich zunächst die Gefahr, selbst in Mitleidenschaft gezogen zu werden, als recht hypothetisch ansah, waren meine Gegenmaßnahmen auch eher Lippenbekenntnisse. Auf meinem Desktop installierte ich die kostenlose Minimalversion eines Antiviren-Programms. Auf später gekauften Notebooks ließ ich das Antiviren-Programm drauf, das vorinstalliert war.

Ich erinnere mich an ein einziges Mal vor vier oder fünf Jahren, dass mein Desktop zur aktiven Virenschleuder wurde. Das war mir sehr peinlich. Ich hatte aus einem recht harmlosen Anlass eine E-Mail gleichzeitig an mehrere Kollegen geschickt. Daraufhin informierte mich ein Empfänger, dass ich ihn gerade mit einem Virus beglückt hätte. Mit Hilfe meines Antiviren-Programms konnte ich das Ungeziefer auf meinem Rechner finden und vertilgen. Wie das Virus zu mir gekommen war, konnte ich nicht feststellen. Anschließend durfte ich alle anderen Kollegen, die auf meinem Verteiler gewesen waren, bitten, meine E-Mail zu löschen und ihren Rechner zu säubern. Besonders leid taten mir dabei mehrere ältere, unserer Technik nicht besonders affine Empfänger meiner E-Mail.

Heute übertreibe ich die Vorsichtsmaßnahmen vielleicht sogar. Ich habe nicht nur Schutzprogramme installiert, die meinen gesamten Verkehr mit der Außenwelt in Echtzeit überprüfen. Ich lasse auch regelmäßig, d.h. etwa alle 14 Tage, mein ganzes System auf Viren, Dialer, Trojaner usw. überprüfen. Das kostet mich schon mal bis zu 40 Minuten. Dabei wird nur das Anti-Dialer-Programm fast jedes Mal fündig. Es eliminiert jede Menge Cookies, also Haken und Ösen, die jemand auf meinem Rechner hinterlassen hat, um Dinge anzustoßen, die mich möglicherweise Geld kosten. Ich kann nicht genau sagen, wie gefährlich sie hätten werden können. Ihr Löschen hatte jedenfalls keine negativen Folgen.

Dass die Viren-Bedrohung schnell sehr konkret werden kann, bewiesen zwei meiner Ex-Kollegen in den USA, die am selben Tage (dem 22.10. 2011) unabhängig voneinander folgende Erfahrungsberichte in ihrem Bekanntenkreis verteilten. Ich habe sie beide (maschinell) ins Deutsche übersetzt und in einem Fall etwas gekürzt.

Fall 1: Diese Woche hatte ich mein viertes Virus, seit ich einen PC habe, also seit 1978. Dies war das schlimmste. Ich suchte eine spezielle Datei via Google und Opera. Meine Anti-Viren-Software der Firma XXX sagte, ich solle nicht auf diese Seite gehen. Es wäre eine bekannte "schlimme" Seite. Ich ignorierte die Warnung und ging trotzdem. Ich bemerkte fast sofort, dass etwas nicht stimmte. Das System wurde langsamer. Ich hatte einen seltsamen Prozess am Laufen (nnnn.exe). Ich scannte meinen Computer für diese Datei. Sie wurde nicht gefunden. Ich scannte die Registrierung und bemerkte mehrere Stellen, wo es eine solche Datei gab. Ich löschte sie alle und startete neu. Die Dateien waren wieder da. Schließlich fand ich, dass das Virus die Anti-Virus-Dateien der Firma XXX, … [mehrere andere Dienste] …- und die eigene Firewall-Software geändert hatte. Nachdem ich all diese Dinge löschte und einen Neustart vollzog, war das Virus wieder da. Nach Ausschalten des Netzwerks, dem Löschen all dieser Dinge und dem Ziehen des Stromkabels konnte ich ohne das Virus rebooten. Sobald ich aber im Internet war, hatte ich das Virus wieder. … Ich entfernte XXX und installierte das Anti-Virus-Programm YYY. Das Virus wurde gefunden und eliminiert…. Diese Jungs von YYY waren gut. Sie hatten sich in den Shutdown-Prozess und in die Internet-Software eingehakt. Ich konnte nicht genau herausfinden, was sie taten… So gab ich auf und installierte mein System von einem Backup, den ich im März 2011 gemacht hatte…

Fall 2: Während ich in der vergangenen Woche eine Flugreservierung bei der Firma ZZZ machte, tauchte ein neues Fenster auf. Man bestand darauf, meine Kreditkarte mit zusätzlichen Informationen zu überprüfen – dem Mädchennamen meiner Mutter und meiner Sozialversicherungsnummer. Die Anfrage war in den normalen Dialog der Flugreservierung eingebettet. Ich bekam das Ticket nicht ohne Angabe dieser Informationen. Danach rief ich die Firma ZZZ an. Sie hatten keine Ahnung, dass es geschah. Ich musste allerdings ein Programm kaufen und installieren, dass mich in Zukunft gegen Identitätsdiebstahl schützt.

Vielleicht haben meine Leser ähnlich prägnante Geschichten zu berichten. Je konkreter die Erfahrungen sind, die man zur Verfügung hat, umso besser kann man sich schützen – d.h. umso eher ist man bereit dazu. Auch Gauner und Bösewichte lernen dazu und machen sich den technischen Fortschritt zunutze. Die Verteidiger, also die Hersteller von Antiviren-Software, sind ihnen bestenfalls eng auf den Fersen. Ihnen sollte man helfen.

Sonntag, 23. Oktober 2011

Antonio Damasio über Geist, Bewusstsein und Selbst

Nachdem ich mich vor Monaten mit den Philosophen Dennet, Hofstadter und Metzinger sowie den Neurologen Edelmann und Kandel befasst hatte, habe ich mich mal wieder dem Leib-Seele-Problem der Philosophie zugewandt. Es wird vielleicht treffender auch als Geist-Körper-Problem bezeichnet. Anlass war dieses Mal das neue Buch ‚Selbst ist der Mensch‘ von Antonio Damasio, auf das mich mein Freund Peter Hiemann aus Grasse aufmerksam machte. 

Damasio ist ein in Lissabon geborener und aufgewachsener Neurologe, der jetzt in San Diego, Kalifornien, lebt und arbeitet. Zusammen mit seiner Ehefrau Hanna ist er als Gehirnforscher tätig. Sein Zugang zu dem Geist-Körper-Thema basiert auf der Auswertung von Unfalldaten und Krankheitsgeschichten einerseits, sowie modernen bildgebenden Verfahren andererseits, insbesondere der funktionellen Magnet­resonanz­tomographie (fMRT). 

Peter Hiemann und ich haben das Buch etwa gleichzeitig gelesen. Beide empfanden wir es als ziemlich anstrengend, haben uns aber durchgekämpft. Rück­blickend räumen wir gerne ein, eine Menge gelernt zu haben, nachdem wir uns erst an eine neue Terminologie gewöhnt hatten. Ich beginne im Folgenden mit den wichtigsten Beispielen seiner Terminologie, verbunden mit meiner Interpretation seiner Begriffe. 

Geist: Dies ist offensichtlich die Übersetzung des englischen Worts ‚mind‘. Ich hätte es eher mit ‚Verstand‘ oder ‚Intellekt‘ übersetzt. Definiert wird ‚Geist‘ als ein Ensemble oder Strom von Bildern. Der Geist verliert nie den Kontakt mit dem Gehirn. Da der Geist nur auf das Körperinnere wirkt, scheint er körperlos zu sein. Das Wort ‚Geist‘ suggeriert einen Dualismus à la Descartes, gegen den Damasio sich wehrt. Sein Freund sei nicht Descartes, sondern Spinoza.

Bewusstsein: Prozesse, die im Wachzustand eines mit Geist ausgestatteten Körpers ablaufen. Sie erkennen die eigene Existenz und die Umgebung. Sie unterscheiden sich in ihrer Intensität (zwischen dösen und hell wach sein) und in ihrer Reichweite (zwischen eigenem Körper und dem Universum). Übrigens sieht Damasio in Träumen eine alternative Form des Bewusstseins.

Selbst: Prozess, der den eigenen Körper und Geist als Bezugs- und Mittelpunkt von Beobachtungen erkennt. Es entsteht ein Protagonist, der sich als Besitzer unseres Körpers fühlt und der das Erlebte als Geschichten erzählen kann. Das Selbst hat drei Stufen, Protoselbst, Kernselbst und autobiografisches Selbst. Das Protoselbst ist angeboren, das Kernselbst basiert auf einfachen Gefühlen. Nur dank unseres großen Gedächtnisses baut sich im Laufe eines Lebens das autobiografische Selbst auf.

Dispositionen: Auch an dieses Wort muss man sich erst gewöhnen. Gemeint sind Prozesse, die auf prozeduralem oder Handlungswissen basieren, also Wenn-dann-Regeln, die vorschreiben, was in bestimmten Situationen zu geschehen hat. Sie nehmen z.B. einen äußeren Reiz wahr und veranlassen eine Reaktion des Körpers. 

Emotionen. Sie stellen eine Sonderklasse von Dispositionen dar. Sie sind evolutionsmäßig uralt und laufen vollkommen automatisch ab, d.h. ohne dass das Bewusstsein daran teilnimmt. Sie laufen meist (als Reflexe) viel schneller ab als es das Bewusstsein überhaupt erfassen kann. Sie waren und sind überlebenskritisch.

Karten: Sie sind neuronale Repräsentationen von Objekten, Ereignissen, Gefühlen und vielem mehr. Sie versehen unser Gehirn mit Faktenwissen. Zusätzlich zu den von den Sinnesorganen übermittelten Daten verfügen wir über Hinweise, durch welche Form der Interaktion sie erfasst wurden und mit welchen Emotionen sie verbunden waren. Der Ausdruck Karte kommt daher, dass das Selbstbild des eigenen Körpers in der Form einer (stark verzerrten) Nachbildung des Körpers im Gehirn eingespeichert ist. Karten sind Einprägungen von multimedialen Eindrücken, multimedial deshalb, weil visuelle, akustische, haptische und propriozeptive (den eigenen Körper betreffende) Eindrücke in Beziehung gebracht werden. Das menschliche Gehirn besteht u.a. aus Regionen, die primär Dispositionen ermöglichen. Dazwischen eingebettet sind Regionen, die der Kartierung dienen.

Bilder: Bilder betreffen alle Objekte und Handlungen, die im Gehirn verarbeitet werden, gegenwärtige ebenso wie erinnerte, konkrete wie auch abstrakte.  Es ist das, was der Geist produziert und manipuliert, wenn er aktiv ist, d.h. Gedanken hat. Sie beziehen ihren Inhalt (ihre Pixels, Voxels, Akkorde und dgl.) aus Karten. Wie dies geschieht, ergibt sich aus den dazu gespeicherten Dispositionen. Damasio benutzt die Metapher eines Puppentheaters. Die Bilder seien das, was auf der Bühne passiert; die Dispositionen bewegten die Schnüre, an denen die Marionetten hängen. Auch der Begriff ‚Bilder‘ ist sehr vereinfachend. In Wirklichkeit sind es innere Rekonstruktionen für das, was wir gesehen, gehört oder gefühlt haben. Vielleicht wäre Szenario oder Film ein besseres Wort.

Gefühle: Geisteszustände, die sich aus Bildern oder Emotionen ergeben. Sie verschaffen dem Geistprozess Informationen über den Zustand des Körpers. Durch sie erhalten viele Objekte eine spezifische Markierung.

Erinnern: Ist immer eine Rekonstruieren von Bildern aufgrund von Karten, gesteuert von Dispositionen. Erinnerungen sind umso stärker, je mehr sie mit Gefühlen behaftet sind.

Folgende Aspekte aus Damasios Sicht der Dinge sind bemerkenswert:

Das zentrale Nervensystem dient bei allen Lebewesen hauptsächlich der homöotischen Regelung des Organismus. Auch alle höheren, also geistigen Funktionen des Nervensystems dienen primär diesem Zweck. Sie gestatten nicht nur eine subtilere Steuerung, sondern vor allem eine langfristige Planung. Die Homöostase ist das sensible Gleichgewicht, das eingehalten werden muss, damit Leben möglich ist. Durch sie wird das biologische Wertesystem definiert. 

Selbst Neuronen müssen als Einheiten mit geregelten „Innenleben“ interpretiert werden, da schon Einzeller wie Amöben auf Reize reagieren. 

Einfache Organismen verfügen lediglich über Dispositionen, die einen äußeren Reiz wahrnehmen, eine Körperreaktion veranlassen und ggf. eine Körperbewegung ausführen. Weiter höher in der Evolution angesiedelte Organismen sind zusätzlich in der Lage, Wahrnehmungen, Körperreaktionen und Körperaktionen im Gedächtnis aufzuzeichnen, um sie für einen späteren Abruf verwenden zu können. Diese komplexen Dispositionen könnte man als Programme bezeichnen, ein Ausdruck, den Damasio allerdings nicht verwendet. Programme sind zur Rekonstruktion von Strukturen und Abläufen besser geeignet als das reine Kopieren einer Erinnerung. 

Der Anteil der Gehirnaktivitäten, die für bewusstes Nachdenken, Entscheiden und Handeln zum Tragen kommen, ist gegenüber den neuronalen Aktivitäten für unbewusste geistige und körperliche Reaktionen ziemlich gering. So wie Sigmund Freund es auch sah, sei der größte Teil des Geists in unserem Unterbewusstsein zu vermuten, vergleichbar einem Eisberg. Durch das schmale Fenster des Bewusst­seins sähen wir nur die Spitze des Eisbergs. Unbewusste Prozesse sind sehr nützlich, nicht nur weil sie schneller ablaufen, sondern weil sie dem Bewusstsein mehr Kapazität übriglassen, um eine gründliche Analyse und eine sorgfältige Planung zu betreiben.

Erst der seiner Selbst bewusste Geist schuf sich die menschliche Sprache. Dadurch wurde die Kommunikation mit andern Menschen erheblich verbessert und die soziale Entwicklung beschleunigt. Die später stattgefundene Erfindung der Schrift befreite die gesprochene Sprache von ihrer räumlichen und zeitlichen Beschränkung.

Da Damasio die Anatomie des menschlichen Gehirns aus der Sicht der Evolution erklärt, gelangt er zu sehr überzeugenden Begründungen seiner Struktur. Hier ein markantes Beispiel. Da Reptilien, die zwar ein Stammhirn aber keine Hirnrinde (Cortex) besitzen, schon sehr ausgefeilte homöostatische Steuerfunktionen vollführen, ist anzunehmen, dass beim Menschen der ‚Geist‘ nicht nur in der Hirnrinde zuhause ist, sondern auch ‚ältere‘ Teile des Gehirns (wie Thalamus und Stammhirn) mitbenutzt. Hat die Evolution nämlich einmal eine Lösung zu einem Problem gefunden, die funktioniert, so wird sie möglichst überall verwandt. Um eine Verbesserung der Lebenssteuerung, etwa unter Zuhilfenahme eines großen Gedächtnisses, zu erreichen, wird die vorhandene Lösung nicht weggeworfen. Die neue Funktionalität baut auf der alten auf. Das neue Problem wird durch die Kooperation zwischen verschiedenen Organismen gelöst.

Das Hauptproblem, das Damasio zu verstehen versucht, ist die emergente Erscheinung des Bewusstseins in der Evolution der biologischen Organismen. Er ist überzeugt, dass das Wissen über die „Umstände, wie bewusster Geist in der Geschichte des Lebendigen entstanden ist, Auswirkungen auf unser Alltagsleben hat“. Die kulturelle Evolution habe (aus Sicht der Evolution) gerade erst begonnen. Wenn in diesem Zusammenhang von einer sozio-kulturellen Homöostase gesprochen wird, scheint dies jedoch etwas weit hergeholt zu sein.

Was die eher philosophischen Fragen anbetrifft, zeigt Damasio eine erfreuliche Zurückhaltung. Manche der von ihm angebotenen Erklärungen bezeichnet er als nützliche Arbeitshypothesen. Das gilt insbesondere für die Beziehung zwischen Geist und Gehirn. Nimmt man nicht an, dass geistige Zustände auch Zustände des Gehirns sind, könne man die gegenseitige Beeinflussung noch viel schlechter verstehen, als es bis heute der Fall ist. Noch seien wir weit davon entfernt, das Gehirn als Körper­organ zu verstehen. Das gilt erst Recht für Geist und Bewusstsein als schwer fassbarer Ausfluss seiner Funktion. Hier sei noch viel Forschungsarbeit zu leisten, meint er.

Dienstag, 18. Oktober 2011

Jochen Ludewig über Software Engineering in Praxis und Ausbildung

Jochen Ludewig ist seit 1988 Lehrstuhlinhaber für das Fach „Software Engineering“ an der Universität Stuttgart. Vorher war er drei Jahre lang Assistenzprofessor an der ETH Zürich. Ludewig verfügt über ausgedehnte industrielle Erfahrungen, und zwar von 1975 bis1980 bei der (damaligen) Gesellschaft für Kernforschung in Karlsruhe, anschließend bis1985 im BBC-Forschungszentrum Baden/Schweiz als Leiter der Arbeitsgruppe „Software Engineering“. Er wurde 1981 an der TU München in Informatik promoviert. Ludewig ist seit 2009 GI Fellow.


 
Bertal Dresen (BD): Wie kaum ein anderer Kollege an den Hochschulen haben Sie sich im deutschen Sprachraum, zuerst in der Schweiz und dann in Deutschland, für das Thema Software Engineering (SWE) engagiert. Seit der berühmten Garmischer Konferenz von 1968 erfährt die ingenieurmäßige Vorgehensweise in der Software-Entwicklung ernsthaftes akademisches Interesse. Hat sich dieses Interesse für die Praxis eigentlich ausgewirkt, wenn man von der verbesserten Ausbildung einmal absieht, auf die ich gleich noch eingehen werde? Oder war es, wir mir ein Kollege 1968 klarzumachen versuchte, für uns Praktiker eine Illusion, von den Akademikern zu erwarten, dass sie Probleme lösen würden, die nur Praktiker selbst lösen können? Was also hat sich nach Ihrer Ansicht in der Praxis seit 1968 verändert?

Jochen Ludewig (JL): Die Praxis von 1968 kenne ich nur aus Berichten; ich habe 1969 meine ersten Programme geschrieben und die Praxis erst in den Siebzigern gesehen. Damals herrschte eine Stimmung vor, die man durch das Bild des Cowboy-Programmierers beschreiben kann. Die Programmierer hatten keine einschlägige Ausbildung und fühlten sich berufen, die geforderten Programme zum Laufen zu bringen, wie auch immer. Damals entstand der Begriff der „strukturierten Programmierung“, und Dave Parnas beschrieb das revolutionäre Konzept des „information hiding“, aber davon wusste die Praxis nichts. Die Probleme der Software-Entwicklung wurden von den Praktikern erlebt, aber nicht reflektiert. Das hat sich zweifellos geändert. Es gibt immer noch viel unsystematisches Vorgehen, aber nur noch wenige Praktiker, die sich der Defizite nicht bewusst sind. 

BD: Der Altmeister Dijkstra, dessen scharfe Worte meistens einen Kern Wahrheit enthielten, soll gesagt haben: ‚Software Engineering ist der Versuch Leuten, die dafür nicht geeignet sind, das Programmieren beizubringen.‘ Was also ist realistisch zu erwarten? Ist es nicht eine Utopie, zu hoffen, dass man eines Tages Software fehlerfrei und effizient zugleich entwickeln kann? Dann noch unter Zeitdruck? 

JL: Software ist komplex, mindestens so komplex, wie die Probleme, die sie lösen soll. Daran wird sich nichts ändern. Wir können aber die Prioritäten anders festlegen, beispielsweise durch Verwendung fertiger Komponenten. Damit tauschen wir die Flexibilität der Individualsoftware gegen die Kosten- und Zeitvorteile der Massen­software. Ob das sinnvoll ist, hängt von der konkreten Situation ab.

Noch ein Wort zu Dijkstra: Ich denke, dass eine reife Ingenieurdisziplin für die gängigen Probleme Lösungswege anbietet, die keine wissenschaftliche Qualifikation erfordern. Wenn ein Hohepriester des Fachs den Laien erklärt, sie hätten eben keinen Zugang zur Erkenntnis, dann ist das wenig hilfreich. Ich setze darum Dijstras Diktum entgegen: Software Engineering als Lehr- und Forschungsgebiet zielt darauf ab, die Bearbeitung der Software so zu modellieren und zu organisieren, dass sie keine außergewöhnlichen Fähigkeiten voraussetzt. (Sehr frei nach Brecht: Glücklich die Firma, die keine Software-Helden braucht!)

BD: Jetzt zur Ausbildung. Sie haben sich sehr mit der Weiterbildung von Mitarbeitern in der Industrie befasst. Was fehlt (oder fehlte) denen am meisten? Was können (oder konnten) Sie als Hochschullehrer ihnen bieten? Hat sich der Schulungsbedarf verringert oder verändert, seit immer mehr akademisch ausgebildete Informatikerinnen und Informatiker in der Praxis Einzug halten?

JL: Vielen Praktikern fehlt das Vertrauen in Verfahren und Vorgehensweisen, die nach allem, was wir wissen, höchst sinnvoll sind. Ihnen fehlen die positiven Erfahrungen. Und es ist nur zu verständlich, dass sie, zumal unter dem leider normalen Zeitdruck, nicht auf ein Verfahren wechseln, dem sie nicht trauen. Wer in Eile ist, wird nicht die alten Schuhe gegen neue tauschen, die ihm vielleicht gar nicht passen. Wir müssen also – beginnend in der Ausbildung – dafür sorgen, dass die Software-Ingenieure mit den guten Techniken und Mitteln gute Erfahrungen haben. Das gilt natürlich nicht nur für die Software-Entwickler, sondern auch und besonders für deren Manager. Die müssen nicht alles wissen und können, aber sie sollten verstehen, was geht und was nicht.

Der Schulungsbedarf hat sich nicht vermindert, aber in der Tat verändert. Ein traditionelles Biotop im Stil der Siebziger findet man heute kaum noch. Man hat in aller Regel eine höchst heterogene Mischung von Altersklassen, Qualifikationen und natürlich auch Interessen vor sich, so dass man oft weniger Wissensvermittlung als Mediation bietet. Wenn sich am Ende eines Seminars die Teilnehmer gegenseitig besser kennen und verstehen und also wissen, was sie voneinander erwarten können, ist das schon sehr nützlich. 

BD: Sie vertreten die Meinung (wie viele andere Kollegen auf der Welt auch), dass die SWE-Ausbildung an Hochschulen nur dann die ihr gebührende Aufmerksamkeit bekommt, wenn sie als eigener Studiengang angeboten wird. Was sind die wesentlichen Argumente dafür? Hat sich daran in den letzten Jahrzehnten etwas geändert, etwa durch Umorientierung der Informatik-Ausbildung im Allgemeinen?

JL: Ich bin fest davon überzeugt, dass wir sowohl eine Informatik als auch eine Softwaretechnik brauchen. Vorbild dafür sind Physik und Elektrotechnik. Die Physiker haben im Mittel mehr Mathematik und Theoretische Physik gelernt als die Elektroingenieure, die dafür mehr von den praktischen Problemen, den Normen und der betrieblichen Realität wissen. Aber der wesentliche Unterschied liegt in der Geisteshaltung, der Zielrichtung, die im Studium vermittelt wird; beim Ingenieur steht nicht die Erkenntnis im Vordergrund, sondern die Problemlösung. Fred Brooks hat das 1977 so formuliert: “... the scientist builds in order to study; the engineer studies in order to build.” In einem Softwaretechnik-Studiengang kann und sollte man diese Denkweise vermitteln. In Stuttgart funktioniert das nach meinem Eindruck sehr gut.

Die in der Frage erwähnte Umorientierung der Informatik-Ausbildung hat nach mei­nem Eindruck nicht stattgefunden, jedenfalls nicht in Richtung Software Engineering. Beispielsweise gibt es nur an wenigen Orten anspruchsvolle, große und langlaufende Softwareprojekte; in der Softwaretechnik sind sie obligatorisch.

BD: An der Universität Stuttgart gibt es – dank Ihrer Initiative – seit Jahren den Studiengang Softwaretechnik. Wie wurde er rein zahlenmäßig akzeptiert? Wie bewerten Sie den Erfolg? Was sind Ihre Erfahrungen bezüglich der Absolventen? Erhielten sie Stellenangebote, für die andere Informatik-Absolventen nicht in Frage kamen? Gibt es Firmengründungen, die es sonst nicht gegeben hätte?

JL: Das Zahlenverhältnis der Studienanfänger in Informatik und Softwaretechnik hat sich in der Gegend von 60:40 eingependelt. Befragungen der Studierenden erlauben den Schluss, dass die Softwaretechniker mindestens so zufrieden sind wie die Informatiker. Da alle den formalen Abschluss „Dipl. Inf.“ erhalten (zukünftig „B. Sc.“), ist nicht klar, wie weit die Firmen den Unterschied wahrnehmen. Aber im Großraum Stuttgart haben die Softwaretechniker einen sehr guten Ruf, und einige Firmen bemühen sich speziell um unsere Absolventen. 

Firmengründungen hat es gegeben, aber natürlich ist kaum zu sagen, ob es sie ohne den Studiengang Softwaretechnik nicht auch gegeben hätte. 

BD: In einem früheren Beitrag dieses Blogs habe ich die Meinung vertreten und zu begründen versucht, dass wir in Deutschland eigentlich keine Programmierer mehr bräuchten, sondern nur noch Systemarchitekten. Würden Sie dieser Meinung beipflichten? Wenn ja, welche Konsequenzen hätte dies für das Fachgebiet Software Engineering, sowohl was die Forschung als auch die Lehre betrifft? Muss nicht das Augenmerk viel stärker auf Innovationen, also auf der Erfindung von etwas Neuem, gelegt werden, statt auf Produktivität und Qualität im Nachbau bekannter Systeme?

JL: Der Begriff „Programmierer“ ist höchst unklar. Ich stelle mir darunter die Leute vor, die in den Sechzigern auf Coding Sheets Programme bauten. Dieser Typ des Programmierers ist heute ohne Bedeutung. Was wir auszubilden versuchen und was auch noch lange gebraucht wird, sind Software-Entwickler, die den gesamten Prozess überblicken und im Wesentlichen auch kennen und beherrschen. Dazu gehört natürlich auch die Codierung. Ich weiß mich mit vielen prominenten Kollegen einig, dass handwerklich sauberes, elegantes Codieren zu den wichtigen Fähigkeiten unserer Absolventen gehört. Gute Entwickler machen Karriere und werden nicht mehr codieren, aber sie brauchen diese Qualifikation weiterhin, um führen und bewerten zu können.  

Natürlich sollen sie offen sein für Innovationen. Aber es kennzeichnet wirkliche Innovationen, dass sie nicht vorauszusehen waren. Wir können unsere Studenten dafür also nur rüsten, indem wir sie mit soliden Grundlagen und einem sicheren Gespür für das Machbare und für hohe Qualität ausstatten. Denn nicht jede Sau, die durch das Dorf läuft, verdient es, bejubelt zu werden.

BD: In vielen Diskussionen über die von Hochschulen zu vermittelnde Qualifizierung wird gefordert, dass neben der fachlichen auch eine nicht-fachliche Ausbildung vermittelt werden sollte. Gemeint sind meistens soziale Kompetenzen (engl. soft skills), aber auch die Beachtung ethischer Grundsätze. Für wie wichtig halten Sie es, dass dies seinen Niederschlag in Lehrplänen findet? Wieweit können Hochschulen hier überhaupt Wirkung erzielen?

JL: Ich habe mich in den gut 25 Jahren meiner Lehrtätigkeit immer wieder mit diesen Fragen befasst, bin allerdings mit dem Erfolg nicht zufrieden. Ich habe regelmäßig eine Lehrveranstaltung angeboten, in der das Verfassen wissenschaftlicher Arbeiten und das Vortragen gelehrt und auch geübt wurden. Nach der Umstellung auf die Bachelor-Ausbildung ist daraus eine anrechenbare Studienleistung geworden. Ich beobachte aber, dass man den Charme eines syntaktisch sauberen deutschen Satzes oder einer klaren, verständlichen Struktur für einen Vortrag nur solchen Leuten vermitteln kann, die daran interessiert sind. Das Interesse an drei Leistungs­punkten ist nicht das gleiche!

BD: Die Umstellung vom Diplomstudiengang auf Bachelor und Master schafft immer noch Unruhe an den Hochschulen. Was bedeutet diese Umstellung für den Studiengang Softwaretechnik? Gehen Sie davon aus, dass die Industrie den Bachelor-Abschluss als ausreichende Berufsbefähigung ansehen wird? Unter welchen Umständen raten Sie einem Studierenden, den Master-Abschluss anzustreben?

JL: Für die Softwaretechnik waren mit der Umstellung einige herbe Verluste verbunden, vor allem das früher obligatorische Industriepraktikum und das zweite Studienprojekt, das im Anwendungsfach, also außerhalb der Informatik, durchgeführt wurde. Zudem ist der Rahmen von sechs Semestern so eng, dass wir Veranstaltun­gen, die aufeinander aufbauen, oft parallel anbieten müssen, etwa eine Vorlesung über objektorientierte Programmierung und ein Praktikum, in dem diese Kenntnisse erforderlich sind. Ich rechne damit, dass man bald den Fehler erkennt und das Bachelor-Studium auf acht Semester verlängert. Das wäre dann natürlich ein vollwertiges Studium. 

So, wie die Dinge heute liegen, rate ich jedem, der nicht mit allzu großen Schwierig­keiten in Prüfungen und anderen Leistungen zu kämpfen hat, einen Master-Titel zu erwerben. Die Industrie ist nach meinem Eindruck nicht so selektiv, wie sie behaup­tet; wenn die Wirtschaft brummt, werden die Bachelors gut genug sein, und sollte es je eine schwere Krise auf dem Arbeitsmarkt geben, werden auch die Träger eines Master-Titels Mühe haben, eine Stelle zu finden. (Sie werden trotzdem besser gestellt sein als Absolventen anderer Fachrichtungen.) Zweifellos wird der Master-Titel beim Aufstieg in der Firmenhierarchie einigen Auftrieb liefern.

BD: Herr Ludewig, vielen Dank für das Interview. Ich finde Ihre Aussagen sehr ausgewogen und ausgesprochen hilfreich, und werde sie daher meinen Enkelkindern zum Lesen empfehlen.

Samstag, 15. Oktober 2011

Eine Droge namens Keynes

Als Laie, was die Volkswirtschaftehre betrifft, kann man sich nur wundern, wie sehr hier reales Geschehen und seine Deutung durch Experten auseinanderklaffen. Seit dem Mauerfall in Berlin waren einige Autoren und Kommentatoren fest davon überzeugt, dass zumindest ein sehr bekanntes volkswirtschaftliches Prinzip im Mülleimer der Geschichte gelandet sei: die sozialistische (oder kommunistische) Form der Planwirtschaft. Nicht nur schien das ‚Ende der Geschichte‘ erreicht, wie Francis Fukuyama (1952-) dies 1992 glaubte, sondern nur noch ein Wirtschafts­prinzip habe sich als alleinseligmachend erwiesen, nämlich der liberale Kapitalismus. Seine theoretische Unterfütterung bekam dieser Gedanke von Ökonomen wie Milton Friedman (1912-2006) von der University of Chicago. Man sprach daher auch vom Neoliberalismus der Chicagoer Prägung. Noch erinnere ich mich lebhaft an ein Interview mit Friedman, wahrscheinlich im Spiegel, in dem er uns Deutsche aufrief, doch endlich die Sklaverei abzuschütteln. Er meinte damit die Dominanz des Staates über die Wirtschaft, die sich unter anderem darin ausdrückte, dass wir mehr als 50% unserer Einkünfte in Form von Steuern an den Staat abführen müssten.

Inzwischen hat der Liberalismus seinerseits einen Großteil seiner Anhänger verloren, was am augenscheinlichsten in den Umfrage- und Wahlergebnissen der FDP zum Ausdruck kommt. An seine Stelle scheint nicht wieder der Sozialismus zu treten, sondern eine neuverpackte Form der stärkeren Lenkung der Wirtschaft durch den Staat. Das dafür benutzte Schlagwort heißt Keynesianismus.

Unter Keynesianismus wird ein Theoriegebäude verstanden, das im Wesentlichen auf John Maynard Keynes (1883-1946) und sein Buch ‚Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes‘ von 1936 zurückgeht. Keynes‘ Werk gilt allgemein als die beste Analyse der großen Wirtschaftskrise der 1930er Jahre. Sie bezieht ihre Argumente unter anderem aus der vom deutschen Reichskanzler Heinrich Brüning (1885-1970) betriebenen Sparpolitik. Als positives Beispiel gilt die von US-Präsident Franklin D. Roosevelt (1882-1945) eingeleitete verstärkte staatliche Intervention, die als New Deal in die Geschichte einging.

Heute bekennen sich viele Wirtschaftswissenschaftler in einflussreichen Positionen offen als Keynesianer. Beispiele sind Ben Bernanke, der Chef der amerikanischen Zentralbank (Fed), sowie Peter Bofinger, einer der fünf ‚Wirtschaftsweisen‘, welche die deutsche Politik beraten. Da wäre nichts dagegen zu sagen, wenn nicht der Eindruck entstehen würde, dass diese Heilkundigen für alle Krankheiten der Wirtschaft immer nur dasselbe Rezept empfehlen würden. Die Idee, dass man mittels staatlicher Eingriffe einer stagnierenden Wirtschaft zumindest kurzfristig neuen Auftrieb geben kann, ist kaum umstritten. Wenn die natürlich sich ergebende Nachfrage ausbleibt, kann der Staat eine künstliche Nachfrage generieren. Eine Form, die Nachfrage anzuregen, besteht darin, das Schuldenmachen zu erleichtern, indem die Zentralbank (Fed oder EZB) die Zinsen niedrig hält.
 
Das Problem bei diesen Eingriffen besteht darin, zu erkennen, wann man aufhören muss. Die Niedrigzinspolitik zum Beispiel wird inzwischen seit dem Terroristen­anschlag in New York und Washington im Jahre 2001 betrieben, und gilt heute allgemein als Verursacher der Finanzkrise von 2008. Inzwischen – so scheint es – kommen weder kleine noch große Staaten von der Droge Keynes wieder los. Wenn die Wirtschaft nicht so läuft, wie sie soll, – also wenn nicht so viel Steuern fließen wie man hofft, – werden Schulden gemacht, und das auf Teufel komm raus. Das Beispiel im Kleinen heißt Griechenland, das größte Beispiel heißt USA. In beiden Fällen weiß niemand, ob und wann man die Schulden tilgen kann. Das Geld verleihen immer noch die Banken, weil sie glauben (müssen), dass ein Staat ewig liquide bleibt, da ja zur Not die Steuerzahler zur Kasse gebeten werden. Eine zweite Möglichkeit heißt Gelddrucken. Dann werden nicht die Steuern erhöht, sondern das Gesparte der Bürger wird geplündert und die Lebenshaltungskosten erhöht. Was leichter geht, hängt etwas von der geschichtlichen Erfahrung eines Landes ab. So ist bei uns in Deutschland eine hohe Staatsverschuldung (noch) akzeptabler als eine hohe Inflationsrate.

Das System gerät ins Wanken, wenn Zweifel an der finanziellen Solidität eines Staates entstehen. Dann geraten zunächst diejenigen Banken in Schwierigkeiten, die sehr viel Geld (also 10 Mrd. € aufwärts) in Staatsanleihen besitzen. Damit sie nicht zusammenbrechen, werden sie vom Staat gestützt, oder gleich verstaatlicht. So geschehen letzte Woche im Falle der belgisch-französischen Bank Dexia. Damit Staaten diesen Kraftakt vollbringen können, müssen sie ihre Schuldenlast vergrößern. Dieses Spiel geht im Moment noch gut, da Staat A für Staat B (und seine Banken) bürgt. Wie es in der Endphase aussieht, d.h. wenn es nur noch wackelnde Staaten gibt, kann ich mir als Laie noch nicht ausdenken. Ich bezweifele sogar, dass die Wissenschaftler unter den Ökonomen dies wissen.

Inzwischen wird die Diskussion um Banken und Staatsschulden auch auf die Straße getragen. In New York heißt es ‚Besetzt die Wall Street!‘. Entsprechende Slogans werden wir heute in Frankfurt und in andern deutschen Städten hören. Zu den Auslösern dieser Bewegung gehört der ehemalige französische Diplomat Stéphane Hessel. Als 94-Jähriger hat er Ende 2010 eine kleine Streitschrift (14 Seiten) veröffentlicht mit dem Titel ‚Empört Euch!‘. Sie ist inzwischen in vielen Sprachen millionenfach im Umlauf. Welch ein Erfolg! Neben andern Problemen unserer Gesellschaften geißelt Hessel darin auch den Finanzkapitalismus, der sich den Staat zum Diener gemacht hätte. Indem er Risiken eingeht, die er nicht selbst beherrschen kann, muss der Staat immer wieder den Nothelfer spielen. Wie schön wäre es, man könnte die Dinge doch vereinfachen!

In dem modernen Paradies, von dem wir alle träumen, liegen zahme Staaten neben zahmen Banken in einem blühenden Park nebeneinander. Ich habe absichtlich nicht von dem Staat, noch von schwachen Staaten und schwachen Banken gesprochen. Die Entglobalisierung und Entflechtung der Wirtschaft steht zwar auch bei Hessel und anderen auf der Agenda, ist jedoch eher eine Utopie. Die Banker als Berufsstand sind heute sehr zu bemitleiden. Einerseits schreiben ihnen Politiker vor, was sie tun sollen, etwa in (bisher so) risikoarme Staatsanleihen statt in risikoreiche Industriebeteiligungen zu investieren. Tun sie genau dies, werden sie von Ratingagenturen und Politikern kritisiert. Zu allem Überfluss gibt es dann noch mathematische Modelle, die einem vorschreiben, wie man auf den Markt zu reagieren hat.

Mittwoch, 12. Oktober 2011

Arnoud de Kemp über Verlags- und Informationswesen - Qua vadis?

Arnoud de Kemp ist Verleger und Konferenzorganisator. Als Geschäftsführer leitet er die Verlage Akademische Verlagsgesellschaft (AKA) GmbH und digiprimo, beide in Heidelberg. Alle englischsprachigen Bücher und Zeitschriften werden mit IOS Press in Amsterdam für den internationalen Vertrieb zusammen publiziert. De Kemp war bis 2004 globaler Marketing- und Verkaufchef des wissenschaftlichen Springer-Verlags in Berlin, Heidelberg und New York, und als Mitglied der Geschäftsleitung zuständig für die Entwicklung von Neuen Medien. SpringerLink datiert aus dieser Zeit. Von 1990 bis 1996 war er Präsident der Deutschen Gesellschaft für Dokumentation (DGD), der heutigen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Er war bis vor kurzem Sprecher des Arbeitskreises elektronisches Publizieren (AKEP) im Börsenverein des Deutschen Buchhandels und Vorstandsmitglied der International Association of STM Publishers. Seit 2005 organisiert er jährlich die internationale Konferenz APE (Academic Publishing in Europe) und seit Sommer 2011 die 'Informare in Berlin. De Kemp ist gebürtiger Niederländer, lebt und arbeitet aber seit 1984 in Deutschland.  



Bertal Dresen (BD): Als wir uns beide zwischen 1995 und 1997 für das von der Bundesregierung geförderte Projekt MeDoc engagierten, an dem 14 Verlage und 30 Hochschulen teilnahmen, hofften wir, dass wir den deutschen Verlegern zu einem frühen Start in Richtung Elektronische Medien und Internet verhelfen würden. Mein Eindruck ist, dass von einer oder zwei Ausnahmen abgesehen, diese Chance vertan wurde. Wenn ja, woran lag dies? War die Struktur der Branche mit ihren vielen kleinen und mittelgroßen Unternehmen daran schuld, die lieber konkurrieren als kooperieren? Oder waren wir einfach zu früh?

Arnoud de Kemp (AdK): Im Rückblick war es eindeutig viel zu früh. Auch 10 Jahre später, also zwischen 2005 und 2007, wäre es noch zu früh gewesen. Wir waren absolute Pioniere, obwohl wir das selbst damals nicht so gesehen haben. Der Springer-Verlag hatte dank seiner Nähe zum IBM-Wissenschaftszentrum in Heidelberg zwar einen Glasfaser-Anschluss und konnte vor dem Aufkommen des Internets bereits im EARN-Netz experimentieren. Der Leiter des Bereichs Wissenschaft der IBM und damalige Präsident der GI, Prof. Dr. Wolfgang Glatthaar, sowie der Geschäftsführer des Springer-Verlags, Professor Dr. Dietrich Götze, haben unsere Gehversuche stark unterstützt. Das Projekt verlief nicht ohne Widerstände. 

BD: Wir beide waren der Ansicht – und sind es wohl auch heute noch –, dass die neuen Medien, für die stellvertretend das Internet steht, ein großes gesellschaftliches und geschäftliches Potenzial bergen. Nicht nur kann Wissen schneller und kostengünstiger verteilt werden, es werden ganz neue Nutzergruppen und Nutzungsweisen erschlossen. Nur so kann man die riesig anwachsenden Massen an Information überhaupt handhaben. Warum wird dieses Potenzial von den traditionellen Verlegern – vor allem den wissenschaftlichen – so wenig genutzt? Wurde durch das von Google benutzte Geschäftsmodell, das Inhalte über Werbung finanziert, der Raum für andere Geschäftsmodelle zunichte gemacht? Oder fehlt bei den von ihrer papiernen Vergangenheit geprägten Verlegern schlicht die technische Kompetenz oder die kaufmännische Intuition?

AdK: Lange hat die technische Kompetenz gefehlt, vor allem bei den kleineren Verlagen. Dann gab es kaum Erfahrung mit Geschäftsmodellen. Werbung in Kombination mit wissenschaftlichen Inhalten haben wir als Verleger kollektiv abgelehnt. Google war uns durch Google Book Search, Google Scholar etc. eher suspekt. Stattdessen hat der Börsenverein des Deutschen Buchhandels vor drei Jahren über seine Tochter MVB die Plattform ‚Libreka!’ gestartet, um für viele Verlage den Einstieg zu ermöglichen. 

BD: Wenn ich sehe, was einige wissenschaftliche Verlage heute, also fast 20 Jahre nach MeDoc, auf diesem Gebiet zustande bringen, so kann ich das bestenfalls als Abwehrmaßnahme verstehen. Wenn überhaupt, so werden elektronische Versionen von Büchern und Zeitschriftenartikeln im Internet nur zu Preisen angeboten, die ich als horrend bezeichnen muss. Ist dieser Eindruck richtig? Wenn ja, was ist Deiner Ansicht nach schief gelaufen? Ist das nur ein deutsches oder europäisches Problem? Gibt es überhaupt Beispiele dafür, dass ein Verlag, der die elektronischen Medien ernst nimmt, dabei auch Geld verdient? Genannt wird immer nur das Wall Street Journal.

AdK: Das stimmt so nicht. Die Verlage haben insgesamt fast die gesamte Zeitschriftenliteratur digitalisiert, oft rückwärts zu Jahrgang 1, Heft 1. Es sind eigene Angebote wie ScienceDirect oder SpringerLink oder via Aggregatoren wie MetaPress. Das Angebot wird zunehmend ergänzt mit Informationen aus ‚data mining’ und ‚content enrichment‘ Programmen. Jetzt fängt man mit Büchern an. Zum Beispiel: Springer digitalisiert alle 60.000+ Titel seit 1842, bietet aus dem aktuellen Programm bereits über 20.000 Titel an. De Gruyter digitalisiert jedes alte Buch das elektronisch nachbestellt wird. 

Es gibt seit Jahren vielfältige Angebote für die Nutzung durch Bibliotheken und Konsortien, unter anderem Nationallizenzen. In Deutschland werden diese von der DFG ausgehandelt. Print ist nur noch Zusatz. Der Umsatz wird zum größten Teil mit diesen Lizenzen gemacht. (Quelle: Jahresberichte der Verlage)

BD: Viele Leute zweifeln daran, dass man den Verleger im herkömmlichen Sinne in Zukunft überhaupt noch benötigt. Jeder könne sein eigener Verleger sein, wie ich dies seit Anfang dieses Jahres bei diesem Blog bin. Andere schwören auf die kollektive Intelligenz der Massen, wie sie sich bei Wikipedia manifestiert. Welchen Mehrwert kann ein Autor in Zukunft (noch) von einem Verleger erwarten? Spielt der einzelne Autor überhaupt noch eine Rolle gegenüber der anonymen Autorengruppe?

AdK: Ach, wenn ich sehe, wie viel Arbeit wir in unserem kleinen Verlag in der Produktion von Büchern und Zeitschriften stecken müssen, mache ich mir keine Sorgen. Uns geht es um einheitliche Qualität von geprüften Inhalten. Wir lassen deswegen Zeitschriftenaufsätze setzen und für neue Datenstrukturen wie XML aufbereiten. Bei Zeitschriften ist und bleibt das ‚peer reviewing’ die Garantie für Qualität. Aber wir wissen, auch Dissertationen sollten unabhängig geprüft werden. Sic! Natürlich gibt es immer mehr ‚user generated content, und Wikipedia ist das bekannteste Beispiel dafür. Informationen in ‚social media’ werden wahrgenommen, aber ich weiß aus leidiger Erfahrung, dass sehr viel nachrecherchiert werden muss. 

Wenn die Information gut aufbereitet und gut attributiert wird, kann sie gefunden werden. Autorennamen sind zwar leicht suchbar, aber man sucht normalerweise nach Beschreibungen und Lösungen. 

BD: Da Wissenschaft zu einem großen Teil vom Steuerzahler finanziert wird, hört man das Argument, dass ihre Ergebnisse der Allgemeinheit kostenlos zur Verfügung gestellt werden sollten. Anderseits müssen Wissenschaftler veröffentlichen, wollen sie eine akademische Karriere machen. Beide Überlegungen führten dazu, dass einerseits die Wissenschaft verstärkt ein eigenes Publikationswesen betreibt, Open Access genannt. Anderseits gibt es Zeitschriften, bei denen die Autoren zahlen, die Leser jedoch nicht. Wie wichtig sind diese beiden Tendenzen? Bedeuten sie das Ende privater Verlage, zumindest im Bereich der Wissenschaften?

AdK: Open Access (OA) ist insgesamt immer noch eine Randerscheinung. Für mich ist es nichts Neues, sondern lediglich eine Änderung der Finanzierung. Wir wissen inzwischen, dass es volkswirtschaftlich nicht billiger wird. Im klassischen Modell haben die Verlage und Bibliotheken vorfinanziert. Beim OA bezahlt der Autor, sein Institut, die Universität oder die DFG. Mitglieder von Gesellschaften erhalten die Publikationen im Rahmen der Mitgliedschaft kostenlos oder zum ‚member rate’. Die institutionellen Abonnements finanzierten das Publikationsmodell. Die wissenschaftlichen Gesellschaften haben mit OA mehr Probleme als die Verlage und mancher Verlag verdient inzwischen prächtig mit der OA-Vorfinanzierung. Kleinere Verlage haben schon längst Allianzen gebildet und lassen ihre Pakete von Agenturen wie Swets verwerten. 

BD: Einige Autoren und Gruppierungen vertreten die Meinung, dass im Blick auf das Internet das Urheberrecht nur noch ein historischer Ballast sei. Gerade hat in Deutschland die Partei der Piraten, die freien Zugriff auf alle Netzinhalte fordert, einen beeindruckenden Wahlerfolg erzielt. Was ist an dieser Kritik berechtigt? Wie sehr ist es ein Problem, dass viele Leute, vor allem junge Menschen, sich daran gewöhnt haben, dass Information meist kostenlos angeboten wird? Was ist von Vorschlägen zu halten, die eine Flatrate vorsehen ähnlich den Rundfunkgebühren? Oder bezahlen wir in Zukunft mit der Kulturwertmarke des Chaos Computer Clubs?

AdK: Der Wahlerfolg der Piraten war in Berlin und sie haben jetzt einige Sitze im Senat, wo sie ihre erfrischenden Ideen einbringen können. Aber auch Piraten wissen, dass man Künstler und Autoren nicht enteignen kann. Die Frankfurter Buchmesse zeigt in dieser Woche über hunderttausend neue Bücher, die man kaufen muss. Apple hat gezeigt, wie man mit Musik viel Geld verdienen kann. Die zwangsmäßig eingezogenen Rundfunkgebühren sind leider ein Garant für ein inhaltlich sehr mäßiges Angebot. Eine Flatrate für Information ist aus meiner Sicht so undemokratisch wie freies Benzin für Autofahrer.

BD: Oft wird auch der Informatikbranche der Vorwurf gemacht, dass wir neue Medien in den Markt drücken, nur um das Geschäft mit den Geräten zu machen, ohne Rücksicht darauf, was dies für Nutzer oder andere Branchen bedeutet. Sollte man neue Techniken langsamer in den Markt bringen? Lässt sich eine Technikfolgenabschätzung im Voraus überhaupt machen? Überwiegt der Vorteil der technischen Dynamik nicht den Schaden?

AdK: Der inzwischen legendäre Steve Jobs hat uns allen gezeigt, wie man neue Geräte geschmackvoll und nutzerfreundlich mit Inhalten verknüpfen kann. Keiner hat vorher sagen können, wie schnell iPod, iPhone und iPad unser Leben verändern würden. Mein PowerMac kostete im Jahre 2008 über 2.000 Euro. Das neue, viel schnellere iMac 27“ kostete die Hälfte und ist eine reine Freude. Ich sehe mit großem Interesse wie die Zeit, die FAZ, der Spiegel usw. wirklich interessante Nutzungsmöglichkeiten anbieten. Ich bleibe deswegen optimistisch. Wir leben in einer aufregenden Zeit. 

BD: Du lebst und arbeitest inzwischen 35 Jahre in Deutschland. In welchen Punkten fiel Dir die Umstellung am schwersten? Was vermisst Du am meisten?

AdK: Ich vermisse die Nordsee und den frischen Wind. Im Übrigen feiern meine (deutsche) Lebensgefährtin und ich bald 34 Jahre des Zusammenseins. Es ist alles bestens. 

BD: Lieber Arnoud, vielen Dank für dieses Interview kurz vor der Frankfurter Buchmesse. Ich weiß, nicht nur die Buchmessen, auch Deine Autoren halten Dich auf Trapp.