Mittwoch, 26. Dezember 2012

Hohes Alter zwischen Belastung und Chance

Der biblische Methusalem soll 969 Jahre alt geworden sein. Gerade in diesem Fall darf man die Bibel nicht allzu wörtlich nehmen. Dennoch gilt er als der Prototyp eines sagenhaft alten Menschen. Heute gibt es etwa 40.000 über hundert Jahre alte Erdenbewohner, 6.000 davon in Deutschland. Ihre Zahl soll sich etwa alle zehn Jahre verdoppeln. Wir sind ohne Zweifel eine Gesellschaft, in der die Lebenserwartungen steigen und daher das Phänomen Alter an Bedeutung gewinnt. Auch bei mir liegt das Thema nicht ganz fern. In einer E-Mail an meine Freunde und Bekannten vor Weihnachten schrieb ich:

Wenn in meinen Blog-Beiträgen die von Margarete Mitscherlich angesprochene ‚Radikalität des Alters‘ hin und wieder zum Ausdruck kommt, ist das kein Zeichen, dass ich mit meinem Schicksal hadere. Dazu habe ich nicht den geringsten Anlass. Es ist das Gefühl, dass mir die Zeit davon läuft. Da ich inzwischen 80 Jahre alt bin, brauche ich mich dieses Gefühls nicht mehr zu schämen. Mir fallen immer wieder Dinge ein, von denen ich glaube, dass ich dazu eigentlich etwas sagen sollte.

Einige der Empfänger mögen sich über diese Anwandlung etwas gewundert haben. Ich möchte daher diesen Gedankenkomplex etwas vertiefen. Nach der Frage ‚Ist die Welt noch zu retten?‘ vor einem Jahr passt das Thema ganz gut zum Jahreswechsel.

Populäres und Wissenschaftliches zum Thema Altwerden

Bevor ich meine eigenen Gedanken bringe, will ich im Folgenden auf drei Bücher Bezug nehmen. Am weitesten zurück liegt das im Jahre 2004 erschienene Buch Methusalem-Komplott von Frank Schirrmacher. Im Klappentext schreibt der wegen anderer etwas gewagter Extrapolationen berühmt-berüchtigte FAZ-Mitherausgeber:

Die heutigen Jungen müssen – schon aus Überlebensinstinkt - die Diskriminierung des Alters bekämpfen, andernfalls werden sie in dreißig Jahren in die seelische Sklaverei gehen. Denn negative Altersvorstellungen führen zur selbstverschuldeten Unmündigkeit.

Der Journalist Schirrmacher hat zweifellos mögliche Konsequenzen des demografischen Wandels ins Bewusstsein der breiten Öffentlichkeit gebracht. Er wollte eher die Jugend aufrütteln, als differenziert auf die Situation der Alten eingehen. Bis zum Jahre 2010 hatte er die ‚Gerontokratie‘ vorhergesagt. Alte würden Wahlen entscheiden, nicht zuletzt wegen ihrer hohen Wahlbeteiligung.

Margarete Mitscherlichs oben zitiertes Buch erschien 2010. Die inzwischen verstorbene Psychoanalytikerin war damals 95 Jahren alt. Ihre Perspektive ist sowohl die einer Freud-Anhängerin als auch einer betroffenen Alten. Sie gehörte damals sogar zu den ‚alten Alten‘, wie man Menschen jenseits des 80. Geburtstags nennt. Hier sollen nur einige wenige Passagen in Paraphrase wiedergeben, in denen sie über die Rolle des Alters reflektiert.

Das Altern erlaubt herauszufinden, was wirklich ist. Alte wissen, was falsch gelaufen ist. Sie haben die Differenziertheit der Wahrheit wahrgenommen. Alte haben einerseits Erfahrung, andererseits (wenn sie geistig gesund sind) noch die Plastizität des Gehirns, um zu lernen. Sie müssen den (unausweichlichen) Tod verdrängen, sonst hängen sie herum. Dank Computern werden Männer mit Muskeln überflüssig. Im Alter werden Frauen relativ stärker als Männer.

Zwei Sätze des ungarischen Autors Imre Kertész, die Mitscherlich zitiert, passen hierher: Da wir sterben müssen, tun wir gut daran kühn zu denken. Wenn nicht im Alter, wann wollen wir denn die Welt noch verändern? Allerdings sind die Chancen für Erfolg geringer als in der Jugend. Für ihre Art von Altersklugheit spricht der Satz: Es gibt viele Wahrheiten, je nach den Wahrnehmungsfähigkeiten, die man sich eröffnete.

Das dritte Buch hat den Titel Gutes Leben im hohen Alter und ist von A. Kruse, Th. Rensch und H.-P. Zimmermann. Es ist im Oktober 2012 erschienen. Es fasst Vorträge zusammen, die im Jahre 2011 bei einer von der VW-Stiftung geförderten Tagung gehalten wurden. Das Thema wird aus mehreren Sichten behandelt, z.B. Ethik, Biologie, Anthropologie, Gerontologie und Volkskunde.

Von ethischer Relevanz ist die immer noch vorhandene Altersfeindlichkeit in westlichen Gesellschaften. Junge Menschen wollen sich hervorheben, oft auf Kosten der Alten. Der Hang zur Bildung von Stereotypen ist ein Hang zur Abstraktion. Menschen neigen dazu wegen der beschränkten Informationsverarbeitungskapazität ihrer Gehirne. In dem Maße, wie bei Alten die Beurteilung durch seinesgleichen wegfällt, wird ihnen ein Menschenrecht entzogen. Die Biologie gilt nicht als Freundin des Alters. Aus evolutionärer Sicht tragen Menschen im post-reproduktiven Alter zur Reproduktionsfähigkeit der Nachkommen bei, wenn sie bei der Kinderbetreuung mithelfen. Das war in der Sammler- und Bauernphase der Fall, ist es aber heute nicht mehr. Aus medizinischer Sicht ist der Trend zu längerer Lebensdauer beispiellos und unumkehrbar. Über den gewonnenen Jahren hängt die Bedrohung durch Demenz-Erkrankungen. Alzheimer zerstört die Persönlichkeit. Unterschiedliche Kulturen haben unterschiedliche Altersbilder. Sie sind zeitlich und räumlich variabel. Es gibt gutes und schlechtes Altern. Das Phänomen Alter ist ambivalent. Alte Leute stellen Ressourcen und Potenziale dar. Der Preis ist die Verletzlichkeit, und zwar körperlich und/oder geistig.

Obwohl das Lebensende durch den biologischen Tod markiert ist, spricht man auch im übertragenen Sinne vom Tod. Durch eine Demenz tritt eine Art intellektueller Tod ein. In Umkehrung von René Descartes‘ Diktum heißt es ‘Ich denke nicht mehr, also bin ich nicht mehr‘. Es ist ein Absinken auf die tierische Ebene des Lebens. Etwas ganz anderes bezeichnet der Begriff sozialer Tod. Hiermit ist die Loslösung vom sozialen Umfeld gemeint. Sie besteht häufig im Abschieben eines alten, aber geistig noch gesunden Menschen in die Obhut Fremder, wenn Angehörige nicht in der Lage sind oder sich weigern die Pflege ihrer alten Angehörigen zu übernehmen. Dass alte Menschen keinen Kontakt zu jungen Menschen haben, muss aber nicht nur an der jungen Generation liegen.

Die Autoren möchten einen stärkeren gesellschaftlichen Diskurs anregen. Wir sollten darüber nachdenken, wie man über das Thema redet, was man möchte oder was man erreichen kann. Am Anfang stehe das Differenzieren. Alter(n) ist nicht gleich Alter(n). Alte benötigen Kultur und Technik, um für Defizite zu kompensieren. Teilweise sei ein Paradigmenwechsel erforderlich. Es sei falsch von einer Vergreisung der Gesellschaft zu sprechen. Menschen werden nicht nur älter, sondern werden gesünder älter als frühere Generationen. Das Alter gestatte es, sich auf Wesentliches zu konzentrieren, man hätte gelernt, Unnötiges von Nötigem zu unterscheiden. Es sei ein ‚authentisches Werden zu sich selbst‘.

Gedanken eines über 80-jährigen Informatikers

Ich stelle mich absichtlich so vor, weil damit bereits eine Aussage erfolgt. In einem früheren Beitrag hatte ich primär über die gesundheitliche Seite reflektiert. Jetzt möchte ich ein paar fachliche Gedanken hinterherschicken.

Im Vergleich zu einem Philosophen oder Mathematiker stellt sich beim Informatiker  (oder Ingenieur) die Problematik des Alterns in besonderem Maße. Seine Leistungsfähigkeit hängt entscheidend davon ab, wie sehr er mit Wissen und Techniken vertraut ist, die während seiner Berufszeit entstanden sind. Da hilft nur lebenslanges Lernen. Es gilt nicht die Entschuldigung, die besagt, dass dies im Alter generell nicht möglich ist. Gerade in der Informatik ist das Gerede von der Halbwertzeit des Wissens sehr verbreitet. Es wird damit suggeriert, dass man alles, was man vor x Jahren (x < 10) gelernt hätte, vergessen müsste. Es ist nicht nur aus diesem Grunde unangebracht, laufend das Studium zu verlängern.

Tatsächlich  benutzen wir unsere Produkte kaum länger als fünf Jahre. Die meisten stammen von Firmen, die es vor 10 Jahren nicht gab. Wer aufmerksam sein Fachgebiet verfolgte, weiß, dass manche Ideen schon vor 30 oder 40 Jahren diskutiert wurden, sie aber jetzt erst voll realisiert wurden. Beispiele sind Navigationsgeräte, Suchmaschinen und eBooks, vor allem aber die Integration von Telefon, Ton- und Filmwiedergabe, Kameras, Fernsehen und Computer. Man durfte auch vor 30 Jahren nicht nur nach hinten schauen. Es ist enorm wichtig, dass realistische Utopien gepredigt werden. Wer kann das besser als ein durch Erfahrung geläuterter Experte. Als Bill Gates von Computern auf jedem Schreibtisch sprach, war dies mutig. Heute ist es ein alter Hut. Angepasste Aussagen könnten heute lauten: Zehn Computer an jedem menschlichen Körper, fünfzig in jedem Auto und hundert in jedem Haus, ein paar Tausend auf dem Mond. Je weiter in die Ferne man blickt, umso klarer fallen auch Dinge in der Nachbarschaft ins Auge. So ist das große Potenzial, das die Informatik hat, um sich für Senioren nützlich zu machen (siehe den Blog-Eintrag vom Februar 2011) immer noch nicht ganz ausgeschöpft.

Die lange Sicht, die das hohe Alter bietet, lässt auch die Dauerbrenner erkennen, an denen so mancher Kollege sich die Zähne ausbiss bzw. das Geld der Steuerzahler verbrannte. Auf ihren Durchbruch warten wir heute noch. Ich gebe auch dafür einige Beispiele: fehlerfreie Programme, semantisches Textverstehen, Gesichtserkennung, autonome Agenten, individuelle Benutzerschnittstellen und vollkommene Sicherheit. Es ist wie mit der absoluten Gerechtigkeit, nach der Politiker ewig streben. Die Einsicht, die aus den vielen Fehlschlägen kommt, lautet: Quantitatives Wachstum ist um Klassen leichter als qualitatives. Quantitative Fortschritte lösen wie von selbst qualitative Fortschritte aus.

Noch immer stellt man sich Informatiker meistens als Heranwachsende vor, die besonders häufig auch noch einem Jugendwahn anhängen. Oft sind es Leute mit Vollbart oder Irokesenschnitt, die sich als Sprecher unserer Branche ausgeben. Auch die Piratenpartei hat einen sehr hohen Zulauf von Informatikerinnen und Informatikern. Diese Partei nimmt sich angeblich der Probleme an, die Informatiker besonders interessieren, nämlich Freiheit des Hackens, Abschaffung des Urheberrechts und Freigabe von Porno und Haschisch. Die Jugendhaftigkeit eines Fachgebietes macht sich in zweierlei Hinsicht bemerkbar: Fachlich gibt es keine Vergangenheit, die es wert ist, beachtet zu werden. Seine Berufsvertreter sind vorwiegend junge Menschen. Als solche wollen sie ihre eigenen Wege gehen, ohne sich andere Fachgebiete als Vorbild zu nehmen, ohne von ihnen lernen zu wollen. Die Informatik müsste diesem Alter eigentlich längst entwachsen sein.

Auch andere Lebensbereiche profitieren mitunter vom Rat alter Mitbürger. Wenn immer der 93-jährige Helmut Schmidt etwas zur Europa-Politik der SPD sagt, hat dies Gewicht. Auch dem 90-jährigen Henry Kissinger zuzuhören, lohnt sich.

Versuch einer Bilanz

In dem heutigen Titel steckt – unabhängig von ethischen Aspekten – die Frage nach einer Kosten-Nutzen-Analyse der durch die achtzig bis hundertjährigen Mitbürger verursachten Belastungen. Man kann dies auf Basis eines Individuums tun, einer Familie oder der Gesellschaft. Nicht alle Alten verbrauchen nur noch Kalorien und Sauerstoff, wie das lästernde Zungen behaupten. Wenn immer Alte noch rüstig sind, und sich beschäftigen können, sollte man sie gewähren lassen. Wenn sie dabei Informationsverarbeitung betreiben, dann geht es in Richtung von Wissensverarbeitung. Wer dies ein Leben lang gemacht hat, kann im Alter nicht anders. Dabei entstehen viele Deutungen und neue Theorien. Man kann es vergleichen mit dem Projekt SETI@home. Viele suchen, vielleicht findet sogar einer etwas. Da es Alten oft größere Mühe macht zu reden als Jungen, haben sie meistens etwas zu sagen, wenn sie sich melden.

Zum Glück müssen ältere Informatiker sich nicht vorwerfen lassen, jungen Menschen Jobs zu stehlen. Was die öffentliche Meinung anbetrifft, befinden sie sich jedoch in einem Dilemma. Wer nach der Pensionierung in seinem Beruf weitermacht, kommt in den Ruf nicht loslassen zu können. Damit müssen sie leben. Wer nämlich loslässt, dem kann passieren, dass er als senil verschrien wird. Das ist schlimmer. Der dritte Weg, im hohen Alter etwas ganz Neues anzufangen, fällt sehr schwer.

Ganz am Schluss den Rat einer Mystikerin und Heiligen: Alte dürfen nie rechthaberisch werden. Sie müssen die Weisheit behalten einzugestehen, dass man sich immer irren kann. Dieser Rat stammt von Teresa von Avila (1515-1582). Er hätte auch von der 97-jährigen Margarete Mitscherlich stammen können.

Danken möchte ich meinem Freund Arnoud de Kemp, der mir das in seinem Verlag erschienene Buch von Kruse, Rensch und Zimmermann schenkte. Allen Lesern dieses Blogs - jungen wie alten - wünsche ich ein gutes Neues Jahr 2013.


Am 27.12.2012 schrieb Hartmut Wedekind aus Darmstadt:



Nachbemerkung (Bertal Dresen): Ungewollt liefert dieser ‚Korrekturvorschlag‘ einen Beleg für meine wiederholt geäußerte Kritik an den semantik-blinden Strukturwissenschaften, sei es Mathematik oder Logik. Ich befürchte, dass die Logik hier den Formelgläubigen auf den Leim führte. Sozialtot ist nur ein Wortspiel. Natürlich denken abgeschobene Alte noch, sofern sie geistig gesund sind. Ja, sie ärgern sich fürchterlich, insbesondere über die Jungen. Wird jedoch ‒ wie in meinem Text ‒ differenziert zwischen ‚sozial tot‘ und ‚geistig tot‘, dann passt auch der Formalismus wenigstens wieder teilweise. Die Welt der Mathematiker wäre wirklich einfach und schön, würden Physiker und Ingenieure nicht mathematische Formeln anwenden auf Dinge, die eine Semantik, d.h. Bedeutung, haben! Oder umgekehrt: Warum warnen Physiker, Ingenieure und Informatiker eigentlich nicht vor diesem gefährlichen Spielzeug?

Hartmut Wedekinds Antwort am 28.12.2012: So ist der Text wunderbar. Es steht Ihnen zu, ihn zu bringen oder nicht. Bloß Ihr Einwand ist nicht logischer Natur, sondern betrifft die Begriffsbildung, die der schließenden Logik vorangeht. Was ist sozialtot oder was ist der soziale Tod? Man kann jetzt streiten, Mediziner und Theologen tun das sicherlich. Wenn einer hoffnungslos jahrelang im Koma auf einer Intensivstation an Apparaten hängt, dann ist diese bedauernswerte Person sozialtot. Er hört nichts mehr, er sieht nichts mehr, und denken tut er deshalb auch nicht mehr. Er wird nur noch biologisch am Leben gehalten. Diesen Zustand gibt es. Ich glaube, den können Ärzte bestätigen. Einen guten Studienfreund von mir hat man rund 10 Jahre so am Leben gehalten, bis er dann schließlich biologisch starb. Das ist jetzt schon wieder 10 Jahre her. Er war zu Berufszeiten Vorstandsmitglied einer großen deutschen Aktiengesellschaft. Die Erben wollten, dass er biologisch am Leben blieb, hat man mir berichtet. Ein andere Einwand wäre : "Der Descartes-Spruch ist falsch". Aus Falschem kann man logisch nichts schließen (ex falso quodlibet). Aber das behaupten Sie ja nicht. Denn Sie benutzen das " cogito ergo sum " ja selber.

PS: Diese Korrepondenz wurde hier eingefügt, weil der Kommentar-Modus nicht nur in der Länge sondern auch im Zeichensatz noch stärker beschränkt ist. Schön, wie Hartmut Wedekind mich abblitzen lässt: Ein Einwand 'nicht logischer Natur' ist eigentlich keiner! Oder verallgemeinert auf eine Vielzahl wissenschaftlicher Disziplinen: Was man mit meiner Lieblingsmethode nicht bearbeiten kann, ist kein ernst zu nehmendes Problem!
 

Freitag, 21. Dezember 2012

Kalender-Geschichten

Heute beginnt ein neuer 5128-Jahrzyklus im Maya-Kalender. Das sind 13 Baktun Jahre. Da die Maya-Gelehrten ihren Leuten nicht sagen konnten, wie der Übergang von Statten gehen würde, meinten diese, die Welt ginge unter. Immerhin werden dieser Tage die Maya im Fernsehen erwähnt, auch der Dresdner Codex. Das ist einer von drei längeren auf Papier erhaltenen Texten, die das Autodafé der spanischen Missionare überstanden haben.

Genau so wie jetzt den Maya erging es der westlichen Welt am 1.1.1000 und am 1.1.2000. Beim ersten Termin musste Papst Silvester II. das Volk beruhigen. Letzteres Datum behielt seine magische Bedeutung, selbst nachdem Papst Gregor XIII. 1582 zehn Tage aus dem Kalender gestrichen hatte. In Russland hat man übrigens diese Tage bis heute behalten, soweit der Kirchenkalender betroffen ist. Die letzten protestantischen Gegenden Deutschlands (z.B. die Stadt Lindau am Bodensee) gaben 1839 klein bei. Das Königreich Griechenland folgte 1924, die Volksrepublik China 1949. Sämtliche Astrologen ließen sich von Papst Gregor jedoch nicht irritieren.

Übriges wussten Sie, warum Freitag, der 13., einen so schlechten Ruf hat. Es ist statistisch nachgewiesen, dass diese Kombination von Wochentag und Monatsdatum häufiger vorkommt als jede andere. Der Unterschied ist minimal. Aber auch im Sport liegt der Sieger oft nur um hundertstel Sekunden vorne. Diese Erklärung und viele andere finden Sie in dem schönen Büchlein Kalender und Chronologie meines inzwischen 93-jährigen Wiener Kollegen Heinz Zemanek. Das Buch hat soeben eine Neuauflage bekommen.

PS. Wem dieser Eintrag zu kurz ist, darf gerne andere den Kalender betreffende Betrachtungen hinzufügen.

Donnerstag, 20. Dezember 2012

In Memoriam des Soziologen Albert Hirschman

Am 19.12.2012 schrieb Hartmut Wedekind aus Darmstadt:


Zum Tode von Albert O. Hirschman (1915-2012)

Da geht einer hin und reduziert den Kern  großer sozialer Systeme wie z.B. von Staaten, Kirchen, Firmen, Vereinen und Familien auf eine  Triade (Dreiheit) 

                                       {Exit, Voice, Loyalty},

und setzt eine Welt in Erstaunen. Wer war dieser Mann und was bedeutet seine Triade?

Albert O. Hirschman war Professor für Sozialwissenschaften an diversen bedeutenden Universitäten der USA. 1915 in Berlin geboren, machte er 1932  das Abitur am französischen Gymnasium  seiner  Heimatstadt. Dann musste er vor den Nazis fliehen. Wie viele Amerikaner deutscher Herkunft verlor er  das zweite ‚n‘ in seinem Namen. Er kam insbesondere nach der Wende gerne wieder in seine Heimatstadt zurück und war einige Zeit Fellow am Wissenschaftskolleg in Berlin. Weltberühmt wurde er 1970 durch sein Buch „Exit, Voice und Loyality: Response to Decline in Firms, Organizations, and States,“ Cambridge, Mass., Harvard University Press. “Exit” wird am besten mit “Abwandern” und „Voice “ mit „Widerspruch“ oder „Protest“ übersetzt.  Viele, die schon einmal in Organisationen gearbeitet haben,  kennen die drei Phasen:  Zunächst loyal zum Unternehmen, dann beklagt man Missstände (Voice), um schließlich, wenn alles  nicht hilft und die Missstände nicht beseitigbar sind, Adieu (Exit) zu sagen. Das ist das Großartige am Werk von Hirschman, scheinbar triviale, sozial-psychologische  Zusammenhänge präzise und im großen Stil beschrieben zu haben. Prägnanz ist die Hauptauszeichnung, die  er verdient.

Schauen wir uns die Abwanderungen (Exit) aus den Kirchen an. Anfängliche Loyalität und das Beklagen von Missständen führt in bestimmten Konstellationen zum Austritt, zur Auflösung der organisatorischen Bande. Und wie war die Situation in der DDR „Abwanderung, Widerspruch und das Schicksal der Deutschen Demokratischen Republik“ lautet das erste Kapitel im lesenswerten Buch von 1996 mit dem Titel „Selbstbefragung und Erkenntnis“ (A Propensity to Self-Subversion), Carl Hanser Verlag.

Es wäre müßig, hier die vielen Beispiele auch aus dem Arbeitsleben aufzuführen, die Hirschman untersucht hat. Erstaunlich ist, was  Triaden schon  bewirkt haben. Wir finden unter dem Stichwort „Triade“ im Mittelstraßschen Lexikon  die folgende Erklärung: Triade (auch: Trias, Dreizahl, Dreiheit), Bezeichnung für ein vielfältig angewendetes Gliederungsschema, das sich in Dreiteilungen  wie memoria – intelligentia - voluntas, Geist - Seele – Leib, Himmel - Erde - Hölle, Thesis- Antithesis-Synthesis etc. wiederfindet.

Triaden sind halt phänomenal im menschlichen Geistesleben. Am Montag, dem 10. Dezember 2012, ist Albert O. Hirschman im Alter von 97 Jahren  in New Jersey gestorben. Er war u.a. auch  Ehrendoktor  der Freien Universität Berlin (1988).


Dienstag, 18. Dezember 2012

Wird Mathematik von Informatikern (immer noch) überbetont ‒ vor allem im Studium?

Informatik und Mathematik sind ein Fächerpaar, dessen Verhältnis völlig anders ist als das zwischen Physik und Mathematik. Deshalb ist kaum etwas von dem, was in einem früheren Beitrag dazu gesagt wurde, hier anwendbar. Wie die Elektrotechnik aus der Physik, so ist die Informatik aus der Mathematik hervorgegangen. Wer das leugnet, ignoriert die geschichtlichen Tatsachen. Dennoch muss man fragen, ob nicht beide Fächer sich noch klarer trennen sollten als bisher. Das ist völlig undenkbar, werden viele an Hochschulen tätige Informatiker sagen. Sie sind davon sogar überzeugt, wie es ihre Altvorderen waren.

Wechselbeziehung zur Mathematik

In der Vergangenheit tat man so, als ob jeder Ingenieur oder Informatiker im Beruf ein Einzelkämpfer sei, der sich, in irgendeiner Einöde sitzend, mit einer Logarithmentafel oder einem Taschenrechner bewaffnet durchschlagen muss. Die meisten von uns arbeiten heute in Firmen, wo es nicht mehr nötig ist, dass jeder alles kann. Manche Firmen können sich außer Informatikern sogar Mathematiker leisten. Natürlich wird es weiterhin Mathematiker geben. Nur braucht nicht jeder Informatiker gleichzeitig ein guter Mathematiker zu sein, so wie nicht jeder Elektroingenieur ein guter Physiker sein muss. Die Trennung muss auch dann erfolgen, wenn Mathematiker (oder Physiker) deshalb leiden müssen, d.h. wenn ihr Einfluss abnimmt. Dass diese Art von Trennung nicht immer einfach zu vollziehen ist, ist klar. Das gilt für beide Seiten. Natürlich bleibt auch danach die Mathematik die Grundlage oder das Fundament der Informatik. Die Computerisierung setzt die Mathematisierung voraus. Aber nicht alles ist gleich wichtig. 


Mathematik und Informatik haben ganz verschiedene Aufgaben. Die Mathematik liefert Methoden und Werkzeuge zur formalen Beschreibung von Objekten und Abläufen der Algebra, Geometrie, Physik, Technik oder Wirtschaft. Chemie und Biologie sind weniger betroffen. Die Beschreibungen, welche die Mathematik liefert, sind deshalb meistens elegant, weil sie idealisiert sein dürfen. Die Informatik liefert Methoden und Werkzeuge zur Automation von Rechen-, Datenerfassungs-, Datenmanipulations- und Datenhaltungsaufgaben in Industrie, Wirtschaft, Wissenschaft, Verwaltung, Verkehr, Medien, Gesundheitswesen und im Privatbereich. Insbesondere finden sie Anwendung bei Positionierungs-, Strukturierens-, Transport-, Zuteilungs- und Fertigungsaufgaben. Die benutzten Beschreibungen müssen nicht nur der Wirklichkeit recht nahe kommen, sie müssen auch von endlich großen Rechnern in endlicher Zeit verarbeitet werden können. Es müssen daher immer Kompromisse zwischen Genauigkeit und Aufwand gefunden werden.

Viel gravierender noch sind die Unterschiede in der Denkweise. An einigen Beispielen sei dies illustriert. Die Informatik benutzt logische Prädikate zum Suchen und mathematische Funktionen zum Verarbeiten. Die Prädikate müssen alle entscheidbar und die Funktionen berechenbar sein. Andere kommen nicht vor, es sei denn man hat in der Spezifikation einen Fehler gemacht. Bei allen Iterationsverfahren müssen Informatiker wissen, dass sie entweder terminieren oder immer laufen. Eine unbestimmte Situation ist nicht akzeptabel. Deshalb müssen sie die mathematisch abgeleitete Aussage, dass es hier auch unbestimmbare Prädikate geben kann (Turings Halteproblem) bewusst ignorieren. Statt sich mit Grundsätzlichem zu begnügen, müssen sie nämlich alle Prädikate und Funktionen, die sie verwenden, schrittweise von unten nach oben genauestens analysieren und verifizieren. Es ist wie bei Medizinern. Obwohl es sich theoretisch um ein unlösbares Problem handelt, muss man Menschen helfen am Leben zu bleiben, solange es geht.

Manchmal decken sich die Sichtweisen. Um das Leistungsverhalten von Informatik-Systemen vor ihrer Fertigstellung abschätzen zu können, muss man die Komplexität von Funktionen abschätzen (im Sinne der Klassen O(n) oder O(n2)). Nicht die Rechenergebnisse sind dabei von Interesse, sondern das dynamische Verhalten. Dazu dient das Modellieren. Man möchte Zuschauer spielen und den Verlauf von Kurven betrachten.

Besonderheiten der Informatik

Ein wesentlicher Grund dafür, dass Automatisierung betrieben wird und dass Computer so erfolgreich sind, ist der Wunsch und die Notwendigkeit Komplexität zu verstecken. Das gilt auch für die mathematische Komplexität. Wer immer noch davon spricht, Komplexität zu reduzieren, weiß nicht wovon er redet oder hat revolutionäre Absichten. Er will alle Menschen gleich machen und allen gleiche Bedürfnisse, gleiche Güter und gleiche Wünsche zuweisen. Bessere Benutzbarkeit gibt es nur durch gesteigerte Komplexität. Das gleiche gilt für bessere Zuverlässigkeit und bessere Sicherheit.

Die Informatik ist ihrer handwerklichen Phase entwachsen. Immer weniger Informatiker schreiben noch optimierende Compiler, die mathematische und logische Gesetzmäßigkeiten ausnutzen. Für viele mathematische Berechnungen gibt es längst Standardwerkzeuge e.g. Mathematica. Man darf sie nutzen, ohne ihre Interna zu verstehen. Das gleiche erwarten wir Informatiker von Betriebswirten, Ärzten, Flugzeugpassagieren und Autofahrern, was Informatik-Produkte anbetrifft. 

 Interpolation

Man kann Probleme mathematisieren ohne Mathematiker zu sein, genauso wie man automatisieren kann, ohne Informatiker zu sein. Informatiker wissen, dass Verifizierung nur durch Redundanz in der Beschreibung ermöglicht wird (redundante Spezifikationen, Zusicherungen, Testfälle). So etwas ist Mathematikern zuwider; es kann nur Kopfschütteln verursachen. Interpolationen wie Extrapolationen sind nichts anderes als Spekulationen, und umgekehrt.

Was wir als Theoretische Informatik bezeichnen, ist meistens versteckte Mathematik. Interessant ist, dass es weder einen theoretischen Maschinenbau noch eine theoretische Mathematik gibt. Wie des Öfteren gesagt, wäre es schön, wenn wir Informatiker hätten, die eine Theorie der Informatik entwickeln würden (wie einige theoretische Physiker das für die Physik tun).

Auswirkungen auf das Studium

Mit Bologna verbanden wir Praktiker die Hoffnung, dass es gelänge auch das Informatik-Studium zu entrümpeln und zu straffen. Stattdessen verlängert es sich auf nahezu acht Jahre. Schuld daran ist weder die Politik noch die Bürokratie. Die Fachverantwortlichen scheinen dies zu wollen, indem sie den international sehr verbreiteten Bachelor-Abschluss abwerten und den Master zum Regelabschluss erklären. Es ist dies eine Rücksichtslosigkeit gegenüber der Jugend, der Wirtschaft und der Gesellschaft.

Es ist mein Eindruck, dass Mathematik immer noch rund 50% des Zeitanteils (Leistungspunkte) am Bachelor-Studium besitzt. Dieser Brocken kann und muss zurückgedrängt werden. Er verlängert das Studium in nicht vertretbarem Maße. Die Mathematik belastet Studierende mehr als andere Fächer. Sie lässt viele scheitern, die Mathematik nie brauchen würden, aber dringend im Markt gebraucht werden. 

Verbesserungen in der Ausbildung erfordern Spezialisierung, also Vertiefung. Es geht nicht, ohne dass Breite verloren geht. In Stuttgart gelang es Jochen Ludewig einen mehr konstruktiv ausgerichteten Studiengang (Softwaretechnik) zu etablieren. Er konnte dies nur, indem er alle Kurse, die Rechner-Architektur betreffen, eliminierte unter Beibehaltung der vollen Mathematik. Ich halte dies für die falsche Wahl. Stuttgarter Absolventen, die sich nur für Software interessieren, sind wie Ärzte, die kein Blut sehen wollen.

Wertvoll aus Sicht der Studierenden ist vor allem aktuelles Wissen, also Wissen, das in unserer Generation entstand. Dass Vorlesungen in Mathematik bei Professoren beliebt sind, kann daran liegen, dass man sie halten kann, ohne selbst Informatiker zu sein, ja ohne selbst neu nachdenken zu müssen. Man kann sich mit dem Stoff kaum blamieren. Man betet nur nach, was anerkannte Koryphäen zu Lehrbuchwissen erklärt haben. Vielleicht findet man auch noch die Übungs- und Prüfungsaufgaben irgendwo. Würde man über aktuell bedeutende Programmiermethoden, Datenorganisationen oder Rechnernetze unterrichten, müsste man das Geschehen im Markt verfolgen. Microsofts C#, Hasso Plattners HANA oder Googles GFS sind nur Beispiele.

Wer für das Leben junger Menschen Verantwortung empfindet, wird sich nicht mit dem Nachplappern alten Wissens zufrieden geben. Er wird sich bemühen, das zu tun, was bei den Auszubildenden zur Erreichung einer Lebensleistung und zur beruflichen Orientierung nützlich ist. Er wird sich auch nicht davon täuschen lassen, dass während einer Arbeitsmarkt-Hausse, ‒ so wie jetzt ‒ ihm alle Absolventen aus der Hand gerissen werden. Er wird sich fragen, wie sich die Qualifizierung laufend verbessern und das Studium effizienter gestalten lässt.

Veränderte Berufswelt

Im Vergleich zu früher haben wir heute – dank Informatik – zu jeder Tages- und Nachtzeit, an jedem Ort der Welt einen unmittelbaren und sofortigen Zugriff zu Wissen. Es handelt sich dabei nicht nur um das aktuelle Wissen aller Fachgebiete, sondern das Wissen aller Zeiten. Was Fachwissen betrifft, haben Hochschulen ihr teilweises Monopol verloren. Sich Wissen auf Vorrat anzueignen, ist überflüssig geworden. Das Wissen, welches man im Studium erwirbt, reicht für einen immer geringer werdenden Teil des Berufslebens. Umso mehr müssen junge Menschen Fähigkeiten entwickeln, komplexe Probleme zu erkennen, zu strukturieren und zu lösen. Sie müssen lernen Neues zu erfinden, Konzepte und Visionen zu entwickeln, ökonomische, soziale und ökologische Nebenwirkungen abzuschätzen und zu reduzieren. Schließlich müssen sie Menschen überzeugen und mitnehmen.

Die Mathematisierung und Computerisierung von Problembereichen schreitet fort. Informatiker sind gefordert, Gemeinsamkeiten und Unterschiede zu erkennen und zu berücksichtigen. Sie müssen als verantwortungsbewusste Professionals die nicht nur unter Laien grassierende Modellgläubigkeit und Berechnungsgläubigkeit durchbrechen. Wie einst der Club of Rome so extrapolieren Wissenschaftler aller Couleur immer wieder vorhandene Daten auf unzulässige Weise. Sie nehmen lineares oder exponentielles Wachstum an, also eine (mathematische) Welt ohne Störungen. Zuletzt waren es die schnellsten Programmierer der Welt, die bei Banken die waghalsigsten Algorithmen implementierten. Bertrand Meyer, ein in Zürich tätiger Kollege, hat neulich diese Denker gemeint, als er fragte, auf welche mathematische Funktion sie wohl tippten, wenn sie die Zahlenfolge 1, 4, 9, 16 sähen? Alle naiven Rechnernutzer glauben es zu wissen. Durch diese vier Punkte können unendlich viele Kurven gelegt werden. Das weiß (hoffentlich) jeder Informatiker, der sich mit den Grundlagen des Programm-Testens befasst hat.

Dass eine doppelte Abbildung von der Realität auf ein mathematisches Modell, und von dort auf die numerische Darstellung im Computer auch eine doppelte Fehlerquelle ist, wissen auch alle (gut ausgebildeten) Informatiker. Schließlich hängt der Lösungswert einer Gleichung von der benutzten Gleitkomma-Arithmetik ab.

Schlussgedanken

Wie lernt man all dies, was für ein erfolgreiches und verantwortliches Wirken als Informatikerin oder Informatiker dringend nötig ist? Sicherlich nicht durch noch mehr Mathematik oder mehr (aristotelische) Logik oder mehr (kantsche) Philosophie, sondern durch wesentlich vertiefte Informatik-Kenntnisse, plus etwas Ökonomie. Allmählich ist die Zeit reif, dass in der Informatik-Ausbildung Informatik-Wissen Vorrang bekommt gegenüber Wissen aus Fachgebieten, die zwar eine lange historische Tradition aber nur noch beschränkte Relevanz besitzen.

Gewisse Parallelen bestehen zu der Diskussion um die Rolle von Latein. Lange erschien es unverzichtbar. Nur so lerne man logisches Denken, hieß es. Meine Kinder kamen bereits ohne es aus. Ob meine Enkel ‒ sollten sie Informatik studieren ‒ mit weniger Mathematik auskommen werden als die heutigen Studierenden, ist fraglich. Bei der Generation danach bin ich es mir sicher.

Nicht nur drängen erheblich größere Teile eines Jahrgangs in akademische Berufe als bevor, wir benötigen auch mehr höher qualifiziertes Personal als in früheren Zeiten. Diese doppelte Aufgabe zu lösen, verlangt ein Höchstmaß an Flexibilität im Bildungssystem. Mir scheint, da müssen wir alle noch viel lernen. Mit Lernen ist hier gemeint neues Wissen zu erschließen.

Freitag, 14. Dezember 2012

Kann die Wissenschaft von der Praxis lernen?

Wenn ich diese Frage stelle, wissen die Kollegen, die mich kennen, bereits, worauf ich hinaus will. Vielleicht sollten sie dennoch etwas Geduld haben. Es könnte ja sein, dass ich Dinge sagen werde, die sie so noch nicht gehört hatten.

Wieso kann etwas überhaupt als Wissenschaft gelten, wenn es auf die Praxis angewiesen ist, um zu lernen? So werden vermutlich einige Leser fragen. Wenn sie aus der Informatik kommen, ist das nicht einmal verwunderlich. Die mathematische Erblast macht sich hier noch bemerkbar. Es gibt zweifellos einige Wissenschaften, für die Praxis-Feedback keine Bedeutung hat. Das liegt vielleicht sogar in ihrer Natur. Warum auch diese Wissenschaften – ich nenne bewusst keine Beispiele – trotzdem mit Steuermitteln unterstützt werden müssen, ist eine andere Diskussion. Beispiele im positiven Sinne sind neben der Medizin alle Ingenieurwissenschaften. Sie sind ohne Zweifel förderungswürdig. Es sind dies in Hartmut Wedekinds Worten halt Notwissenschaften, keine freien Wissenschaften.

Wenn wir die im Titel gestellte Frage bejahen, muss man  fragen, was und wie man lernen kann. Ich gebe nur ein paar Stichworte, zunächst zum ersten Themenkreis.

Es ist wichtig zu wissen, was echte Probleme sind. Für die Lehre mögen erdachte Probleme ausreichen. Wenn dies für die Forschung auch geschieht, ist dies zweifellos ein Mangel. Weiterhin ist es wichtig zu wissen, welche Lösungen und Verfahren funktionieren, und zwar wo und wann? Welche Kosten und Nebenwirkungen haben sie? Welche relative Bedeutung haben gewisse Anwendungen und deren Probleme, usw.

Viel schwieriger ist die Frage zu beantworten, wie die Wissenschaft von der Praxis lernen kann. Es ist eine Illusion zu glauben, dass Praktiker in Fachzeitschriften und auf Fachtagungen in genügendem Maße berichten werden. Das A und O ist, dass Wissenschaftler sich selbst darum bemühen, Projekte der Praxis zu verfolgen und auszuwerten. Je größer die Projekte sind, umso mehr lässt sich lernen. Erfolgreiche Projekte sollten dabei an erster Stelle stehen. Es ist psychologisch einfacher Menschen über ihre Erfolge reden zu lassen als über ihre Misserfolge. Zuerst sollte man wissen, was funktioniert. Das sollte an andere Fachleute übertragen und von ihnen nachgeahmt werden. Aber auch aus fehlgeschlagenen Projekten kann man lernen. Manche Leute meinen, dass man daraus sogar mehr lernen könnte als aus erfolgreichen. Es ist aber erheblich schwieriger. Im Endres/Gunzenhäuser (2010) heißt es (auf Seite 24): 
 
Fehlgeschlagene Projekte zu analysieren, ist andererseits eine unbeliebte Tätigkeit. In Deutschland erfolgen solche Analysen noch eher zufällig. Wenn dies dennoch geschieht, behalten die Betroffenen die daraus gewonnenen Lehren am liebsten für sich. Für die Informatik wäre es aber besser, wenn bei jedem großen Projekt zusätzlich eine wissenschaftlich geleitete Analyse stattfinden würde. Dies wäre eine lohnende Aufgabe für Hochschulen, die das so gewonnene Wissen an spätere Generationen von Informatikern weitergeben könnten. Eine positive Ausnahme in dieser Hinsicht ist Peter Mertens (2009). Er hat einige bekannte Projekte aus dem öffentlichen Bereich analysiert, darunter das größte europäische Informatikprojekt der letzten Jahre, die Erfassung der Lkw-Maut auf den deutschen Autobahnen durch die Firma Toll Control.

Im Jahre 2012 hat Mertens [2] diese löbliche Arbeit fortgesetzt und vertieft. Durch die Wiederholung des Themas betont Peter Mertens, wie sehr ihm dieses Anliegen am Herzen liegt. Im Gegensatz zu andern Kollegen begnügt er sich nicht mit akademischer Selbstbefriedigung. Für meine Begriffe beschränkt er sich aber sehr in seinen Aussagen, und zwar auf die betriebswirtschaftlich relevanten Aspekte. Eine vollständige Projektauswertung sollte alle Aspekte des Projekt-Management und des Technologie-Managements erfassen. Dazu gehören außer Kosten und Terminen auch angestrebte und erzielte Qualität und Produktivität, benutzte Methoden und Werkzeuge, nachgewiesene Benutzerfreundlichkeit und Sicherheit. Außerdem ist es notwendig, dass nicht nur einer sondern alle Hochschulkollegen in diese Richtung denken.

Die Praxis hat es ihrerseits schwer, wenn sie von der Wissenschaft nicht beachtet wird. Praktiker haben in der Regel nicht die Zeit, um zu reflektieren oder um an Übermorgen zu denken. Theoretiker müssen Theorien bilden. Sie müssen das Warum ergründen, und zwar in allen Dimensionen. Das ist wichtiger als die Beschreibung von Problemen oder Methoden zu verschönern. Leider haben viele der akademisch ausgebildeten Informatiker nur das Formalisieren oder Mathematisieren gelernt, nicht jedoch das Bilden von Theorien. Auch Erfinden wird noch nirgends gelehrt, so als ob wir es nicht nötig hätten. Schon wieder sind wir bei den Notwissenschaften gelandet!

Nur in der Frühzeit der Informatik bauten Akademiker Rechner oder Compiler selbst. Sie haben es für sich selbst getan. Die damaligen Erfolge und Erfahrungen flossen als Erklärbares (also Theorien) direkt in Lehrbücher und wurden als Wissen an Studenten transferiert. Der Stoff, der aus eigenen Projekten stammte, wurde verarbeitet und verallgemeinert. Allmählich ersetzte dieser Informatik-Stoff die Mathematik-Vorlesungen im Lehrplan. Aktuelles Wissen ersetzte Jahrhunderte altes Lehrbuchwissen. Das wiederum führte zu Fortschritten des Fachs im eigenen Land.

Walter Tichy forderte, dass wenigstens im Software-Engineering-Bereich keine Forschungsergebnisse ohne empirische Validierung veröffentlicht werden sollten. Er nahm deshalb Experimente mit Studierenden vor, wohl wissend dass diese nicht überzeugend sind, nicht echte Situationen darstellen. Um Größenordnungen besser wäre es, es könnten Erfahrungen aus echten Projekten gesammelt und ausgewertet werden. Hier setzen Dieter Rombach und das Fraunhofer-Institut in Kaiserslautern an. Von einer systematischen Analyse einer Vielzahl großer Projekte ist er noch weit entfernt. Eine mögliche Lösung wäre, dass zumindest alle öffentlichen Projekte ab einer gewissen Größenordnung verpflichtet werden, außer für Kunst auch einen kleinen Prozentsatz der Kosten für wissenschaftliche Begleitung und Evaluierung aufzuwenden. Das Ergebnis wäre zwar nicht so sichtbar wie die Kunst am Bau, aber hätte eine große Langzeitwirkung für das Land.

Längst werden kaum noch Informatik-Produkte in Deutschland entwickelt. Der Großteil wird importiert. Es besteht die Gefahr, dass es auch für gewisse Arten von Informatik-Anwendungen immer schwieriger wird, sie hierzulande für den Weltmarkt zu entwickeln. Wenn man mal von den betrieblichen Anwendungen absieht, deren Domäne nach wie vor SAP ist, dringt die Informatik gerade mit voller Wucht in den Bereich privater Anwendungen vor. Es sind zwei Richtungen von Anwendungen, die hier eine Rolle spielen. Es sind einerseits Massenprodukte, andererseits übergroße Systeme (engl. Ultra-large-scale systems). So gegensätzlich sie auch erscheinen, sie haben vieles gemeinsam. Es gibt keine klar definierten Anforderungen, noch gibt es einen planbaren Entwicklungsprozess. Ihr Markt ist riesig und ihre Lebensdauer beträgt Jahrzehnte. Sie sind nicht kontrollierbar und wachsen wie Pflanzen. Es handelt sich um komplexe technische und wirtschaftliche Prozesse, die automatisiert werden. Sie stellen das Rückgrat dar für leicht benutzbare Front-ends, häufig Apps genannt. Lehrbücher klassifizieren sie vielfach als Client-Server-Systeme. Das ist richtig aber viel zu ungenau.

Es ist kein Wunder, dass alle neuen Anwendungen, von denen in den letzten fünf Jahren die Rede war, nicht einmal aus Europa stammen. Namen wie Amazon, eBay, Facebook, Google, aber auch Apples iPhone und das iPad, werden bei uns vor allem von Kritikern öffentlich wahrgenommen. Wie Mertens mit Recht bemerkt, sind wir Deutsche in vieler Hinsicht besonders sensibel oder pingelig. Projekte mit gesellschaftlicher Relevanz müssen daher bei uns besondere Hürden überspringen (siehe Stuttgart 21). Von Steve Jobs, den ich in diesem Blog mehrmals gewürdigt habe, stammt die Einsicht, dass man Nutzer nicht nach Anforderungen fragen kann für ein Produkt, dass sie noch gar nicht für möglich halten. Als guter Ingenieur oder Informatiker muss man die Anforderungen der Nutzer antizipieren. Wie kann man das, ohne nah bei den Nutzern zu sein? ‚Nah bei den Menschen‘ sagen einige Politiker dazu.

Fazit: Die Wissenschaft kann nicht nur von der Praxis lernen, sie muss von ihr lernen. Machen wir in Deutschland keine interessanten und anspruchsvollen Projekte mehr, die es wert sind von Akademikern beachtet zu werden, dann muss es einem nicht nur um die deutsche Informatik bange werden, sondern um den Standort allgemein. Noch ist es nicht soweit.

Zusätzliche Referenzen

  1. Mertens, P.: Schwierigkeiten mit IT-Projekten der öffentlichen Verwaltung. Informatik Spektrum 32,1 (2009), 42-49
  2. Mertens, P.: Schwierigkeiten mit IT-Projekten der öffentlichen Verwaltung – Neuere Entwicklungen. Informatik Spektrum 35,6 (2012), 433-446

Freitag, 7. Dezember 2012

Mathematik – Gebieterin oder Gehilfin der Physik?

In Diskussionen, die ich in letzter Zeit führte, tauchte wiederholt die Frage nach der Rolle der Mathematik in der Physik auf. Es geht unter anderem darum, was Priorität hat,  ̶  also mehr Bedeutung, mehr Aussagekraft  ̶  die Phänomene, die physikalischen Gesetzen zugrunde liegen, oder ihre mathematische Beschreibung. Anders ausgedrückt, ist Mathematik die Grundlage (oder das Fundament) , auf der die Physik beruht, oder ist sie (nur) ein Hilfsmittel zu ihrer Beschreibung? Ist sie  ̶  bildlich gesprochen  ̶  Gebieterin oder Gehilfin, Herrin oder Dienerin? Für mich ist die Antwort relativ klar. Ich weiß, dass nicht alle Leute so denken. Deshalb versuche ich im Folgenden meine Gedanken zu dem Thema darzulegen, selbst auf die Gefahr hin als Wissenschaftstheoretiker beschimpft zu werden. Ich werde auch das verkraften, nachdem mir bereits vor Jahren der Titel eines Querdenkers verliehen wurde. Wenn bei meinen Ausführungen die Weltsicht eines ehemaligen Ingenieurs durchschimmert, ist dies nicht Zufall sondern eher Absicht. Betrachten wir kurz die Begriffe.

Physikalische Gesetze und mathematische Algorithmen

Ein physikalisches Gesetz drückt Zusammenhänge aus zwischen Zuständen und deren Änderungen in einem physikalischen System einerseits, und physikalischen Einflüssen andererseits. Die Einflüsse, die gemeint sind, sind Veränderungen in Bezug auf physikalische Größen (Parameter, Variablen) wie Helligkeit, Temperatur, Druck, Feuchtigkeit, elektrische Spannung, magnetische oder mechanische Kraft usw. Nur solche physikalischen Phänomene können als Gesetze definiert werden, die auf wiederkehrenden Beobachtungen basieren oder durch wiederholbare Messungen (z.B. Experimente) belegt sind. Diese müssen so zuverlässig und genau sein, dass daraus Vorhersagen gemacht werden können. Beispiel für wiederkehrende Phänomene sind Sonnen- und Mondfinsternisse. Nicht vorhersagbar sind Vulkanausbrüche und Windbewegungen.

Physikalische Gesetze können in Worten ausgedrückt werden oder durch einen mathematischen Apparatismus beschrieben werden. Als Beispiel sollen die Fallgesetze dienen. Manche glauben, dass die Formel

s = ½ g*t2

mit s als Strecke, t als Zeit und g als Gravitationskonstante bereits alles ausdrückt. Dazu ist zu sagen, dass g keine Konstante ist, sondern vom Ort der Messung abhängt. Es fehlt die Aussage, dass schwere und leichte Körper gleich schnell fallen und dass die Bewegung in Richtung Erdmittelpunkt erfolgt. Dass kein Luftwiderstand angenommen ist, wird meistens auch unterschlagen.

Der Grund, warum so vieles fehlt, ist nicht nur die Tatsache, dass es hierfür keine geschlossene Formel gibt. Meist sind es komplexe Berechnungen, die zum Ziel führen. Nicht selten handelt es sich dabei um iterative Verfahren. Fast immer geht es  ̶   mathematisch gesehen  ̶   um Abbildungen zwischen Mengen, Funktionen genannt. Der genauen Berechnung der zugehörigen Werte dienen Algorithmen. Es gibt übrigens für die gleiche Funktion meist mehrere Algorithmen. Außerdem haben Informatiker Hunderte verschiedener Notationen (meist Sprachen genannt) erfunden, um Algorithmen zu spezifizieren. Da nur ein geringer Teil der physikalischen Gesetze als geschlossene Formeln ausgedrückt werden kann, betrachte ich einen Algorithmus als den Normalfall. Ein 2500 Jahre altes (leider nicht aus der Physik stammendes) Beispiel eines einfachen Algorithmus ist die Bestimmung des größten gemeinsamen Teilers zweier ganzer Zahlen, auch Euklidischer Algorithmus genannt. Die wichtigsten Elemente eines jeden Algorithmus sind Fallunterscheidungen und Iterationen. Sehr oft kommt vor, dass man gar keinen Algorithmus kennt oder dass der exakte Algorithmus zu komplex ist. Dann beschränken sich Physiker oft auf die Angabe gewisser Eigenschaften, die eine exakte Beschreibung erfüllen muss. Diese Aussagen nennt man oft Axiome. Genau genommen sind es Bruchstücke einer (mosaik-artigen) Spezifikation. Je weniger Axiome angegeben werden, umso vager ist eine Definition. Es gibt viele Objekte, die sie erfüllen. Werden zuviele angegeben, kann es sein, dass es in unserer (dreidimensionalen) Welt keine Objekte gibt, die alle diese Axiome gleichzeitig erfüllen. In der Informatik stehen axiomatische Definitionen bei Akademikern hoch im Kurs wegen ihrer Prägnanz. Bei Praktikern spielen sie eine untergeordnete Rolle, weil man nie weiß, ob sie vollständig sind. Im kollektiven Gedächtnis hat sich Tony Hoares axiomatische Definition von Pascal [2] auf weniger als 50 Seiten festgesetzt. Die Wiener Definition von PL/I mit Hilfe der Interpretation durch einen abstrakten Automaten umfasste dagegen rund 1100 Seiten. Der Unterschied kam weniger vom Umfang der beiden Sprachen  ̶   wie es die Folklore verbreitete  ̶   sondern von dem, was Hoare alles nicht definiert hatte. Was davon absichtlich geschah oder unabsichtlich, das sei dahingestellt. Ob es hier Parallelen zwischen Physik und Informatik gibt, weiß ich nicht. Vorstellen kann ich es mir.

Diskussionsfragen im Detail

Nach der Klärung der relevanten Begriffe nun zurück zu der oben erwähnten Diskussion. Eine Frage ist, was war zuerst, das Phänomen oder das explizierte Gesetz, meist in Form eines Algorithmus, oder wo der nicht verfügbar ist, in Form von Axiomen? Vermutlich doch das Phänomen. Der Algorithmus ist immer Menschenwerk. Die Axiome auch. Sie wurden nachträglich erfunden, nicht entdeckt. Sie sind nicht inhärent. Vor allem sind sie nicht der Grund, warum das Gesetz gilt, nicht die Ursache. Dafür wird eine Theorie benötigt. Theorien kann jedoch die Mathematik nicht liefern, obwohl alle mit Mathematik sich beschäftigenden Physiker (und Informatiker) sich als Theoretiker bezeichnen.

Es folgt die Frage, wem ist mehr zu trauen? Vermutlich doch der Beobachtung, sofern sie sorgfältig gemacht und mögliche Fehlerquellen eliminiert wurden. Dass Algorithmen nicht immer fehlerfrei sind, lernt jeder Informatiker sehr schnell. Wie kann man mehr über die Natur lernen? Wohl eher durch präzisere Beobachtungen und Messungen als durch Analyse der mathematischen Beschreibung. Nur bei Messungen können Schwankungen festgestellt werden, die vorher nicht auffielen. Sind diese von wiederkehrender Natur, muss das Gesetz abgeändert werden. Es wird meistens eine zusätzliche Fallunterscheidung nötig sein.

Es sei noch einmal auf das Fallgesetz als einem der bekanntesten Naturgesetze hingewiesen. Die angegebene Formel drückt nicht nur einen Bruchteil unseres physikalischen Wissens über die gegenseitige Anziehung (Gravitation) zwischen zwei Körpern aus. Sie ist eine Näherungsformel, abgeleitet aus Newtons Gesetz und Messungen, die von Galilei und seinen Nachfolgern durchgeführt wurden. Warum ist es so schwer, die Berechnung auf mehr als zwei sich anziehende Körper auszudehnen, den Normalfall der Himmelsmechanik (Mehrkörper-Problem)? Vielleicht sollten wir uns die Welt als riesigen mechanischen Analogrechner vorstellen. Das Problem der Digitalisierung, das Informatikern neben der Programmierung so viele Aufträge verschafft, könnte umgangen werden, gelänge es diesen Analogrechner in mikroskopischem Maßstab nachzubauen. Der könnte dann nicht nur Schülern und Studenten dabei helfen Physik zu betreiben.

Spezifikation im Vorn- oder Nachherein

Im Gegensatz zu den Produkten menschlicher Ingenieure gibt es von der Natur keine Vorab-Spezifikation. Nirgends steht geschrieben, was die eigentliche Absicht des Schöpfers war. Das macht die Analyse so schwierig. Es ist wie bei Computern und Software-Systemen, die unsere Kollegen im ehemaligen Ostblock ohne Entwurfsdokumentation erwarben. Sie konnten nur Reverse-Engineering machen. Sie entwickelten darin sogar gewisse Fertigkeiten, bessere als wir Westler besaßen. Gegenüber der Natur sind Physiker und andere Naturwissenschaftler in genau dieser Rolle.

Viele Leute glauben daran, dass durch Analyse von Beschreibungen (oder Spezifikationen) auch Neues entdeckt werden kann. Abgesehen davon, dass man zu neuen Fragen an das Produkt (oder die Natur) angeregt wird, kann man Fehler in der Beschreibung aufdecken, ohne das Produkt selbst zu sehen. Dank der Wiener formalen Definition von PL/I sollen 80 Fehler ans Tageslicht gefördert worden sein. Das ist übrigens nur ein Bruchteil der Fehler, die von den Leuten gefunden wurden, die Compiler bauten. Solche Definitionsfehler können nicht behandelte Fälle sein, Grenzüberschreitungen oder Widersprüche. In der Natur gibt es keine oder nur harmlose Fehler, sonst würde sie nicht funktionieren. Es gibt jede Menge Redundanz und schlechte Lösungen, die meist nicht lange überlebten. Manche (Konstruktions-) Fehler in der Natur wurden schon vor Jahrmillionen eliminiert. Wenn wir die Natur beschreiben wollen, müssen die noch verbliebenen Fehler auch in der Beschreibung enthalten sein, sonst ist diese nicht vollständig.

Manchmal wird (im allegorischen Sinne) davon gesprochen, dass Gott Mathematiker sei oder über exzellente mathematische Fähigkeiten verfüge. Sonst hätte er das Weltall nicht erschaffen können. Unabhängig davon, ob man an einen göttlichen Schöpfer glaubt oder nicht, ist diese Annahme zwar schmeichelhaft aber gewagt. Welche mathematische Formel (chemische Formeln sind hier nicht gemeint) liegt etwa Aminosäuren zugrunde, welche den Mikroben (Viren und Bakterien)? Welche dem Vulkanismus, welche den Stürmen und Winden, den Sandkörnern, den Wassertropfen und den Tsunamis? Wenn es sie gäbe, wo sind sie?

Beschränkungen der mathematischen Sichtweise

Mit Mathematik kann man nur die Struktur eines Problems wiedergeben, nicht seine Bedeutung. Mathematiker hassen Semantik, wie der Teufel das Weihwasser. Der sehr bekannte Physiker Richard Feynman [1] sagt es so:

Der Physiker verbindet [im Gegensatz zum Mathematiker] mit all seinen Sätzen eine Bedeutung - ein äußerst wichtiger Umstand, den Physiker, die von der Mathematik her kommen, oft nicht richtig einschätzen.

Von der Mathematik kommende Informatiker hängen noch 50 Jahre nach Claude Shannon dem rein mathematischen Informationsbegriff der Nachrichtentechnik an. Alle längst vorgeschlagenen Alternativen werden ignoriert, weil sie nicht unabhängig vom individuellen Empfänger sind.

Die Welt der Physiker (wie die der Ingenieure) besteht nicht aus reinen Zahlen. Sie haben es fast immer mit Größen zu tun, denen eine Einheit oder Dimension zugeordnet ist. Es sind Meter, Gramm und Sekunden oder Ohm, Volt und Ampère. Das in der Mathematik so elementare Kommutativgesetz gilt nicht. Fünfzig Meter weit 10 Kilo zu tragen ist nicht dasselbe wie 50 Kilo über 10 Meter.

Jeder der physikalische Formeln benutzt, sollte sich klarmachen, von welchen Fehlern sie behaftet sein können. Es können Fallunterscheidungen fehlen, d.h. ihr Gültigkeitsbereich wird falsch gesehen. Es können aber auch Dimensionsfehler enthalten sein in dem Sinne, dass Äpfel und Birnen addiert werden, oder dass die Größenordnungen nicht passen, etwa dass das Vielfache 10 hoch 15 statt 10 hoch 25 einer Einheit gemeint war.

Stärken der Mathematik als Werkzeug

Wie jedes Fachgebiet so benötigt auch die Physik diverse Werkzeuge, will sie mit Laien oder unter Fachkollegen kommunizieren. Bei Laien, d.h. Schülern und Studenten, aber auch bei Experten stehen Filme hoch im Kurs. Sie können Abläufe visualisieren, sogar solche die es in der Natur gar nicht gibt. Erinnern möchte an den Tübinger Astronomen Hans Ruder, mit dessen ‚Einsteinfahrrad‘ man die Auswirkungen der Relativitätstheorie hautnah erleben kann. Hier gilt: Je toller die Grafiken, umso aufwendiger ist die Mathematik dahinter. Es handelt sich dabei meistens um analytische Geometrie, ein sehr reifes und anspruchsvolles Gebiet der Mathematik. Bei der Kommunikation mit Fachkollegen ist die Mathematik hilfreich. Nochmals zitiere ich Feynman [1]:

[Es ist] ein Jammer, dass es ausgerechnet Mathematik sein muss, und dass Mathematik manchen Leuten so schwerfällt. … Die Physik lässt sich in keine andere Sprache übersetzen.

Natürlich lässt sich nicht die ganze Physik in Mathematik übersetzen. Sonst bestünde ja kein Unterschied mehr; sie wären äquivalent. Es handelt sich vielmehr um eine partielle Abbildung. Das was geht, wird abgebildet; der Rest bleibt außen vor. Wer meint, Physik sei nichts als Mathematik, fällt leicht der Versuchung anheim zu glauben, man könnte die Welt demnächst ganz in Computern simulieren. Es ist dies derselbe Denkfehler, den KI-Anhänger machen, wenn sie behaupten, man könne menschliches Leben oder zumindest die menschliche Psyche per Computer nachbilden.

Physikalische Zusammenhänge auch mathematisch zu erfassen, soweit dies geht, ist äußerst nützlich. Darauf zu verzichten wäre völlig falsch. Auch wenn die Mathematik vielen Leuten als schwer erscheint, wir haben nichts Besseres. Ohne Mathematik kann es keine Anwendungen der Physik in der Technik geben. Die Technik, sei es im Auto, Flugzeug oder im medizinischen Gerät benutzt nur die Untermenge von Physik, die man beherrscht. Man beherrscht Physik, wenn man ihre Zustandsänderungen – wie oben ausgeführt  ̶  reproduzieren kann. Da hilft es, wenn sich die Zusammenhänge mathematisch ausdrücken lassen. Eine Theorie, also eine Aussage, warum etwas funktioniert, benötigt der Ingenieur zunächst nicht. Sie kann noch 50 Jahre später nachgeliefert werden.

Konkret: Mathematische Physik und Numerik

Als eigene Disziplin hat sich die Mathematische Physik etabliert. Sie befasst sich mit der mathematisch strengen Behandlung von Modellen physikalischer Phänomene. Die Übergänge zur theoretischen Physik, wo die Anforderungen an mathematische Strenge meist etwas schwächer gehalten werden, sind dabei fließend. Diese Aussagen stammen unkommentiert aus Wikipedia.

Von enormer praktischer Bedeutung ist die numerische Mathematik, kurz Numerik genannt. Ihr Aufgabengebiet ist die Konstruktion und Analyse von Algorithmen. Sie hat enge Berührungspunkte mit der Informatik. Vielfach überschneidet sie sich mit dieser. Während Mathematiker Algorithmen in abstrakter Zahlendarstellung untersuchen, müssen Informatiker berücksichtigen, dass alle Computer nur mit begrenzten Zahlenbereichen arbeiten. Typische Probleme sind

  • Anwendungen von Vektor- und Matrixdarstellungen
  • Lineare und nicht-lineare Gleichungssysteme
  • Interpolation und Approximation von Funktionen
  • Numerische Integration (Lösung von Differentialgleichungen)
Verfahren und Algorithmen, die hier eine Rolle spielen (und mit denen ich vor 50 Jahren selbst heftig zu kämpfen hatte) tragen Namen wie Gauß-Seidel (für lineare Gleichungen) und Runge-Kutta (für Differentialgleichungen). Später konnte ich zusehen wie Kollegen sich an Navier-Stokes-Gleichungen die Zähne ausbissen.

Zusätzliche Referenzen:

1. Feynman, R. P.: Vom Wesen physikalischer Gesetze, Piper 1993
2. Hoare, C.A.R., Wirth, N.: An axiomatic definition of the programming language PASCAL. ETH Zürich 1972

Dienstag, 4. Dezember 2012

Wedekind bespricht neues BPMN-Anwendungsbuch

Buchbesprechung von Hartmut Wedekind zu „Prozessgesteuerte Anwendungen, entwickeln und ausführen mit BPMN“ von Volker Stiehl. dpunkt Verlag, 2012.

Wie definiert man Neues? Am besten, indem man Altes aufzählt. Also zählen wir Altes auf, um das neue Buch zu charakterisieren: Was ist das Buch von Volker Stiehl „Prozessgesteuerte Anwendungen mit BPMN“ nicht.

Erstens: Es ist kein BPMN-Buch, davon gibt es einige. Zweitens: Es ist kein SOA-Buch, denn von SOA grenzt sich Stiehl methodisch drastisch ab. Kein Bottom-up-, sondern wie bei einem echten Anwendungszentrierten, eben ein Top-down-Ansatz, also von den Anwendungen zur möglichen Implementierung, und nicht umgekehrt. Drittens: Es ist kein SAP-Buch, obwohl NetWeaver als Implementierungsumgebung herangezogen wird. Aber eine technologische Basis ist unumgänglich, will man aus einer technischen Unverbindlichkeit herauskommen.

Stiehls neues Buch ist ein Methoden-Buch zur Entwicklungslehre von Geschäftsprozessen, dringend erforderlich in dieser explodierenden, aber methodenarmen Zeit. Wenn das Wort „Paradigma-Wechsel“ nicht mittlerweile inflationär benutzt würde, wäre man versucht, es zur Beschreibung heranzuziehen. Wir unterlassen Inflationäres.

In Ingenieurfächern, insbesondere im Maschinenbau, ist das Phänomen eines vollkommen methodischen Neuansatzes nach vielen Einzelforschungen bekannt. Wir erinnern an die Konstruktionslehren von R. Koller und Pahl/Beitz. Man besann sich im Maschinenbau der 80-iger und 90-iger Jahre, dass Konstruieren im Kern aus dem großen Gebiet des „problem solving“ stammt. Es ist ein Vorgehen, das interdisziplinär angelegt, sich erst langsam in vielen Einzelschritten einer technischen Realisierung nähert. Es gibt nämlich nur eine, und nicht die technische Lösung schlechthin, die es zu konstruieren gilt.

Wie soll man das Buch von Stiehl nennen? Ist es ein Lehrbuch, ist es eine Monographie? Beides wäre ungenau. Nennen wir es einen Fokus, auf den man sich in Zukunft in der Prozesswelt konzentrieren sollte. Die Amerikaner müssen Deutsch lernen, oder man übersetzt das Buch ins Englische, damit man auch jenseits des Atlantiks davon profitiert.

Nachtrag (Bertal Dresen):

BPMN heißt ‚Business Process Model and Notation‘; auf Deutsch 'Geschäftsprozessmodell und -notation'. Es ist eine grafische Spezifikationssprache in der Wirtschaftsinformatik. Sie stellt Symbole zur Verfügung, mit denen Fach- und Informatikspezialisten Geschäftsprozesse und Arbeitsabläufe modellieren und dokumentieren können. So viel ich sehe, basiert das Buch auf der Dissertation von Volker Stiehl. Diese war das Thema eines früheren Eintrags in diesem Blog, weshalb ich mich dem Wunsch des Kollegen Wedekind, erneut etwas Werbung zu betreiben, nicht widersetzen konnte.

Sonntag, 2. Dezember 2012

Wien 1900 – Geburt der Moderne

Dass Wien im ersten Drittel des vorigen Jahrhunderts viele Geistesströmungen wie in einem Schmelztiegel zusammenbrachte und damit unser Denken und unser Weltbild veränderte, haben viele schon längst vermutet. In Wien stand die Wiege der Moderne,  ̶  so sagt man  ̶  was Wissenschaft und Kunst betraf. Jetzt hat jemand diesen Anspruch zu belegen versucht, von dem ich es an sich nicht erwartet hatte, nämlich Eric Kandel. Der Gehirnforscher und Nobelpreisträger, der uns in diesem Blog schon einmal begegnete, hat als jüdisches Kind Wien 1939 im Alter von zehn Jahren verlassen müssen. Dennoch hat er seine große Liebe für die Stadt bewahrt oder wiederentdeckt  ̶  ungeachtet dessen was mit seiner Familie geschah. Sein in diesem Jahr vorgelegtes, 560 Druckseiten umfassendes Buch mit dem Titel Das Zeitalter der Erkenntnis ist eine einzigartige Hommage an seine Heimatstadt Wien. Der etwas lange Untertitel heißt: Die Erforschung des Unbewussten in Kunst, Geist und Gehirn von der Wiener Moderne bis heute. Der Haupttext wird ergänzt mit vielen teils sehr ausführlichen Fußnoten, einer Unmenge von Literaturreferenzen und über 200 Farbbildern.

Bei Kandel liegt die Besonderheit der Stadt Wien weniger bei den Gebäuden, den Gewohnheiten der Menschen oder den vielen großen Musikern, die dort wirkten. Für ihn ist es Wiens einmaliger Beitrag zu Geistes- und Kulturgeschichte der Menschheit, die ihn fasziniert. Natürlich ahnten es viele. Es war ihnen aber nicht so richtig klar. Für sie ist Kandels Buch ein wahrer Genuss.

Völlig unbescheiden hebt Kandel Wien 1900 auf eine Ebene mit dem Konstantinopel vor den Kreuzzügen, dem Cordoba und Toledo des 12. Jahrhunderts und dem Florenz der Renaissance. Es waren dies alles Blütezeiten, verursacht durch ein einmaliges Zusammentreffen von Kulturen. Nach dem Aufwallen demokratischer Unruhen um 1848 reagierte die österreichisch-ungarische Monarchie mit imposanten Bauten und politisch-sozialen Reformen. Es entstand die Ringstraße mit ihren Prachtbauten. Alle Volksgruppen erhielten Gleichberechtigung und Reisefreiheit. Sie strömten aus allen Regionen in die Metropole und versuchten dort den sozialen Aufstieg zu schaffen. Das traf in besonderem Maße auf die in ganz Osteuropa verstreuten jüdischen Mitbürger zu. Der Anteil der Juden an der Bevölkerung Wiens stieg zwischen 1869 und 1890 von 6,6 auf 12%. Wenn es den Titel damals gegeben hätte, wäre Wien Weltkulturhauptstadt geworden.

Die moderne Sicht der Welt wird oft als das Ergebnis von drei Revolutionen dargestellt. Nikolaus Kopernikus rückte die Erde vom Mittelpunkt an den Rand des Sonnensystems, Charles Darwin entthronte den Menschen gegenüber anderen Tieren und Sigmund Freud zerstörte das Bild der allzeit herrschenden Vernunft. Dass dieser dritte Schritt in Wien geschah, war nach Kandel kein Zufall.

Die Einführung moderner, d.h. wissenschaftlicher Methoden begann in der Medizin. Eine Koryphäe am Wiener Universitätskrankenhaus, Carl von Rokitansky (1804-1878), machte den Anfang. Er bestand darauf, dass alle Patienten, die an Erkrankungen innerer Organe starben, seziert wurden, um festzustellen, ob die vorher rein äußerlich gewonnene Diagnose stimmte. Man suchte die Wahrheit unter der Oberfläche – und zwar ganz bewusst. Diese Haltung färbte auf andere Gebiete ab, nämlich Psychologie, Soziologie und Kunst. Das Wissen aus Kliniken, Labors und Ateliers, aus Natur- und Geisteswissenschaften wurde vernetzt.

Wien um 1900 besaß andern Universitätsstädten gegenüber mehrere Besonderheiten. Es war zwar das Zentrum eines Vielvölkerstaates, jedoch klein genug, dass verschiedene Gruppen der Gesellschaft sich begegnen konnten. Vor allem Wissenschaft und Kunst konnten sich austauschten. Der Ort, an dem dies geschah, waren Salons und Kaffeehäuser. Salons standen nur gesellschaftlich akzeptierten Familien offen. Wie zuletzt im Spanien des 12. Jahrhunderts waren Juden in die Kommunikation voll eingebunden. Als Beispiel, das gleich am Anfang des Buches steht, dient der Salon des Ehepaares Emil und Berta Zuckerkandl. Er war Mitarbeiter von Rokitansky, sie war Schwägerin des französischen Politikers Clemençeau. In ihrem Salon traf sich Rodin mit Wiener Malern und Musikern.

Ausführlich wird dargestellt wie Sigmund Freud (1856-1939) und Josef Breuer (1842-1925) in der Behandlung von Hysterie-Patienten zusammenarbeiteten und identische Ziele verfolgten. Ihre Wege trennten sich, als Freud die Rolle der Sexualität in den Mittelpunkt stellte. Nach dem Tod seines Vaters frönte Freud seinem Interesse an Antiquitäten und seinen Traumdeutungen. Arthur Schnitzler (1862-1931) befasste sich wie Freud ebenfalls mit der Deutung von Träumen. Bei Freud entwickelte sich dies zum wesentlichen wissenschaftlichen Werkzeug und zum Schlüssel der Psychoanalyse, bei Schnitzler befruchtete es sein Schaffen als Künstler und Literat.

Von Schnitzler und Freud angeregt, hat das Maler-Trio Klimt, Schiele und Kokoschka eine neue Epoche europäischer Malerei eingeleitet. Sie malten, was Freud wissenschaftlich entdeckt hatte. Bei Gustav Klimt (1862-1918) verband sich der Jugendstil mit dem Expressionismus von Cézanne und dem Dekorationsstil des byzantinischen Ravenna. Seine Darstellung der biblischen Judith zeigt eine ‚femme fatale‘ in ungewohnter Kombination von Schönheit und Hintergründigkeit.


Gustav Klimt: Judith (Ausschnitt) 1901

Klimts Schützlinge, Schiele und Kokoschka, gingen wiederum ganz eigene Wege. Bei Egon Schiele (1890-1918) wurde Sexualität zum Grundthema wie bei Freud. Schiele und seine schwangere Ehefrau starben im Verlauf der Spanischen Grippe, einer der größten Epidemien aller Zeiten.


Egon Schiele: Umarmung 1917

Oskar Kokoschka (1886-1980) gebärdete sich als Oberwildling, der besonders gerne vorpubertäre Kinder malte, und bei Porträts von Erwachsenen die Farbe zerkratzte, nachdem er sie aufgetragen hatte. Alle drei versuchten, Freud folgend, die Reise ins Unbewusste anzutreten und zu zeigen, was unter der Oberfläche des Dargestellten abläuft. Klimt und Schiele starben in Wien, Kokoschka ging nach Dresden und später nach London und in die Schweiz. Erstarb in Montreux.


Oskar Kokoschka: Selbstbildnis 1918

Bei allen drei genannten Malern, aber auch in Arthur Schnitzlers Werk, kam ein Frauenbild zum Ausdruck, das weit über das von Sigmund Freud hinausging.

Stärker auf Philosophie, Mathematik und Naturwissenschaft wirkte sich eine Generation später der so genannte Wiener Kreis aus. Namen wie Carnap, Gödel, Tarski und Wittgenstein finden sich dort wieder. Auch Popper und seine ‚Logik der Forschung‘ sind hier einzuordnen. Weniger vertraut war mir das Wirken von Ernst Kris (1900-1957) und Ernst Gombrich (1909-2001), die als Kunstkritiker und Kunsthistoriker damit begannen, Kunst anhand seiner psychologischen Wirkung auf den Betrachter zu diskutieren. Auch die Neurobiologie wurde weiterhin von ehemaligen Wienern stark beeinflusst, so von Stephen Kuffler (1913-1980) und natürlich von Eric Kandel. Beide wirkten in den USA.

Dass bei einem Naturwissenschaftler vom Format eines Eric Kandel eine sorgfältige Bestandsaufnahme unseres derzeitigen Wissens über die Prozesse des Sehens, der Wahrnehmung und der Informationsverarbeitung im Gehirn nicht fehlt, liegt nahe. Um zu seinem eigentlichen Anliegen hinzuführen, liste ich nachfolgend die Überschriften aller Teile des Buches.

  • Eine psychoanalytische Psychologie und Kunst der unbewussten Gefühle
  • Die kognitive Psychologie der visuellen Wahrnehmung und der emotionalen Reaktion auf Kunst
  • Die Biologie der visuellen Reaktion auf Kunst
  • Die Biologie der emotionellen Reaktion auf Kunst
  • Die Entwicklung eines Dialogs zwischen bildender Kunst und Wissenschaft
Dass sich dahinter alles das verbirgt, was ich als besonders erwähnenswert empfand, kann man wirklich nicht vermuten. Es verrät aber viel von der Person und dem Erzählstil des Autors. Selbst wer keinen Bezug zu Wien oder der Kunst hat, wird auch die übrigen Teile des Buches lesenswert finden. Es werden immer wieder Querbeziehungen zwischen Biologie und Kunst gesucht und aufgezeigt. Die manchmal etwas penetrant wirkende Wiederholung schafft hin und wieder Längen, die man sich hätte sparen können.

Ehe ich auf Kandels eigentliches Anliegen näher eingehe, will ich einige Bonbons aus dieser umfassenden Tour d’horizon herausgreifen. Die visuelle Wahrnehmung ist ein Prozess, der fast alle Teile des Gehirns in Anspruch nimmt, so den Frontal- und Parietallappen, den Thalamus, die Amygdala und den Hypothalamus. Es werden immer nur Verhältnisse gespeichert und weitergeleitet, nicht absolute Werte (z.B. etwas heller, viel heller). Es werden laufend Hypothesen gebildet, die mit den eingehenden Reizen in Beziehung gesetzt werden. Auch diese Hypothesen sind (nach Francis Crick) symbolisch. Diese Hypothesen repräsentieren das Wissen über die Vergangenheit. Wir kombinieren laufend Erinnerungen mit Wahrnehmungen, top-down mit bottom-up. Information und Wissen fließt über getrennte Was- und Wo-Bahnen vom und zum Gehirn. Neuere Forschungen belegen, dass Kinder mit Regeln für Hören und Sehen geboren werden. Immer wieder wird auf die von Helmholtz bereits vertretene Auffassung hingewiesen, dass die meiste Kommunikation unbewusst erfolgt.

Danach geht es darum, was die Naturwissenschaften heute über Gefühle, Triebe, Träume, Bewusstsein, Willensfreiheit  und dergleichen wissen. Gefühle sind primitive Mechanismen der sozialen Kommunikation. Schon Sigmund Freud unterschied zwischen Lebenstrieben (Sexualität, Essen, Trinken) und Todestrieben (Aggression, Verzweiflung). Er sah in Träumen die getarnte Erfüllung triebhafter Wünsche. Beides wird heute noch weitgehend so gesehen. Fast ist man so weit, dass man Freuds Struktur der Psyche in Ich (Bewusstes Selbst inkl. Abwehrmechanismen), Über-Ich (Wertesystem der Eltern) und Es (das Unbewusste) im Gehirn lokalisieren kann. Bei Bewusstsein und Empathie werden Damasios Arbeiten angesprochen, bzw. die über Spiegelneuronen, die beide in diesem Blog bereits behandelt wurden. Der nächste Schritt besteht darin, Kreativität und Intuition biologisch zu erklären. Ob dabei das Fachgebiet Künstliche Intelligenz Hilfestellungen leisten kann, sei dahingestellt.

Auf der geisteswissenschaftlichen Seite brachten die 1930er Jahre die Kognitions-Wissenschaft hervor sowie die Gestaltpsychologie. Durch die ‚Eiserne Faust‘ des Behaviorismus (Watson, Skinner) wurde der Fortschritt allerdings behindert. Jedenfalls gehen Geisteswissenschaftler nach wie vor von der Irrationalität des Geistigen aus. Hier setzten die modernen Künstler an, nicht nur die Wiener. Sie versuchten Gefühle zu dekonstruieren und holten Konflikte aus dem Unbewussten an die Oberfläche. Seit rund 30.000 Jahren (seit der Venus vom Hohlefels auf der Schwäbischen Alb) habe die Kunst eine Funktion innerhalb der Evolution gespielt. Sie weckte Emotionen durch Übersteigerung und Verfremdung. So versetzt die Betrachtung eines Bildes (etwa der Judith von Klimt) verschiedene emotionale Systeme des Gehirns in einen spezifischen Zustand. Es wird heute diskutiert, ob die Höhlenmaler von Lascaux Autisten waren und ob ihre Sprachfähigkeit überhaupt schon entwickelt war. Die grafische und gestaltende Ausdrucksfähigkeit war möglicherweise früher vorhanden als die sprachliche.

Die erst jetzt sich bietende Möglichkeit, komplexe geistige Prozesse wissenschaftlich zu untersuchen, verspricht die Kluft zwischen Wissenschaft und Kunst zu überbrücken. Man spricht bereits von Neuroästhetik, womit gemeint ist, dass das Nervensystem entscheiden kann, was schön ist. Etwas erinnert das an Birkhoffs und Gunzenhäusers ‚Theorie der ästhetischen Form‘, die uns in diesem Blog begegnete.

Kandel folgt Freud indem er annimmt, dass die Psyche deterministisch bestimmt ist. Alle Vorgänge in ihr beruhen auf physisch Erlebtem. Er benutzt die Worte Psyche, Seele und Geist als Synonyma. Er fordert deshalb eine Biologie des Geistes, die die Psychologie miteinschließt. In dieser Biologie des Geistes gibt es keinen Platz für Religionen, auch nicht die jüdische. Kandels Anliegen ist nicht nur die Vereinigung von Biologie mit Psychologie, Kognitions- mit Neurowissenschaft, also von Natur- und Geisteswissenschaft. Es ist die Überbrückung zweier Kulturen (im Sinne von C.P. Snow). Wie wir wissen, gibt es in Wirklichkeit mehr als nur zwei Kulturen. Er sieht Gemeinsamkeiten zwischen Wissenschaft und Kunst darin, dass beide Reduktionismus betreiben. Sie bauen Modelle der Welt. Er hält einen Dialog zwischen Wissenschaft und Kunst für nicht einfach, aber wichtig. Wien 1900 hätte gezeigt, das es möglich ist.