Dienstag, 21. Februar 2017

Wunder, Wohltaten und Plagen der Informatik

Der Titel des Buchs ‚Sieben Wunder der Informatik‘ von Juraj Hromkovič von 2006 machte mich neugierig. Da das Buch zum Jahreswechsel als Teil eines günstigen Angebots des Verlags zu haben war, hatte ich einen Grund es jetzt zu lesen. Das Buch hat mir sehr viel Spaß gemacht und ich kann es nur empfehlen. Es hat mir mal wieder klargemacht, dass andere Leute oft ganz andere Sichten auf unser Fachgebiet haben, als ich mir dies in meiner Berufspraxis angewöhnt hatte. Hromkovič sieht die Informatik primär aus der Sicht des Algorithmenentwurfs. Es ist noch nicht lange her, da war dies einmal ein Teil der angewandten Mathematik. Manche Leute rechnen das Gebiet auch heute noch dazu. Beim Lesen fragte ich mich immer wieder, wann kommt eigentlich etwas, was man als Informatik im eigentlichen Sinne ansehen könnte, also etwas genuin Informatisches. Ich werde zunächst Hromkovičs Ideen kurz vorstellen, dann werde ich versuchen, etwas darüber hinauszublicken.

Erstaunliches aus der Algorithmik

Nach den sieben im Titel versprochenen Wundern musste ich etwas suchen. Im Text war nur das erste auch als Wunder bezeichnet. Bei allen andern habe ich aus der Beschreibung geschlossen, dass dies wohl auch das Prädikat Wunder bekommen haben müsste. Es ist nicht auszuschließen, dass ich schon mal danebengegriffen habe. Hier also die Liste der ‚sieben Informatik-Wunder‘:
  1. Randomisierung von Algorithmen: Dass Algorithmen durch Nutzung von Zufallszahlen verbessert werden können, grenzt tatsächlich an ein Wunder. Man erzielt eine kürzere Laufzeit durch den Verlust der Sicherheit, das absolut beste Ergebnis zu haben. Bei bestimmten Verfahren verringert sich die Wahrscheinlichkeit eines Fehlers durch lineare Verbesserung exponentiell. Sie kann dadurch leicht unter die Fehlerwahrscheinlichkeit der Hardware (10 hoch -18) gedrückt werden. Juraj Hromkovič arbeitet auf diesem Gebiet.
  2. Symmetrische Verschlüsselung: Das im Jahre 1976 veröffentlichte Verfahren nach Whitfield Diffie und Martin Hellman (Turing-Preis 2015) gestattet die symmetrische Verschlüsselung. Es ist jedoch nur bei passiven Boten sicher.
  3. Public-Key-Verfahren: Das im Jahre 1978 veröffentlichte Verfahren nach Max Rivest, Ron Shamir und Len Adleman  (Turing-Preis 2002) benutzt eine Einwegfunktion. Die Firma RSA ist weltbekannt geworden, vor allem wegen ihrer Patente. Ihr Verfahren ist heute in der Praxis nicht mehr wegzudenken.
  4. DNA-Rechner: Dass mit DNA-Molekülen gerechnet werden kann, ist im Prinzip klar. In chemischen Prozessen stehen Operationen wie Trennen, Zusammenfügen und Test auf Leer von DNA-Sequenzen zur Verfügung. Es wurde gezeigt, dass man damit Pfade in einem Netz suchen kann. Einzelne Operationen können allerdings Tage dauern, die Fehlerrate ist hoch (3%).
  5. Quantenrechner: Sie sind in aller Munde, besonders im Hinblick auf ihre Anwendung in der Kryptografie. Benachbarte Register sind in Superposition mit unterschiedlicher Wahrscheinlichkeit. Gerechnet wird mit 2 hoch n Qbits gleichzeitig. Quantenrechner bleiben spezielle Einzweckrechner. Sie werden Desktops und Smartphones nicht ersetzen. Sie müssen tiefgekühlt werden, um zu funktionieren. Sie sind sehr instabil, da sie mit der Umwelt interferieren können.
  6. Online-Planung (Scheduling): Die Zeitablaufsteuerung bezweckt das Erstellen eines Ablaufplanes (engl. schedule), der Prozessen zeitlich begrenzt Ressourcen zuteilt. Das Planen kann auch dann sinnvoll sein, wenn sich die Aufgaben dynamisch ergeben, etwa bei einem Notdienst.
  7. Simulated Annealing: ‚Annealing‘ heißt Ausglühen. Es ist ein seit Jahrtausenden angewandtes Verfahren, um Metall-Bindungen zu stärken. Metalle nehmen quasi ein heißes Bad mit anschließender Abkühlung. Als Simulation dieses Verfahrens gilt der so genannte Metropolis-Algorithmus.
Wie gesagt, es handelt sich bei der Algorithmik um ein zwar interessantes und zentrales Teilgebiet der Informatik. Man sollte es jedoch nicht mit der Informatik als Ganzer gleichsetzen. Woran ich dabei denken muss, soll in den folgenden Abschnitten angedeutet werden.

Erfreuliches dank Informatik

Noch wichtiger als die erwähnten sieben Wunder sind die Wohltaten oder Durchbrüche, die bewirkten, dass die Informatik eine unvergleichbare Breitenwirkung erzielte. Ich greife exemplarisch ein Dutzend heraus. Diese Liste ist bei weitem nicht vollständig. Leiten ließ ich mich von den herausragenden Leistungen einiger Kollegen, die dafür eine Anerkennung als Turing-Preisträger fanden. Die meisten dieser Leistungen sind Wohltaten nicht nur für das Fach Informatik, sondern für die gesamte Menschheit. Unsere Technik ist nämlich eine, die nach ihrem Nutzen für Menschen bewertet werden muss.    
  1. Frühe Programmiersprachen: Kein Kollege hat das Gebiet der Programmiersprachen mehr befruchtet als Niklaus Wirth (Turing-Preis 1984). Von ihm stammen  EULER, ALGOL-W, MODULA und PASCAL. PASCAL hatte einen großen pädagogischen Einfluss und bildete die Grundlage für mehrere heute im Einsatz befindliche Sprachen. Ken Iverson (Turing-Preis 1979) schuf die Sprache APL. Ihre sehr kompakte mathematische Notation bereitete den Weg für das interaktive Programmieren vor.     
  2. Objektorientierte Sprachen: Ole-Johan Dahl und Kristen Nygaard (Turing-Preis 2001) legten den Grundstein für die objekt-orientierte Programmierung mit der Sprache Simula. Die Konzepte Objekt, Klasse und Vererbung hatten hier ihren Ursprung. In Java hat Jim Gosling eine Trennung von Compile- und Laufzeit-Umgebung realisiert, die es erlaubt vorübersetzte Programme auf allen möglichen Gerätschaften zu nutzen. Java ist heute die wichtigste Programmiersprache.
  3. Rechnerarchitektur und Betriebssysteme: Mit Fred Brooks (Turing-Preis 1999) verbindet man das System/360. Hier wurde nicht nur das 8-bit-Byte eingeführt, sondern eine Vielzahl von Architekturkonzepten, die unsere ganze Branche beeinflussten. Gene Amdahl und Gerry Blaauw waren damals Brooks' Wegbegleiter. Brooks leitete später auch das Team, das das größte Software-Projekt seiner Zeit realisierte, das Operating System/360, kurz OS/360. Von den vielen Betriebssystemen der Frühzeit schälte sich Unix zum Defacto-Standard heraus. Es ist die Basis von IOS und Android, den beiden konkurrierenden Smartphone-Betriebssystemen. Seine Autoren waren Dennis Ritchie und Ken Thompson (Turing-Preis 1983).  Sie bestimmten wie fortan in der Branche über Programmierung gedacht wurde und wie Entwickler zusammenarbeiteten.
  4. Grafische Systeme und grafische Nutzungsschnittstellen: Dass Computer sich heute nicht auf den Umgang mit Zahlen und Texten beschränken müssen, geht zurück auf Pioniere wie Ivan Sutherland (Turing-Preis 1988). Für sein System Sketchpad schuf er die erste Grafische Nutzungsschnittstelle (engl. graphical user interface, GUI). Der Nutzer konnte am Bildschirm zeichnen und Objekte manipulieren, d.h. drehen, verzerren und verfärben. Einen weiteren wichtigen Schritt stellte die Erfindung der Computer-Maus durch Doug Engelbart (Turing-Preis 1997) dar. Statt durch eingetippte Befehle wurden fortan alle Objekte (Dateien, Programme, Texte) wie auf einem Schreibtisch hin und her geschoben.
  5. Transaktionssysteme und Datenbanken: Als Jim Gray (Turing-Preis 1998) und Andreas Reuter ihr Buch über Transaktionssysteme schrieben, glaubten sie noch, dass es außerhalb von Transaktionen keine ernsthaften Computer-Anwendungen gäbe. Für die Welt der langfristigen Datenspeicherung war Ted Codd (Turing-Preis 1981) eine Art von Messias. Sein Relationales Model löste im Laufe der 1980er Jahre alle andern Methoden der Datenorganisation ab.
  6. Entwurfs- und Testverfahren: Zu den erfolgreichen Entwurfsprinzipien in der Informatik zählt die so genannte Datenabstraktion. Man definiert Operationen möglichst ohne Bezug auf die Struktur der Daten. Die Grundlagen dieses Konzept gehen auf Barbara Liskov (Turing-Preis 2008) zurück. Beim Jahrzehnte langen Ringen um bessere Testmethoden erwies sich das Model Checking als Lichtblick. Es basiert auf Arbeiten von Ed Clarke, Allen Emerson und Joseph Sifakis  (Turing-Preis 2007). Das System wird in einer logischen Notation spezifiziert, gegen die das System durch Ausführung maschinell verglichen wird.
  7. Internet und Web:  Viele Zeitgenossen setzen heute Computer und Internet gleich. Das Transmission Control Protocol sowie das  Internet Protocol (TCP/IP), das Vin Cerf  und Bob Kahn (Turing-Preis 2004) entwarfen, ist die Basis des Internet. Das Konzept des Uniform Resource Locators (URL), das Tim Berners-Lee erfand, ebnete den sagenhaften Erfolg des Web. Dass das Suchen im Netz so leicht und dennoch so ergiebig ist, geht auf die Erfindung des Page-Rank-Algorithmus durch Sergey Brin und Larry Page zurück. Selten hat ein einzelner Algorithmus die Wirtschaft und Wissenschaft so verändert, wie Google bzw. Alphabet dies tun. Diverse technische Erfindungen wie das Komprimierverfahren MP3, beigetragen von Karl Heinz Brandenburg und seinen Kollegen, eröffneten den Online-Markt für Musik und Videos. Damit explodierten die Datenmengen. Das Gespenst namens ‚Big Data‘ überzieht seither die Welt.
  8. Robotik: Roboter sind Computer, die aktiv mit ihrer Umgebung interagieren oder sich bewegen. Roboter, die Rasen mähen oder Treppen steigen, oder selbstfahrende Autos machen von sich reden. Von der Vielzahl von erforderlichen Technologien sei nur das Maschinelle Lernen herausgegriffen. Dabei kommen in der Regel Neuronale Netze zum Einsatz. Handelt es sich dabei um mehrstufige Netze, spricht man von ‚Deep Learning‘. Manche aktuellen Erfolge werden dieser Technik zugeschrieben.
  9. Wikipedia: Als richtungsweisendes Projekt im Internet sei das Online-Lexikon Wikipedia erwähnt. Es bietet zurzeit etwa 40 Millionen Artikel in fast 300 Sprachen. Sie werden von einer Vielzahl von Autoren verfasst. Dabei werden sie fortlaufend bearbeitet und diskutiert. Alle Inhalte stehen unter freien Lizenzen. Sie sind nicht durch Copyright geschützt. Jimmy Wales ist der Initiator. Die Finanzierung erfolgt durch Spenden (engl. crowd funding).
  10. Endgeräte-Explosion: Nichts hat die Informatik bisher mehr verändert als der Erfolg der Smartphones. Es war Steve Jobs, der die Jahrzehnte alte Vision umsetzte, Telefone und Computer zu integrieren. Die Stückzahlen gehen bereits in die Milliarden. In Stadtstaaten wie Hongkong und Singapur überschreiten sie die Anzahl der Einwohner. Die Erkennung und das Übersetzen von natürlicher Sprache machen Riesenfortschritte. Es ist dazu kein Wunder mehr erforderlich, besonders im Anbetracht der überall verfügbaren Rechnerkapazität. Nur zur Illustration: Ich selbst  trage einen 37-GIPS-Rechner mit 64 Gigabytes Speicher am Gürtel beim Gang durch die Wohnung. Es ist dies das 250- bzw. 8000-fache einer Cray-1. Mein Smartphone ist ein iPhone 6s.
  11. Internet der Dinge: Um eine weitere Größenordnung können sich die Endgeräte verkleinern bzw. ihre Anzahl vergrößern, wenn wir an Sensoren denken, die mit dem Internet verknüpft sein werden. Es wird erwartet, dass durch diese Technologie die Fertigungsindustrie einen enormen Schub erfährt (Industrie 4.0).
  12. Geschäftsmodelle: Es war ein langer Weg von den ersten Großrechnern mit karger Software zu einer Industrie, in der Software ein eigenständiges Geschäft darstellte. Bill Gates gilt als einer der Pioniere, die sich dem Neuen gegenüber öffneten und davon profitierten. Auch dies war nur ein Zwischenschritt. Software kann heute ein Köder sein, um andere Produkte zu lancieren, oder eine erfolgreiche Suchmaschine ermöglicht ein Werbegeschäft bisher nicht dagewesenen Ausmaßes. Die Zahl möglicher unterschiedlicher Geschäftsmodelle füllt Bücher.
Übrigens treffen sich alle noch lebenden Turing-Preisträger in diesem Sommer in San Francisco. Einige der hier genannten Kollegen sind vielleicht Kandidaten für zukünftige Turing-Preise.

Bedrohliches aus der Informatik

Ehe ich als blauäugiger Optimist verspottet werde, möchte ich auch auf Probleme hinweisen, für deren Entstehung die Informatik verantwortlich ist. Es sind Plagen, d.h. Fehlentwicklungen mit bedenklichen, ja potentiell fatalen Folgen. Ich will nur ein halbes Dutzend erwähnen. 
  1. Offene Systeme: Die Möglichkeit, dass ein Hersteller sich frei an den Entwicklungsergebnissen anderer Hersteller bedienen kann, wird vielfach als hohes Gut angesehen. Manchmal möchte man nur auf einer Ebene einer mehrstufigen Produkt-Hierarchie konkurrieren. Es wird dadurch neuen Herstellern der Markteintritt erleichtert. Dass dadurch oft die Sicherheit der Nutzer beeinträchtigt wird, ist ein offenes Geheimnis. Steve Jobs setzte daher lieber auf geschlossene Systeme und war damit äußerst erfolgreich.
  2. Verschleierte Kosten: Die an Hochschulen übliche kostenlose Nutzung aller Investitionen in Geräte- und Netzkapazitäten wurde im Internet weitgehend als Modus übernommen. Dies läd zur massenhaften Verbreitung von Nachrichten und Informationen geradezu ein. Der Nutzer muss sich selbst gegen SPAM schützen. Dass dadurch das Geschäftsmodell ganzer Branchen (wie das der Verlage) gefährdet wird, wird achselzuckend in Kauf genommen. 
  3. Schadsoftware: Es wird sehr oft erst im Nachhinein darauf reagiert, dass es Nutzer gibt, die mittels Malware (Viren, Trojaner, Würmer, Phishing) ihre Ziele zu erreichen versuchen. Finanzanwendungen sind besonders gefährdet.
  4. Überwachung: Je stärker die Möglichkeiten der Kommunikation sind, desto größer wird die Gefahr gesehen, dass staatliche Institutionen oder private Organisationen diese nutzen, um die Bevölkerung zu überwachen oder zu manipulieren. Leicht wird hier auch ein zu negatives Bild gemalt.
  5. Energiekosten: Der Energieverbrauch elektronischer Geräte ist unverhältnismäßig hoch. Es wird geschätzt, dass etwa 10% des Stromverbrauchs Deutschlands auf Informatik-Geräte fällt. Als Entwurfsziel kam die Energieersparnis erst sehr spät zur Geltung. 
  6. Abfall: Die meisten Informatik-Geräte sind einer schnellen technischen Alterung unterworfen. Sie tragen damit zur Abfallschwemme bei.
Welche Gegenmaßnahmen zur Verfügung stehen, um sich gegen diese Gefahren abzusichern, soll hier nicht näher diskutiert werden.

Samstag, 11. Februar 2017

Philosophisches Geplänkel

In diesem Blog kamen auch hin und wieder philosophische Themen vor. Meist erfolgte die Anregung durch Freunde oder Leser. So ist es auch jetzt. Im Folgenden skizziere ich meine Interpretation einiger längst vergangener philosophischer Strömungen in Europa, wohl wissend, dass dies nicht unwidersprochen bleibt. Danach folgen einige weitere Bemerkungen über den möglichen Einfluss von Philosophen. Ergänzungen und Kommentare zu diesen Ausführungen sind erwünscht!

Philosophie-Geschichte

Der Französische Rationalismus (FR) wurde in die Welt gesetzt durch René Descartes (1596-1650) und später unter anderem von Gottfried Wilhelm Leibniz (1646-1716) vertreten. Die Auffassung des FR lässt sich vereinfacht wie folgt ausdrücken: Entweder gibt uns der Verstand eine Antwort, oder es gibt keine. Räsonieren wurde zum Modewort auch in den gebildeten Kreisen Deutschlands. Es bedeutete so viel wie ‚sorgfältig argumentieren‘ und basiert auf dem französischen Wort ‚raison‘, das sowohl für Verstand wie für Vernunft steht. (Man beachte die Feinheiten!) Heute hat ‚räsonieren‘ längst den Beigeschmack von nörgeln und motzen. Leibniz, ein gebürtiger Sachse aus Leipzig, hatte seine Begegnung mit dem FR während seiner Zeit im Dienste des Trierer (oder Mainzer) Bischofs in der Trierer Botschaft in Paris (1672-1676). Dort demonstrierte er seine Rechenmaschine und erfand nebenbei das duale Zahlensystem. (Beides hatte 270 Jahre später Einfluss auf den jungen Konrad Zuse.)

Der Angelsächsische Empirismus (AE), vertreten durch David Hume (1711-1776), sieht in der Sinneswahrnehmung die einzige Quelle der Erfahrung und damit des Wissens. Gefühlen und gedanklichen Einflüssen gegenüber sollte man vorsichtig sein, will man objektives und neues Wissen erwerben. Der Preuße Immanuel Kant (1724-1804) versuchte eine Brücke zu bauen zwischen AE und FR mit seinem (kantschen) Transzendentalismus (KT). Kant nimmt an, dass immer A-priori-Wissen erforderlich ist, um die Erfahrung zu leiten. 

Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind. Der Verstand kann nichts anschauen, die Sinne nichts denken. ... Der Verstand ist auf mögliche Erfahrungen beschränkt. Die Vernunft ist transzendent. ... Die Vernunft arbeitet architektonisch; sie sucht ein System.

So schrieb er 1781 in der Kritik der reinen Vernunft. Nach Kant ist dieses Wissen von außen, vermutlich von einem höheren Wesen vorgegeben. Die Grenze des Individuums wird transzendiert, also überschritten. Neben dem Verstand postulierte Kant im Gehirn des Menschen noch ein zweites Organ, Vernunft genannt. Wie ein Reiter auf einem Pferd, so sitze die Vernunft obendrauf und lenke (‚managt‘) den Verstand. Der Verstand schuftet so gut er kann, um mit den Sinneserfahrungen fertig zu werden. So wie Pferde ihren Reiter abwerfen können, so versuche der Verstand manchmal ohne die Vernunft auszukommen. Die Folgen sind meist eher unerfreulich.

Meine Einschätzungen und Vorlieben

Ich neige am ehesten zu AE (oh Wunder!). FR ist mir zu trocken und zu streng, KT ist zu gekünstelt. So frage ich die KT-Anhänger, wo wohl ein Baby oder Kleinkind sein A-priori-Wissen herhat. Ich bin überzeugt, dass auch Begriffe, also Denkstrukturen, ein Ergebnis früherer Erfahrung sein können. Schon beim Kleinkind arbeitet der Verstand und verarbeitet Sinneseindrücke. Verarbeiten heißt, alles in Gruppen oder Kategorien einzuordnen, was ähnlich aussieht oder ähnliche Eigenschaften hat. Das scheinen Kinder ohne fremde Hilfe zu tun. Die dazugehörigen Bezeichnungen oder Worte übernehmen sie anschließend von den Erwachsenen des Sprachraums, insbesondere auch von Altersgenossen  ̶  sofern diese (schon) welche haben. Wo soll das berühmte ‚moralische Gesetz in uns‘, das in Form des Gewissens auch im heutigen Rechtssystem verankert ist, herkommen, wenn nicht von der Gesellschaft, d.h. von andern Menschen? So fragen heute diejenigen, die weniger dem Idealismus zugeneigt sind als Kant. Soweit ich weiß, konnte die Gehirnforschung Kants Vorhersagen bisher auch noch nicht bestätigen.

Immerwährende Aufklärung

Wie kein anderer der hier erwähnten Philosophen machte Kant die Aufklärung zu seinem Anliegen. In seinem zwölfseitigen Text Beantwortung der Frage: Was ist Aufklärung? von 1784 schrieb er:

Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurteilt, u.s.w., so brauche ich mich ja nicht selbst zu bemühen. Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann; andere werden das verdrießliche Geschäft schon für mich übernehmen. Daß der bei weitem größte Teil der Menschen (darunter das ganze schöne Geschlecht) den Schritt zur Mündigkeit, außer dem daß er beschwerlich ist, auch für sehr gefährlich halte: dafür sorgen schon jene Vormünder, die die Oberaufsicht über sie gütigst auf sich genommen haben.

Man könnte meinen, Kant hätte etwas gegen Leute, die sich zu sehr an Bücher klammern oder die sich von Meinungsforschern oder (Unternehmens-) Beratern beeinflussen lassen. Dass er von Frauen eine etwas antiquierte Meinung hat, sei ihm verziehen. Bei Zeitgenossen, ja bei ganzen Kulturkreisen fragt man sich, ob oder warum sie bisher der Aufklärung entgehen konnten. Der arabische Raum scheint ein eklatantes Beispiel zu sein.

Eigentlich ist die Situation viel schlimmer. Fast gewinnt man den Eindruck, dass in vielen Kreisen und Gesellschaften, in denen das Gedankengut der Aufklärung eine feste Heimat gefunden hatte, die Dinge sich rückwärts entwickeln. In einigen Ländern, so in den USA, finden gerade Leute politisches Gehör, die sich öffentlich von der wissenschaftlichen Denkweise distanzieren. Wie weit dieser Trend geht und wie lange er anhält, ist eine der spannendsten Fragen unserer Zeit.

Philosophisches Quartett

Es gibt zurzeit zwei deutsche Philosophen, die wie keine andern es versuchen, die Philosophie aus ihrer akademischen Abgeschlossenheit heraus unter das breite Volk zu bringen. Es sind dies Peter Sloterdijk und Jürgen Safranski. Ihre Sendungen lassen sich bei Youtube immer wieder ansehen. Sehr empfehlen kann ich die Sendung mit dem Titel: Ist die Welt noch zu retten? Darin sind Franz-Josef Radermacher und Harald Welzer die beiden andern Gesprächspartner. Den Informatiker Radermacher brauche ich nicht vorzustellen. In seinem Interview in diesem Blog stellte er seine Initiativen wie die der Ökosozialen Marktwirtschaft und des Globalen Marshallplans vor. Ganz überrascht war ich dieser Tage, als ich vom Bundesentwicklungsminister Gert Müller hörte, dass er sich von Radermachers Ideen inspirieren lässt. Müller arbeitet derzeit sehr intensiv mit den Ländern der Sahelzone zusammen, um ihnen zu helfen, Perspektiven zu entwickeln, damit junge Menschen im Lande bleiben können, anstatt als Flüchtlinge ihr Heil in Europa zu suchen. Wenn Donald Trump mal wieder die Klimaschützer verhöhnt, muss ich an den Kollegen Radermacher denken. Das kann ihn nicht freuen.

Der Soziologe Welzer sieht die Entwicklungen erheblich kritischer als Radermacher. Er meint, dass  ‚der gegenwärtig praktizierte Lebensstil unserer Gesellschaft durch hypertrophes Wachstum seine eigenen Voraussetzungen konsumiere‘. Wer von beiden eher Recht hat, ist schwer zu ermitteln. Ist ein Warner erfolgreich, dann hat er oft selbst mit dazu beigetragen, dass seine Vorhersagen sich als falsch erwiesen. Jedenfalls ist es beruhigend, dass die Vorhersagen des Soziologen Thomas Robert Malthus (1766-1834) sich nicht genau so zu erfüllen scheinen wie vorhergesagt. Er hatte angesichts der Bevölkerungsexplosion (Maltusianische Falle genannt) eine Verarmung Englands vorhergesagt.

Weltveränderer und Ideologen

Philosophen (und auch Soziologen) waren schon immer bemüht, die Welt zu erklären. Einer von ihnen (Karl Marx aus Trier) wollte sie sogar verändern. Beides ist ihnen nicht zu 100% gelungen. Man kann das als Nachteil oder als Vorteil ansehen  ̶ ganz nach Standpunkt. Die Schwierigkeiten, die Weltveränderer manchmal hatten, ergaben sich daraus, dass die Welt nicht so war, wie sie glaubten, dass sie sei. Typischerweise scheiterten sie an der Psyche ihrer Mitbürger. Auf der gefühlsmäßigen Ebene der Menschen können Dinge eine Rolle spielen, die vom Verstand her nicht zu erklären sind. Man wird sich dessen immer mehr bewusst. Selbst anzunehmen, dass der Verstand zweier Menschen jeden Sachverhalt gleich erkennt und gleich bewertet, ist bereits sehr gewagt. Auch unter Philosophen gibt es Schulen und Schüler. Oft grenzen sie sich voneinander ab, indem sie sich gegenseitig der Ideologie bezichtigen.

PS. Dass die Stadt Trier hier mehrmals erwähnt wird, wird nur die Leserinnen und Leser überraschen, die nicht wissen, dass dies die Heimatstadt des Autors ist. Etwas Werbung für die Region sei mir gestattet. Übrigens, das Wort Geplänkel stammt aus dem Militärischen. Im übertragen Sinne ist es ein Wortgefecht von geringer Dauer.

Mittwoch, 8. Februar 2017

Kausalität, Emergenz und Evolution aus Sicht von Physik und Biologie

Schon mehrmals entwickelte sich aus einer Korrespondenz mit meinen Freunden Hans Diel (Sindelfingen) und Peter Hiemann (Grasse) ein Beitrag für diesen Blog. Oft trafen dabei unterschiedliche Betrachtungsweisen aufeinander. Dieses Mal geht es um drei interessante Begriffe, nämlich Kausalität. Emergenz und Evolution. Sie spielen in vielen Wissenschaften eine Rolle. Obwohl auch Beziehungen zur Philosophie bestehen, wollen wir uns auf die Sicht der Physik und der Biologie konzentrieren.

A. Kausalität

Bertal Dresen (BD): Für diese Diskussion möchte ich die Definitionen zweier Begriffe aus Wikipedia an den Anfang stellen.

Kausalität  ist die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse und Zustände. Determinismus ist die Auffassung, dass alle – insbesondere auch zukünftige – Ereignisse durch Vorbedingungen eindeutig festgelegt sind.

Zu den Philosophen, die sich mit Kausalität ausführlich befasst haben, zählt Mario Bunge (*1919). Ich habe vor 20 Jahren sein Buch über Kausalität (von 1987) mit Interesse gelesen. An einige markante Aussagen sei erinnert: Die Kausalität ist keine funktionale Beziehung, sonst ließe sich Vergangenheit und Zukunft berechnen. Sie ist eher wie ein Gleichungssystem mit vielen abhängigen und unabhängigen Variablen. Die Isolierung einer Kausalkette ist eine methodische Vereinfachung. Man berücksichtigt dabei nur eine Richtung und lässt alle Rückwirkungen außer Betracht. Das Ausschließen eines Teils der Ursachen ist das Erfolgsrezept jeder Wissenschaft. Aus meiner Sicht klingt dies schon etwas provozierend. In dem Wikipedia-Beitrag über Bunge heißt es:

Bunge legt Wert auf die Feststellung, dass durch die Quantenphysik zwar das Kausalprinzip, aber nicht das Determinismusprinzip verletzt wird. Unter dem Begriff der Determination lassen sich nach seiner Ansicht neben Kausalgesetzen auch Wahrscheinlichkeitsgesetze fassen, da letztere keineswegs völlig willkürlich und gesetzlos erfolgen.

Hans Diel (HD): In der Quantenphysik setzt Determinismus Kausalität voraus und nicht umgekehrt, wie Bunge meint. Die Quantenphysiker leugnen nicht die Kausalität in der Quantenphysik, wohl aber den Determinismus. Versuche eine deterministische Quantenphysik zu entwickeln (David Bohm), sind bisher gescheitert.

Ich benutze gerne den Begriff „Kausales Modell“. Der Begriff ist für mich aus drei Gründen wichtig: (1) Ausgehend vom EPR-Experiment und Bells Ungleichung entstand die Behauptung, dass „lokal kausale Modelle“ der Quantentheorie grundsätzlich nicht möglich sind. Dazu gibt es sehr viele Literatur. Fast immer wurde in der Literatur nicht genau definiert, was unter einem (lokal) kausalen Modell zu verstehen ist. (2) Ich propagiere seit einigen Jahren, dass physikalische Theorien, die nicht ein kausales Modell (lokal oder nicht-lokal) implizieren (d.h. aus denen nicht ein komplettes kausales Modell ableitbar ist), unvollständig und mangelhaft sind. (3) Basierend auf meinem Verständnis von einem kausalen Modell, lassen sich Begriffe wie „deterministisches Modell“, „lokal kausales Modell“ und „Emergenz“ sehr schön definieren. Nach meinem Verständnis hat ein kausales Modell drei Bestandteile:

(1) Eine saubere und komplette Definition der möglichen Systemzustände inklusive der Objekte, Parameter, Komponenten, etc..

(2) Die Auflistung der physikalischen Gesetze, die definieren wie aus einem Zustand S(t) zum Zeitpunkt t sich ein Zustand S’(t’) (t’>t) entwickelt. Die Liste der Gesetze muss vollständig sein, so dass jeder mögliche Ausgangszustand auch ein möglicher Eingangszustand sein kann. Da „kausal“ (für mich) nicht „deterministisch“ impliziert, dürfen die Gesetze auch Wahrscheinlichkeitsaussagen enthalten. Bei meiner detaillierten Definition eines kausalen Modells (siehe [1]) beschreibe ich auch die Form, in der die physikalischen Gesetze angegeben werden sollen. Das kausale Modell muss nur solche physikalischen Gesetze, die für die kausale Abfolge von Zustandsänderungen relevant sind, enthalten. Bei meiner Entwicklung eines kausalen Models der Quantentheorie (QT) stellte ich bald fest, dass damit eine Reihe von scheinbar wichtigen Gesetzen der QT nicht benötigt werden und dafür an anderer Stelle kausale Gesetzmäßigkeiten unvollständig bekannt sind. Dies betrifft zum Teil zentrale Konzepte der QT wie zum Beispiel Komplementarität, Welle/Teilchen Dualismus und die Rolle des Beobachters. Es ist sicher kein Zufall, dass diese Beispielkonzepte auch maßgeblich zur Unverständlichkeit der QT beitragen.

(3) Die zwei Komponenten (1) Systemzustand und (2) kausale Gesetze müssen noch durch einen übergeordnete Logik/Mechanismus (eine Art Metasemantik) zusammengefügt werden. In meinen Veröffentlichungen zu diesem Thema (siehe [1]) habe ich dazu eine „physics engine“ definiert.

BD: Wie ich weiß, benutzen Sie den Begriff Modell um zu betonen, dass Sie nur eine vereinfachende Betrachtung des physikalischen Geschehens vornehmen. Sie lassen einige Eigenschaften weg. Manche Autoren unterscheiden zwischen epistemologischer und ontologischer Unbestimmtheit oder Unschärfe. Im ersten Falle geht es um den Wissensstand der Menschheit, im zweiten um eine Unbestimmtheit in der Sache. Bei Ihren Ausführungen, aber auch bei der QT insgesamt, weiß ich nicht immer, um welche Art Unbestimmtheit es gerade geht. Können Sie dazu etwas sagen?

HD: Grob gesehen, gibt es unter den Physikern zwei unterschiedliche Interpretationen von Heisenbergs Unschärferelation:

Interpretation 1: Wir können nur in gewissen Grenzen den Ort eines Elektrons (als Beispiel für ein Partikel) KENNEN. D.h. unser WISSEN bzgl. des Orts eines Elektrons ist entsprechend der Unschärferelation prinzipiell begrenzt.

Interpretation 2: Das Elektron HAT keinen definitiven (d.h. punktgenauen) Ort, sondern belegt im Allgemeinen einen durch die Unschärferelation definierten Raumbereich. Jeder Versuch „den“ genauen Ort des Elektrons zu bestimmen (d.h. zu messen) resultiert darin, dass die Messung zwar einen punktgenauen Ort liefert, dieser jedoch zufällig (d.h. nicht-deterministisch) aus dem Raumbereich des Elektrons ausgewählt wird.

Bei meinen Ausführungen zur QT gehe ich immer von Interpretation 2 aus, kritisiere Interpretation 1 und lasse es aber offen, ob irgendwann eine deterministische QT gefunden wird.

BD: Mir scheint die Interpretation 1 epistemologisch zu sein, Interpretation 2 dagegen ontologisch. Das Thema zu vertiefen wollen wir uns ersparen.

Peter Hiemann (PH): Der Begriff 'Kausalität' im Sinne Ursache → Wirkung bezieht sich in der Biologie auf Wechselwirkungen zwischen biologisch aktiven Molekülen. Das Zusammentreffen von zwei biologisch aktiven Molekülen erfolgt nach dem Schlüssel-Schloss-Prinzip. Die Interaktion resultiert in der Produktion eines neuen Moleküls. Zur Beschreibung einer Abfolge von Wechselwirkungen ist der Begriff 'Kausalität' im Sinne Ursachen → Wirkungen ungeeignet. Die Vielfalt biologisch aktiver Moleküle und die vielfältigen Zustände biologisch aktiver Systeme ergibt eine unglaubliche Vielfalt möglicher biologischer Wechselwirkungen, die sich eindeutigen Zuordnungen im Sinne Ursache → Wirkung entziehen. Auf einer organischen Skala (von der Zelle bis zum Organismus) biologischer Systeme lassen sich im Allgemeinen keine algorithmischen Verfahren für Veränderungen angeben. Ich kenne aber zwei biologische Methoden, in denen das Prinzip Ursache → Wirkung zur Geltung kommt:

  • Der sogenannte 'genetische Code' regelt in gleicher Weise. für alle Lebewesen die Übersetzung von drei aufeinanderfolgenden Nukleotiden der DNA in Aminosäure-Moleküle (die Bestandteile der vielfältigen Proteine).
  • Das Immunsystem generiert Moleküle, mittels deren Struktur organisch fremden Zellen markiert werden können.

Noch ein Hinweis hinsichtlich biologischer Strukturbildungen. Das sehr große Molekül DNA repräsentiert das Archiv aller artspezifischen Gene, die sich im Verlauf der Evolution angesammelt haben. Bei biologischen Strukturbildungen kommt es weniger auf die Anzahl unterschiedlicher Gene an. Vielmehr kommt es darauf an, welche Gene mehrfach vorhanden sind und welche Genkombinationen später zur Anwendung kommen. Die vielfältigen Funktionen des DNA-Molekül sind zum Teil (noch) unbekannt, insbesondere die Rolle der überwiegenden nicht codierenden sogenannten Müll-DNA-Anteile. Die DNA enthält alle möglichen 'Anweisungen' für die Produktion biologisch aktiver Moleküle, ist jedoch nicht das Programm, das die Abfolge von Wechselwirkungen festlegt. Die Abfolge biologischer Wechselwirkungen erfolgt auf (noch unbekannte) selbstorganisierende Weise.

Vielfältige Wechselwirkungen geschehen auch zwischen Zellen und bilden dadurch komplexe Organsysteme. Die Zustände dieser System entziehen sich algorithmischen Erklärungen im Sinne Ursache → Wirkung. Die komplexesten Organsysteme (z.B. das Gehirn) wird von einer unglaublichen Menge und Vielfalt spezieller Zellen gebildet: den Nervenzellen. Wechselwirkungen zwischen Nervenzellen erfolgen sowohl mittels biologisch aktiver Moleküle (Neurotransmitter) als auch mittels elektrischer Signale (Aktionspotentiale).

Medizinischen Techniken für Diagnose und Heilung (bzw. lebensverlängernde Methoden) verfahren nach dem Prinzip Ursache → Wirkung (wohl oft nach dem Prinzip 'Versuch und Irrtum'). Das ändert nichts an der Vorstellung, dass jede medizinische Behandlung, insbesondere unter Benutzung pharmazeutischer Substanzen, eine Reparaturmethode ist. Letztlich ist jede medizinische Behandlung auf die lebenserhaltenden Mechanismen eines gesamten Organismus angewiesen.

BD: Ist es nicht so, dass durch den Begriff der Wechselwirkungen die Frage nach den Ursachen, also der Kausalität, etwas verschleiert wird? Da es – zumindest in der klassischen Physik  ̶  keine Wirkung ohne Gegenwirkung gibt, erleidet ein Grippevirus, der mich ansteckt, doch bestimmt eine Veränderung. Vielleicht nimmt er zusätzliche Gene auf, oder er stirbt. Bei der Frage der Kausalität muss doch nach der Reihenfolge der Ereignisse gefragt werden, auch bei Prozessen, die sich im Nanosekundenbereich abspielen?

PH: Der von mir verwendete Ausdruck 'biologische Wechselwirkung' bedeutet lediglich, dass zwei biologisch aktive Objekte interagieren. Und zwar auf Grund 'passender' Strukturen. Biomoleküle unterscheiden sich durch Oberflächenstrukturen, die zueinander 'passen' oder nicht. Eine biologische Interaktion bewirkt keine Gegenreaktion, sondern resultiert in der Produktion eines neuen Biomoleküls, das seinerseits mit einem 'passenden' biologisch aktiven Objekt interagiert, usw. usw. Der Grippevirus, der Jemanden ansteckt, erleidet keine Veränderung. Er bedient sich der Biomoleküle einer Wirtszelle, um sich zu vervielfältigen. Später wird es dem Immunsystem gelingen, den 'Fremdling' als solchen zu markieren und zu zerstören.

B. Emergenz

BD: Mit dem Thema Emergenz hatten wir drei uns in Bertals Blog im September 2012 befasst. Anlass war ein Artikel von Michael Springer im Spektrum der Wissenschaft. Damals schrieb Hans Diel:

Ein zentraler Punkt der Definition von Springer ist das Verständnis, dass das was „emergiert“ nicht Systeme, Dinge, Zustände, Objekte sind, sondern Beschreibungen, Modelle, Sichten, Beschreibungsmöglichkeiten von Systemen, etc. Sein Beispiel mit der Beschreibung eines Systems in Begriffen von Temperatur, Druck, Entropie, etc. zeigt sehr schön, dass hier nicht das System selbst emergiert, sondern eine neue Art der Betrachtung.

HD: Allgemein spricht man, glaube ich, von Emergenz, wenn sich aus einem Zustand S(t) im Laufe der Zeit ein neuer Zustand mit neuen Objekten entwickelt. Die notwendige Präzisierung muss m.E. darin bestehen genauer zu definieren, was mit „neu entwickelten Objekten“ gemeint ist. Ich meine man sollte von Emergenz nur dann reden, wenn neue Objekttypen und/oder Strukturen entstehen, die neue Gesetzmäßigkeiten erfordern oder ermöglichen. (Reine Zusammenfassung oder Erweiterung bestehender Objekte zu größeren Konstrukten, denen man einen neuen Namen gibt, sollte nicht als Emergenz betrachtet werden.) Beispiele für neue Objekttypen die sich zum Beispiel erst nach einiger Zeit nach dem Urknall entwickelt haben sind Atome, Moleküle, Festkörper, Sterne, Zellen, Bakterien, etc..

Hinsichtlich kausaler Modelle, ist es oft notwendig und möglich für die Systeme mit den neuen Objekttypen und den neuen Gesetzmäßigkeiten neue kausale Modelle zu formulieren. Oft sind die neuen Objekttypen und die Gesetzmäßigkeiten so neu, dass man diese sogar in speziellen wissenschaftlichen Disziplinen studiert. Beispiele: Moleküle -> Chemie, Festkörper -> Festkörperphysik, Sterne und Galaxien -> Astrophysik, Zellen und Bakterien -> Biologie. Nach meinem Verständnis kann man bei all diesen Entwicklungen von neuen Objekttypen von Emergenz reden.

Soweit die Entwicklungen der neuen Objekttypen und Strukturen als Thema der Physik gesehen werden, sind die Entwicklungen (fast) immer mit sogenannten „Phasenübergängen“ verbunden. Die Physik und die kausalen Modelle für Phasenübergänge sind in der Regel mit der klassischen Physik der betroffenen Systeme nur schwer und unvollständig beschreibbar. Für diese Phasenübergänge hat man Theorien entwickelt, die an die Statistische Mechanik angelehnt sind. Beispielsweise hat man für die Phasenübergänge in der Quantenfeldtheorie, z.B. der Emergenz von Hadronen aus Quarks, die Gittereichtheorie (engl. Lattice Gauge Theory) entwickelt.

Ich bin nicht sicher, ob bei den Physiktheorien, die von Emergenz der Raumzeit sprechen (z.B. Causal Dynamical Triangulation), der Begriff Emergenz in dem von mir beschriebenen Sinn verwendet wird. Jedenfalls wird dort nicht der Übergang von einem System ohne Raumzeit zu einem System mit Raumzeit beschrieben, sondern die Zusammensetzung der Raumzeit aus elementaren (Raumzeit-) Elementen, Simplexes genannt.

Es gibt jedoch eine Theorie zur Entstehung des „leeren Raums“ als Teil der neueren Theorie zur Entstehung des Universums kurz nach dem Urknall. In [2] ist diese Theorie, die eine Reihe von Phasenübergängen beinhaltet, sehr schön beschrieben. Mit „Entstehung des leeren Raums“ ist dabei der Übergang von einem kompakten (kleinen) Universum, in dem der gesamte Raum dicht gepackt mit Teilchen war, zu einem Universum, in dem es Zwischenräume zwischen den Teilchen gibt, gemeint.

PH: Der Begriff 'Emergenz' bezieht sich auf systemische Phänomene. Bei einem emergenten biologischen Phänomen handelt es sich um eine Eigenschaft eines biologischen Systems, die nicht aus dem Zusammenspiel existierender biologischer Elemente erklärt werden kann. Und obendrein ist zu beachten, ob emergente Eigenschaften nur kurzfristig auftraten oder das Potential besaßen, in Folgegenerationen erhalten zu bleiben (sich zu vererben, sich durchzusetzen).

Ein Beispiel für ein herausragendes emergentes biologisches Phänomen war das 'Auftauchen' einer neuen Art Zelle, die zusätzliche kommunikative Eigenschaften einer Nervenzelle besaß. Nervenzellen können sich auf vielfältige und außerordentlich flexible Weise 'vernetzen' und auf vielfältige Weise Funktionen von Körperzellen beeinflussen (sowohl durch direkte Verbindungen als auch durch hormonell wirksame Moleküle).

Die wohl herausragende emergente Eigenschaft des Systems 'Erde' (Gaia) war das 'Auftauchen' eines 'lebensfähigen' Systems aus der Masse vorhandener auf der Erde existierender Atome unter speziellen Bedingungen. In der Frühzeit des Planeten Erde hat es vermutlich eine Menge verschiedener Biomoleküle gegeben, die miteinander interagieren konnten. Eine Arbeitshypothese vermutet, dass zu späterer Zeit ein einzelliges 'Wesen' aufgetaucht ist, das die emergente Eigenschaft besaß, sich selbst reproduzieren zu können. Dieses hypothetische 'Wesen' trägt die Bezeichnung LUCA (Last Universal Common Ancestor). LUCA ist demnach der letzte gemeinsame Vorfahre aller heute lebenden Lebewesen. LUCA hatte alle biologischen Eigenschaften, die notwendig und hinreichend waren, die biologische Evolution der biologischen Arten einzuleiten.

Eine wesentliche Voraussetzung für evolutionäre Entwicklungen und das 'Auftauchen' emergenter Eigenschaften eines Systems ist vermutlich, dass ein System eine hinreichend große Menge interagierender Elemente besitzt.

BD: Ich habe den Eindruck, dass auch beim Auftauchen neuer Eigenschaften ein ‚kreativer‘ Prozess abläuft. Wie soll ich mir den vorstellen? Ist es wie bei den Affen, die beim Hämmern auf eine Tastatur plötzlich ein Sonett von Shakespeare erzeugen? Also alles ein Werk des Zufalls?

PH: Biologen können bestenfalls spekulieren, welche Zufälle oder/und Umweltbedingungen eine Rolle bei der Bildung neuer biologischer Eigenschaften bzw. Funktionen gespielt haben. Es existieren zwei grundsätzlich unterschiedliche Annahmen, wie sich die unterschiedlichen Eigenschaften gebildet haben. Kreationisten postulieren, dass jede neue biologische Struktur und Eigenschaft nach einem vorgegebenen Design erfolgte. Danach können Affen kein Objekt 'Sonett Shakespeares' kreieren. Biologen postulieren, dass neue biologische Strukturen und Eigenschaften das Resultat fortlaufender ungerichteter evolutionärer Prozesse des Kopierens, des Variierens und des Selektierens sind. Danach besaß ein Nachfolger der Affen namens William Shakespeare die einmalige Eigenschaft, ein Objekt 'Sonett Shakespeares' zu kreieren.

BD: Ich nehme an, Sie wollen mir sagen, dass wir immer noch Schwierigkeiten haben uns vorzustellen, wie groß der Zeitraums tatsächlich war, den die Evolution bisher zur Verfügung hatte.

C. Evolution

BD: Beim Thema Evolution verwies ich in meinem Beitrag vom April 2012 darauf hin, dass wir seit Darwin die Vorstellung haben, dass es sich um eine Konkatination von einem Variationsprozess, einem Selektionsprozess und einem Stabilisationsprozess bzw. Replikationsprozess handeln muss, sollten wir das Wort Evolution verwenden dürfen. Dass Sterne sich von einer Staubwolke bis zum Schwarzen Loch entwickeln ist klar. Nur ist das kein (darwinscher) Evolutionsprozess.

HD: Man kann der Meinung sein, dass der Begriff Evolution nur in dem Sinn benutzt werden sollte, wie er in der Biologie verstanden wird. Man kann aber auch argumentieren, dass es den Begriff schon vor Darwin gab und deshalb die Benutzung des Begriffs im Sinne von „Entwicklung“ akzeptabel ist. Ich bin noch unsicher. Im Deutschen benutze ich den Begriff Evolution nur entsprechend dem Verständnis der Biologie. Im Englischen versuche ich den Begriff auch zu vermeiden, bin dabei aber nicht immer konsequent. Manchmal benutze ich „evolution“ alternativ zu „development“. Mein Deutsch-English Dictionary unterstützt diese Alternative.

PH: Der Begriff 'Evolution' (im darwinschen Sinne) bezieht sich auf Prozesse eines Systems, in deren Verlauf Elemente fortlaufend kopiert, variiert und selektiert werden. Die Evolution biologischer Systeme erklärt die Vielfalt biologischer Arten. Wesentliche Aussagen der Evolutionsbiologie sind:

  • Der Informationsfluss für evolutionäre Veränderungen geht immer von den Genen zu den Merkmalen einer Art, niemals umgekehrt.
  • Die Richtung der Veränderungen wird durch vier Evolutionsfaktoren bestimmt: (1) eine vererbbare Mutation generiert organische Veränderungen. Mutationen sind zufällig und unvorhersehbar, wobei zufällig insbesondere bedeutet, dass sie kein Ergebnis der Selektion sind. (2) Über genetische Rekombination entsteht Variabilität (3) Gerichtete natürliche Selektion bewertet Veränderungen. Sie gilt als der dominierende Evolutionsfaktor hinsichtlich der Adaptation eines  Individuums an aktuelle Umweltbedingungen. Die genetische Veränderung wird wieder eliminiert, falls sie sich nicht in einer Population durchsetzen kann. (4) Gendrift bewirkt eine einmalige, zufällige Veränderung der Allelfrequenzen

Der wissenschaftliche Diskurs beschäftigt sich heute im Wesentlichen mit den Details und den Rahmenbedingungen der Evolutionsfaktoren. Biologen berufen sich dabei auf folgende gemeinsame Prinzipien:

  • Die Evolution hat stattgefunden, dauert an und kann erforscht werden.
  • Sie ist nicht umkehrbar
  • Sie ist nicht determiniert und nicht auf ein Endziel oder einen Endzweck gerichtet
  • Sie wirkt auf allen Ebenen von Organismen, von molekularen Strukturen bis zum Ökosystem.

Vermehrte Aufmerksamkeit der Naturwissenschaftler (nicht nur der Biologen und Neurobiologen) gilt heute dem Begriff „Selbstorganisation“. „Selbst“ in dem Zusammenhang bedeutet nicht, dass sich ein System 'von selbst organisiert' sondern in der Lage ist, 'aus sich selbst heraus zu organisieren'.

Niklas Luhmanns Systemtheorie, ergänzt durch einen Mechanismus der sogenannten strukturellen Kopplung von voneinander abhängigen bzw. beeinflussenden Systemen, scheint ein plausibler Ansatz zu sein, selbst organisierende Systeme zu modellieren. Luhmanns Systemtheorie basiert auf der Vorstellung, dass bei Wechselwirkungen eines sich selbst organisierenden Systems, Teilsysteme ständig rekursiv aktiv sind. Luhmann bezeichnete diese Teilsysteme mit „Programmsystem“, „Interaktionssystem“ und „Funktionssystem“. Fällt eines der aktiven Teilsysteme aus, „stirbt“ das sich selbst organisierende Gesamtsystem.

BD: Es gibt doch Physiker – ich glaube Lee Smolin gehört dazu  ̶  die der Meinung sind, dass die Naturgesetze nicht immer dieselben waren, sondern eine Art von Evolution (im darwinschen Sinne) durchliefen. Warum soll eine Naturkonstante wie etwa die Lichtgeschwindigkeit c, die Gravitationskonstante g, oder das Plancksche Wirkungsquantum h sich nicht durch Mutationen und Selektion herausgebildet haben? Was halten Sie davon?

HD: Jede Physiktheorie, und damit jedes kausale Modell, hat einen bestimmten Anwendungsbereich bzw. Geltungsbereich. Im kausalen Modell ist dies reflektiert in (1) den Objekten die den kompletten Systemzustand darstellen und (2) in den Eingangsbedingungen (Input assertions) für die Zustandsübergänge. Wie oben beschrieben, ist das Standardbeispiel für die mögliche evolutionäre Entwicklung der Physik die evolutionäre Generierung neuer Universen mit jeweils unterschiedlichen physikalischen Konstanten (z.B. c, g, h) wie Lee Smolin spekuliert hat.

Angenommen, wir wären in der Lage die Ideen und Spekulationen Lee Smolins in eine ordentliche physikalische Theorie zu formulieren und dafür sogar ein kausales Modell zu erstellen. Der Systemzustand des entsprechenden kausalen Modells müsste dann neben den uns bekannten klassischen physikalischen Objekten (Raum, Zeit, Felder, Partikel, Atome, etc.) einen Objekttyp "Universum" enthalten. Einem Universum(-objekt) wären zugeordnet all die klassischen Objekte plus unterschiedliche Werte für die Naturkonstanten (c, g, h). Ein sauberes (formal vollständiges) kausales Modell müsste auch noch den Algorithmus/Prozess liefern der definiert, wie sich die Werte von (c, g, h) bei der Generierung von neuen Universen bestimmen.

Dieser Algorithmus muss nicht deterministisch sein. Er könnte in einem kausalen Modell auch nicht-deterministisch sein oder gar einen evolutionären Prozess repräsentieren. Wichtig ist: In dem Beispiel ist es nicht die Physik oder eine kausales Modell, welches sich evolutionär entwickelt. Es wurde nur gezeigt, dass in der Physik Prozesse denkbar sind, die Ähnlichkeit haben mit den evolutionären Prozessen, die aus der Biologie bekannt sind. Was sich im Beispiel evolutionär ändert, ist nicht die Physik, sondern die den Zustandsobjekten zugeordneten Parameter (c, g, h).

Noch ein Hinweis ist angebracht: Nicht zufällig ist das beschriebene Beispiel aus einem Anwendungsbereich der extrem spekulativ ist. In dem uns einigermaßen bekannten Anwendungsbereich (unserem Universum) hat man bisher für die Physik keine Prozesse gefunden die Ähnlichkeit haben mit den evolutionären Prozessen der Biologie. Andererseits, muss man zugeben, dass es in der Physik noch viele unverstandene Prozesse gibt. Vielleicht entdeckt man beim Schließen der Wissenslücken ja doch noch evolutionäre Prozesse (ohne dass man über die Generierung neuer Universen spekulieren muss).

Referenzen
  1. Diel, H. (2016): Are Local Causal Models of Quantum Theory Feasible at All?, arXiv:1604.03959v1
  2. Satz, L. (2016) Kosmische Dämmerung - Die Welt vor dem Urknall. München

Samstag, 4. Februar 2017

Ist nur der Islamismus ein Problem oder vielleicht sogar der Islam selbst?

Kaum ein Thema macht den Medien und den Menschen mehr Sorge als der internationale Terrorismus. Er beschäftigt sogar Donald Trump. Um mögliche Terroristen fernzuhalten verbot er gerade die Einreise aus einigen Ländern mit vorwiegend islamischer Bevölkerung. Hartmut Wedekind schrieb dieser Tage am Schluss seines Beitrags Über die Reputation des Politischen Islams in seinem Blog:

So gesehen ist der Spruch, das geflügelte Wort: “Der Terror hat nichts mit dem Islam zu tun“ ein Teil eines Märchens, in diesem Fall eines Arabischen Märchens. … Ratlos stehen wir in der Welt, was auch Samuel Schirmbeck in seinem Buch „Der islamische Kreuzzug und der ratlose Westen“ näher ausführt.

Ich hatte Schirmbecks Buch schon länger lesen wollen. Wedekind motivierte mich es jetzt zu tun. Ich kann allen Politikern und Journalisten dringend empfehlen, es auch zu tun. Für alle, welche die dafür nötige Zeit nicht aufbringen können oder wollen, gebe ich im Folgenden eine Zusammenfassung.

Über Autor und Buch

Samuel Schirmbeck (*1941) ging nach dem Abitur in Frankfurt 1961 nach Paris und arbeitete dort als Übersetzer bei der Presseagentur Agence France Presse (AFP). Als Sympathisant der 68er-Bewegung wurde er 1968 aus Frankreich ausgewiesen. Er arbeitete anschließend als Hörfunkredakteur beim Hessischen Rundfunk und studierte gleichzeitig Politikwissenschaften und Soziologie in Frankfurt. Ab 1991 baute er das ARD-Büro in Algier auf. Er berichtete 20 Jahre lang aus den Ländern des Maghreb (Algerien, Marokko, Tunesien). Er kehrte 2001 nach Frankfurt zurück und  ist seither als freier Mitarbeiter beim Hessischen Rundfunk und beim ZDF tätig.

Das Buch erschien 2016 und umfasst 288 Seiten. Es hat den Untertitel: Warum wir eine selbstbewusste Islamkritik brauchen.

Hauptthese

Das erste Kapitel ist überschrieben mit der Floskel: ‚Hat alles nichts mit dem Islam zu tun‘. Das sei eine Aussage aller Politiker in Europa  ̶  ja sogar von Papst Franziskus  ̶  insbesondere aber von Linken, wenn mal wieder ein Attentat die ganze zivilisierte Welt erschüttert. Die Menschen im Maghreb und im ganzen arabischen Raum wüssten dies aber besser. Sie hielten diese Aussage für eine glatte Lüge. Immer alle Schuld dem Islamismus zu geben und keine dem Islam greife eindeutig zu kurz. Im Rest des Buches versucht Schirmbeck zu erklären, wieso es zu derart divergierenden Auffassungen kommen konnte und kam. Die für unser aller Zukunft entscheidende Frage ist, was sich bei uns ändern muss, um aus der verfahrenen Situation herauszukommen. Vorweg einige von mir ausgewählte Informationen zu den drei Ländern.

Beispiel Algerien

Algerien ist ein Land mit etwa 40 Mio. Einwohnern. Unter dem Vorwand die Piraterie zu bekämpften hatte Frankreich 1830 das Land besetzt. Nach einem mit äußerster Härte geführtem Krieg erlangte das Land 1962 seine Selbständigkeit. Unter Ahmed Ben Bella und Houari Boumedienne wurde eine sozialistische Volksrepublik gegründet. Der wirtschaftliche Niedergang führte 1988 zu Ausschreitungen in der Hauptstadt Algier, die bald auf andere Städte übergriffen und Hunderte von Todesopfern forderten. Bei den Parlamentswahlen 1991/1992 zeichnete sich ein Sieg der Islamischen Heilsfront (frz. Front islamique du salut, FIS) ab. Darauf wurden die Wahlen abgebrochen. Im März 1992 wurde die Auflösung der FIS angeordnet, die daraufhin zum bewaffneten Kampf aufrief. Der Bürgerkrieg, der zwischen Islamisten und dem Militär geführt wurde, forderte über 120.000 Todesopfer. Der militärische Arm der FIS nannte sich Bewaffnete Islamische Gruppe (frz. Groupe Islamique Armé, GIA). Später entstand daraus – unter dem Einfluss Osama bin Ladins  ̶  die Salafistische Gruppe für Predigt und Kampf (frz. Groupe Salafiste pour la Prédication et le Combat, GSPC), die den „heiligen Krieg“ (Dschihad), gegen die algerische Staatsmacht wieder aufnahm. Der 1999 mit Unterstützung des Militärs zum Staatspräsidenten gewählte Abd al-Aziz Bouteflika konnte die gewalttätigen Auseinandersetzungen beenden. Er wurde inzwischen dreimal zum Präsidenten wiedergewählt.

Wegen der wirtschaftlichen und sozialen Probleme des Landes sowie der Unzufriedenheit mit den Leistungen des politischen Systems sind islamistische Bewegungen sehr aktiv. Sie sind jedoch zum überwiegenden Teil verboten und stellen eine Art außerparlamentarische Opposition dar. Seit 2001 herrscht ein allgemeines Demonstrationsverbot. Die Pressefreiheit ist spürbar eingeschränkt. Es gibt eine Zensur.

Beispiel Marokko

Marokko ist mit etwa 74 Mio. Einwohnern das größte der drei hier betrachteten Länder. Es war bis 1969 als Kolonie zwischen Frankreich und Spanien aufgeteilt. Marokko ist heute eine konstitutionelle Monarchie. Nach dem Tode von König Mohammed V. folgte ihm 1961 sein Sohn als Hassan II. auf den Thron, der einen Kurs der Westorientierung mit starker Anlehnung an Frankreich und das übrige Europa anstrebte. Sein Nachfolger König Mohammed VI. setzte im April 2004 eine Kommission ein, die sich mit der Aufarbeitung von Menschenrechtsverletzungen aus der Regierungszeit seines Vaters befassen sollte. Es kam zu öffentlichen Anhörungen, aber keinen strengen Strafen. Bei der Parlamentswahl 2011 gewann die Partei für Gerechtigkeit und Entwicklung (frz. Parti de la justice et du développement, PJD). In der Gesellschaft üben die islamischen Konservativen weiterhin einen starken Einfluss aus. Der König muss auf sie Rücksicht nehmen. Auch die Presse riskiert Angriffe sowohl von oben wie von der Straße. Es fehlt eine verlässliche Justiz.

Beispiel Tunesien

Tunesien ist mit 11 Mio. Einwohnern das kleinste der drei Länder. Es hatte 1956 seine Unabhängigkeit von Frankreich erhalten. Der Islam wurde zwar Staatsreligion, aber ohne Bezug auf die Scharia und mit völliger Gleichberechtigung der Frauen. Präsident des Landes war zuerst Habib Bourguiba und ab 1987 Zine el-Abidine Ben Ali. Er wurde im Jahre 2011 vertrieben, nach dem Ausbruch des so genannten Arabischen Frühlings. Der Selbstmord des Gemüsehändlers Mohamed Bouazizi löste Unruhen aus, die in Libyen und Ägypten zu einem Regimewechsel führten. In Tunesien kam in den nachfolgenden Wahlen die moderat-islamistische Partei Ennahda an die Macht. Es gab Attentate und versuchte Einflussnahmen von außen von Seiten konservativer islamischer Gruppen und Staaten (wie den Wahhabiten aus Saudi-Arabien). Die Verfassung Tunesiens gilt weiterhin als die liberalste eines arabischen Landes.

Islamische Orthodoxie und der Koran

In der 1400-jährigen Geschichte des Islams gab es Phasen der Liberalität und der Strenge. Im Mittelalter war Weintrinken und Musik erlaubt. Erst seit 25 Jahren ist es verboten. Es ist eine Form. die ihren Ursprung teilweise im Mittelalter bei Ibn Taymiyya (1263-1328) hat, ihre heutige Ausprägung bei den Wahhabiten und den Muslimbrüdern fand. Orthodoxie heißt zurückzugehen auf den Wortlaut der heiligen Texte. Rund hundert Jahre vorher wollte Averroes (1126-1198) die Vernunft einführen, und die Lehre weiterentwickeln. Er wurde in die Verbannung geschickt. Seine Schriften wurden verbrannt.

Schon im Koran stellt sich der Islam über alle andern Religionen. Als zuletzt offenbarte, sei sie die einzig wahre Religion. Sie bezeichnet Ungläubige als Frevler, die es zu strafen und zu vernichten gilt. Abtrünnige müssen mit der Todesstrafe belegt werden. Für den Islam gibt es keine säkulare Welt, keine Trennung von Kirche und Staat. Von den Orthodoxen wird die Unterwerfung von Politik, Wirtschaft, Wissenschaft und Kunst unter die Religion gefordert. Es ist die Unterwerfung, von der Michel Houellebecq in seinem gleichnamigen Roman spricht. Es wird immer wieder betont, dass Frauen keine Rechte haben. Sie müssen sich Männern unterordnen. Auch Homosexuelle werden ausgegrenzt.

‚Solange das Gottesbild so schlecht ist, kann das Menschenbild nicht besser werden‘. Dieser Satz stammt von dem auch in Deutschland bekannten algerischen Schriftsteller Kamel Daoud (*1970). Er wurde dafür Ende 2014 mit einer Fatwa bedroht. Nach den Übergriffen in der Silvesternacht 2015 in Köln beklagte er die Naivität des Westens, der die Gegensätze zwischen westlicher und islamischer Kultur herunterspiele. Er wurde daraufhin der Islamophobie beschuldigt. Sohaib Bencheikh (*1961), der Großmufti von Marseille, wies darauf hin, dass alle Attentäter und Verbrecher sich auf den Islam berufen, nicht auf den Islamismus. Es sei kein ironisches Gerede  ̶  meint Schirmbeck  ̶  wenn gesagt wird, dass auch Muslime ihrem außer Kontrolle geratenem Gott Grenzen der Vernunft und der Menschenrechte setzen müssten. Es fehle ihnen halt ein Voltaire.

Nicht nur die Aussagen des Korans, sondern vor allem der von ihm erlebte Alltagsislam hätten ihn betroffen gemacht, meint Schirmbeck. Er durfte weder Managerinnen noch Journalistinnen treffen. Auch der alltägliche, der gewöhnliche Islam sei tyrannisch, dogmatisch, und machistisch. Er könne unmöglich zu Deutschland gehören. Viele der Dinge, die den Islam auszumachen scheinen, seien Nebensächlichkeiten. Wenn immer er seine Gesprächspartner im Maghreb fragte, ob ihr Gott sich nur für die Kleiderordnung und das Essen und Trinken interessierte, seien sie nachdenklich geworden. Er sei doch sicher mehr als nur Friseur, Kleidermacher oder Koch. Auf einem Foto aus dem Jahre 1975 mit Arbeiterinnen in einer Lastwagenfabrik in Algier hätte er mit der Lupe nach Kopftüchern gesucht, aber keine gefunden.

Kämpfe gegen Glaubensgenossen

Solange wir uns weigern, Gewalt gegen Ungläubige im Koran zu verorten, kann sie sich ungehindert weiter ausbreiten. Aber nicht nur ihre Haltung gegenüber Ungläubigen sei ein Problem. Auch gegen die eigenen Glaubensbrüder setzten Muslime in einem Maße Gewalt ein, die uns abschrecken muss. Meist war der Grund eine geäußerte oder nur vermutete Abweichung von der orthodoxen Lehre. 


Von Muslimen begangene Attentate

Fast 100 Attentate, die vor 2005 stattfanden, listet Schirmbeck einzeln auf. Der schiitische Iran liegt noch vor allen sunnitischen Ländern. Auch der IS, der derzeit genauso wütet wie vor 20 Jahren die GIA in Algerien, beruft sich auf den Islam. Er tötet weit mehr Gläubige als Ungläubige. Ziel der Attentate des IS im Westen sei es, einen Bürgerkrieg auszulösen, indem er Nicht-Muslime wütend auf Muslime macht. Danach ließe sich der Westen erobern.

Fehlbeurteilung, vor allem durch Linke

Die europäischen Linken hätten sich seit 9/11 klammheimlich auf die Seite der Attentäter geschlagen. Peter Sloterdijk meinte, dass 9/11 dem Westen dazu diente, um das Wort Terror in die Welt zu setzen. Gregor Gysi und seine Parteifreunde lehnten es heute noch ab, Waffen an die Kurden zu liefern, um sich den IS vom Halse zu halten. In Mali sei es ein Krieg, der von den Franzosen begonnen wurde  ̶  so behaupten andere.

Die europäische und die deutsche Linke leugneten konsequent den Zusammenhang zwischen Islam und Islamismus. Dass Attentate auch in islamischen Ländern an der Tagesordnung sind, bringt die Linke nicht von der Idee ab, dass unser sozialer Umgang mit Ausländern schuld daran sei. Die Linke würde immer dann auch Diktaturen dulden, wenn sie anti-imperialistisch seien.

Gründe und Folgen des Fehlurteils

Die Islam-Verteidiger seien leider immer in der Mehrzahl gegenüber den Islam-Kritikern. Es gäbe mehr Orthodoxe als Selbstdenker. Nicht nur Linke fühlen sich als Beschützer fremder Kulturen, wenn sie gegen eine Islamkritik sind. Darin liegt eine große Täuschung. Diejenigen, die sagen, dass nicht auch der Islam Schuld haben könnte, hätten Angst als Islamhasser (oder Islamophoben) beschimpft zu werden. In Wirklichkeit würde eine offene Islamkritik sowohl der Pegida wie der AfD ihren Raum wegnehmen.

Die europäische Linke schiebt alles auf einen Gegner, der nicht erkannt werden kann. Statt das Problem an der Basis zu lösen, bekämpfen wir es mit Polizeikräften. Das greife daneben. Auf Dauer würden die Sicherheitskräfte überfordert sein. Eine geistige Gegenbewegung wäre nötig, aber die gibt es nicht. Dissidenten leben auch bei uns in Gefahr. Vielleicht interessiere sich die Öffentlichkeit deshalb nicht für sie, weil islamkritische Autoren meist keine Bärte tragen. Sie gebären sich nicht wie die üblichen Clowns des Circus Islamicus.

Die Bevölkerung nehme wahr, was im Namen des Islams passiert, in Madrid, London usw. Die Islam-Verbände täten nichts gegen einen Generalverdacht. Unsere Politiker glaubten, dass hier lebende Muslime eine Diskussion um einen besseren Islam nicht vertragen können. Viele Menschen glauben den Politikern nicht mehr, dass Islamisten sich an das Grundgesetz halten würden. Die so genannte Flüchtlingswelle enthält auch eine Chance. Die vielen Neuankömmlinge aus den arabischen Ländern können die Koran-Aussagen über die 'Leute der Schrift' (Christen und Juden) mit der Realität vergleichen, oder die Aufforderung Ungläubige auszurotten überdenken, wenn diese sie willkommen heißen. Auch Attentäter werden immer aufs Neue gezüchtet. Es ist die Angst ein schlechter Muslim (im Sinne der Orthodoxie) zu sein, die jemanden zum Attentäter machen kann.

Was sich ändern sollte

Der Hass auf alle Ungläubigen, den der Koran verlangt, muss abgeschafft werden. Vermutlich müssen wir die religiösen Texte umschreiben, ja säubern, damit der Islam Platz in der menschliche Zivilisation einnimmt  ̶  so sagt es der Philosoph Abdennour Bidar (*1971). Die Deutschen seien nicht islamophob, wenn sie gegen Gewalt, gegen die Unterdrückung von Frauen, und gegen die Bekämpfung von Homosexuellen, usw. sind. Nicht-islamische Deutsche und islamische Dissidenten erhofften alle eine klare Trennung zwischen Islam und Islamismus. Leider gäbe es diese Diskussion nicht, da die Islamverbände es nicht tun oder nicht tun können.

An ihnen scheiterten schon viele Freiheitssucher. Bassam Tibi (*1944) war ein Beispiel. Sein Euroislam fand kein Echo bei den Verbänden. Mouhanad Korchide (*1971), der an der Uni Münster einen Lehrstuhl für Islam-Wissenschaft innehat, schrieb ein Buch mit dem Titel: Gott ist Barmherzigkeit. Er möchte dem Angstmachen im Koran widersprechen. Seither möchten die Verbände ihn loswerden. Stattdessen diskutieren diese, warum Kopftuch, Hidschab (engl. Hijab) und Burka wesentlich sind für die freie Entfaltung der Persönlichkeit. In einer Gesellschaft, die Frauen respektiert, seien das Kopftuch und die Verschleierung überflüssig. Es gehe den Verbänden offensichtlich mehr um ein offensives Zurschaustellen der Religion als um alles andere.

Abgesang des Autors

Was in der Silvesternacht 2015 in Köln passierte, passiere in der arabischen Welt laufend. Bei einem Gang über einen deutschen Wochenmarkt, wunderte sich eine Besucherin aus dem Maghreb, dass sie innerhalb von zwei Stunden kein einziges Mal begrapscht wurde. Millionen von Mohammedanern haben die Chance zu sehen, wie es auch bei ihnen sein könnte. Wenn Europa wie Algerien und Marokko werden sollte, dann ist dies nicht auszudenken, geschweige denn, auszuhalten.  Die Angst von Tausenden, die vor dem (orthodoxen) Islam aus dem Maghreb oder dem Nahen Osten zu uns fliehen, oder unsere Angst vor der Islamisierung des Abendlandes, welche zählt mehr? Wir müssen eine Änderung des Islams erzwingen, um Europa zu retten. Ist Rick’s Café dieses Mal in Deutschland? Wow!